JP2021077072A - 情報処理プログラム、情報処理方法、および情報処理装置 - Google Patents

情報処理プログラム、情報処理方法、および情報処理装置 Download PDF

Info

Publication number
JP2021077072A
JP2021077072A JP2019203053A JP2019203053A JP2021077072A JP 2021077072 A JP2021077072 A JP 2021077072A JP 2019203053 A JP2019203053 A JP 2019203053A JP 2019203053 A JP2019203053 A JP 2019203053A JP 2021077072 A JP2021077072 A JP 2021077072A
Authority
JP
Japan
Prior art keywords
information
event
camera
imaging device
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2019203053A
Other languages
English (en)
Inventor
稜 大岡
Ryo Ooka
稜 大岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019203053A priority Critical patent/JP2021077072A/ja
Publication of JP2021077072A publication Critical patent/JP2021077072A/ja
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】発生した事象に関係する場所を容易に特定できるようにする。【解決手段】情報処理装置10は、位置情報を含むある事象に関する第1の情報の入力を受け付けた場合に、位置情報に基づいてある事象の発生場所を撮影範囲に含む第1の撮像装置を特定する(ステップS1)。次に情報処理装置10は、特定した第1の撮像装置が撮影した画像データに基づいてある事象に関する第2の情報を決定する(ステップS2)。さらに情報処理装置10は、第1の情報および第2の情報に基づいて、第1の撮像装置とは異なる第2の撮像装置を制御する(ステップS3)。そして情報処理装置10は、第2の撮像装置から受信した画像データに基づいてある事象への対処に関連する位置情報を出力する(ステップS4)。【選択図】図1

Description

本発明は、情報処理プログラム、情報処理方法、および情報処理装置に関する。
道路沿いには、交通状況を監視するために多くのカメラが設置されている。例えば高速道路には、高速道路のすべての範囲を撮影可能なように、多数の監視用のカメラが設定されている。監視用のカメラの数が多くなると、カメラで撮影した画像を監視者が目視で監視していたのでは、見落としが発生しやすくなり、監視する監視者への負担が過大となる。そこで多数のカメラで広範囲の監視を行う場合、カメラで撮影した画像を用いた道路の監視に、コンピュータを用いた情報処理システムが利用される。
情報処理システムを用いた監視技術としては、例えば、複数の撮影装置と解析装置を用いて移動物体追跡を行う際に、撮影装置間での同一物体の追跡をより低負荷で行うことを可能とする情報処理システムが提案されている。
特開2015−2553号公報
道路などの公共の場所の監視では、ドライバなどの一般個人からの通報によって道路上の事象(落下物、逆走車両など)の発生が判明することが多い。この場合、道路を遠隔監視する監視者は、ドライバからの曖昧な通報内容から実際の事象を把握し、その事象に関係する場所を特定することとなる。事象に関係する場所には、事象の発生場所に限らず、その事象の影響が及んでいる他の場所も含まれる。例えば渋滞が発生したのであれば、渋滞の始点または終点などが、事象「渋滞」に関係する場所に含まれる。そのため監視者は、モニタに画像を表示するカメラの切り替えや、遠隔操作によるカメラの旋回制御を行いながら膨大な量の画像を確認し、発生した事象に関係する場所を特定する。人手によるこのような作業は非常に繁雑であり、事象に関係する場所を特定するのに非常に時間がかかる。
1つの側面では、本件は、発生した事象に関係する場所を容易に特定できるようにすることを目的とする。
1つの案では、以下の処理をコンピュータに実行させる情報処理プログラムが提供される。
情報処理プログラムに基づいて、コンピュータは、位置情報を含むある事象に関する第1の情報の入力を受け付けた場合に、位置情報に基づいてある事象の発生場所を撮影範囲に含む第1の撮像装置を特定する。次にコンピュータは、特定した第1の撮像装置が撮影した画像データに基づいてある事象に関する第2の情報を決定する。さらにコンピュータは、第1の情報および第2の情報に基づいて、第1の撮像装置とは異なる第2の撮像装置を制御する。そしてコンピュータは、第2の撮像装置から受信した画像データに基づいてある事象への対処に関連する位置情報を出力する。
1態様によれば、発生した事象に関係する場所を容易に特定できるようになる。
第1の実施の形態に係る情報処理方法の一例を示す図である。 道路監視システムの一例を示す図である。 サーバのハードウェアの一例を示す図である。 通報者からの通報の一例を示す図である。 サーバの機能の一例を示すブロック図である。 カメラ位置情報の一例を示す図である。 通報情報入力画面の一例を示す図である。 通報された事象の調査処理の手順の一例を示すフローチャートである。 画像解析処理の手順の一例を示すフローチャートである。 画像解析の一例を示す図である。 渋滞調査の一例を示す図である。 渋滞調査処理の手順の一例を示すフローチャートである。 始点カメラ決定処理の手順の一例を示すフローチャートである。 終点カメラ決定処理の手順の一例を示すフローチャートである。 渋滞通知画面の一例を示す図である。 逆走車両調査の一例を示す図である。 逆走車両調査処理の手順の一例を示すフローチャートである。 逆走通知画面の一例を示す図である。 落下物/停止車両調査の一例を示す図である。 落下物/停止車両調査処理の手順の一例を示すフローチャートである。 落下物/停止車両通知画面の一例を示す図である。
以下、本実施の形態について図面を参照して説明する。なお各実施の形態は、矛盾のない範囲で複数の実施の形態を組み合わせて実施することができる。
〔第1の実施の形態〕
まず第1の実施の形態について説明する。第1の実施の形態は、何らかの事象を目撃した通報者からの通報に基づいて複数の撮像装置を制御して、事象に関連する位置情報を自動で出力するものである。
図1は、第1の実施の形態に係る情報処理方法の一例を示す図である。図1には、情報処理装置10を用いて、第1の実施の形態に係る情報処理方法を実現する例が示されている。情報処理装置10は、例えば第1の実施の形態に係る情報処理方法の処理手順が記述された情報処理プログラムを実行することにより、情報処理方法を実施することができる。
情報処理装置10はネットワークを介して複数の撮像装置2a,2b,・・・,2nに接続されている。撮像装置2a,2b,・・・,2nは、例えば道路2に沿って、所定の間隔で設置されている。
情報処理装置10は、記憶部11と処理部12とを有する。記憶部11は、例えば情報処理装置10が有するメモリ、またはストレージ装置である。処理部12は、例えば情報処理装置10が有するプロセッサ、または演算回路である。
記憶部11は、例えば撮像装置情報11aを記憶する。撮像装置情報11aは、撮像装置2a,2b,・・・,2nの位置に関する情報である。例えば撮像装置情報11aには、撮像装置2a,2b,・・・,2nそれぞれの識別子に対応づけて、撮像装置が設置されている位置を示す情報が設定されている。撮像装置の位置は、例えば道路2の始点からの距離で示される。
処理部12は、発生した事象を目撃した通報者1aからの通報内容を示す情報の入力に応じて処理を実行する。通報者1aは、例えば道路2を走行している車両1のドライバまたは同乗者である。通報者1aが、道路2で発生したある事象を目撃したとき、通報者1aが、その道路2の監視者4に目撃した内容を通報する。通報の内容には、目撃した事象が発生した位置を示す位置情報が含まれる。監視者4は、位置情報を含むある事象に関する情報(第1の情報)を情報処理装置10に入力する。
処理部12は、第1の情報の入力を受け付けた場合に、位置情報に基づいてある事象の発生場所を撮影範囲に含む第1の撮像装置を特定する(ステップS1)。通報者1aが目撃した事象が道路2上で発生した事象の場合、例えば処理部12は、第1の情報を受け付け、道路2に沿って配置された複数の撮像装置2a,2b,・・・,2nの中から、発生した事象の最も近くにある撮像装置2aを、第1の撮像装置として特定する。
次に処理部12は、特定した第1の撮像装置が撮影した画像データに基づいてある事象に関する情報(第2の情報)を決定する(ステップS2)。第2の情報は、例えば通報者1aが目撃した事象の種別である。道路2上で目撃した事象であれば、その事象の種別としては、交通の渋滞、落下物、停止車両、逆走車両などがある。
処理部12は、第2の情報を決定すると、第1の情報および第2の情報に基づいて、第1の撮像装置とは異なる第2の撮像装置を制御する(ステップS3)。例えば処理部12は、撮像装置2b,・・・,2nのうちの少なくとも1台を、第2の撮像装置として制御する。通報者1aが渋滞の発生を目撃した場合であれば、第1の情報には、通報者1aの位置を示す位置情報が含まれる。また第2の情報には、発生した事象は渋滞であることが示される。この場合、処理部12は、第1の撮像装置(撮像装置2a)から、道路2上の車両1の進行方向側に設置されている撮像装置2b〜2nを制御する。撮像装置の制御は、撮像装置の旋回、ズームなどである。処理部12が第2の撮像装置を制御することで、第2の撮像装置から、その撮像装置周辺の様子を写した画像データが情報処理装置10に送られる。
処理部12は、第2の撮像装置から受信した画像データに基づいて、通報者1aが目撃した事象への対処に関連する位置情報を出力する(ステップS4)。例えば処理部12は、渋滞の始点の位置を示す位置情報を出力する。
処理部12は、第2の撮像装置から受信した画像データに基づいて、通報者1aが目撃した事象への対処に関連する別の事象を検知する場合もある。その場合、処理部12は、位置情報の出力と共に新たに検知した事象に関する情報を出力してもよい。例えば処理部12は、渋滞の始点の画像データから渋滞の原因となった落下物3の発生を検知した場合、落下物3があることを示す情報を出力する。
処理部12が出力した情報は、例えば監視者4の前に設置されたモニタ5に、発生事象情報6として表示される。図1の例では、発生事象情報6には、渋滞が発生したこと、その渋滞の発生区間、および渋滞の発生原因となった落下物3の存在などが示される。
このような情報処理方法により、目撃された事象の位置情報を情報処理装置10に入力するだけで、情報処理装置10が自律的にカメラの旋回制御を行い、通報者1aが目撃した事象への対処に関連する位置情報を出力する。その結果、監視者4は、発生した事象に関連する場所を容易に特定することができ、該当事象の早期発見と早急な対応とが可能となる。
例えば渋滞を目撃した通報者1aが自身の位置を示す位置情報を含む通報を行った場合、監視者4が、その位置情報を含む第1の情報を情報処理装置10に入力する。すると情報処理装置10によって、渋滞の始点や終点の位置を示す位置情報が出力される。この位置情報に基づいて、監視者4は、道路2の管理担当者に対して、例えば渋滞の始点において渋滞の原因となっている障害を撤去するように迅速に指示することができる。
また第2の情報として、通報者1aが目撃した事象の種別を決定することで、処理部12は、例えばその事象の種別に応じた、適切な第2の撮像装置の制御と位置情報の出力とを行うことができる。例えば通報者1aが目撃した事象が道路2上で発生した事象であれば、事象の種別として、交通の渋滞、落下物、停止車両、逆走車両などがあり、処理部12は、事象の種別に応じて第2の撮像装置の制御と位置情報の出力とを行う。
例えば第2の情報の決定において、通報者1aが目撃した事象の種別が道路2の渋滞の発生であると決定した場合、処理部12は、第1の撮像装置(撮像装置2a)以外の撮像装置2b〜2nを、第1の撮像装置に近い順に、制御対象の第2の撮像装置として選択する。そして処理部12は、第2の撮像装置から受信した画像データに写っている渋滞の始点または終点の場所を示す位置情報を出力する。これにより、効率的に、渋滞の始点または終点の場所を特定し、その位置情報を出力することができる。
また第2の情報の決定において、通報者1aが目撃した事象の種別が、道路2に許される進行方向と逆方向に走行する逆走車両の発生であると、処理部12が決定する場合がある。この場合、処理部12は、第1の撮像装置(撮像装置2a)以外の撮像装置2b〜2nのうち、逆走車両を撮影可能な撮像装置を制御対象の第2の撮像装置として選択する。その後、処理部12は、逆走車両を追跡しながら、逆走車両の移動に応じて第2の撮像装置を切り替える。そして処理部12は、一期間経過後の逆走車両の位置を示す位置情報を出力する。これにより、監視者4は、逆走車両の今後の動きを予測した対処が可能となる。
また第2の情報の決定において、通報者1aが目撃した事象の種別が、道路2上の落下物または停止車両の発生であると決定する場合がある。この場合、処理部12は、第1の撮像装置(撮像装置2a)以外の撮像装置2b〜2nのうち、落下物または停止車両の位置から所定の範囲内の撮像装置を第2の撮像装置として制御する。そして処理部12は、第2の撮像装置が撮影した画像データに基づいて、通報者1aが目撃した事象以外に発生している事象の発生場所を示す情報を出力する。これにより、監視者4は、通報者1aが目撃した落下物の対処のみならず、他の事象(別の場所の落下物、荷物を落下させた車両など)に迅速に対処することができる。
〔第2の実施の形態〕
次に第2の実施の形態について説明する。第2の実施の形態は、高速道路などの自動車専用道路において、ドライバまたは同乗者からの通報に基づいて、発生した事象の特定、およびその事象に関連する場所の特定を迅速に行うことができる道路監視システムである。
図2は、道路監視システムの一例を示す図である。道路監視システムは、サーバ100と、サーバ100にネットワーク20を介して接続されたカメラ31,32,33,・・・とを有する。サーバ100は、例えば道路管制センターの施設内に設けられたコンピュータである。サーバ100は、カメラ31,32,33,・・・の遠隔制御、およびカメラ31,32,33,・・・で撮影された画像データの解析を行うことができる。
カメラ31,32,33,・・・は、旋回可能であり、道路40に沿って、例えば等間隔に設置されている。カメラ31,32,33,・・・の設置間隔は、例えば、隣り合うカメラの間に、カメラで移せない場所が存在しないように決定される。カメラ31,32,33,・・・が管理対象のすべての道路に沿って設置されることで、道路40の全範囲をカメラ31,32,33,・・・で撮影可能となる。
このようにカメラ31,32,33,・・・が設置されることで、道路40上の車両41,42,43それぞれは、少なくとも1台のカメラで撮影可能となる。図2の例では車両41はカメラ31で撮影可能であり、車両42はカメラ32で撮影可能であり、車両43はカメラ33で撮影可能である。
道路40を監視する監視者30は、例えばドライバまたは同乗者から、何らかの事象の発生を示す通報を受け取る。すると監視者30は、事象の発生場所をサーバ100に入力する。サーバ100は、カメラ31,32,33,・・・を制御して、発生した事象、発生場所、発生した事象に関係する他の場所などを調査し、調査結果を出力する。
図3は、サーバのハードウェアの一例を示す図である。サーバ100は、プロセッサ101によって装置全体が制御されている。プロセッサ101には、バス109を介してメモリ102と複数の周辺機器が接続されている。プロセッサ101は、マルチプロセッサであってもよい。プロセッサ101は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、またはDSP(Digital Signal Processor)である。プロセッサ101がプログラムを実行することで実現する機能の少なくとも一部を、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)などの電子回路で実現してもよい。
メモリ102は、サーバ100の主記憶装置として使用される。メモリ102には、プロセッサ101に実行させるOS(Operating System)のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、メモリ102には、プロセッサ101による処理に利用する各種データが格納される。メモリ102としては、例えばRAM(Random Access Memory)などの揮発性の半導体記憶装置が使用される。
バス109に接続されている周辺機器としては、ストレージ装置103、グラフィック処理装置104、入力インタフェース105、光学ドライブ装置106、機器接続インタフェース107およびネットワークインタフェース108がある。
ストレージ装置103は、内蔵した記録媒体に対して、電気的または磁気的にデータの書き込みおよび読み出しを行う。ストレージ装置103は、サーバの補助記憶装置として使用される。ストレージ装置103には、OSのプログラム、アプリケーションプログラム、および各種データが格納される。なお、ストレージ装置103としては、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)を使用することができる。
グラフィック処理装置104には、モニタ21が接続されている。グラフィック処理装置104は、プロセッサ101からの命令に従って、画像をモニタ21の画面に表示させる。モニタ21としては、有機EL(Electro Luminescence)を用いた表示装置や液晶表示装置などがある。
入力インタフェース105には、キーボード22とマウス23とが接続されている。入力インタフェース105は、キーボード22やマウス23から送られてくる信号をプロセッサ101に送信する。なお、マウス23は、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。
光学ドライブ装置106は、レーザ光などを利用して、光ディスク24に記録されたデータの読み取りを行う。光ディスク24は、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク24には、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)などがある。
機器接続インタフェース107は、サーバ100に周辺機器を接続するための通信インタフェースである。例えば機器接続インタフェース107には、メモリ装置25、メモリリーダライタ26、ヘッドセット28などを接続することができる。メモリ装置25は、機器接続インタフェース107との通信機能を搭載した記録媒体である。メモリリーダライタ26は、メモリカード27へのデータの書き込み、またはメモリカード27からのデータの読み出しを行う装置である。メモリカード27は、カード型の記録媒体である。ヘッドセット28は、頭部に装着することができ、例えばヘッドフォンとマイクとを有する。例えばヘッドセット28では、ヘッドフォンにおけるスピーカ部にフレキシブルパイプによってマイクが取り付けられている。
ネットワークインタフェース108は、ネットワーク20に接続されている。ネットワークインタフェース108は、ネットワーク20を介して、他のサーバまたは通信機器との間でデータの送受信を行う。
サーバ100は、以上のようなハードウェアによって、第2の実施の形態の処理機能を実現することができる。なお、第1の実施の形態に示した情報処理装置10も、図3に示したサーバ100と同様のハードウェアにより実現することができる。
サーバ100は、例えばサーバ読み取り可能な記録媒体に記録されたプログラムを実行することにより、第2の実施の形態の処理機能を実現する。サーバ100に実行させる処理内容を記述したプログラムは、様々な記録媒体に記録しておくことができる。例えば、サーバ100に実行させるプログラムをストレージ装置103に格納しておくことができる。プロセッサ101は、ストレージ装置103内のプログラムの少なくとも一部をメモリ102にロードし、プログラムを実行する。またサーバ100に実行させるプログラムを、光ディスク24、メモリ装置25、メモリカード27などの可搬型記録媒体に記録しておくこともできる。可搬型記録媒体に格納されたプログラムは、例えばプロセッサ101からの制御により、ストレージ装置103にインストールされた後、実行可能となる。またプロセッサ101が、可搬型記録媒体から直接プログラムを読み出して実行することもできる。
サーバ100は、VoIP(Voice over Internet Protocol)などの技術を用いて、一般のアナログの電話器との通話回線を接続することができる。そのため、監視者30は、ヘッドセット28を用いて外部との電話による通話が可能である。
図2に示したシステムでは、道路40を管理している道路管制センターへの電話による通報は、サーバ100に着信する。監視者30は、例えば道路40上の異常を発見したドライバまたは同乗者からの電話による通報を、サーバ100を介して受け付ける。そして監視者30は、通報したドライバまたは同乗者から、発生した事象に関する情報を聞き出す。以下、通報したドライバまたは同乗者を通報者と呼ぶ。
図4は、通報者からの通報の一例を示す図である。例えば車両44に乗った人物が道路40上で異常な事象(渋滞、逆走車両、落下物、停止車両など)を見つけた場合、その人物(通報者44a)は、携帯電話44bを用いて監視センターに電話をかける。すると携帯電話44bとサーバ100との間で通話回線が接続され、通報者44aと、ヘッドセット28を装着した監視者30との通話が可能となる。
監視者30は、通報者44aから発生した事象の内容を聞き出す。例えば通報者44aは、道路40の脇に設置されている距離標45(キロポストとも呼ばれる)を確認し、異常な事象の発生場所を、距離標45の数字によって監視者30に伝える。距離標45には、道路40の起点となる位置から距離標45が設置された位置までの距離(例えばキロメートル単位の数値)が記されている。そのため監視者30は、異常な事象が発生した場所の距離標45の数値に基づいて、その場所を特定することができる。
このとき通報者44aは、発生した事象の内容については詳細に観察できているとは限らず、曖昧な内容しか説明できないことがある。例えば通報者44aが視認できるのが発生した事象の一部でしかなく、通報者44aは、その事象の種別(目撃した低速車両の発生原因が渋滞なのか、落下物なのかなど)を特定できるほど詳細に説明できない場合がある。そこで監視者30は、通報者44aからの通報に応じて、サーバ100に通報内容を入力し、サーバ100を用いて発生した事象の詳細を調査する。
図5は、サーバの機能の一例を示すブロック図である。サーバ100は、記憶部110、通報受け付け部120、通報情報入力受け付け部130、事象調査部140、および結果表示部150を有する。
記憶部110は、カメラ位置情報111を記憶する。カメラ位置情報111は、監視用のカメラ31,32,33,・・・の設置場所を示す情報である。例えばサーバ100のメモリ102またはストレージ装置103の記憶領域の一部が、記憶部110として使用される。
通報受け付け部120は、携帯電話44bからの通報を受け付け、ヘッドセット28と携帯電話44bとの通話制御を行う。例えば通報受け付け部120は、VoIPにより携帯電話44bとの間で音声データを送受信する。そして、通報受け付け部120は、受信した音声データをアナログの音声信号に変換して、ヘッドセット28のスピーカから音声を出力する。また通報受け付け部120は、ヘッドセット28にマイクに入力された監視者30の音声をVoIPの音声データに変換し、携帯電話44bに送信する。
なおネットワーク20には、アナログの電話網とIP(Internet Protocol)電話網との中継を行うVoIPゲートウェイが含まれている。そのため、携帯電話44bがアナログの電話機であっても、携帯電話44bとサーバ100との間のVoIPを介した通話が可能である。
通報情報入力受け付け部130は、キーボード22などの入力デバイスを介して、監視者30からの、通報された事象に関する情報の入力を受け付ける。例えば通報情報入力受け付け部130は、通報受け付け部120が通報を受け付けたことを検知し、通報情報入力画面をモニタ21に表示する。監視者30は、通報情報入力画面の所定の場所に、異常が発生した場所を含む通報情報を入力する。これにより、通報情報入力受け付け部130は、通報情報を取得することができる。通報情報入力受け付け部130は、入力された通報情報を、事象調査部140に送信する。
事象調査部140は、カメラ31,32,33,・・・を制御すると共に、カメラ31,32,33,・・・が撮影した画像データを解析し、通報情報で示される事象の詳細を調査する。例えば事象調査部140は、記憶部110内のカメラ位置情報111を参照し、通報情報で示された事象の発生場所付近のカメラを特定し、そのカメラの旋回制御を行う。そして事象調査部140は、旋回制御によって撮影されたカメラの周囲が写る画像データに基づいて、通報された事象の種別を特定し、特定した種別に応じて、他のカメラを制御し、その事象の影響が及んでいる範囲を調査する。事象調査部140は、調査結果を結果表示部150に送信する。
結果表示部150は、事象調査部140による調査結果をモニタ21に表示する。例えば結果表示部150は、事象に関連する場所の画像、地図上に事象の影響範囲を表した画像などを表示する。
なお、図5に示した各要素間を接続する線は通信経路の一部を示すものであり、図示した通信経路以外の通信経路も設定可能である。また、図5に示した各要素の機能は、例えば、その要素に対応するプログラムモジュールをコンピュータに実行させることで実現することができる。
次に、記憶部110に格納されたカメラ位置情報111について詳細に説明する。
図6は、カメラ位置情報の一例を示す図である。例えばカメラ位置情報111は、カメラID(IDentification)、設置道路、および位置の欄が設けられたデータテーブルである。カメラ位置情報111には、カメラごとのレコードが登録されている。
カメラIDの欄には、対応するカメラの識別子(カメラID)が設定される。設置道路の欄には、対応するカメラが設置された道路の名称が設定される。位置の欄には、対応するカメラが設置された位置を示す情報が設定される。カメラが設置された位置は、例えば設置された道路の起点からの距離で表される。
図5、図6に示すような構成のサーバ100を用いて、監視者30は、通報者44aからの通報に基づいて事象の詳細を調査することができる。その際、監視者30は、通報者44aから事象の詳細を聞き出せなくても、曖昧な通報情報に基づいて調査が可能である。例えば監視者30は、少なくとも事象の発生場所の距離標45の数値を通報者44aから聞き出し、聞き出した情報をモニタ21に表示された通報情報入力画面に入力する。
図7は、通報情報入力画面の一例を示す図である。通報情報入力画面131には、通報者44aの目撃した内容を入力するテキストボックス131a、目撃した道路を入力するテキストボックス131b、および目撃した事象の目撃場所を入力するテキストボックス131cが含まれる。監視者30は、例えばテキストボックス131aに、通報者が目撃したのが道路40の渋滞なのか、停止車両なのか、落下物なのかといった情報を入力する。また監視者30は、例えばテキストボックス131bに、通報者44aが事象を目撃したときに車両44で走行していた道路の名称を入力する。さらに監視者30は、例えばテキストボックス131cに、通報者が目撃した事象付近の距離標45に示されている数値を入力する。
なお通報情報入力画面131には、図示したテキストボックス131a,131b,131c以外にも、様々な情報を入力するテキストボックスを設けることができる。例えば通報情報入力画面131に、目撃した時刻を入力するテキストボックスを設けてもよい。
以下に、サーバ100による、通報者44aからの通報に応じた事象の調査処理について詳細に説明する。
図8は、通報された事象の調査処理の手順の一例を示すフローチャートである。以下、図8に示す処理をステップ番号に沿って説明する。
[ステップS101]通報受け付け部120は、通報者44aからの、携帯電話44bによる通報を受信する。
[ステップS102]通報受け付け部120は、通報者44aと監視者30とが通話できるように、携帯電話44bとサーバ100との通信接続(例えばセッションの接続)を行う。これにより携帯電話44bを使用する通報者44aとヘッドセット28を装着した監視者30とが通話可能となる。そして監視者30は、通報者44aから目撃内容の報告を受ける。
[ステップS103]通報情報入力受け付け部130は、監視者30から通報情報の入力を受け付ける。例えば通報情報入力受け付け部130は、通報情報入力画面をモニタ21に表示する。そして通報情報入力受け付け部130は、通報情報入力画面内に監視者30が入力した情報を、通報情報として取得する。通報情報入力受け付け部130は、入力された通報情報を、事象調査部140に送信する。
[ステップS104]事象調査部140は、通報情報として入力された位置に基づいて、事象の種別確認用のカメラ(第1のカメラ)を決定する。例えば事象調査部140は、カメラ位置情報111を参照し、テキストボックス131bに入力された道路の名称と、テキストボックス131cに入力された距離標45の数値とに基づいて、目撃場所に最も近いカメラを特定する。具体的には事象調査部140は、テキストボックス131bに入力された道路の名称と同じ名称が設置道路の欄に設定されたレコードを、カメラ位置情報111から抽出する。次に事象調査部140は、抽出したレコードの中で、位置に設定された値が、テキストボックス131cに入力された数値に最も近いレコードを特定する。事象調査部140は、特定したレコードのカメラIDに対応するカメラを、事象の種別確認用のカメラに決定する。
[ステップS105]事象調査部140は、決定したカメラの旋回制御を行う。例えば事象調査部140は、カメラ決定直後は、該当カメラの向きを、旋回可能な範囲の一方の端まで旋回させる。事象調査部140は、同一カメラに対する2回目以降の旋回制御では、現在の位置から、所定の方向に所定の角度だけカメラの向きを旋回させる。このときの旋回角度は、旋回前にカメラに写る画像と旋回後にカメラに写る画像との間に、旋回前後のどちらの画像にも写らない領域が存在しないように設定される。
カメラが地面に垂直な方向を回転軸として、0度から180度まで回転できる場合、事象調査部140は、決定されたカメラの最初の旋回制御では、例えばカメラが0度の方向を向くように制御する。そして事象調査部140は、決定されたカメラの2回目以降の旋回制御では、現在の角度に、カメラの画角以下の角度を加算した角度の方向を向くようにカメラを制御する。
[ステップS106]事象調査部140は、事象の種別調査用に決定したカメラで撮影された画像データを解析する。事象調査部140は、発生した事象が解析対象の画像データに写っていれば、その事象の種別を検知し、解析結果としてその事象の種別を出力する。画像解析による事象の種別の検知は、例えばディープラーニングによるセマンティックセグメンテーションによって実現可能である。セマンティックセグメンテーションは、画素レベルで、その画素に写っているものが何なのかを識別する技術である。画像解析処理の詳細は後述する(図9参照)。
[ステップS107]事象調査部140は、画像解析により事象を検知したか否かを判断する。事象調査部140は、事象を検知していない場合、処理をステップS105に進め、カメラの旋回と画像解析とを繰り返す。また事象調査部140は、事象を検知した場合、処理をステップS108に進める。
なおこのとき事象調査部140は、通報者44aの目撃内容と検出された事象の種別とが同一事象に属するかどうかの判断を加えてもよい。例えば事象調査部140は、通報者44aの目撃内容が「停止車両」の場合、検出した事象の種別が「渋滞」または「停止車両」であれば、両者は同一事象であると判断する。他方、事象調査部140は、通報者44aの目撃内容が「停止車両」の場合において、検出した事象の種別が「落下物」または「逆走車両」であった場合、両者は別の事象であると判断する。事象調査部140は、別の事象であると判断した場合、例えば通報された事象を検知するために、処理をステップS105に進め、事象の種別調査用のカメラをさらに旋回させ画像解析を行う。
[ステップS108]事象調査部140は、検知された事象の種別の判別結果に応じて、処理を分岐させる。例えば事象調査部140は、渋滞の発生が検知された場合、処理をステップS109に進める。また事象調査部140は、逆走車両が検知された場合、処理をステップS110に進める。また事象調査部140は、落下物、または渋滞以外での停止車両が検知された場合、処理をステップS111に進める。
[ステップS109]事象調査部140は、渋滞調査処理を行う。渋滞調査処理では、渋滞の始点と終点の位置の調査が行われる。渋滞調査処理の詳細は後述する(図12参照)。その後、事象調査部140は、通報された事象の調査処理を終了する。
[ステップS110]事象調査部140は、逆走車両調査処理を行う。逆走車両調査処理では、逆走車両のカメラでの追跡、および逆走車両の今後の動き(例えば所定の場所に何分後に到達するか)についての調査が行われる。逆走車両調査処理の詳細は後述する(図17参照)。その後、事象調査部140は、通報された事象の調査処理を終了する。
[ステップS111]事象調査部140は、落下物/停止車両調査処理を行う。落下物/停止車両調査処理では、落下物または停止車両の周囲における類似事象の有無の調査が行われる。例えば落下物であれば、別の場所に同様の落下物が落ちている可能性がある。停止車両が事故によって停止していた場合、その事故に関連する別の車両が停止している可能性がある。また停止車両が事故によって停止していた場合、事故を起こした車両から落ちた荷物や部品が道路40上に散乱している可能性もある。落下物/停止車両調査処理では、通報によって検出した事象に関連する別の事象の有無が調査される。落下物/停止車両調査処理の詳細は後述する(図20参照)。その後、事象調査部140は、通報された事象の調査処理を終了する。
このようにしてサーバ100により、通報された事象の検知、および関連する事象の調査が行われる。
次に、画像解析処理について詳細に説明する。
図9は、画像解析処理の手順の一例を示すフローチャートである。以下、図9に示す処理をステップ番号に沿って説明する。
[ステップS121]事象調査部140は、カメラが撮影した1または複数の画像データを取得する。例えば事象調査部140は、カメラが撮影した動画像データから、一定時間間隔の複数の画像データを抽出する。
[ステップS122]事象調査部140は、取得した画像データを、画素単位で複数のクラスのいずれかに分類する。分類のクラスとしては、例えば道路、路外、背景、車両、落下物、人などがある。
[ステップS123]事象調査部140は、特定のクラスに分類された画素の集合によって得られる領域を、事象の検知領域として特定する。例えば事象調査部140は、道路として分類された画素が占める領域と、その領域に囲まれた領域(道路上の車両や落下物の領域)を、検知領域として特定する。
[ステップS124]事象調査部140は、検知領域に含まれるオブジェクトを検知する。例えば事象調査部140は、検知領域内の道路以外のオブジェクト(車両、落下物など)を検知する。
[ステップS125]事象調査部140は、検知したオブジェクトの数や状態に基づいて、そのオブジェクトがどのような事象を表しているのかを検知する。例えば事象調査部140は、所定数以上の車両が写っており、それらの車両の移動速度の平均が所定の速度以下の場合、事象「渋滞」を検知する。また事象調査部140は、写っている車両の移動方向が、その車両が走っている車線で許される走行方向と逆方向の場合、事象「逆走車両」を検知する。また事象調査部140は、道路上に車両以外の物体が検出され、その物体が移動していない場合、事象「落下物」を検知する。さらに事象調査部140は、道路上に車両が検出され、その車両が移動していない場合、事象「停止車両」を検知する。
なお、車両の移動速度は、撮影時刻が異なる複数の画像データにおける該当車両の位置のずれに基づいて算出できる。例えばサーバ100は、道路上の単位長(例えば1mまたは10mなど)が画像データ内でどの程度の長さ(何画素分)になるのかの対応表を記憶しておく。対応表は、例えばカメラの角度ごとに用意される。事象調査部140は、撮影時のカメラの角度に応じた対応表を参照し、撮影時刻が異なる2つの画像データにおける車両の位置のずれから、その間の該当車両の移動距離を求める。そして事象調査部140は、車両の移動距離を、2つの画像データの撮影時刻の差で除算することで、その車両の速度を算出する。
[ステップS126]事象調査部140は、事象を検知した場合、検知した事象の種別と、該当の事象が写っている画像データ(検知画像データ)とを、解析結果として出力する。なお事象調査部140は、事象を検知できなかった場合、事象が検知できなかった旨を解析結果として出力する。
このようにして、発生した事象が画像データに写っていれば、その事象を特定することができる。なお事象調査部140は、画像解析において事象を検知したとき、カメラのズーム機能を用いて該当事象を拡大した拡大画像データを取得し、取得した拡大画像データから詳細な情報を得ることもできる。例えば事象調査部140は、停止車両や逆走車両を検知した場合、拡大画像データから、該当車両の車種、色、ナンバーなどを取得できる。また事象調査部140は、落下物を検知した場合、その落下物の拡大画像データに基づいて、例えば落下物の種別(家具、タイヤなど)を判別することもできる。
図10は、画像解析の一例を示す図である。監視用のカメラで撮影した画像データ61には、道路上とその周辺の様子が映っている。この画像データ61をセマンティックセグメンテーションによって分類すると、大きな領域として、画像データ内の背景の領域62a,62b、道路の領域62c,62d、路外の領域62eが得られる。このうち道路の領域62c,62dとその領域に囲まれた領域(道路上の物体が占める領域)とを合わせた領域が、検知領域62f,62gとなる。検知領域62f,62g内からオブジェクトを検出することで、車両63a,63b,63cや落下物63dを検知することができる。
このような画像解析を、取得した画像データについて行うことで、事象の種別を判別できる。図10の例であれば、道路上に落下物63dがあることが分かる。また取得時間が異なる複数の画像データの解析結果を比較することで、検出したオブジェクトの移動速度を計算できる。その結果、車両の速度や移動方向を判別できる。
次に、事象「渋滞」を検知した場合に行われる渋滞調査について詳細に説明する。
図11は、渋滞調査の一例を示す図である。例えば車両44に乗った通報者44aは、自身が渋滞に巻き込まれたことを認識し、渋滞が発生したこと、および自身の現在地を示す情報(道路の名称と付近の距離標の数値)を通報する。監視者30は、サーバ100に、通報者44aの目撃内容、道路の名称、目撃場所などの通報情報を入力する。
サーバ100は、通報情報に基づいて、車両44の近辺に設置されたカメラ73を遠隔操作し、事象を確認する。図11の例では、事象「渋滞」が検知される。サーバ100は、事象「渋滞」を検知すると、渋滞調査を行う。渋滞調査は、渋滞始点調査と渋滞終点調査とに分かれる。
サーバ100は、渋滞始点調査では、事象を確認したカメラ73から、渋滞している車線で許される進行方向の前方側に隣接するカメラに、制御対象のカメラを切り替える。サーバ100は、そのカメラを始点カメラ候補とする。サーバ100は、始点カメラ候補のカメラを旋回させながら、渋滞の始点となる位置の有無を調査する。例えばサーバ100は、渋滞が発生していない区間を検出した場合、現在の始点カメラ候補を始点カメラに決定する。図11の例では、カメラ74が始点カメラに決定される。そしてサーバ100は、始点カメラが撮影した画像データに基づいて、渋滞が発生している区間と渋滞が発生していない区間との境界の位置を特定し、特定した位置を渋滞の始点とする。
サーバ100は、始点カメラ候補のカメラの旋回可能範囲をすべて旋回させても渋滞の始点を検出できない場合、そのカメラの前方側に隣接するカメラに始点カメラ候補を切り替える。このような始点カメラ候補の切り替えを行いながら、渋滞始点調査を続けることで、渋滞の始点となる位置を検出できる。
サーバ100は、渋滞の始点となる位置を検出した場合、始点カメラの画像データをさらに解析し、何らかの事象が発生していないか調査する。例えばサーバ100は、落下物71,72を検知した場合、渋滞の原因が落下物71,72であると判断する。なお、渋滞には、何らかの別の事象が原因で発生する突発渋滞と、交通量の増えすぎが原因で発生する自然渋滞とがある。自然渋滞の場合、始点カメラの画像データを解析しても、別の事象は検知されない。
サーバ100は、渋滞終点調査では、事象を確認したカメラ73から、渋滞している車線で許される進行方向の後方側に隣接するカメラに、制御対象のカメラを切り替える。サーバ100は、そのカメラを終点カメラ候補とする。サーバ100は、終点カメラ候補のカメラを旋回させながら、渋滞の終点となる位置の有無を調査する。例えばサーバ100は、渋滞が発生していない区間を検出した場合、現在の終点カメラ候補を終点カメラに決定する。図11の例では、カメラ75が終点カメラに決定される。そしてサーバ100は、終点カメラが撮影した画像データに基づいて、渋滞が発生している区間と渋滞が発生していない区間との境界の位置を特定し、特定した位置を渋滞の終点とする。
サーバ100は、終点カメラ候補のカメラの旋回可能範囲をすべて旋回させても渋滞の終点を検出できない場合、そのカメラの後方側に隣接するカメラに終点カメラ候補を切り替える。このような終点カメラ候補の切り替えを行いながら、渋滞終点調査を続けることで、渋滞の終点となる位置を検出できる。
渋滞の始点と終点との位置が検出できた場合、サーバ100は、モニタ21に、渋滞調査の結果を示す渋滞通知画面を表示する。監視者30は、渋滞通知画面を確認し、渋滞の始点と終点、および渋滞の原因となった他の事象を認識する。
次に、渋滞調査処理の手順について、図12〜図14を参照して詳細に説明する。
図12は、渋滞調査処理の手順の一例を示すフローチャートである。以下、図12に示す処理をステップ番号に沿って説明する。
[ステップS201]事象調査部140は、始点カメラ決定処理を行う。始点カメラ決定処理により、渋滞の始点を撮影しているカメラが決定される。始点カメラ決定処理の詳細は後述する(図13参照)。
[ステップS202]事象調査部140は、終点カメラ決定処理を行う。終点カメラ決定処理により、渋滞の終点を撮影しているカメラが決定される。終点カメラ決定処理の詳細は後述する(図14参照)。
[ステップS203]事象調査部140は、始点の位置と終点の位置とを特定する。例えば事象調査部140は、道路の始点から渋滞の始点までの距離を、始点の位置とする。この場合、事象調査部140は、始点カメラの角度、および画像データ内での始点の位置に基づいて、道路の始点から始点カメラまでの距離と、道路の始点から渋滞の始点までの距離との差分を計算する。そして事象調査部140は、得られた差分を、道路の始点から始点カメラまでの距離に加算または減算することで、渋滞の始点の位置を算出する。
同様に、事象調査部140は、例えば道路の始点から渋滞の終点までの距離を、終点の位置とする。この場合、事象調査部140は、終点カメラの角度、および画像データ内での終点の位置に基づいて、道路の始点から終点カメラまでの距離と、道路の始点から渋滞の終点までの距離との差分を計算する。そして事象調査部140は、得られた差分を、道路の始点から終点カメラまでの距離に加算または減算することで、渋滞の終点の位置を算出する。
[ステップS204]事象調査部140は、渋滞調査の結果として、渋滞の始点と終点とを示す位置情報を出力する。この位置情報は、第1の実施の形態に示す、事象に関連する位置情報の一例である。事象調査部140は、渋滞調査の結果に、始点カメラと終点カメラとを示す情報を含めてもよい。
次に、始点カメラ決定処理について詳細に説明する。
図13は、始点カメラ決定処理の手順の一例を示すフローチャートである。以下、図13に示す処理をステップ番号に沿って説明する。
[ステップS211]事象調査部140は、通報者44aの位置に近いカメラから順に、始点カメラ候補に決定する。例えば事象調査部140は、現在の制御対象のカメラに対して、渋滞している車線の進行方向側に隣接するカメラを始点カメラ候補とする。
[ステップS212]事象調査部140は、始点カメラ候補であるカメラを制御対象として、カメラの旋回制御を行う。例えば事象調査部140は、始点カメラ候補を決定した直後は、該当カメラの向きを、旋回可能な範囲の一方の端(該当の道路において車両に許される進行方向の逆方向の端)までカメラを旋回させる。事象調査部140は、同一カメラに対する2回目以降の旋回制御では、現在の位置から、車線に許される進行方向に所定の角度だけカメラの向きを旋回させる。このときの旋回角度は、旋回前にカメラから取得した画像データと旋回後のカメラから取得した画像データとの間に、旋回前後のどちらの画像にも写らない領域が存在しないように設定される。
[ステップS213]事象調査部140は、始点カメラ候補に決定したカメラで撮影された画像データを解析する。画像解析処理の詳細は前述の通りである(図9参照)。
[ステップS214]事象調査部140は、画像解析により渋滞を検知したか否かを判断する。事象調査部140は、渋滞を検知した場合、処理をステップS215に進める。また事象調査部140は、渋滞を検知していなければ、処理をステップS216に進める。
[ステップS215]事象調査部140は、現在の始点カメラ候補のカメラを、カメラの旋回限界まで旋回済みか否かを判断する。例えばカメラが0度から180度まで旋回可能であり、0度から旋回を開始した場合、カメラの角度が180度に達していれば、事象調査部140は、旋回限界まで旋回済みと判断する。事象調査部140は、旋回限界まで旋回済みであれば、処理をステップS211に進め、始点カメラ候補を変更する。また事象調査部140は、旋回限界まで旋回していなければ、処理をステップS212に進め、カメラの旋回と画像解析とを繰り返す。
[ステップS216]事象調査部140は、現在の始点カメラ候補を始点カメラに決定する。
[ステップS217]事象調査部140は、始点カメラで撮影された画像データから、渋滞以外の事象が検知されたか否かを判断する。事象調査部140は、渋滞以外の事象が検知された場合、処理をステップS218に進める。また事象調査部140は、渋滞以外の事象を検知していない場合、始点カメラ決定処理を終了する。
[ステップS218]事象調査部140は、始点カメラによって撮影された画像データから検知された渋滞以外の事象の種別を出力する。事象調査部140は、その後、始点カメラ決定処理を終了する。
次に、終点カメラ決定処理について詳細に説明する。
図14は、終点カメラ決定処理の手順の一例を示すフローチャートである。以下、図14に示す処理をステップ番号に沿って説明する。
[ステップS231]事象調査部140は、通報者44aの位置に近いカメラから順に、終点カメラ候補に決定する。例えば事象調査部140は、現在の制御対象のカメラに対して、渋滞している車線の進行方向と反対側に隣接するカメラを終点カメラ候補とする。
[ステップS232]事象調査部140は、終点カメラ候補であるカメラを制御対象として、カメラの旋回制御を行う。例えば事象調査部140は、終点カメラ候補を決定した直後は、該当カメラの向きを、旋回可能な範囲の一方の端(該当の道路において車両に許される進行方向の端)までカメラを旋回させる。事象調査部140は、同一カメラに対する2回目以降の旋回制御では、現在の位置から、車線に許される進行方向と反対方向に所定の角度だけカメラの向きを旋回させる。このときの旋回角度は、旋回前のカメラから取得した画像データと旋回後のカメラから取得した画像データとの間に、旋回前後のどちらの画像データにも写らない領域が存在しないように設定される。
[ステップS233]事象調査部140は、終点カメラ候補に決定したカメラで撮影された画像データを解析する。画像解析処理の詳細は前述の通りである(図9参照)。
[ステップS234]事象調査部140は、画像解析により渋滞を検知したか否かを判断する。事象調査部140は、渋滞を検知した場合、処理をステップS235に進める。また事象調査部140は、渋滞を検知していなければ、処理をステップS236に進める。
[ステップS235]事象調査部140は、現在の終点カメラ候補のカメラを、カメラの旋回限界まで旋回済みか否かを判断する。例えばカメラが0度から180度まで旋回可能であり、180度から旋回を開始した場合、カメラの角度が0度に達していれば、事象調査部140は、旋回限界まで旋回済みと判断する。事象調査部140は、旋回限界まで旋回済みであれば、処理をステップS231に進め、終点カメラ候補を変更する。また事象調査部140は、旋回限界まで旋回していなければ、処理をステップS232に進め、カメラの旋回と画像解析とを繰り返す。
[ステップS236]事象調査部140は、現在の終点カメラ候補を終点カメラに決定する。事象調査部140は、その後、終点カメラ決定処理を終了する。
以上、図12〜図14に示したような処理により、渋滞調査が行われ、始点と終点との位置とが判明する。渋滞調査の結果は、モニタ21に渋滞通知画面として表示される。
図15は、渋滞通知画面の一例を示す図である。渋滞通知画面76には、例えば始点画像表示部76a、渋滞情報表示部76b、および路線図表示部76cが含まれる。
始点画像表示部76aには、始点カメラで撮影している渋滞の始点の現在の動画像が表示される。渋滞情報表示部76bには、渋滞が発生したこと、渋滞の始点の位置と終点の位置、渋滞の原因となっている事象が検知できた場合はその事象の内容などが表示される。路線図表示部76cには、渋滞が発生した区間を含む路線図が表示される。路線図には、渋滞区間が強調表示されると共に、渋滞の始点で別の事象(例えば落下物)が発生している場合、その事象の発生場所に所定のマーク(図15の例ではばつ印)が表示される。
このように、渋滞発生時には、監視者30が、渋滞が発生している場所の情報をサーバ100に入力すれば、サーバ100によって渋滞調査が自動で行われ、結果が表示される。カメラの旋回制御や、カメラから取得した画像データに何らかの事象が写っているか否かの確認がサーバ100により自動で行われるため、監視者30は迅速に渋滞の原因や渋滞区間を認識できる。その結果、監視者30は、渋滞を解消するための作業指示を迅速に行うことができる。図15の例では、監視者30は、道路の管理担当者に落下物の回収を指示する。
次に、逆走車両調査処理について詳細に説明する。
図16は、逆走車両調査の一例を示す図である。例えば車両44に乗った通報者44aは、逆走車両81を目撃すると、逆走車両81を目撃したこと、および自身の現在地を示す情報(道路の名称と付近の距離標の数値)を通報する。監視者30は、サーバ100に、通報者44aの目撃内容、道路の名称、目撃場所などの通報情報を入力する。
サーバ100は、通報情報に基づいて、車両44の近辺に設置されたカメラ82を遠隔操作し、事象を確認する。図16の例では、事象「逆走車両」が検知される。サーバ100は、事象「逆走車両」を検知すると、逆走車両調査を行う。
サーバ100は、逆走車両調査では、事象を確認したカメラ82を旋回させ、逆走車両を追跡する。サーバ100は、カメラ82で撮影できる範囲から逆走車両81が出た場合、逆走車両81が走行している車線で許される進行方向の後方側に隣接するカメラ83に、制御対象のカメラを切り替える。サーバ100は、カメラ83を旋回させながら逆走車両81を追跡する。その後、サーバ100は、逆走車両81の逆走行為が止まるまで、制御対象のカメラを切り替えながら、逆走車両81を追跡する。
そしてサーバ100は、逆走車両81の現在位置や、インターチェンジなどの所定の地点への逆走車両81の到達時刻などを、逆走通知画面としてモニタ21に表示する。監視者30は、逆走通知画面を確認し、逆走車両81の存在と位置とを認識する。
図17は、逆走車両調査処理の手順の一例を示すフローチャートである。以下、図17に示す処理をステップ番号に沿って説明する。
[ステップS301]事象調査部140は、所定の地点への逆走車両の到達時刻を示す情報や、所定の時間経過後の逆走車両の予測位置を示す予測位置情報などを算出し、それらの情報を出力する。予測位置情報は、第1の実施の形態に示す、事象に関連する位置情報の一例である。
[ステップS302]事象調査部140は、進行方向カメラを決定する。例えば事象調査部140は、逆走車両調査処理の開始直後は、事象の種別確認用のカメラを進行方向カメラとする。その後は、事象調査部140は、現在の進行方向カメラに対して、道路に許容される走行方向の逆側に隣接するカメラを、進行方向カメラとする。
[ステップS303]事象調査部140は、進行方向カメラを制御対象として、カメラの旋回制御を行う。例えば事象調査部140は、進行方向カメラを決定した直後は、該当カメラの向きを、旋回可能な範囲の一方の端(該当の道路において車両に許される進行方向の端)まで旋回させる。事象調査部140は、同一カメラに対する2回目以降の旋回制御では、現在の位置から、車線に許される進行方向の逆方向に所定の角度だけカメラの向きを旋回させる。なお事象調査部140は、旋回の角度は、例えば逆走車両の速度に応じて決定する。例えば事象調査部140は、逆走車両の速度が速いほど旋回の角度を大きくする。
[ステップS304]事象調査部140は、進行方向カメラに決定したカメラで撮影された画像データを解析する。画像解析処理の詳細は前述の通りである(図9参照)。
[ステップS305]事象調査部140は、画像解析により逆走車両を検知したか否かを判断する。事象調査部140は、逆走車両を検知した場合、処理をステップS301に進める。また事象調査部140は、逆走車両を検知していなければ、逆走車両調査処理を終了する。
このようにして、逆走車両をカメラで追跡することができる。そして逆走車両の現在の状況は、逆走通知画面に表示される。
図18は、逆走通知画面の一例を示す図である。逆走通知画面84には、例えば逆走車両表示部84a、逆走車両情報表示部84b、および路線図表示部84cが含まれる。
逆走車両表示部84aには、逆走車両を撮影しているカメラの画像が表示される。逆走車両情報表示部84bには、逆走車両が発生したこと、逆走車両の場所、所定の場所までの逆走車両の到達予定時刻が表示される。路線図表示部84cには、逆走車両が発生した道路を含む路線図が表示される。路線図には、逆走車両が走行中の区間が強調表示されると共に、逆走車両の現在地に所定のマーク(図18の例ではばつ印)が表示される。
このように、逆走車両の発生時には、監視者30が、逆走車両が目撃された場所の情報をサーバ100に入力すれば、サーバ100によって逆走車両の自動追跡が行われ、結果が表示される。逆走車両の追跡がサーバ100によって自動で行われるため、監視者30は容易に逆走車両を監視し、所定の場所への到達時刻を認識できる。その結果、監視者30は、逆走車両を停止させるための対処指示を迅速に行うことができる。図18の例では、監視者30は、道路の管理担当者に、所定のインターチェンジにおいて逆走車両を待ち受け、逆走車両を停止させるように指示する。
次に落下物/停止車両調査処理について詳細に説明する。
図19は、落下物/停止車両調査の一例を示す図である。例えば車両44に乗った通報者44aは、落下物91を目撃すると、落下物を目撃したこと、および自身の現在地を示す情報(道路の名称と付近の距離標の数値)を通報する。監視者30は、サーバ100に、通報者44aの目撃内容、道路の名称、目撃場所などの通報情報を入力する。
サーバ100は、通報情報に基づいて、車両44の近辺に設置されたカメラ93を遠隔操作し、事象を確認する。図19の例では、事象「落下物」が検知される。サーバ100は、事象「落下物」を検知すると、落下物/停止車両調査を行う。
サーバ100は、落下物/停止車両調査では、事象を確認したカメラ93とその周辺のカメラ94,95を旋回させ、落下物91の周辺において、関連する他の事象の有無を調査する。図19の例では、カメラ94により路肩に停止する停止車両92が写され、サーバ100は事象「停止車両」を検知する。停止車両92は、トラックであり、後ろのあおり92a(トラックの荷台を覆う囲い)が開いている。
サーバ100は、落下物91周囲の調査結果を示す落下物/停止車両通知画面をモニタ21に表示させる。落下物/停止車両通知画面には、例えばいずれかのカメラで何らかの事象を検知した場合、落下物があることに加え、関連する事象「停止車両」があることが表示される。監視者30は、落下物/停止車両通知画面を確認し、落下物91と停止車両92の存在と位置とを認識する。
図20は、落下物/停止車両調査処理の手順の一例を示すフローチャートである。以下、図20に示す処理をステップ番号に沿って説明する。
[ステップS401]事象調査部140は、通報によって検知された落下物または停止車両の位置を算出し、それらの情報を出力する。
[ステップS402]事象調査部140は、落下物または停止車両の検知に用いられたカメラと近辺にある近辺カメラそれぞれについて、ステップS403〜S405の処理を実行する。例えば事象調査部140は、元の事象(落下物または停止車両)の検知に用いたカメラから所定の距離以内にあるカメラを近辺カメラとする。
[ステップS403]事象調査部140は、制御対象の近辺カメラを決定する。例えば事象調査部140は、近辺の事象の検知を行っていない近辺カメラのうちの1台を、制御対象に決定する。
[ステップS404]事象調査部140は、制御対象の近辺カメラの旋回制御を行う。例えば事象調査部140は、制御対象の近辺カメラを決定した直後は、該当カメラの向きを、旋回可能な範囲の一方の端まで旋回させる。事象調査部140は、同一カメラに対する2回目以降の旋回制御では、現在の位置から、最初に旋回させた方向の逆方向に所定の角度だけカメラの向きを旋回させる。
[ステップS405]事象調査部140は、制御対象の近辺カメラで撮影された画像データを解析する。画像解析処理の詳細は前述の通りである(図9参照)。
[ステップS406]事象調査部140は、制御対象の近辺カメラを、カメラの旋回限界まで旋回済みか否かを判断する。事象調査部140は、旋回限界まで旋回済みでなければ、処理をステップS404に進め、カメラの旋回と画像解析とを繰り返す。また事象調査部140は、旋回限界まで旋回済みであれば、処理をステップS407に進め、制御対象とする近辺カメラを切り替える。
[ステップS407]事象調査部140は、すべての近辺カメラについてステップS403〜S406の処理が完了すると、処理をステップS408に進める。
[ステップS408]事象調査部140は、近辺カメラによる画像データの解析によって、何らかの異常な事象が検知されたか否かを判断する。事象調査部140は、異常な事象が検知された場合、処理をステップS409に進める。また事象調査部140は、異常な事象が検知されていなければ、落下物/停止車両調査処理を終了する。
[ステップS409]事象調査部140は、検知された事象の種別と、その事象が発生した場所の位置情報とを出力する。この位置情報は、第1の実施の形態に示す、事象に関連する位置情報の一例である。その後、事象調査部140は、落下物/停止車両調査処理を終了する。
このようにして、落下物または停止車両が目撃された場合に、目撃された落下物または停止車両とは別に異常な事象があるかどうかが自動で調査され、調査結果が落下物/停止車両通知画面に表示される。
図21は、落下物/停止車両通知画面の一例を示す図である。落下物/停止車両通知画面96には、例えば通報事象表示部96a、関連事象表示部96b、落下物/停止車両情報表示部96c、および路線図表示部96dが含まれる。
通報事象表示部96aには、通報者44aが目撃した事象を撮影しているカメラの画像が表示される。図21の例では、落下物が写った画像が、通報事象表示部96aに表示されている。
関連事象表示部96bには、通報された事象の周辺を調査することで検知された事象を撮影しているカメラの画像が表示される。図21の例では、停止車両が写った画像が、関連事象表示部96bに表示されている。
落下物/停止車両情報表示部96cには、道路上に落下物または停止車両があること、およびそれらの事象の発生場所を示す情報が表示される。路線図表示部96dには、落下物または停止車両がある道路を含む路線図が表示される。路線図には、落下物または停止車両の位置に所定のマーク(図21の例ではばつ印)が表示される。
このように、落下物または停止車両の発生時には、監視者30が、落下物または停止車両が目撃された場所の情報をサーバ100に入力すれば、サーバ100によって該当する場所とその周辺における異常な事象の有無の調査が行われ、調査結果が表示される。通報された事象が発生している場所に限らず周辺の調査が自動で行われるため、監視者30は通報された事象に関連する他の事象の発生場所を容易に認識できる。その結果、監視者30は、異常な事象への対処指示を迅速に行うことができる。図21の例であれば、監視者30は、道路の管理担当者に、落下物の撤去と停止車両の安全確保とを指示する。
[その他の実施の形態]
第2の実施の形態では、道路上で発生した事象に関する調査を行っているが、道路以外の監視にも同様の技術を適用することができる。例えば鉄道またはリニアモーターカーの路線に沿ってカメラが配置されている場合に、サーバ100によってカメラを制御して路線上で発生した事象を調査することもできる。また河川に沿ってカメラが配置されている場合に、サーバ100によってカメラを制御して河川付近上で発生した事象を調査することもできる。
また第2の実施の形態では、通報者44aと監視者30との間の音声通話によって位置情報などの通報内容が伝達されているが、他の方法で通報内容を伝達することもできる。例えば自動音声通話機能によって、サーバ100が通報者44aと通話することができる。この場合、サーバ100は、通報者44aの音声を音声認識ソフトウェアを用いてテキストに変換することで、通報者44aから位置情報などの通報内容を受け付ける。
また通報者44aは、音声ではなく、例えば携帯電話の電子メール、SMS(Short Message Service)、SNS(Social Networking Service)などのアプリケーションソフトウェアの機能を用いて、電子データで通報することもできる。この場合、サーバ100は、通報内容を示す電子データに基づいて、通報者の位置などの情報を判別する。
さらに、通報者44aが使用する携帯電話は、通報の際に、GPS(Global Positioning System)などの衛星測位システムによって得られた位置情報(緯度と経度)を、サーバ100に送信することもできる。この場合、サーバ100は、通報された位置情報(緯度・経度)と道路地図とを照合し、通報者44aがどの道路のどの位置(道路の始点からの距離)にいるのかを特定する。
また第2の実施の形態では、サーバ100による調査結果を監視者30が使用するモニタ21に表示しているが、発生した事象により危険な状況に置かれている車両のドライバに危険を通知することもできる。例えばサーバ100は、ETC(Electronic Toll Collection System)2.0などの技術を用いて、カーナビゲーションシステムまたは車内の携帯電話などの機器に情報を送信できる。渋滞の発生が検知された場合であれば、サーバ100は、渋滞が発生した道路において、渋滞発生地点より手前を走行している車両の機器に、前方で渋滞が発生していることを示す情報を送信する。逆走車両の発生が検知された場合であれば、サーバ100は、逆走車両が逆走している道路において、逆走車の方向において対向して走行している車両の機器に、前方に逆走車両がいることを示す情報を送信する。落下物または停止車両の発生が検知された場合であれば、サーバ100は、落下物または停止車両がある道路において、該当事象の発生場所の手前を走行している車両の機器に、前方に落下物または停止車両があることを示す情報を送信する。
以上、実施の形態を例示したが、実施の形態で示した各部の構成は同様の機能を有する他のものに置換することができる。また、他の任意の構成物や工程が付加されてもよい。さらに、前述した実施の形態のうちの任意の2以上の構成(特徴)を組み合わせたものであってもよい。
1 車両
1a 通報者
2 道路
2a,2b,・・・・,2n 撮像装置
3 落下物
4 監視者
5 モニタ
6 発生事象情報
10 情報処理装置
11 記憶部
11a 撮像装置情報
12 処理部

Claims (8)

  1. 位置情報を含むある事象に関する第1の情報の入力を受け付けた場合に、前記位置情報に基づいて前記ある事象の発生場所を撮影範囲に含む第1の撮像装置を特定し、
    特定した前記第1の撮像装置が撮影した画像データに基づいて前記ある事象に関する第2の情報を決定し、
    前記第1の情報および前記第2の情報に基づいて、前記第1の撮像装置とは異なる第2の撮像装置を制御し、
    前記第2の撮像装置から受信した画像データに基づいて前記ある事象への対処に関連する位置情報を出力する、
    処理をコンピュータに実行させる情報処理プログラム。
  2. 前記第2の情報の決定では、前記ある事象の種別を決定する、
    請求項1記載の情報処理プログラム。
  3. 前記第1の撮像装置の特定では、道路上で発生した前記ある事象に関する前記第1の情報を受け付け、前記道路に沿って配置された複数の撮像装置の中から前記第1の撮像装置を特定し、
    前記第2の情報の決定では、特定した前記第1の撮像装置が撮影した画像データに基づいて、前記道路上で発生する可能性のある複数の種別の中から、前記ある事象の種別を決定する、
    請求項2記載の情報処理プログラム。
  4. 前記第2の撮像装置の制御では、前記第2の情報の決定において、前記ある事象の種別が前記道路の渋滞の発生であると決定した場合、前記複数の撮像装置を、前記第1の撮像装置に近い順に、制御対象の前記第2の撮像装置として選択し、
    前記位置情報の出力では、前記第2の撮像装置から受信した画像データに写っている渋滞の始点または終点の場所を示す前記位置情報を出力する、
    請求項3記載の情報処理プログラム。
  5. 前記第2の撮像装置の制御では、前記第2の情報の決定において、前記ある事象の種別が、前記道路に許される進行方向と逆方向に走行する逆走車両の発生であると決定した場合、前記複数の撮像装置のうち、前記逆走車両を撮影可能な撮像装置を制御対象の前記第2の撮像装置として選択し、
    前記位置情報の出力では、一期間経過後の前記逆走車両の位置を示す前記位置情報を出力する、
    請求項3記載の情報処理プログラム。
  6. 前記第2の撮像装置の制御では、前記第2の情報の決定において、前記ある事象の種別が、前記道路上の落下物または停止車両の発生であると決定した場合、前記複数の撮像装置のうち、前記落下物または前記停止車両の位置から所定の範囲内の撮像装置を前記第2の撮像装置として制御し、
    前記位置情報の出力では、前記第2の撮像装置が撮影した画像データに基づいて、前記ある事象以外に発生している事象の発生場所を示す前記位置情報を出力する、
    請求項3記載の情報処理プログラム。
  7. コンピュータが、
    位置情報を含むある事象に関する第1の情報の入力を受け付けた場合に、前記位置情報に基づいて前記ある事象の発生場所を撮影範囲に含む第1の撮像装置を特定し、
    特定した前記第1の撮像装置が撮影した画像データに基づいて前記ある事象に関する第2の情報を決定し、
    前記第1の情報および前記第2の情報に基づいて、前記第1の撮像装置とは異なる第2の撮像装置を制御し、
    前記第2の撮像装置から受信した画像データに基づいて前記ある事象への対処に関連する位置情報を出力する、
    情報処理方法。
  8. 位置情報を含むある事象に関する第1の情報の入力を受け付けた場合に、前記位置情報に基づいて前記ある事象の発生場所を撮影範囲に含む第1の撮像装置を特定し、特定した前記第1の撮像装置が撮影した画像データに基づいて前記ある事象に関する第2の情報を決定し、前記第1の情報および前記第2の情報に基づいて、前記第1の撮像装置とは異なる第2の撮像装置を制御し、前記第2の撮像装置から受信した画像データに基づいて前記ある事象への対処に関連する位置情報を出力する処理部、
    を有する情報処理装置。
JP2019203053A 2019-11-08 2019-11-08 情報処理プログラム、情報処理方法、および情報処理装置 Ceased JP2021077072A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203053A JP2021077072A (ja) 2019-11-08 2019-11-08 情報処理プログラム、情報処理方法、および情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203053A JP2021077072A (ja) 2019-11-08 2019-11-08 情報処理プログラム、情報処理方法、および情報処理装置

Publications (1)

Publication Number Publication Date
JP2021077072A true JP2021077072A (ja) 2021-05-20

Family

ID=75898306

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203053A Ceased JP2021077072A (ja) 2019-11-08 2019-11-08 情報処理プログラム、情報処理方法、および情報処理装置

Country Status (1)

Country Link
JP (1) JP2021077072A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7058817B1 (ja) * 2021-11-12 2022-04-22 三菱電機株式会社 距離標距離判定装置、距離標距離判定方法、および距離標距離判定プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003157487A (ja) * 2001-11-22 2003-05-30 Mitsubishi Electric Corp 交通状況監視装置
WO2017047687A1 (ja) * 2015-09-17 2017-03-23 株式会社日立国際電気 監視システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003157487A (ja) * 2001-11-22 2003-05-30 Mitsubishi Electric Corp 交通状況監視装置
WO2017047687A1 (ja) * 2015-09-17 2017-03-23 株式会社日立国際電気 監視システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7058817B1 (ja) * 2021-11-12 2022-04-22 三菱電機株式会社 距離標距離判定装置、距離標距離判定方法、および距離標距離判定プログラム
WO2023084728A1 (ja) * 2021-11-12 2023-05-19 三菱電機株式会社 距離標距離判定装置、距離標距離判定方法、および距離標距離判定プログラム

Similar Documents

Publication Publication Date Title
US10475337B2 (en) Investigation assist device, investigation assist method and investigation assist system
US10971007B2 (en) Road condition information sharing method
KR100835085B1 (ko) 무인교통사고기록장치를 이용한 실시간 교통사고처리시스템 및 방법
JP7358762B2 (ja) 道路異常検知装置、道路異常検知方法および道路異常検知プログラム
JP2018142834A (ja) 監視カメラシステム及び監視方法
JP6815262B2 (ja) 交通違反検知装置、システム、交通違反検知方法およびプログラム
US20070008408A1 (en) Wide area security system and method
KR20180119160A (ko) 제한된 접근 공동체 감시 시스템
US11688278B1 (en) Traffic drone system
KR102029128B1 (ko) 운전자간 블랙박스 사고영상을 상호교환하기 위한 iot 플랫폼 및 그 구현 방법
US20230138112A1 (en) Artificial intelligence methods and systems for remote monitoring and control of autonomous vehicles
US10984254B2 (en) Investigation assist system and investigation assist method
CN109671270B (zh) 行车事故处理方法及装置、存储介质
CN114341962A (zh) 危险车辆显示系统、危险车辆显示装置、危险车辆显示程序以及计算机可读取的记录介质以及进行了记录的设备
KR20110000780U (ko) 전방위 아이피 카메라 영상에 의한 교통법규위반 단속 장치
JP2021077072A (ja) 情報処理プログラム、情報処理方法、および情報処理装置
Zafeiriou IoT and mobility in smart cities
KR20050114906A (ko) 통합 및 독립적 구성 조합에 의한 불법 주정차 무인 단속시스템 및 그것의 운용방법
KR101498582B1 (ko) 교통사고 데이터 제공 시스템 및 방법
TWI419087B (zh) 計程車的安全監控系統及其方法
JP7293174B2 (ja) 道路周辺物監視装置、道路周辺物監視プログラム
KR20160117985A (ko) 녹화 영상 중개 서비스 방법 및 시스템
JP2018206264A (ja) 巡回作業支援装置、及び巡回作業支援方法
JP2023065222A (ja) 情報収集システム
KR20140068312A (ko) 차량 블랙박스와 연동한 교통사고 정보 관리 방법 및 이를 위한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230726

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20240305