JP7433542B1 - 遠隔監視装置、遠隔監視システム、及び、遠隔監視方法 - Google Patents

遠隔監視装置、遠隔監視システム、及び、遠隔監視方法 Download PDF

Info

Publication number
JP7433542B1
JP7433542B1 JP2023536134A JP2023536134A JP7433542B1 JP 7433542 B1 JP7433542 B1 JP 7433542B1 JP 2023536134 A JP2023536134 A JP 2023536134A JP 2023536134 A JP2023536134 A JP 2023536134A JP 7433542 B1 JP7433542 B1 JP 7433542B1
Authority
JP
Japan
Prior art keywords
area
blind spot
vehicle
remote monitoring
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023536134A
Other languages
English (en)
Inventor
悠司 濱田
バガワン ロカハ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP7433542B1 publication Critical patent/JP7433542B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

監視員の負担を軽減可能な技術を提供することを目的とする。遠隔監視装置は、死角エリアに関する死角管理情報と、死角エリアの状態を検出すると判定されたインフラセンサの検出可能エリアに関するインフラ支援管理情報とを対応付け、車両の位置と死角管理情報とに基づいて車両の位置に対して死角エリアが存在すると判定し、死角管理情報に対応付けられたインフラ支援管理情報が存在すると判定し、車両が遠隔操作中であると判定した場合に、インフラセンサで取得された情報を監視員に表示すべきと判定する。

Description

本開示は、遠隔監視装置、遠隔監視システム、及び、遠隔監視方法に関する。
近年、自動車などの車両に搭載されるカメラ及び周辺監視センサ(例えばミリ波レーダなど)に基づいた自動運転システムの開発が進んでおり、限定された地域では無人の自動運転システムの実証実験が行われている。このような無人の自動運転システムでは、安全確保措置として、監視員から車両への遠隔操作及び遠隔監視を実現するための開発も行われている。例えば、特許文献1では、車両センサと路側センサとを統合して、自動運転車両を車両ローカルで制御するか、遠隔操作で制御するかを、自動的に切り替える技術が提案されている。
特開2019-185758号公報
特許文献1では、自動運転車両を車両ローカルで制御するか、遠隔操作で制御するかを自動的に切り替えるが、車両の死角エリアの有無に応じてインフラセンサの映像を遠隔操作で活用するか否かの判定は行わない。このため、監視員は、車両の死角エリアの状態をインフラセンサの映像によって視認できるか否かを判定しなければならず、監視員にとって負担となっているという問題があった。
そこで、本開示は、上記のような問題点に鑑みてなされたものであり、監視員の負担を軽減可能な技術を提供することを目的とする。
本開示に係る遠隔監視装置は、監視員による遠隔操作が可能な車両に搭載されたセンサで取得された複数の第1センシング情報を統合して第1統合結果を生成し、道路に付設されたインフラセンサで取得された第2センシング情報を統合して第2統合結果を生成する情報統合部と、前記第1統合結果において、前記センサの検出可能エリアのうち前記第1センシング情報の全てで検出できなかったエリアである静的死角エリアと、前記検出可能エリアのうち前記第1センシング情報の一部で検出できなかったエリアである動的死角エリアとを含む死角エリアを判定し、前記第1統合結果と前記第2統合結果とに基づいて、前記インフラセンサが、前記静的死角エリアの状態を検出するか否かを判定する死角判定部と、前記車両の位置に対して前記死角エリアが存在すると判定し、前記インフラセンサが前記静的死角エリアの状態を検出すると判定し、前記車両が遠隔操作中であると判定した場合に、前記インフラセンサで取得された情報をヒューマンインタフェースから前記監視員に表示すべきと判定する支援判定部とを備える。


本開示によれば、死角管理情報に対応付けられたインフラ支援管理情報が存在すると判定し、車両が遠隔操作中であると判定した場合に、インフラセンサで取得された情報を監視員に表示すべきと判定する。このような構成によれば、監視員の負担を軽減することができる。
本開示の目的、特徴、局面及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。
実施の形態1に係る遠隔監視装置を含む遠隔監視システムの構成を示すブロック図である。 実施の形態1に係る遠隔監視装置を含む遠隔監視システムの構成を示すブロック図である。 車両センサの検出可能エリアの例を示す図である。 インフラセンサの検出可能エリアの例を示す図である。 車両センサの死角エリアの例を示す図である。 インフラセンサが車両センサの死角エリアの状態を検出する例を示す図である。 インフラセンサが車両センサの死角エリアの状態を検出する例を示す図である。 死角管理情報の例を示す図である。 インフラ支援管理情報の例を示す図である。 実施の形態1に係る遠隔監視装置の動作例を説明するための模式図である。 実施の形態1に係る遠隔監視装置の動作例を示すフローチャートである。 実施の形態1に係る遠隔監視装置の動作例を示すフローチャートである。 実施の形態1に係る遠隔監視装置の動作例を示すフローチャートである。 実施の形態1に係る遠隔監視装置の動作例を示すフローチャートである。 実施の形態1に係る遠隔監視装置の動作例を示すフローチャートである。 実施の形態2に係る遠隔監視装置を含む遠隔監視システムの構成を示すブロック図である。 パターンの例を説明するための図である。 パターンの例を説明するための図である。 実施の形態2に係る遠隔監視装置の動作例を示すフローチャートである。 実施の形態2に係る遠隔監視装置の動作例を示すフローチャートである。
<実施の形態1>
図1及び図2は、本実施の形態1に係る遠隔監視装置1を含む遠隔監視システムの構成を示すブロック図である。図1に示すように、遠隔監視システムは、遠隔監視装置1と、監視員による遠隔操作が可能な車両である自動運転車両2と、RSU(Road Side Unit)3と、ヒューマンインタフェースである監視員HMI4とを備える。本実施の形態1では、遠隔監視装置1はクラウドサーバに搭載されることを前提として説明するが、例えば、エッジサーバ、または、路側装置などに搭載されてもよい。
自動運転車両2には、ミリ波レーダ、及び、LiDAR(Light Detection and Ranging Laser Imaging Detection and Ranging)などの周辺認識センサ、カメラ、GNSS(Global Navigation Satellite System)、アクセル、ブレーキ、及び、ステアリングを制御する制御ECU(Electronic Control Unit)などが搭載されている。自動運転車両2は、制御ECUなどによって、自律的に走行可能なエリアを判定して自動運転可能であり、自動運転によって自律的な走行が可能である。
自動運転車両2は、搭載された周辺認識センサで検出された周辺の障害物の位置、速度、種別などの情報と、GNSSから取得した自動運転車両2の位置とを第1センシング情報として遠隔監視装置1に送信する。また、自動運転車両2は、搭載されたカメラで撮影されたカメラ映像と、車両情報とを遠隔監視装置1に送信する。車両情報は、自動運転車両2が遠隔操作中であるか否かについての情報と、自動運転車両2が自動運転中であるか否かについての情報とを含む。自動運転車両2は、第1センシング情報などを自発的に(例えば周期的に)送信してもよいし、遠隔監視装置1からの取得要求を受けてから送信してもよい。また自動運転車両2は、カメラ映像と、車両情報とを第1センシング情報に含めて送信してもよい。本実施の形態1では、周辺認識センサ及びカメラは、車両センサの概念に含まれ、以下の説明では便宜上、車両センサと自動運転車両2とを区別せずに記載する。
自動運転車両2は、センサの検出結果の統合によって得られる情報を遠隔監視装置1から受信して、自動運転時の走行経路の判定などに利用する。また、自動運転車両2は、監視員からの遠隔操作によって制御可能に構成されている。
RSU3は、ミリ波レーダ、LiDAR、及び、GNSSなどの周辺監視センサと接続されており、交差点や停留所などに設置される。RSU3は、周辺監視センサの検出結果を第2センシング情報として遠隔監視装置1に逐次的に送信する。また、RSU3は、カメラと接続されており、当該カメラで撮影されたカメラ映像を遠隔監視装置1に送信する。RSU3は、第2センシング情報などを自発的に(例えば周期的に)送信してもよいし、遠隔監視装置1からの取得要求を受けてから送信してもよい。RSU3は、カメラ映像を第2センシング情報に含めて送信してもよい。本実施の形態1では、RSU3、周辺監視センサ、及び、カメラは、道路に付設されたインフラセンサの概念に含まれ、以下の説明では便宜上、インフラセンサとRSU3とを区別せずに記載する。
監視員HMI4は、監視員に対して、自動運転車両2及びRSU3から遠隔監視装置1を介して送信されたカメラ映像を表示する。監視員HMI4は、自動運転車両2及びRSU3から遠隔監視装置1を介して第1センシング情報及び第2センシング情報を受信した場合には、監視員に対して、第1センシング情報及び第2センシング情報を表示してもよい。
また、監視員HMI4は、監視員が自動運転車両2のアクセル、ブレーキ、ステアリングなどの遠隔操作を行うための制御情報を、遠隔監視装置1経由で自動運転車両2に送信する。監視員は、遠隔操作のために、監視員HMI4に表示されるカメラ映像の変更を要求することがあり、監視員HMI4は、監視員からのカメラ映像の変更の要求を遠隔監視装置1に送信する。これによって、監視員HMI4は、変更後のカメラ映像を遠隔監視装置1から受信して、変更後のカメラ映像を表示することが可能となっている。
図2は、図1の構成を具体的に示すブロック図である。図2の遠隔監視装置1は、プロセッサ10と、記憶装置11と、外部インタフェース12とを備える。
プロセッサ10は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。プロセッサ10は、例えば、プログラムに記述された命令を実行して、データの転送、計算、加工、制御、管理といった処理を実行するためのIC(Integrated Circuit)である。プロセッサ10は、例えば、演算回路と、命令及び情報が格納されるレジスタ及びキャッシュメモリとを有する。プロセッサは、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。上記処理の実行結果として、プロセッサ10において、情報統合部101、死角判定部102、管理情報生成部103、支援判定部104、路車協調支援部105、映像転送部106、及び、管理情報更新部107の機能が実現される。
なお、この図2の例では、プロセッサ10の数は1つである。しかしながら、プロセッサ10の数は複数であってもよく、例えば、複数のプロセッサ10がプログラムを連携して実行することにより、各プロセッサ10が各機能を実現してもよい。
記憶装置11は、死角管理情報と、インフラ支援管理情報とを保存する。記憶装置11は、例えば、RAM(Random Access Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)であってもよい。また、記憶装置11は、例えばSD(Secure Digital)メモリカード(登録商標)、CF(CompactFlash(登録商標))、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイディスク(登録商標)、DVD(Digital Versatile Disc)といった可搬記憶媒体であってもよい。
通信部である外部インタフェース12は、自動運転車両2、RSU3、及び、監視員HMI4と通信する。本実施の形態1では、遠隔監視装置1の情報統合部101、路車協調支援部105、映像転送部106、及び、管理情報更新部107は、外部インタフェース12を用いて、自動運転車両2、RSU3及び監視員HMI4とデータの送受及び受信の少なくともいずれか1つを行う。なお本明細書において、例えばA、B、C、…、及び、Zの少なくともいずれか1つとは、A、B、C、…、及び、Zのグループから1つ以上抜き出した全ての組合せのうちのいずれか1つであることを意味する。
外部インタフェース12は、例えば、通信装置からデータを受信するレシーバーと、当該通信装置にデータを送信するトランスミッターとを含む。外部インタフェース12は、例えば、LTE(Long Term Evolution)(登録商標)及び第5世代移動通信システム(5G)といったセルラー網、車両通信専用のDSRC(Dedicated Short Range Communication)、並びに、Cellular-V2X(Vehicle-to-x)などの通信方式を利用する。
情報統合部101は、自動運転車両2で取得された第1センシング情報をフュージョン(統合)して第1統合結果を生成し、RSU3で取得された第2センシング情報をフュージョン(統合)して第2統合結果を生成する。例えば、自動運転車両2で複数の第1センシング情報が取得された場合に、情報統合部101は、複数の第1センシング情報で示される同一障害物を基準にして、複数の第1センシング情報を統合することで第1統合結果を生成し、死角判定部102に出力する。同様に、RSU3で複数の第2センシング情報が取得された場合に、情報統合部101は、複数の第2センシング情報で示される同一障害物を基準にして、複数の第2センシング情報を統合することで第2統合結果を生成し、死角判定部102に出力する。
死角判定部102は、情報統合部101で生成された第1統合結果と第2統合結果とに基づいて、RSU3が、自動運転車両2の死角エリアの状態を検出するか否か、つまり自動運転車両2を支援可能であるか否かを判定する。なお、死角判定部102は、第1統合結果と、第2統合結果と、車両センサの検出可能エリアの情報と、インフラセンサの検出可能エリアの情報とに基づいて、車両センサ及びインフラセンサに共通する死角エリアを推定し、管理情報生成部103に出力してもよい。車両センサの検出可能エリア及びインフラセンサの検出可能エリアは、死角判定部102に事前に設定されてもよい。
図3は、車両センサの検出可能エリア2aの例を示す図である。図3に示すように車両センサは、自動運転車両2の周囲(360度)を監視できるように設置されることが想定される。車両センサの検出可能エリア2aは、自動運転車両2の位置及び走行方位を含む。また、車両センサの検出可能エリア2aは、自動運転車両2の進行方向を0度として、自動運転車両2の時計周りに規定される検出角度と、当該検出角度ごとに規定される検出可能距離とを含む。図3には、検出角度が0.5度単位であり、自動運転車両2の前後方向(0,180度)の検出可能距離が100m、自動運転車両2の左右方向(90,270度)の検出可能距離が50mである、楕円形状の検出可能エリア2aの例が示されている。
図4は、インフラセンサの検出可能エリア3aの例を示す図である。図4の例では、インフラセンサは、予め定められた角度で設置され、インフラセンサの検出可能エリア3aは車両センサの検出可能エリア2aとは異なっている。図4には、インフラセンサの設置角度が0度であり、左右方向に向かって30度で広がる検出可能エリア3aの例が示されている。
図5は、車両センサの死角エリア2bの例を示す図である。図5の車両センサの検出可能エリアとして、図3と同様の楕円形状の検出可能エリア2aが示されている。図5の例では、自動運転車両2の前方及び左後方に大型車両及び建物が存在している。この場合、死角判定部102は、車両センサの検出可能エリア2aの外郭線より内側のエリアのうち、自動運転車両2から見て大型車両及び建物と反対側のエリアを、車両センサの死角エリア2bとして推定する。
図6及び図7は、インフラセンサが、車両センサの死角エリア2bの状態を検出する例を示す図である。
図6の例では、図5の自動運転車両2、大型車両、及び、建物が存在する状況において、インフラセンサの検出可能エリア3aが車両センサの死角エリア2bの全部を含んでいる。この場合、インフラセンサの第2センシング情報及びカメラ映像によって、自動運転車両2の死角エリア2bの全部の状態の認識が可能となり、インフラセンサは、自動運転車両2の死角エリア2bの状態を検出し、自動運転車両2を支援可能であると、死角判定部102で判定される。
図7の例では、インフラセンサの検出可能エリア3aが車両センサの死角エリア2bの一部を含んでいる。この場合、インフラセンサの第2センシング情報及びカメラ映像によって、自動運転車両2の死角エリア2bの一部の状態の認識が可能となり、死角判定部102は、インフラセンサは、自動運転車両2の死角エリア2bの状態を検出し、自動運転車両2を支援可能であると、死角判定部102で判定される。ただし、図7の例では、車両センサ及びインフラセンサに共通する死角エリア2cが生じている。
大型車両などの他車両によって共通の死角エリア2cが生じていて、かつ、遠隔監視装置1が他車両からセンシング情報を受信可能である場合には、遠隔監視装置1は、他車両からのセンシング情報を自動運転車両2に送信してもよい。このような構成によれば、車両センサ及びインフラセンサに共通する死角エリア2cにおいて、自動運転車両2は自動運転を継続することが可能となる。または、遠隔監視装置1は、他車両からのカメラ映像を監視員HMI4に送信してもよい。このような構成によれば、監視員は、車両センサ及びインフラセンサに共通する死角エリア2cの状態を確認することが可能となる。
図2の管理情報生成部103は、自動運転車両2の死角エリア2bに関する死角管理情報と、当該死角エリア2bの状態を検出すると判定されたインフラセンサの検出可能エリア3aに関するインフラ支援管理情報とを対応付けて記憶装置11に保存する。
図8は、死角管理情報の例を示す図である。管理情報生成部103は、例えば、自動運転車両2の位置、センサ結果、及び、死角エリア2bに基づいて、死角管理情報を生成する。死角管理情報は、例えば、自動運転車両2の死角エリア2bを、自動運転車両2の走行ルート上の緯度経度のリストとして定義する。死角エリア2bは、例えば死角エリア2bの境界点列(ポリゴン)で表現される。インフラセンサが死角エリア2bの状態を検出すると死角判定部102で判定され、インフラセンサが死角エリア2bについて自動運転車両2を支援できる場合には、RSU3及び周辺監視センサの識別子が、サポートRSUによって死角エリア2bに対応付けられる。これにより、遠隔監視装置1は、自動運転車両2の死角エリア2bに対して必要な情報を高速に抽出することができる。
図9は、インフラ支援管理情報の例を示す図である。管理情報生成部103は、例えば、インフラセンサの位置、センサ結果、及び、検出可能エリア3aに基づいて、インフラ支援管理情報を生成する。インフラ支援管理情報は、例えば、インフラセンサの検出可能エリア3a及び死角エリアを、自動運転車両2の走行ルート上の緯度経度のリストとして定義する。事前にインフラセンサの検出可能エリア3aと、インフラセンサの死角エリアとを管理することで、遠隔監視装置1の計算処理の高速化、及び、処理負荷低減が期待できる。
なお、以上では死角管理情報及びインフラ支援管理情報は、緯度経度のリストとして定義される例について説明したが、これに限ったものではない。例えば、死角管理情報及びインフラ支援管理情報は、高度を含んでもよいし、絶対的な座標系ではなく、特定位置を基準とする相対的な座標系で定義されてもよい。
図2の支援判定部104は、自動運転車両2の位置と死角管理情報とに基づいて自動運転車両2の位置に対して死角エリア2bが存在するか否かを判定する。自動運転車両2に走行ルートが予め設定されている場合には、支援判定部104は、走行ルート上に死角エリア2bが存在するか否かを判定する。また支援判定部104は、死角管理情報に対応付けられたインフラ支援管理情報が存在するか否かを判定する。つまり、支援判定部104は、インフラセンサが死角エリア2bの状態の検出を可能であるか否かを判定する。また支援判定部104は、自動運転車両2からの車両情報に基づいて、自動運転車両2が自動運転中であるか否かと、自動運転車両2が遠隔操作中であるか否かとを判定する。
そして、支援判定部104は、自動運転車両2の位置に対して死角エリア2bが存在すると判定し、死角管理情報に対応付けられたインフラ支援管理情報が存在すると判定し、自動運転車両2が遠隔操作中であると判定した場合に、支援可能なインフラセンサで取得されたカメラ映像を監視員HMI4から監視員に表示すべきと判定する。なお、監視員HMI4から監視員に表示すべきという判定は、監視員HMI4から監視員に表示するという判定を含む。
一方、支援判定部104は、自動運転車両2の位置に対して死角エリア2bが存在すると判定し、死角管理情報に対応付けられたインフラ支援管理情報が存在すると判定し、自動運転車両2が自動運転中であると判定した場合に、支援可能なインフラセンサの第2統合結果を自動運転車両2に送信すべきと判定する。
路車協調支援部105は、支援可能なインフラセンサの第2統合結果を自動運転車両2に送信すべきと支援判定部104で判定された場合に、外部インタフェース12を用いて、当該第2統合結果を自動運転車両2に送信する。なお、当該第2統合結果には、死角エリア2b、2cの情報が含まれてもよい。
情報転送部である映像転送部106は、支援可能なインフラセンサで取得されたカメラ映像を監視員HMI4から監視員に表示すべきと支援判定部104で判定された場合に、外部インタフェース12を用いて、当該カメラ映像を監視員HMI4に送信する。
管理情報更新部107は、監視員が、監視員HMI4でのカメラ映像の表示を変更する要求をした場合に、変更後のカメラ映像を監視員HMI4に優先的に表示させる。これにより、例えば、監視員が、表示されているインフラセンサのカメラ映像の撮影角度を変更する要求をした場合には、次回以降、撮影角度が変更されたインフラセンサのカメラ映像が監視員HMI4に最初に表示される。例えば、監視員が、表示されているインフラセンサのカメラ映像を、当該カメラ映像と同じ死角エリア2bを表示可能な別のカメラ映像に変更する要求をした場合には、次回以降、別のカメラ映像が監視員HMI4に最初に表示される。
<動作>
図10から図15は、本実施の形態1に係る遠隔監視装置1の動作例を説明するための図である。本実施の形態1に係る遠隔監視装置1の動作は、本実施の形態1に係る遠隔監視方法または遠隔監視システムの動作に相当する。また、本実施の形態1に係る遠隔監視装置1の動作は、本実施の形態1に係る遠隔監視プログラムの処理に相当する。
図10は、遠隔監視装置1の動作例を説明するための模式図である。図10では、自動運転車両2が走行しており、自動運転車両2の前方の交差点付近で自動運転車両2の死角エリアが存在する状況が示されている。図10では、自動運転車両2の死角エリアで渋滞6が発生しており、RSU3は渋滞6の状態を検出して遠隔監視装置1に通知している。この場合に、遠隔監視装置1は、RSU3の第2統合結果を自動運転車両2に送信したり、自動運転車両2の前方映像、及び、死角エリアを検出するRSU3のカメラ映像を監視員に表示する監視員HMI4に送信したりするように構成されている。
図11は、本実施の形態1に係る遠隔監視装置1の動作例のうち死角管理情報の生成動作の例を示すフローチャートである。この動作は、事前処理として行われる。
ステップS1にて、自動運転車両2は、走行ルートの位置などを示す車両センサの第1センシング情報を取得する。取得回数は1回でもよいが、複数回のほうが望ましい。
ステップS2にて、情報統合部101は、走行ルート上の同じ地点について第1センシング情報を統合して第1統合結果を生成する。同じ位置の第1センシング情報を統合することで、当該位置における自動運転車両2の死角エリア2bの識別が可能となる。
ステップS3にて、死角判定部102は、第1統合結果に基づいて、動的死角エリアと静的死角エリアとを判定する。例えば、死角判定部102は、全ての第1センシング情報の第1統合結果において、検出可能エリア2aのうち車両センサで検出できなかったエリアを静的死角エリアとして判定する。また、死角判定部102が、一部の第1センシング情報みの第1統合結果において、検出可能エリア2aのうち車両センサで検出できなかったエリアを動的死角エリアとして判定する。
ステップS4にて、管理情報生成部103は、静的死角エリアに関する死角管理情報を生成し、記憶装置11に保存して管理する。なお、動的死角エリアは、自動運転車両2の走行ごとに異なるため死角管理情報としては管理しない。また、この時点では死角管理情報とインフラ支援管理情報とは互いに対応付けられていない。その後、図11の処理が終了する。
なお、後述する処理では、死角判定部102は、第1統合結果と、予め管理された死角管理情報が示す静的死角エリアとに基づいて、静的死角エリアと動的死角エリアとを含む死角エリア2bを判定する。このような構成によれば、死角判定部102は、リアルタイムの第1統合結果に基づいて、静的死角エリア以外の検出可能エリア2aから動的死角エリアを判定するだけで、全体の死角エリア2bを判定することができる。このため、死角判定部102での死角エリア2bの判定処理の負荷を低減することができる。
図12は、本実施の形態1に係る遠隔監視装置1の動作例のうちインフラ支援管理情報の生成動作の例を示すフローチャートである。この動作は、事前処理として行われ、基本的には図1の死角管理情報の生成と同様の処理である。
ステップS11にて、RSU3は、インフラセンサの第2センシング情報を取得する。取得回数は1回でもよいが、複数回のほうが望ましい。
ステップS12にて、情報統合部101は、第2センシング情報を統合して第2統合結果を生成する。同じ位置のセンシング情報を統合することで、当該位置におけるインフラセンサの検出可能エリア3a及び死角エリアの識別が可能となる。
ステップS13にて、死角判定部102は、第2統合結果に基づいて、動的検出可能エリアと、静的検出可能エリアとを判定する。例えば、死角判定部102は、全ての第2センシング情報の第2統合結果において、インフラセンサで検出できたエリアを静的検出可能エリアとして判定する。また、死角判定部102は、一部の第2センシング情報みの第2統合結果において、インフラセンサで検出できたエリアを動的検出可能エリアとして判定する。
ステップS14にて、管理情報生成部103は、静的検出可能エリアに関するインフラ支援管理情報を生成し、記憶装置11に保存して管理する。インフラセンサで検出できないエリアは、インフラセンサの死角エリアとして設定される。なお、動的検出可能エリアは、自動運転車両2の走行ごとに異なるためインフラ支援管理情報としては管理しない。また、この時点では死角管理情報とインフラ支援管理情報とは互いに対応付けられていない。その後、図12の処理が終了する。
なお、後述する処理では、死角判定部102は、第2統合結果と、予め管理された静的検出可能エリアとに基づいて、静的検出可能エリアと動的検出可能エリアとを含む検出可能エリア3aを判定する。このような構成によれば、死角判定部102は、リアルタイムの第2統合結果に基づいて、静的検出可能エリア以外のエリアから動的検出可能エリアを判定するだけで、全体の検出可能エリア3aを判定することができる。このため、死角判定部102での検出可能エリア3aの判定処理の負荷を低減することができる。
図13を用いて、実施の形態1に係る遠隔監視装置1の動作例のうち死角管理情報とインフラ支援管理情報との対応付け動作の例を示すフローチャートである。この動作は、例えば図11及び図12の処理後に逐次的に(例えば周期的に)行われる。
ステップS21にて、情報統合部101は、自動運転車両2から第1センシング情報を取得し、RSU3から第2センシング情報を取得する。
ステップS22にて、情報統合部101は、第1センシング情報を統合して第1統合結果を生成し、第2センシング情報を統合して第2統合結果を生成する。情報統合部101は、他車両のセンシング情報を利用できる場合には、その情報も統合してもよい。
ステップS23にて、死角判定部102は、第1統合結果と、予め管理された静的死角エリアとに基づいて、静的死角エリアと動的死角エリアとを含む死角エリア2bを判定する。死角判定部102は、第2統合結果と、予め管理された静的検出可能エリアとに基づいて、静的検出可能エリアと動的検出可能エリアとを含む検出可能エリア3aを判定する。なお、死角エリア2bは、動的死角エリアを含まずに静的死角エリアを含んでもよいし、検出可能エリア3aは、動的検出可能エリアを含まずに静的検出可能エリアを含んでもよい。
死角判定部102は、RSU3の検出可能エリア3aが、自動運転車両2の死角エリア2bの少なくとも一部と重なるか否かを判定する。つまり、RSU3が、自動運転車両2の死角エリア2bの状態を検出するか否かを判定する。
RSU3が、自動運転車両2の死角エリア2bの状態を検出すると判定された場合には処理がステップS24に進み、RSU3が、自動運転車両2の死角エリア2bの状態を検出すると判定されなかった場合には図13の動作が終了する。
ステップS24にて、管理情報生成部103は、自動運転車両2の死角エリア2bに関する死角管理情報と、当該死角エリア2bの状態を検出すると判定されたインフラセンサの検出可能エリア3aに関するインフラ支援管理情報とを対応付ける。管理情報生成部103は、この対応付けを図8のサポートRSUによって行う。その後、図13の動作が終了する。
図14は、本実施の形態1に係る遠隔監視装置1の全体の動作例を示すフローチャートである。この動作は、例えば図11及び図12の処理後に逐次的に(例えば周期的に)行われる。
ステップS31にて、自動運転車両2は、指定された走行ルートに従って走行する。走行中、情報統合部101は、自動運転車両2から、第1センシング情報、カメラ映像及び車両情報を周期的に受信する。情報統合部101は、RSU3から、第2センシング情報及びカメラ映像を周期的に受信する。
ステップS32にて、情報統合部101は、自動運転車両2の位置と、車両情報とを支援判定部104に出力する。
ステップS33にて、支援判定部104は、自動運転車両2の位置と、死角管理情報とに基づいて、自動運転車両2の走行ルート上に自動運転車両2の死角エリア2bが存在するか否かを判定する。死角エリア2bが存在すると判定された場合には処理がステップS34に進み、死角エリア2bが存在すると判定されなかった場合には図14の動作が終了する。
ステップS34にて、支援判定部104は、死角管理情報に対応付けられたインフラ支援管理情報が存在するか否か、つまり、自動運転車両2の死角エリア2bの状態をインフラセンサによって支援可能(つまり検出可能)であるか否かを判定する。死角管理情報に対応付けられたインフラ支援管理情報が存在すると判定された場合には処理がステップS35に進み、当該インフラ支援管理情報が存在すると判定されなかった場合には図14の動作が終了する。なお、支援判定部104は、他車両のセンシング情報を利用できる場合には、インフラセンサに対する判定と同様に、自動運転車両2の死角エリア2bの状態が他車両のセンサによって検出可能であるか否かを判定してもよい。
ステップS35にて、支援判定部104は、車両情報に基づいて、自動運転車両2が自動運転中であるか、遠隔操作中であるかを判定する。自動運転車両2が自動運転中であると判定された場合には処理がステップS36に進み、自動運転車両2が遠隔操作中であると判定された場合には処理がステップS38に進む。
ステップS36にて、支援判定部104は、ステップS34で支援可能と判定されたインフラ支援管理情報を、路車協調支援部105に出力する。
ステップS37にて、路車協調支援部105は、支援判定部104からのインフラ支援管理情報に対応する支援可能なインフラセンサの第2統合結果を、自動運転車両2に送信し、自動運転車両2は、当該第2統合結果を自動運転に用いる。その後、図14の動作が終了する。
ステップS38にて、支援判定部104は、ステップS34で支援可能と判定されたインフラ支援管理情報を、映像転送部106に出力する。
ステップS39にて、映像転送部106は、支援判定部104からのインフラ支援管理情報に対応する支援可能なインフラセンサのカメラ映像を、監視員HMI4に送信し、監視員HMI4は、当該カメラ映像を監視員に対して表示する。その後、図14の動作が終了する。
図15は、本実施の形態1に係る遠隔監視装置1の動作例のうち映像の変更動作の例を示すフローチャートである。
ステップS41にて、監視員は、監視員HMI4から自動運転車両2の遠隔操作を要請される。
ステップS42にて、監視員HMI4は、映像転送部106から送信された自動運転車両2のカメラ映像及びインフラセンサのカメラ映像を監視員に対して表示する。これにより、自動運転車両2が遠隔操作中である場合に、監視員は、自動運転車両2のカメラ映像と、当該カメラ映像の死角エリアの視認を支援可能なインフラセンサのカメラ映像とを見ながら、自動運転車両2を遠隔操作することができる。
ステップS43にて、監視員は、監視員HMI4で表示されるインフラセンサのカメラ映像が、遠隔操作に不適切であると判定した場合に、インフラセンサのカメラ映像の表示の変更を監視員HMI4に要求する。
ステップS44にて、管理情報更新部107は、監視員HMI4から変更の要求を受信すると、インフラセンサの変更後のカメラ映像を映像転送部106から監視員HMI4に送信し、監視員HMI4は、送信された変更後のカメラ映像を表示する。これにより例えば、一の死角エリア2bの視認を支援可能な複数のインフラセンサから適切なインフラセンサのカメラ映像が監視員HMI4で表示される。
ステップS45にて、管理情報更新部107は、変更後のカメラ映像のインフラ支援管理情報を更新する。これにより、次回のステップS42では、変更後のカメラ映像が、監視員HMI4で優先的に表示される。その後、図15の動作が終了する。
<実施の形態1のまとめ>
以上のような本実施の形態1に係る遠隔監視装置1によれば、死角管理情報に対応付けられたインフラ支援管理情報が存在すると判定し、自動運転車両2が遠隔操作中であると判定した場合に、インフラセンサのカメラ映像を監視員に表示すべきと判定する。このような構成によれば、自動運転車両2の死角エリア2bの状態を、インフラセンサのカメラ映像によって視認できるか否かの判定について、監視員の負担を低減することができる。なお本実施の形態1のように、自動運転車両2の走行前に、自動運転車両2の死角エリア2bが存在するか否かを予め判定すれば、適切な支援を素早く行うことができ、かつ、自動運転車両2の走行中の遠隔監視装置1の処理負荷を低減することができる。
また本実施の形態1では、死角管理情報に対応付けられたインフラ支援管理情報が存在すると判定し、自動運転車両2が自動運転中であると判定した場合に、インフラセンサの第2統合結果を自動運転車両2に送信する。このような構成によれば、自動運転車両2が遠隔操作中であるか、自動運転中であるかによって、自動運転車両2に対して適切な支援を行うことができる。
また本実施の形態1では、監視員が、監視員HMI4でのインフラセンサのカメラ映像の表示を変更する要求をした場合に、変更後のカメラ映像を監視員HMI4に優先的に表示させる。このような構成によれば、次回以降、変更後のカメラ映像が優先的に表示されるので、カメラ映像の選択について、監視員の負担を低減することができる。
また本実施の形態1では、第1統合結果と静的死角エリアとに基づいて、静的死角エリアと動的死角エリアとを含む死角エリアを判定する。このような構成によれば、これにより、静的死角エリアと動的死角エリアとを容易に切り分けて判定することができるので、死角エリアの判定処理の負荷を低減することができる。
<変形例1>
実施の形態1では、支援判定部104は、自動運転車両2の位置に対して死角エリア2bが存在すると判定し、死角管理情報に対応付けられたインフラ支援管理情報が存在すると判定し、自動運転車両2が遠隔操作中であると判定した場合に、支援可能なインフラセンサで取得されたカメラ映像を監視員HMI4から監視員に表示すべきと判定した。しかしながら、支援判定部104は、支援可能なインフラセンサで取得されたカメラ映像を監視員HMI4から監視員に表示すべきと判定するのではなく、支援可能なインフラセンサで取得された情報を監視員HMI4から監視員に表示すべきと判定してもよい。支援可能なインフラセンサで取得された情報は、例えば、上記カメラ映像と、自動運転車両2の位置と、自動運転車両2の速度との少なくともいずれか1つを含む。
映像転送部106は、支援可能なインフラセンサで取得された情報を監視員HMI4から監視員に表示すべきと支援判定部104で判定された場合に、外部インタフェース12を用いて、当該情報を監視員HMI4に送信する。送信された情報が自動運転車両2の位置及び速度を含む場合には、監視員HMI4は、監視員に対して、自動運転車両2の位置及び速度を俯瞰的に表示してもよいし、AR(Augmented Reality)を用いて表示してもよいし、地図上に表示してもよい。
また、管理情報更新部107は、監視員が、監視員HMI4での情報の表示を変更する要求をした場合に、変更後の情報を監視員HMI4に優先的に表示させてもよい。
<変形例2>
実施の形態1では、図1のように、遠隔監視装置1と監視員HMI4とは個別に設けられたが、これに限ったものではない。例えば、遠隔監視装置1は監視員HMI4を備えてもよい。また、実施の形態1において、遠隔監視装置1及び自動運転車両2で使用する地図は、中程度の精度の地図であってもよいし、高い精度の地図であってもよいし、低い精度の地図であってもよい。
また実施の形態1では便宜上、車両センサの周辺認識センサ及びカメラの死角エリアは同一であるものとして説明した。しかしながら、周辺認識センサ及びカメラの死角エリアは異なっていてもよく、その場合にはセンサ及びカメラについて個別にステップS23の判定が行われればよい。同様に実施の形態1では便宜上、インフラセンサの周辺監視センサ及びカメラの検出可能エリアは同一であるものとして説明したが、異なっていてもよく、その場合にはセンサ及びカメラについて個別にステップS23の判定が行われればよい。
また、以上の変形例は、実施の形態2以降においても同様に適用することができる。
<実施の形態2>
図16は、本実施の形態2に係る遠隔監視装置1を含む遠隔監視システムの構成を示すブロック図であり、図2に対応するブロック図である。以下、本実施の形態2に係る構成要素のうち、上述の構成要素と同じまたは類似する構成要素については同じまたは類似する参照符号を付し、異なる構成要素について主に説明する。
図16の構成は、図2の構成にパターン分類部109を追加が追加された構成と同様である。なお、図16では、図の簡略化のため、路車協調支援部105及び映像転送部106の図示を省略している。
パターン分類部109は、インフラセンサの第2統合結果をモデル化することによって、インフラセンサの検出可能エリア3aの状態を分類可能なパターンを生成する。監視員は、パターンの生成に用いられた第2統合結果を確認して、当該パターンと、当該パターンを示す状態との登録を、監視員HMI4に要求する。監視員HMI4が監視員から登録の要求を受けた場合に、パターン分類部109は、パターン及び状態を記憶装置11に登録する。なお、この登録は、パターン分類部109ではなく、管理情報更新部107によって行われてもよい。
図17及び図18は、パターン分類部109で生成されるパターンの例を説明するための図である。図17に示すように、パターンは、正常状態と異常状態とに大きく分類される。正常状態として、何もない状態、自動運転車両2が停車した状態、自動運転車両2に乗客が乗降している状態、及び、自動運転車両2の停留所で乗客が待機している状態のパターンが登録されている。異常状態として、落下物が存在する状態、及び、自動運転車両2の停留所で乗客が異常である状態(例えば乗客が倒れている状態)のパターンが登録されている。図18に示すように、各パターンには、パターン識別子、状態、正常か異常かの状態、及び、監視員に支援を要請するか否かの情報が設定される。
支援判定部104は、パターン分類部109で新たに生成されたパターンと、記憶装置11に予め登録されたパターンとに基づいて、監視員HMI4が監視員に支援を要請すべきか否かを判定する。例えば、新たに生成されたパターンが、異常状態として予め登録されたパターンに分類される場合、または、正常状態及び異常状態に関わらず予め登録されたパターンに分類されない場合には、支援判定部104は、監視員に要請すべきと判定する。
また、支援判定部104は、パターン分類部109で新たに生成されたパターンと、記憶装置11に予め登録されたパターンとに基づいて、自動運転車両2が自動運転を継続すべきか否かを判定する。例えば、新たに生成されたパターンが、正常状態として予め登録されたパターンに分類される場合には、支援判定部104は、自動運転車両2は自動運転を継続すべきと判定する。
<動作>
図19は、本実施の形態2に係る遠隔監視装置1の動作例のうちパターン登録動作の例を示すフローチャートである。
ステップS51にて、RSU3は、インフラセンサの第2センシング情報を取得する。取得回数は1回でもよいが、複数回のほうが望ましい。
ステップS52にて、情報統合部101は、第2センシング情報を統合して第2統合結果を生成する。
ステップS53にて、パターン分類部109は、第2統合結果の特徴点を抽出して、モデル化し、インフラセンサの検出可能エリア3aの状態を分類可能なパターンを生成する。
ステップS54にて、監視員は、監視員HMI4で表示されるインフラセンサの検出可能エリア3aの状態を目視で確認し、その状態を登録すると判定した場合に、その状態の登録を監視員HMI4に要求する。
ステップS55にて、監視員HMI4が監視員から登録の要求を受けた場合に、パターン分類部109は、監視員から要求された状態と、生成したパターンとを対応付けて記憶装置11に登録する。その後、図19の動作が終了する。
なお以上では、監視員が状態の登録を要求する例について説明しているが、パターン分類部109が機械学習(訓練)して自動的に状態を登録してもよい。
図20は、本実施の形態2に係る遠隔監視装置1の動作例のうち支援判定動作の例を示すフローチャートである。この動作は、例えば図19の処理後に逐次的に(例えば周期的に)行われる。
ステップS61にて、RSU3は、第2センシング情報を取得し、情報統合部101は、第2センシング情報を統合して第2統合結果を生成する。そして、支援判定部104は、情報統合部101から第2統合結果を取得する。
ステップS62にて、パターン分類部109は、第2統合結果の特徴点を抽出して、モデル化し、インフラセンサの検出可能エリア3aの状態を分類可能なパターンを生成する。そして、支援判定部104は、生成されたパターンが、正常状態として予め登録されたパターンに分類されるか否かを判定する。生成されたパターンが、正常状態として予め登録されたパターンに分類されると判定された場合には、処理がステップS63に進む。生成されたパターンが、正常状態として予め登録されたパターンに分類されると判定されなかった場合には、処理がステップS65に進む。
ステップS63にて、支援判定部104は、自動運転車両2は自動運転を継続すべきと判定し、自動運転車両2に発進可能等の行動指示を行う。
ステップS64にて、自動運転車両2は、支援判定部104からの指示に基づいて、自動運転を継続する。その後、図20の動作が終了する。
ステップS65にて、支援判定部104は、監視員HMI4が監視員に支援を要請すべきと判定し、監視員HMI4は、監視員に異常状態及び支援要請を通知する。
ステップS66にて、監視員は、監視員HMI4に表示されるカメラ映像を確認するとともに、第2統合結果を適宜確認する。監視員は、インフラセンサで検出された状態に問題がないと判定した場合には、当該状態のパターンを正常状態として登録するように、パターン分類部109に要求する。監視員は、インフラセンサで検出された状態に問題があると判定した場合には、自動運転車両2を遠隔操作し、かつ、当該状態のパターンを異常状態として登録するように、パターン分類部109に要求する。
ステップS67にて、パターン分類部109は、監視員から要求された状態と、生成したパターンとを対応付けて記憶装置11に追加登録する。その後、図20の動作が終了する。
なお以上では、監視員が状態の登録を要求する例について説明しているが、パターン分類部109が機械学習(訓練)して自動的に状態を登録してもよい。
<実施の形態2のまとめ>
以上のような本実施の形態2に係る遠隔監視装置1によれば、第2統合結果をモデル化することによってパターンを生成し、当該パターンと、予め登録されたパターンとに基づいて、監視員HMI4が監視員に支援を要請すべきか否かを判定する。このような構成によれば、遠隔操作をすべきかの確認について、監視員の負担を軽減することができる。なお、自動運転車両2の走行前に上記判定を予め行えば、適切な支援を素早く行うことができ、かつ、自動運転車両2の走行中の遠隔監視装置1の処理負荷を低減することができる。
また本実施の形態2では、第2統合結果をモデル化することによってパターンを生成し、当該パターンと、予め登録されたパターンとに基づいて、自動運転車両2が自動運転を継続すべきか否かを判定する。このような構成によれば、自動運転車両2が自動運転を適切に継続することができる。
また本実施の形態2では、生成されたパターンが予め登録されたパターンに分類されていない場合に、監視員の要求によって当該パターンが予め登録されたパターンに追加される。このような構成によれば、遠隔監視装置1を監視員にあわせてカスタマイズすることができる。
<変形例>
実施の形態2では、自動運転車両2の停留所におけるパターンについて説明したが、これに限ったものではなく、停留所以外にも通常の道路及び交差点などの他の地点におけるパターンが生成及び管理されてもよい。
なお、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。
上記した説明は、すべての局面において、例示であって、限定的なものではない。例示されていない無数の変形例が、想定され得るものと解される。
1 遠隔監視装置、2 自動運転車両、2b 死角エリア、3 RSU、3a 検出可能エリア、4 監視員HMI、101 情報統合部、102 死角判定部、103 管理情報生成部、104 支援判定部、105 路車協調支援部、106 映像転送部、107 管理情報更新部、109 パターン分類部。

Claims (9)

  1. 監視員による遠隔操作が可能な車両に搭載されたセンサで取得された複数の第1センシング情報を統合して第1統合結果を生成し、道路に付設されたインフラセンサで取得された第2センシング情報を統合して第2統合結果を生成する情報統合部と、
    前記第1統合結果において、前記センサの検出可能エリアのうち前記第1センシング情報の全てで検出できなかったエリアである静的死角エリアと、前記検出可能エリアのうち前記第1センシング情報の一部で検出できなかったエリアである動的死角エリアとを含む死角エリアを判定し、前記第1統合結果と前記第2統合結果とに基づいて、前記インフラセンサが、前記静的死角エリアの状態を検出するか否かを判定する死角判定部と、
    前記車両の位置に対して前記死角エリアが存在すると判定し、前記インフラセンサが前記静的死角エリアの状態を検出すると判定し、前記車両が遠隔操作中であると判定した場合に、前記インフラセンサで取得された情報をヒューマンインタフェースから前記監視員に表示すべきと判定する支援判定部と
    を備える、遠隔監視装置。
  2. 請求項1に記載の遠隔監視装置であって、
    前記静的死角エリアに関する死角管理情報と、前記静的死角エリアの状態を検出すると判定された前記インフラセンサの静的検出可能エリアに関するインフラ支援管理情報とを対応付ける管理情報生成部をさらに備え
    前記静的検出可能エリアは、全ての前記第2センシング情報の前記第2統合結果において、前記インフラセンサで検出できたエリアである、遠隔監視装置。
  3. 請求項2に記載の遠隔監視装置であって、
    前記車両は自動運転可能であり
    前記車両の位置に対して前記死角エリアが存在すると判定し、前記死角管理情報に対応付けられた前記インフラ支援管理情報が存在すると判定し、前記車両が自動運転中であると前記支援判定部で判定された場合に、前記静的検出可能エリアの前記第2統合結果を前記車両に送信する路車協調支援部と、
    前記ヒューマンインタフェースから前記情報を表示すべきと前記支援判定部で判定された場合に、前記情報を前記ヒューマンインタフェースに送信する情報転送部と
    を備える、遠隔監視装置。
  4. 請求項1に記載の遠隔監視装置であって、
    前記監視員が、前記ヒューマンインタフェースでの前記情報の表示を変更する要求をした場合に、変更後の前記情報を前記ヒューマンインタフェースに優先的に表示させる管理情報更新部をさらに備える、遠隔監視装置。
  5. 請求項1に記載の遠隔監視装置であって、
    前記第2統合結果をモデル化することによって、前記インフラセンサの検出可能エリアの状態を分類可能なパターンを生成するパターン分類部をさらに備え、
    前記支援判定部は、
    前記パターンと、予め登録されたパターンとに基づいて、前記ヒューマンインタフェースが前記監視員に支援を要請すべきか否かを判定する、遠隔監視装置。
  6. 請求項1に記載の遠隔監視装置であって、
    前記第2統合結果をモデル化することによって、前記インフラセンサの検出可能エリアの状態を分類可能なパターンを生成するパターン分類部をさらに備え、
    前記車両は自動運転可能であり、
    前記支援判定部は、
    前記パターンと、予め登録されたパターンとに基づいて、前記車両が自動運転を継続すべきか否かを判定する、遠隔監視装置。
  7. 請求項5または請求項6に記載の遠隔監視装置であって、
    前記パターンが前記予め登録されたパターンに分類されていない場合に、前記監視員の要求によって前記パターンが前記予め登録されたパターンに追加される、遠隔監視装置。
  8. 遠隔監視装置と、
    前記遠隔監視装置と通信可能なヒューマンインタフェースと
    を備え、
    前記遠隔監視装置は、
    監視員による遠隔操作が可能な車両に搭載されたセンサで取得された複数の第1センシング情報を統合して第1統合結果を生成し、道路に付設されたインフラセンサで取得された第2センシング情報を統合して第2統合結果を生成する情報統合部と、
    前記第1統合結果において、前記センサの検出可能エリアのうち前記第1センシング情報の全てで検出できなかったエリアである静的死角エリアと、前記検出可能エリアのうち前記第1センシング情報の一部で検出できなかったエリアである動的死角エリアとを含む死角エリアを判定し、前記第1統合結果と前記第2統合結果とに基づいて、前記インフラセンサが、前記静的死角エリアの状態を検出するか否かを判定する死角判定部と、
    前記車両の位置に対して前記死角エリアが存在すると判定し、前記インフラセンサが前記静的死角エリアの状態を検出すると判定し、前記車両が遠隔操作中であると判定した場合に、前記インフラセンサで取得された情報を前記ヒューマンインタフェースから前記監視員に表示すべきと判定する支援判定部と
    を備える、遠隔監視システム。
  9. 監視員による遠隔操作が可能な車両に搭載されたセンサで取得された複数の第1センシング情報を統合して第1統合結果を生成し、道路に付設されたインフラセンサで取得された第2センシング情報を統合して第2統合結果を生成し、
    前記第1統合結果において、前記センサの検出可能エリアのうち前記第1センシング情報の全てで検出できなかったエリアである静的死角エリアと、前記検出可能エリアのうち前記第1センシング情報の一部で検出できなかったエリアである動的死角エリアとを含む死角エリアを判定し、前記第1統合結果と前記第2統合結果とに基づいて、前記インフラセンサが、前記静的死角エリアの状態を検出するか否かを判定し、
    前記車両の位置に対して前記死角エリアが存在すると判定し、前記インフラセンサが前記静的死角エリアの状態を検出すると判定し、前記車両が遠隔操作中であると判定した場合に、前記インフラセンサで取得された情報をヒューマンインタフェースから前記監視員に表示すべきと判定する、遠隔監視方法。
JP2023536134A 2023-02-24 2023-02-24 遠隔監視装置、遠隔監視システム、及び、遠隔監視方法 Active JP7433542B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023006746 2023-02-24

Publications (1)

Publication Number Publication Date
JP7433542B1 true JP7433542B1 (ja) 2024-02-19

Family

ID=89904366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023536134A Active JP7433542B1 (ja) 2023-02-24 2023-02-24 遠隔監視装置、遠隔監視システム、及び、遠隔監視方法

Country Status (1)

Country Link
JP (1) JP7433542B1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185366A (ja) 2018-04-10 2019-10-24 住友電気工業株式会社 情報処理装置、システム、方法、及びコンピュータプログラム
JP2020095350A (ja) 2018-12-10 2020-06-18 トヨタ自動車株式会社 支援装置、支援方法およびプログラム
US20210018916A1 (en) 2019-07-18 2021-01-21 Nissan North America, Inc. System to Recommend Sensor View for Quick Situational Awareness
JP2021071908A (ja) 2019-10-30 2021-05-06 株式会社日立製作所 異常判定装置、車両支援システム、サーバ
JP2022021289A (ja) 2020-07-21 2022-02-02 パナソニックIpマネジメント株式会社 車載装置、路側装置、及び通信方法
JP2022524932A (ja) 2019-03-29 2022-05-11 インテル・コーポレーション 自律車両システム
JP2022114971A (ja) 2021-01-27 2022-08-08 株式会社デンソー 走行支援制御装置、走行支援方法、走行支援プログラム
JP2022124504A (ja) 2021-02-16 2022-08-26 Necプラットフォームズ株式会社 死角表示装置、死角表示システム、死角表示方法、及びコンピュータプログラム
US20230001952A1 (en) 2021-04-02 2023-01-05 May Mobility, Inc. Method and system for operating an autonomous agent with incomplete environmental information

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185366A (ja) 2018-04-10 2019-10-24 住友電気工業株式会社 情報処理装置、システム、方法、及びコンピュータプログラム
JP2020095350A (ja) 2018-12-10 2020-06-18 トヨタ自動車株式会社 支援装置、支援方法およびプログラム
JP2022524932A (ja) 2019-03-29 2022-05-11 インテル・コーポレーション 自律車両システム
US20210018916A1 (en) 2019-07-18 2021-01-21 Nissan North America, Inc. System to Recommend Sensor View for Quick Situational Awareness
JP2021071908A (ja) 2019-10-30 2021-05-06 株式会社日立製作所 異常判定装置、車両支援システム、サーバ
JP2022021289A (ja) 2020-07-21 2022-02-02 パナソニックIpマネジメント株式会社 車載装置、路側装置、及び通信方法
JP2022114971A (ja) 2021-01-27 2022-08-08 株式会社デンソー 走行支援制御装置、走行支援方法、走行支援プログラム
JP2022124504A (ja) 2021-02-16 2022-08-26 Necプラットフォームズ株式会社 死角表示装置、死角表示システム、死角表示方法、及びコンピュータプログラム
US20230001952A1 (en) 2021-04-02 2023-01-05 May Mobility, Inc. Method and system for operating an autonomous agent with incomplete environmental information

Similar Documents

Publication Publication Date Title
JP6894471B2 (ja) 自動運転車(adv)のサブシステムによるパトロールカーのパトロール
CN107608388B (zh) 自主警车
JP7205204B2 (ja) 車両の制御装置及び自動運転システム
CN109345829B (zh) 无人车的监控方法、装置、设备及存储介质
US10754344B2 (en) Method and apparatus for road hazard detection
JP2019021200A (ja) 制御装置、制御方法、制御プログラム及び制御システム
US20190385452A1 (en) Method and system for vehicle location
JP2020107080A (ja) 交通情報処理装置
US11636715B2 (en) Using dynamic triggers in dangerous situations to view sensor data for autonomous vehicle passengers
TW201333896A (zh) 使用視訊雷達的遠距交通管理系統
US20230161034A1 (en) Point cloud registration for lidar labeling
JP2024040209A (ja) 遠隔支援システム及び遠隔支援方法
JP7057874B2 (ja) 貨物を輸送するための自律走行車の盗難防止技術
US20240092392A1 (en) Detecting and Responding to Malfunctioning Traffic Lights
US11181924B2 (en) System and method for performing differential analysis of vehicles
US11584394B2 (en) Vehicle controller device and vehicle control system
US20200410788A1 (en) Management apparatus, vehicle, inspection apparatus, and vehicle inspection system and inforamtion processing method therefor
JP7433542B1 (ja) 遠隔監視装置、遠隔監視システム、及び、遠隔監視方法
JP7165907B2 (ja) 車両制御装置、車両、車両制御方法およびプログラム
JP2018136917A (ja) 情報処理装置、情報処理方法及びプログラム
CN113928335A (zh) 用于控制具有自主驾驶模式的车辆的方法和系统
WO2020122057A1 (ja) 画像処理装置、画像処理方法および画像処理システム
CN111710175B (zh) 交通信号灯的控制方法及装置
JP2023158952A (ja) 運行管理装置、運行管理装置の制御方法、及び運行管理装置の制御プログラム
KR102467632B1 (ko) 차량 후방 감지 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230614

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240206

R150 Certificate of patent or registration of utility model

Ref document number: 7433542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150