JP2021174405A - 表示システム、表示方法、及び表示プログラム - Google Patents

表示システム、表示方法、及び表示プログラム Download PDF

Info

Publication number
JP2021174405A
JP2021174405A JP2020079824A JP2020079824A JP2021174405A JP 2021174405 A JP2021174405 A JP 2021174405A JP 2020079824 A JP2020079824 A JP 2020079824A JP 2020079824 A JP2020079824 A JP 2020079824A JP 2021174405 A JP2021174405 A JP 2021174405A
Authority
JP
Japan
Prior art keywords
person
risk
display
vehicle
door
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020079824A
Other languages
English (en)
Inventor
貴也 眞方山
Takaya Makatayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020079824A priority Critical patent/JP2021174405A/ja
Publication of JP2021174405A publication Critical patent/JP2021174405A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】自動運転車両を監視する場合に、車外にいて危険な状態にある人物を容易に把握することができる表示システム、表示方法、及び表示プログラムを提供する。
【解決手段】表示システムは、自動運転車両の車外にいる人物を表す情報を表示する。表示システムは、人物の移動速度、及び、自動運転車両のドアを閉める動作を開始してからドアが閉まるまでのドア閉時間に基づいて、人物に対して、人物がドアに挟まる危険の程度を表す危険度を決定する危険度決定部21Bと、危険度決定部21Bにより決定された、人物の危険度に応じて、人物を表す情報の表示形態を変更する制御を行う表示制御部21Cと、を備える。
【選択図】図4

Description

本開示は、表示システム、表示方法、及び表示プログラムに関する。
近年、自動運転バスの実用化を目指して様々な取り組みが行われている。この自動運転バスでは、利用者の安全の確保を目的として、運行状態が監視センタで監視される。この自動運転バスでは、利用者が乗り降りするため、車外にいる利用者の安全にも配慮する必要がある。
例えば、特許文献1には、車外にいるユーザの安全状態を監視し、危険な状態であれば危険をユーザに知らせる機能を有した車外ユーザ保護機能付き車両が記載されている。この車外ユーザ保護機能付き車両は、車外にいるユーザの位置を検出するユーザ位置検出手段と、ユーザ位置検出手段により検出されたユーザの位置に基づいて、ユーザ周辺の物体の位置を検出する物体位置検出手段と、を備える。また、この車外ユーザ保護機能車両は、ユーザ位置検出手段及び物体位置検出手段により検出されたユーザ及びユーザ周辺の物体の位置から算出される両者の相対位置及び相対速度に基づいて、ユーザと周辺の物体とが衝突し得る危険な状態にあるか否かを判定する危険状態判定手段と、危険状態判定手段により、ユーザが危険状態にあると判定されたときには、ユーザに危険を通知する危険通知手段と、を備える。
特開2008−65381号公報
ところで、例えば、バスやタクシーのような乗降者がドアの開閉を行わない車両において自動又は乗降者以外の第三者がドアを閉める指示情報を提供する場合に、車外にいる人物のうち、ドアの比較的近くにいる人物はドアに挟まれる危険性が高く、ドアから比較的離れている人物はドアに挟まれる危険性が低いと考えられる。
しかしながら、上記特許文献1に記載の技術をはじめ、従来の自動運転車両を監視するシステムでは、車外にいる人物を、危険な状態であるか否かに係わらず、一律に表示している。このため、どの人物が危険な状態であるのか把握することが難しかった。
本開示は、自動運転車両を監視する場合に、車外にいて危険な状態にある人物を容易に把握することができる表示システム、表示方法、及び表示プログラムを提供することを目的とする。
上記目的を達成するために、本開示の第1態様に係る表示システム(90)は、自動運転車両の車外にいる人物を表す情報を表示する表示システムであって、前記人物の移動速度、及び、前記自動運転車両のドアを閉める動作を開始してから前記ドアが閉まるまでのドア閉時間に基づいて、前記人物に対して、前記人物が前記ドアに挟まる危険の程度を表す危険度を決定する危険度決定部(21B)と、前記危険度決定部により決定された、前記人物の危険度に応じて、前記人物を表す情報の表示形態を変更する制御を行う表示制御部(21C)と、を備えている。
本開示の第2態様に係る表示方法は、自動運転車両の車外にいる人物を表す情報を表示する表示システム(90)による表示方法であって、前記人物の移動速度、及び、前記自動運転車両のドアを閉める動作を開始してから前記ドアが閉まるまでのドア閉時間に基づいて、前記人物に対して、前記人物が前記ドアに挟まる危険の程度を表す危険度を決定し、前記決定された、前記人物の危険度に応じて、前記人物を表す情報の表示形態を変更する制御を行う。
本開示の第3態様に係る表示プログラム(25A)は、自動運転車両の車外にいる人物を表す情報を表示する表示システムの表示プログラムであって、コンピュータを、前記人物の移動速度、及び、前記自動運転車両のドアを閉める動作を開始してから前記ドアが閉まるまでのドア閉時間に基づいて、前記人物に対して、前記人物が前記ドアに挟まる危険の程度を表す危険度を決定する危険度決定部(21B)、及び、前記危険度決定部により決定された、前記人物の危険度に応じて、前記人物を表す情報の表示形態を変更する制御を行う表示制御部(21C)、として機能させる。
開示の技術によれば、自動運転車両を監視する場合に、車外にいて危険な状態にある人物を容易に把握することができる、という効果を有する。
第1の実施形態に係る表示システムの構成の一例を示す図である。 比較例に係る監視画面を示す正面図である。 比較例に係る別の監視画面を示す正面図である。 第1の実施形態に係る表示装置の機能的な構成の一例を示すブロック図である。 実施形態に係る危険度テーブルの一例を示す図である。 第1の実施形態に係る表示プログラムによる処理の流れの一例を示すフローチャートである。 第1の実施形態に係る自動運転車両の車外周辺領域の状態を模式的に示す図である。 第1の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。 第1の実施形態に係る監視画面の一例を示す正面図である。 第1の実施形態に係る別の監視画面の一例を示す正面図である。 第2の実施形態に係る表示プログラムによる処理の流れの一例を示すフローチャートである。 第2の実施形態に係る自動運転車両の車外周辺領域の状態を模式的に示す図である。 第2の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。 第2の実施形態に係る監視画面の一例を示す正面図である。 第3の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。 第3の実施形態に係る監視画面の一例を示す正面図である。 第4の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。 第5の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。 第6の実施形態に係る移動速度補正テーブルの一例を示す図である。 第6の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。 第6の実施形態に係る監視画面の一例を示す正面図である。 第7の実施形態に係る移動速度補正テーブルの一例を示す図である。 第7の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。 第8の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。 第8の実施形態に係る危険度変更方法の説明に供する図である。
以下、図面を参照して、本開示の技術を実施するための形態の一例について詳細に説明する。
[第1の実施形態]
図1は、第1の実施形態に係る表示システム90の構成の一例を示す図である。
図1に示すように、本実施形態に係る表示システム90は、自動運転車両に搭載された車載装置10と、監視センタに設けられた表示装置20と、を備えている。なお、本実施形態では、自動運転車両として自動運転バスを例示して説明するが、自動運転バスに限定されるものではない。また、自動運転車両は、車両の制御や非常時に車両の制御を代替するために乗車する有人の場合も含む。さらに、車両の操舵の一部が自動で行われる車両も含む。
車載装置10及び表示装置20は、ネットワークNを介して通信可能に接続されている。ネットワークNには、一例として、インターネット、WAN(Wide Area Network)等が適用される。
自動運転車両は、所定の条件下において運転者の操作によらず自動走行が可能な車両である。自動運転車両は、停車地点で停車した際に、ドアを開き、ドアを閉め、発車する、という一連の動作を行うが、これら一連の動作は、一例として、監視センタからの遠隔操作によって行われる。
車載装置10は、住所又は緯度経度等の目的地の情報に基づいて、目的地までの走行ルートを含む走行計画を生成する機能、及び、自車両の自動運転を制御する機能を備えている。車載装置10は、CPU(Central Processing Unit)11と、メモリ12と、表示部14と、記憶部15と、センサ群16と、カメラ17と、通信部18と、を備えている。
CPU11は、プロセッサの一例である。ここでいうプロセッサとは、広義的なプロセッサを指し、汎用的なプロセッサ(例えば、CPU)や、専用のプロセッサ(例えば、GPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。メモリ12は、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成されている。
記憶部15には、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部15には、自動運転の制御を行うための制御プログラム(図示省略)が記憶されている。
センサ群16は、自車両の周囲の状況を把握するための各種のセンサにより構成されている。センサ群16は、車両外部の所定範囲に探査波を送信するミリ波レーダと、少なくとも車両前方の所定範囲をスキャンするLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)と、を含んでいる。また、センサ群16には、自車両に搭載されるGNSS(Global Navigation Satellite System)受信機が含まれていてもよい。このGNSS受信機により、自車両の現在位置及び現在時刻等の情報が取得される。
カメラ17は、自車両の所定方向の所定範囲を撮影する。具体的に、カメラ17は、自車両のドアの近傍に設けられており、ドアの周辺における車外の周辺領域を撮影する。カメラ17は、1台でもよいが、より多くの情報を得るために複数個所に複数台設けられていることが望ましい。なお、カメラ17に代えて、停車地点等に設置された外部カメラを用いて車外の周辺領域を撮影してもよい。
表示部14には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部14は、タッチパネルを一体的に有していてもよい。
通信部18は、インターネット、WAN等のネットワークNに接続し、表示装置20と通信を行うための通信インターフェースである。
なお、車載装置10は、自動運転に必要な走行装置(図示省略)と接続されており、この走行装置を制御することで自動運転を行う。この走行装置には、一例として、電動パワーステアリング、電子制御ブレーキ、電子制御スロットル等が含まれる。
車載装置10は、自車両の走行計画に従って自動運転するように自車両の駆動、操舵、及び制動を制御する。なお、自動運転の方法自体には、様々な公知の方法が存在し、本実施形態では特に限定されるものではない。
一方、表示装置20は、自動運転車両の車載装置10と定期的に通信することにより自動運転車両の車両状態を監視する。表示装置20には、一例として、サーバコンピュータ、パーソナルコンピュータ(PC:Personal Computer)等の汎用的なコンピュータ装置が適用される。表示装置20は、CPU21と、メモリ22と、操作部23と、表示部24と、記憶部25と、通信部26と、を備えている。
CPU21は、プロセッサの一例である。ここでいうプロセッサとは、上述したように、広義的なプロセッサを指し、汎用的なプロセッサや、専用のプロセッサを含むものである。メモリ22は、ROM、RAM等により構成されている。
記憶部25には、例えば、HDD、SSD、フラッシュメモリ等が用いられる。記憶部25には、自動運転車両の監視画面を表示するための表示プログラム25Aが記憶されている。表示プログラム25Aは、例えば、表示装置20に予めインストールされていてもよい。表示プログラム25Aは、不揮発性の非遷移的(non-transitory)記録媒体に記憶して、又はネットワークNを介して配布して、表示装置20に適宜インストールすることで実現してもよい。なお、不揮発性の非遷移的記録媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。
操作部23は、表示装置20への操作入力を受け付けるためのインターフェースとして構成されている。表示部24には、例えば、液晶ディスプレイ(LCD)、有機ELディスプレイ等が用いられる。表示部24は、タッチパネルを一体的に有していてもよい。
通信部26は、インターネット、WAN等のネットワークNに接続し、車載装置10と通信を行うための通信インターフェースである。
表示装置20は、自動運転車両が停車地点に停車した場合に、自動運転車両の車外にいる人物を撮影して得られる画像から、当該人物を表す情報を含む監視画面を表示する。人物を表す情報は、人物の画像そのものでもよく、人物の画像を模式化した図形等でもよい。なお、人物を表す情報は、撮影画像から特定することに限らず、センサ群16に含まれるLIDAR等から得られるセンサ情報から特定するようにしてもよい。ここで、図2及び図3を参照して、監視画面の比較例について説明する。
図2は、比較例に係る監視画面を示す正面図である。
図2に示す監視画面は、表示装置20の表示部24に表示される画面である。この監視画面には、車載装置10から取得された画像情報及び車両情報が表示される。画像情報は、カメラ17により撮影された動画であり、車外にいる人物が撮影されている。また、車両情報は、一例として、車両番号、現在時刻、走行状態、ドアの開閉状態、運行状態、及び走行位置等が含まれる。
図3は、比較例に係る別の監視画面を示す正面図である。
図3に示す監視画面は、図2と同様に、表示装置20の表示部24に表示される画面である。この監視画面は、車両周辺情報及び車両情報が表示される。車両情報は、図2の車両情報と同様である。車両周辺情報は、車外にいる人物を、人物の画像そのものではなく、画像を模式化した簡単な図形として表示する。人物の画像を模式化した図形は、例えば、複数台のカメラの画像から得られる情報を逐次解析し、これら複数の情報を統合して表示したものである。このように表示を簡単化することで監視者の負担が軽減される。また、単一のカメラでは、死角となり把握できない人物を他のカメラ画像から得られる情報を用いて補うことができるため、人物の見落としを防ぎ、安全性を向上することができる。
ところで、従来のシステムでは、上述の図2及び図3に示すように、車外にいる人物を、危険な状態であるか否かに係わらず、一律に表示している。このため、どの人物が危険な状態であるのか把握することが難しかった。
本実施形態に係る表示装置20のCPU21は、記憶部25に記憶されている表示プログラム25AをRAM23に書き込んで実行することにより、図4に示す各部として機能する。
図4は、第1の実施形態に係る表示装置20の機能的な構成の一例を示すブロック図である。
図4に示すように、本実施形態に係る表示装置20のCPU21は、人物認識部21A、危険度決定部21B、及び表示制御部21Cとして機能する。
本実施形態に係る記憶部25には、画像情報25B及び車両情報25Cが記憶されている。これらの画像情報25B及び車両情報25Cは、自動運転車両の車載装置10と定期的に通信することで取得される情報である。
画像情報25Bは、自動運転車両の車外の周辺領域を撮影した画像であり、例えば、動画である。カメラ17を用いた場合、画像情報25Bには、自動運転車両の一部が含まれていてもよく、自動運転車両は含まれなくてもよい。なお、外部カメラを用いた場合、画像情報25Bには、自動運転車両の全体が含まれていてもよい。また、車両情報25Cは、上述したように、一例として、車両番号、現在時刻、走行状態、ドアの開閉状態、運行状態、及び走行位置等が含まれる。
また、記憶部25には、一例として、図5に示す危険度テーブル25Dが記憶されている。
図5は、本実施形態に係る危険度テーブル25Dの一例を示す図である。
図5に示す危険度テーブル25Dは、自動運転車両のドアからの距離と危険度とを対応付けたデータテーブルである。ここでいう危険度とは、人物がドアに挟まる危険の程度を表す指標である。危険度は、ドアからの距離によって決定される。ドアからの距離は、人物の移動速度×ドア閉時間によって定まる。人物の移動速度には、一例として、固定値(例えば、80m/分)が用いられる。なお、80m/分(≒1.33m/秒)は、大人が歩く速度の目安となる値である。また、ドア閉時間とは、自動運転車両のドアを閉める動作(例えば、ドア閉ボタンを操作する動作)を開始してからドアが閉まるまでの時間であり、自動運転車両の仕様によって決定される値である。
図5の例では、ドアからの距離が、第1距離、第2距離、及び第3距離に区分けされる。具体的には、ドア閉時間を例えば3秒とした場合、第1距離は、1.33m/秒×3秒=3.99m未満と定められ、第2距離は、3.99m以上で、3.99mの2倍にあたる7.98m未満と定められ、第3距離は、7.98m以上と定められる。但し、これらの第1距離、第2距離、及び第3距離の値は、一例であり、人物の移動速度及びドア閉時間に基づいて適切な値が設定される。第1距離には、最も危険なレベルである危険レベルを表す危険度2が対応付けられる。つまり、この第1距離にいる人物は、ドア閉時間の間にドアに到着し、閉まるドアに挟まれる可能性が最も高いと考えられる。第2距離には、危険レベルほど危険ではないが注意が必要なレベルである注意レベルを表す危険度1が対応付けられる。第3距離には、安全なレベルである安全レベルを表す危険度0が対応付けられる。
本実施形態に係る人物認識部21Aは、自動運転車両が停車地点で停車した場合に、車外の周辺領域を撮影した画像情報25Bを取得し、取得した画像情報25Bから、人物を認識する。なお、画像から人物を認識する方法は、特に限定されるものではなく、公知の画像認識技術(人体認識、顔認識等)が適用される。
本実施形態に係る危険度決定部21Bは、人物認識部21Aにより人物が認識された場合に、人物の移動速度及びドア閉時間に基づいて、人物に対して、危険度を決定する。具体的には、上述の図5に示す危険度テーブル25Dを用いて危険度を決定する。つまり、危険度決定部21Bは、人物の移動速度及びドア閉時間によって定まる複数レベルの危険度に基づいて、車外の周辺領域を複数の危険度別領域に分割し、分割した複数の危険度別領域のうち、人物がいる危険度別領域の危険度を、人物の危険度として決定する。上述の危険度テーブル25Dの例によれば、車外の周辺領域は、ドアから3.99m未満の危険領域と、ドアから3.99m以上7.98m未満の注意領域と、7.98m以上の安全領域と、に分割される。この場合、危険領域にいる人物の危険度は危険度2とされ、注意領域にいる人物の危険度は危険度1とされ、安全領域にいる人物の危険度は危険度0とされる。
本実施形態に係る表示制御部21Cは、危険度決定部21Bにより決定された、人物の危険度に応じて、人物を表す情報の表示形態を変更する制御を行う。人物を表す情報は、上述したように、人物の画像そのものでもよく、人物の画像を模式化した図形等でもよい。具体的な表示例については後述する。
次に、図6を参照して、第1の実施形態に係る表示装置20の作用を説明する。
図6は、第1の実施形態に係る表示プログラム25Aによる処理の流れの一例を示すフローチャートである。なお、本実施形態では、ドア閉の際に、車外にいる複数の人物が移動せずに同じ場所に留まっている場合について説明する。
まず、表示装置20の電源がオンされると、表示プログラム25Aが起動され、以下の各ステップを実行する。
図6のステップ100では、CPU21が、自動運転車両が停車地点に停車したか否かを判定する。自動運転車両が停車地点に停車したと判定した場合(肯定判定の場合)、ステップ101に移行し、自動運転車両が停車地点に停車していないと判定した場合(否定判定の場合)、ステップ100で待機となる。
ステップ101では、CPU21が、記憶部25から画像情報25Bを取得する。画像情報25Bは、停車地点に停車した自動運転車両の車外の周辺領域(以下、「車外周辺領域」という。)を撮影して得られた画像である。このとき、記憶部25から車両情報25Cも取得する。なお、画像情報25B及び車両情報25Cは、自動運転車両の車載装置10から直接取得するようにしてもよい。
図7は、第1の実施形態に係る自動運転車両の車外周辺領域Rの状態を模式的に示す図である。
図7では、自動運転車両が停車地点に停車し、ドア開の状態を示している。自動運転車両の車外周辺領域Rには複数の人物A〜Eが存在している。図7の例では、ドアを閉じる際に、複数の人物A〜Eが同じ場所に留まっているものとする。
ステップ102では、CPU21が、画像情報25Bから、人物を認識したか否かを判定する。人物を認識したと判定した場合(肯定判定の場合)、ステップ103に移行し、人物を認識していないと判定した場合(否定判定の場合)、ステップ111に移行する。なお、図7の例では、複数の人物A〜Eが認識される。
ステップ103では、CPU21が、一例として、上述の図5に示す危険度テーブル25Dを用いて、画像情報25Bに対して、車外の周辺領域(図7の例では車外周辺領域R)を複数の危険度別領域に分割する。
図8は、第1の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。
図8に示すように、車外周辺領域Rは、複数の危険度別領域、すなわち、第1距離(例えば、3.99m未満)に対応する危険領域、第2距離(例えば、3.99m以上7.98m未満)に対応する注意領域、及び、第3距離(例えば、7.98m以上)に対応する安全領域に分割される。これらの危険領域、注意領域、及び安全領域は、例えば、ドア中心を基準とする同心円状の領域とされる。
ステップ104では、CPU21が、ステップ102で認識した複数の人物のうちの1人を対象人物として、対象人物が危険領域にいるか否かを判定する。対象人物が危険領域にいると判定した場合(肯定判定の場合)、ステップ105に移行し、対象人物が危険領域にいないと判定した場合(否定判定の場合)、ステップ106に移行する。
ステップ105では、CPU21が、対象人物に対して、危険領域の危険度である「危険度2」を設定する。
一方、ステップ106では、CPU21が、対象人物が注意領域にいるか否かを判定する。対象人物が注意領域にいると判定した場合(肯定判定の場合)、ステップ107に移行し、対象人物が注意領域にいない、つまり、安全領域にいると判定した場合(否定判定の場合)、ステップ108に移行する。
ステップ107では、CPU21が、対象人物に対して、注意領域の危険度である「危険度1」を設定する。
一方、ステップ108では、CPU21が、対象人物に対して、安全領域の危険度である「危険度0」を設定する。
ステップ109では、CPU21が、ステップ102で認識した全ての人物について危険度の設定が終了したか否かを判定する。全ての人物について危険度の設定が終了したと判定した場合(肯定判定の場合)、ステップ110に移行し、全ての人物について危険度の設定が終了していないと判定した場合(否定判定の場合)、ステップ104に戻り処理を実施していない人物に対して処理を繰り返す。
ステップ110では、CPU21が、ステップ102で認識した全ての人物に設定された危険度別に各人物の表示形態を変更する。
ステップ111では、CPU21が、一例として、図9に示すように、ステップ110で各人物の表示形態が変更された監視画面を表示部24に表示する制御を行う。
図9は、第1の実施形態に係る監視画面30の一例を示す正面図である。
図9に示す監視画面30では、複数の人物A〜Eの画像を模式化した図形を表示している。この場合、複数の人物A〜Eの危険度に応じて、人物A〜Eの各々に対応する図形の色、サイズ、形状、及び輪郭線の少なくとも1つが変更される。なお、表示形態の変更は、複数の図形が識別可能であれば、どのような変更であってもよい。図9の例では、人物A〜Eに対応する図形の色が変更された状態(ハッチングの違いで色の違いを表現)を示している。この場合、人物Aが安全領域にいることを示し、人物B、D、Eが注意領域にいることを示し、人物Cが危険領域にいることを示している。
図10は、第1の実施形態に係る別の監視画面31の一例を示す正面図である。
図10に示す監視画面31では、複数の人物A〜Eの各々の画像をそのまま表示している。この場合、複数の人物A〜Eの危険度に応じて、人物A〜Eの各々の画像に付与される囲み枠の色、サイズ、形状、及び輪郭線の少なくとも1つが変更される。なお、表示形態の変更は、複数の画像が識別可能であれば、どのような変更であってもよい。図10の例では、人物A〜Eの各々の画像の囲み枠の色が変更された状態(ハッチングの違いで色の違いを表現)を示している。この場合、人物Aが安全領域にいることを示し、人物B、D、Eが注意領域にいることを示し、人物Cが危険領域にいることを示している。
ステップ112では、CPU21が、自動運転車両がドアを閉め、停車地点を発車したか否かを判定する。自動運転車両が停車地点を発車していないと判定した場合(否定判定の場合)、ステップ101に戻り車外の画像情報を取得し、自動運転車両が停車地点を発車したと判定した場合(肯定判定の場合)、ステップ100に戻り待機となる。
このように本実施形態によれば、自動運転車両を監視する場合に、車外にいて危険な状態にある人物を容易に把握することができる。特に、ドア閉の際に、車外にいる複数の人物が移動せずに同じ場所に留まっている場合に、危険な状態にある人物を容易に把握することができる。
[第2の実施形態]
上記第1の実施形態では、ドア閉の際に、車外にいる人物が移動せずに同じ場所に留まっている場合について説明した。本実施形態では、ドア閉の際に、車外にいる人物が移動する場合について説明する。
本実施形態に係る表示システムは、上記第1の実施形態で説明した表示システム90と同様の構成要素を有しており、上述の図4を参照して、相違点のみを説明する。
本実施形態に係る危険度決定部21Bは、人物の移動方向を予測し、予測した移動方向に基づいて、人物の移動検知から所定時間経過後に人物がいると予測される危険度別領域の危険度を、人物の危険度として決定する。この場合、人物の移動速度には、上述した固定値を用いればよい。また、危険度決定部21Bは、人物の移動方向及び移動速度を予測してもよい。この場合、危険度決定部21Bは、予測した移動方向及び移動速度に基づいて、人物の移動検知から所定時間経過後に人物がいると予測される危険度別領域の危険度を、人物の危険度として決定する。なお、移動方向及び移動速度の予測には、例えば、画像情報25Bから検出される、人物の動きベクトルが用いられる。また、ここでいう所定時間には、例えば、上述のドア閉時間が適用される。また、ドア閉にかかる処理時間を含めてもよい。この処理時間とは、例えば、ドア閉ボタンを押してからドアが閉じ始めるまでの時間である。また、遠隔地からドア開閉を制御する場合には、無線通信の通信遅延を含めてもよい。
次に、図11を参照して、第2の実施形態に係る表示装置20の作用を説明する。
図11は、第2の実施形態に係る表示プログラム25Aによる処理の流れの一例を示すフローチャートである。なお、本実施形態では、ドア閉の際に、車外にいる複数の人物が移動する場合について説明する。
まず、表示装置20の電源がオンされると、表示プログラム25Aが起動され、以下の各ステップを実行する。
図11のステップ120では、CPU21が、自動運転車両が停車地点に停車したか否かを判定する。自動運転車両が停車地点に停車したと判定した場合(肯定判定の場合)、ステップ121に移行し、自動運転車両が停車地点に停車していないと判定した場合(否定判定の場合)、ステップ120で待機となる。
ステップ121では、CPU21が、記憶部25から画像情報25Bを取得する。画像情報25Bは、停車地点に停車した自動運転車両の車外周辺領域を撮影して得られた画像である。このとき、記憶部25から車両情報25Cも取得する。なお、画像情報25B及び車両情報25Cは、自動運転車両の車載装置10から直接取得するようにしてもよい。
図12は、第2の実施形態に係る自動運転車両の車外周辺領域Rの状態を模式的に示す図である。
図12では、自動運転車両が停車地点に停車し、ドア開の状態を示している。自動運転車両の車外周辺領域Rには複数の人物A〜Eが存在している。図12の例では、ドアを閉じる際に、複数の人物A〜Eが移動しているものとする。
ステップ122では、CPU21が、画像情報25Bから、人物を認識したか否かを判定する。人物を認識したと判定した場合(肯定判定の場合)、ステップ123に移行し、人物を認識していないと判定した場合(否定判定の場合)、ステップ132に移行する。なお、図12の例では、複数の人物A〜Eが認識される。
ステップ123では、CPU21が、一例として、上述の図5に示す危険度テーブル25Dを用いて、画像情報25Bに対して、車外の周辺領域(図12の例では車外周辺領域R)を複数の危険度別領域に分割する。
図13は、第2の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。
図13に示すように、車外周辺領域Rは、複数の危険度別領域、すなわち、第1距離(例えば、3.99m未満)に対応する危険領域、第2距離(例えば、3.99m以上7.98m未満)に対応する注意領域、及び、第3距離(例えば、7.98m以上)に対応する安全領域に分割される。これらの危険領域、注意領域、及び安全領域は、例えば、ドア中心を基準とする同心円状の領域とされる。
ステップ124では、CPU21が、ステップ122で認識した複数の人物のうちの1人を対象人物として、移動方向及び移動速度を予測する。これらの移動方向及び移動速度の予測には、例えば、画像情報25Bから検出される、対象人物の動きベクトルが用いられる。なお、移動速度を固定値とし、移動方向のみを予測してもよい。
ステップ125では、CPU21が、ステップ124で予測した移動方向及び移動速度に基づいて、対象人物が移動検知から所定時間経過後に危険領域にいるか否かを判定する。なお、ここでいう所定時間には、上述のドア閉時間が適用される。対象人物が所定時間経過後に危険領域にいると判定した場合(肯定判定の場合)、ステップ126に移行し、対象人物が所定時間経過後に危険領域にいないと判定した場合(否定判定の場合)、ステップ127に移行する。
ステップ126では、CPU21が、対象人物に対して、危険領域の危険度である「危険度2」を設定する。
一方、ステップ127では、CPU21が、対象人物が移動検知から所定時間経過後に注意領域にいるか否かを判定する。対象人物が所定時間経過後に注意領域にいると判定した場合(肯定判定の場合)、ステップ128に移行し、対象人物が注意領域にいない、つまり、安全領域にいると判定した場合(否定判定の場合)、ステップ129に移行する。
ステップ128では、CPU21が、対象人物に対して、注意領域の危険度である「危険度1」を設定する。
一方、ステップ129では、CPU21が、対象人物に対して、安全領域の危険度である「危険度0」を設定する。
ステップ130では、CPU21が、ステップ122で認識した全ての人物について危険度の設定が終了したか否かを判定する。全ての人物について危険度の設定が終了したと判定した場合(肯定判定の場合)、ステップ131に移行し、全ての人物について危険度の設定が終了していないと判定した場合(否定判定の場合)、ステップ124に戻り処理を繰り返す。
本実施形態では、上述の図13に示すように、ドア閉の際に、複数の人物A〜Eが移動している。例えば、現時点で安全領域にいる人物Aは、所定時間経過後でも安全領域にいることが予測されるため、人物Aには「危険度0」が設定される。現時点で危険領域にいる人物Bは、所定時間経過後に注意領域にいることが予測されるため、人物Bには「危険度1」が設定される。現時点で注意領域にいる人物Cは、所定時間経過後に危険領域にいることが予測されるため、人物Cには「危険度2」が設定される。現時点で注意領域にいる人物D、Eの各々は、所定時間経過後に安全領域にいることが予測されるため、人物D、Eの各々には「危険度0」が設定される。つまり、本実施形態では、人物が移動しているため、所定時間経過後に、人物がどの危険度別領域にいるかによって、人物の危険度が決定される。なお、人物が自動運転車両のドアに近付いているか否かの判定は、例えば、移動方向の延長線上にドア開口部が有るか否かで判定してもよい。但し、ドア開口部の幅は、ドア開口幅+マージン(例えば、30cm程度)を含む幅とすることが望ましい。
ステップ131では、CPU21が、ステップ122で認識した全ての人物に設定された危険度別に各人物の表示形態を変更する。
ステップ132では、CPU21が、一例として、図14に示すように、ステップ131で各人物の表示形態が変更された監視画面を表示部24に表示する制御を行う。
図14は、第2の実施形態に係る監視画面32の一例を示す正面図である。
図14に示す監視画面32では、複数の人物A〜Eの画像を模式化した図形を表示している。この場合、複数の人物A〜Eの危険度に応じて、人物A〜Eの各々に対応する図形の色、サイズ、形状、及び輪郭線の少なくとも1つが変更される。なお、表示形態の変更は、複数の図形が識別可能であれば、どのような変更であってもよい。図14の例では、人物A〜Eに対応する図形の色が変更された状態(ハッチングの違いで色の違いを表現)を示している。この場合、人物A、D、Eが所定時間経過後に安全領域にいることを示し、人物Bが所定時間経過後に注意領域にいることを示し、人物Cが所定時間経過後に危険領域にいることを示している。
ここで、図14に示すように、人物を表す図形と共に、予測された人物の移動方向を表す情報を表示するようにしてもよい。図14の例では、移動方向を表す矢印が表示されている。また、予測された人物の移動方向及び移動速度の少なくとも一方を表す情報を表示するようにしてもよい。図14の例では、移動方向を表す矢印と共に、現時点での移動速度(V=Xm/分)が表示されている。当然ながら、移動方向を表す矢印のみでもよい。また、矢印の長さを変化させることによって、人物が所定時間経過後にいると予測される位置を示すようにしてもよい。
ステップ133では、CPU21が、自動運転車両がドアを閉め、停車地点を発車したか否かを判定する。自動運転車両が停車地点を発車していないと判定した場合(否定判定の場合)、ステップ121に戻り車外の画像情報を取得し、自動運転車両が停車地点を発車したと判定した場合(肯定判定の場合)、ステップ120に戻り待機となる。
このように本実施形態によれば、ドア閉の際に、車外にいる複数の人物が移動している場合に、危険な状態にある人物を容易に把握することができる。
[第3の実施形態]
本実施形態では、自動運転車両の車両状態に応じて、危険度別領域の形状を変更する形態について説明する。
本実施形態に係る表示システムは、上記第1の実施形態で説明した表示システム90と同様の構成要素を有しており、上述の図4を参照して、相違点のみを説明する。
本実施形態に係る危険度決定部21Bは、複数の危険度別領域の形状を、自動運転車両の車両状態に応じて変更する。なお、ここでいう車両状態とは、一例として、自動運転車両がドアを開いてから閉じるまでの状態(以下、ドア閉状態という。)、あるいは、自動運転車両がドアを閉じてから発車するまでの状態(以下、発車待ち状態という。)である。車両状態は、車両情報25Cから取得される。
図15は、第3の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。
図15に示す車外周辺領域Rは、発車待ち状態での複数の危険度別領域、すなわち、危険領域、注意領域、及び安全領域を示している。発車待ち状態では、車両周辺を全体的に確認するために、これらの危険領域、注意領域、及び安全領域の形状が、ドア閉状態の危険領域、注意領域、及び安全領域(例えば、図13参照)の形状と異なっている。
例えば、人物Bは危険領域にいるが、車両から離れる方向に移動しているため、所定時間経過後に注意領域にいると予測される。一方、人物A、Eは注意領域にいるが、車両に近付く方向に移動しているため、所定時間経過後に危険領域にいると予測される。なお、ここでいう所定時間とは、発車判断する上で、安全確認に必要とされる待ち時間(以下、「発車待ち時間」という。)であり、適切な値(例えば、10秒以下)が設定される。
図16は、第3の実施形態に係る監視画面33の一例を示す正面図である。
図16に示す監視画面33では、複数の人物A〜Eの画像を模式化した図形を表示している。この場合、人物A、Eが危険領域にいることを示し、人物Bが注意領域にいることを示し、人物C、Dが安全領域にいることを示している。当然ながら、移動方向を表す矢印や、移動方向を表す矢印と共に、現時点での移動速度(V=Xm/分)が表示されてもよい。また、矢印の長さを変化させることによって、人物が所定時間経過後にいると予測される位置を示すようにしてもよい。
[第4の実施形態]
本実施形態では、自動運転車両が停車する特定の場所の形状に応じて、危険度別領域の形状を変更する形態について説明する。
本実施形態に係る表示システムは、上記第1の実施形態で説明した表示システム90と同様の構成要素を有しており、上述の図4を参照して、相違点のみを説明する。
本実施形態に係る危険度決定部21Bは、複数の危険度別領域の形状を、自動運転車両が停車する特定の場所の形状に応じて変更する。なお、特定の場所とは、例えば、停車地点が設置されている場所(道路、歩道等)であり、場所の形状とは、例えば、停車地点近傍の道路又は歩道の幅が狭い、広い等の形状を意味する。停車する特定の場所の形状に関する情報は、予め記憶部25に記憶されている。つまり、幅の狭い道路の場合、上述の図13に示すような同心円状に危険領域を設定すると、道路を通り抜けようとしている人物も危険と判定してしまう場合がある。このため、特定の場所の形状に応じて危険度別領域の形状を変更することが望ましい。また、特定の場所や場所の形状に関する情報は、時間的に変化してもよい。つまり、特定の停車地点が歩道の幅が広い停車地点であっても、道路工事等によって歩道の幅が狭い場合は、特定の停車地点が歩道の狭い停車地点とすることが望ましい。
図17は、第4の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。
図17に示す車外周辺領域Rは、幅の狭い道路に停車している状態での複数の危険度別領域、すなわち、危険領域、注意領域、及び安全領域を示している。幅の狭い道路に停車している状態では、道路の幅方向において危険領域が小さくなるように変更される。このため、これらの危険領域、注意領域、及び安全領域の形状が、幅の広い道路に停車している状態の危険領域、注意領域、及び安全領域(例えば、図13参照)の形状と異なっている。
例えば、人物Aは、自動運転車両から比較的離れた場所を通り抜けようとする人物である。人物Aは、安全領域のみを移動することが予測されるため、危険度は低くなる。このため、安全な人物Aを不必要に監視者に注目させることが回避される。一方、人物Bは、自動運転車両の比較的近くの場所を通り抜ける人物、あるいは、自動運転車両のドアから乗車する人物である。人物Bは、安全領域から危険領域に近付くことが予測されるため、危険度は高くなる。このため、危険な人物Bを監視者に注目させることが可能となる。
[第5の実施形態]
本実施形態では、人物が移動可能な複数の移動範囲に対して確率分布を設定する形態について説明する。
本実施形態に係る表示システムは、上記第1の実施形態で説明した表示システム90と同様の構成要素を有しており、上述の図4を参照して、相違点のみ説明する。
本実施形態に係る危険度決定部21Bは、人物の移動方向を予測する際に、人物が移動可能な複数の移動範囲に対して確率分布を設定し、設定した確率分布に基づいて、危険度の期待値を算出する。
図18は、第5の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。
図18に示す車外周辺領域Rは、上述の図15の例と同様に、発車待ち状態での複数の危険度別領域、すなわち、危険領域、注意領域、及び安全領域を示している。発車待ち状態では、車両周辺を全体的に確認するために、これらの危険領域、注意領域、及び安全領域の形状が、ドア閉状態の危険領域、注意領域、及び安全領域(例えば、図13参照)の形状と異なっている。
例えば、危険領域にいる人物Aは、自動運転車両から離れる方向に移動する場合に、道路の幅方向Wに沿って一直線に移動するとは限らない。つまり、人物Aは、ドアから見て左右方向(幅方向Wと交差する方向)に移動することも想定される。そこで、人物Aが左右方向に移動する場合における確率分布を複数の移動範囲について設定する。移動範囲は、例えば、人物Aを基準として扇型の範囲とする。図18に示す数値(例えば、0.1、0.4)は、人物Aが発車待ち時間経過後に各移動範囲に存在する確率分布を表している。この確率分布の数値は、画像情報25Bから取得される不特定多数の人物の移動軌跡に基づいて設定してもよく、一般の路線バスを利用する不特定多数の人物の移動軌跡に関する所謂ビッグデータに基づいて設定するようにしてもよい。
また、人物Aの移動範囲は左右方向に限らず、360度の全方向に移動する場合における確率分布を複数の移動範囲について設定してもよい。
また、人物Aが自動運転車両から離れる方向に移動してから逆方向(自動運転車両に近付く方向)に戻る場合も想定される。この場合、一定の割合(例えば、5%の割合)で戻ることも考慮して、確率分布を設定してもよく、一般の路線バスを利用する不特定多数の人物の移動軌跡に関する所謂ビッグデータに基づいて設定するようにしてもよい。
また、人物Aが現在地点から移動せずにそのまま現在地点に滞在し続ける場合における確率分布を設定してもよい。
人物の移動範囲の確率分布を考慮した場合の危険度の算出方法の一例として、図18の例においては、危険領域の危険度である「危険度2」の係数を2、注意領域の危険度である「危険度1」の係数を1、安全領域の危険度である「危険度0」の係数を0とした場合、人物Aの危険度の期待値は、0.1×0+0.4×0+0.4×2+0.1×2=1.0、と算出される。これは、注意領域にいるのと同程度の危険度となる。なお、移動範囲が、注意領域及び危険領域の両方に重なる場合、安全性の観点からより危険度が高い値を採用している。当然ながら、人物の移動範囲の確率分布を考慮した場合の危険度の算出方法は、この限りではない。
また、図18の例では、発車待ち状態での確率分布を設定した場合について示したが、ドア閉状態でも同様に確率分布を設定することができる。この場合の確率分布は、人物Aがドア閉時間経過後に各移動範囲に存在する確率として示される。
[第6の実施形態]
本実施形態では、車外領域にいる複数の人物の密度に応じて、人物の移動速度を補正する形態について説明する。
本実施形態に係る表示システムは、上記第1の実施形態で説明した表示システム90と同様の構成要素を有しており、上述の図4を参照して、相違点のみ説明する。
本実施形態に係る危険度決定部21Bは、車外領域にいる複数の人物の密度に応じて、人物の移動速度を補正する。以下では、図19〜図21を参照して、移動速度の具体的な補正方法を説明する。
図19は、第6の実施形態に係る移動速度補正テーブル25Eの一例を示す図である。
図19に示す移動速度補正テーブル25Eは、人物の密度と移動速度係数とを対応付けたデータテーブルである。図19の例では、車外領域にいる人物が10人以上である場合を第1密度とし、移動速度係数を0.5とする。また、人物が4人以上10人未満である場合を第2密度とし、移動速度係数を0.7とする。また、人物が4人未満である場合を第3密度とし、移動速度係数を1.0とする。
例えば、人物の移動速度を固定値(=1.33m/秒)とした場合、第1密度での移動速度は、1.33m/秒×0.5≒0.67m/秒、と補正される。第2密度での移動速度は、1.33m/秒×0.7≒0.93m/秒、と補正される。一方、第3密度での移動速度は、1.33m/秒×1.0=1.33m/秒、となり変化しない。すなわち、人物の密度が高くなる(混雑する)ほど、移動速度が遅くなるため、安全領域から危険領域にかけて人物の密度が高くなる場合に、安全領域の人物がドア閉時間経過後に危険領域まで到達する可能性が低くなり、危険度が低くなる。一方で、安全領域から危険領域にかけて人物の密度が高くなる場合に、危険領域の人物がドア閉時間経過後に安全領域まで到達する可能性が低くなり、危険度が高くなる。
図20は、第6の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。
図20に示す車外周辺領域Rは、上述の図8の例と同様に、複数の危険度別領域として、危険領域、注意領域、及び安全領域を含んでいる。図20の例では、複数の人物A〜Iの密度が9人(第2密度)であるため、移動速度係数が0.7となる。このため、複数の人物A〜Iの補正後の移動速度は、0.93m/秒、となる。これにより、複数の人物A〜Iのうち、現時点で安全領域又は注意領域にいる人物が、移動速度の補正前と比較して、移動によりドア閉時間経過後に危険領域にいる可能性が低くなる。
また、ドア閉時に人物が移動しない場合には、補正後の移動速度に応じて、人物の密度毎に、上述の第1距離(危険領域)、第2距離(注意領域)、及び第3距離(安全領域)を変更してもよい。例えば、ドア閉時間を3秒とした場合、第1密度では、第1距離が0.67m/秒×3秒=2.01m未満、と変更され、第2密度では、第1距離が0.93m/秒×3秒=2.79m未満、と変更される。この場合、第1距離の変更に応じて、第2距離及び第3距離を変更すればよい。なお、第3密度では、第1距離は3.99m未満のままで変更されない。
また、複数の人物A〜Iの密度に応じて、危険度別領域の大きさを領域毎に調整してもよい。例えば、注意領域が混雑している場合には、安全領域にいる人物がドアに近付こうとしても、注意領域の混雑によって、近付く人物の移動速度が遅くなる。このため、注意領域の大きさは変えずに、注意領域より遠い安全領域の大きさを小さくしてもよい。
図21は、第6の実施形態に係る監視画面34の一例を示す正面図である。
図21に示す監視画面34では、複数の人物A〜Iの画像を模式化した図形を表示している。この場合、人物D、E、Fが危険領域にいることを示し、人物A、Iが注意領域にいることを示し、人物B、C、G、Hが安全領域にいることを示している。
[第7の実施形態]
本実施形態では、車外領域にいる人物の属性に応じて、人物の移動速度を補正する形態について説明する。
本実施形態に係る表示システムは、上記第1の実施形態で説明した表示システム90と同様の構成要素を有しており、上述の図4を参照して、相違点のみ説明する。
本実施形態に係る危険度決定部21Bは、車外領域にいる人物の属性に応じて、人物の移動速度を補正する。ここでいう属性には、例えば、大人(一般成人)、子供、高齢者等が含まれる。また、この属性には、一般成人男性、一般成人女性、ベビーカーを押している一般成人、傘をさしている一般成人等の属性を含んでいてもよい。この属性は、例えば、顔認識、物体認識等の技術を用いて取得される。以下では、図22及び図23を参照して、移動速度の具体的な補正方法を説明する。
図22は、第7の実施形態に係る移動速度補正テーブル25Fの一例を示す図である。
図22に示す移動速度補正テーブル25Fは、人物の属性と移動速度係数とを対応付けたデータテーブルである。図22の例では、車外領域にいる人物が一般成人である場合、移動速度係数を1.0とする。また、人物が子供である場合、急に走り出す可能性があるため、移動速度係数を一般成人よりも大きい2.0とする。人物が高齢者である場合、移動速度係数を一般成人よりも小さい0.5とする。また、一般成人を男女の平均として、一般成人男性と一般成人女性とに区別してもよい。この場合、一般成人の移動速度係数と比較して、一般成人男性の移動速度係数を大きくし、一般成人女性の移動速度係数を小さくする。また、一般成人の移動速度係数と比較して、ベビーカーを押している一般成人の移動速度係数を小さくしてもよい。
例えば、人物の移動速度を固定値(=1.33m/秒)とした場合、一般成人の移動速度は、1.33m/秒×1.00=1.33m/秒、となり変化しない。一方、子供の移動速度は、1.33m/秒×2.0=2.66m/秒、と補正される。高齢者の移動速度は、1.33m/秒×0.5≒0.67m/秒、と補正される。すなわち、子供は一般成人と比較して、移動速度が速くなるため、ドア閉時間経過後に危険領域まで到達する可能性が高くなり、危険度が高くなる。また、高齢者は一般成人と比較して、移動速度が遅くなるため、ドア閉時間経過後に危険領域まで到達する可能性が低くなり、危険度が低くなる。
また、ドア閉時に人物が移動しない場合には、補正後の移動速度に応じて、人物の属性毎に、上述の第1距離(危険領域)、第2距離(注意領域)、及び第3距離(安全領域)を変更してもよい。例えば、ドア閉時間を3秒とした場合、人物が子供では、第1距離が2.66m/秒×3秒=7.98m未満、と変更され、人物が高齢者では、第1距離が0.67m/秒×3秒=2.01m未満、と変更される。この場合、第1距離の変更に応じて、第2距離及び第3距離を変更すればよい。なお、人物が一般成人では、第1距離が3.99m未満のままで変更されない。
図23は、第7の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。
図23に示す車外周辺領域Rは、上述の図8の例と同様に、複数の危険度別領域として、危険領域、注意領域、及び安全領域を含んでいる。図23の例では、人物Aが大人であるため、移動速度係数が1.0となる。このため、人物Aの移動速度は、1.33m/秒、となる。一方、人物Bが子供であるため、移動速度係数が2.0となる。このため、人物Bの移動速度は、2.66m/秒、となる。つまり、人物Aと人物Bとがドアから等距離にいる場合、人物Bは人物Aと比較して、移動速度が速くなるため、ドア閉時間で移動する移動距離が長くなる。図23の例では、人物Aはドア閉時間経過後に注意領域にいると判定され、人物Bはドア閉時間経過後に危険領域にいると判定される。
[第8の実施形態]
本実施形態では、人物が危険度別領域にある程度長い時間静止している場合に、人物の危険度を低く変更する形態について説明する。
本実施形態に係る表示システムは、上記第1の実施形態で説明した表示システム90と同様の構成要素を有しており、上述の図4を参照して、相違点のみ説明する。
本実施形態に係る危険度決定部21Bは、人物が危険度別領域に静止している時間が所定時間以上になった場合に、人物の危険度を、危険度別領域の危険度よりも低い危険度に変更する。ここでいう所定時間は、人物が静止を開始してからの時間であり、画像情報25Bから取得される不特定多数の人物の移動軌跡に基づいて設定してもよく、一般の路線バスを利用する不特定多数の人物の移動軌跡に関する所謂ビッグデータに基づいて設定するようにしてもよく、監視者により適宜設定、また変更される値が適用される。
図24は、第8の実施形態に係る複数の危険度別領域の状態を模式的に示す図である。
図24に示す車外周辺領域Rは、上述の図8の例と同様に、複数の危険度別領域として、危険領域、注意領域、及び安全領域を含んでいる。例えば、危険領域には、自動運転車両を表すバスAの停車地点Saと、自動運転車両ではない他のバスを表すバスBの停車地点Sbが設置されている。
例えば、現時点で安全領域にいる人物Aは、バスAに近付く方向に移動しており、所定時間(例えば、ドア閉時間)経過後に危険領域にいると判定される。一方、複数の人物B、C、Dは、既にバスAの危険領域にいるが、バスBの乗車待ちをしている。複数の人物B、C、Dは、バスAに乗り込むためにバスAの危険領域にいるわけではないため、一定時間経過した後も、バスAに近づく可能性が低いと考えられる。このため、危険領域にいる人物であっても、所定時間以上場所が変化しない人物については、時間経過に伴い危険度を低下させる。すなわち、発車時(又はドア閉時)において、バスAのドアに近付く人物Aの危険度を高くし、バスAのドア付近にいて、バスBの乗車待ちをしている人物B、C、Dの危険度を低下させる。
図25は、第8の実施形態に係る危険度変更方法の説明に供する図である。
図25に示すように、危険領域にいるが、所定時間以上同じ場所に静止し続ける対象人物の危険度を低下させる。但し、設定時間T1は、危険領域にいる対象人物が静止を開始した時刻である計測基準時刻から危険度を注意レベルに低下させるまでの時間であり、設定時間T2は、危険度を注意レベルから安全レベルに低下させるまでの時間である。設定時間T1及び設定時間T2には、上述したように、事前に設定される固定値でもよく、画像情報25Bから取得される不特定多数の人物の移動軌跡に基づいて設定してもよく、一般の路線バスを利用する不特定多数の人物の移動軌跡に関する所謂ビッグデータに基づいて設定するようにしてもよく、監視者により適宜設定、また変更される値が適用されてもよい。
ここで、上記の各実施形態に係る表示システム90では、表示プログラム25Aが表示装置20にインストールされている。つまり、表示装置20のCPU21が表示プログラム25Aを実行することにより、CPU21を、人物認識部21A、危険度決定部21B、及び表示制御部21Cとして機能させていた。これに対して、表示プログラム25Aを車載装置10にインストールしてもよい。この場合、車載装置10のCPU11が表示プログラム25Aを実行することにより、CPU11を、人物認識部21A、危険度決定部21B、及び表示制御部21Cとして機能させる。但し、車載装置10を用いて自車両の監視を行う場合、自車両には自動運転を補助する補助者が乗車し、補助者によって監視が行われるものとする。
以上、実施形態に係る表示システムを例示して説明した。実施形態は、表示システムが備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、これらのプログラムを記憶したコンピュータが読み取り可能な非遷移的記録媒体の形態としてもよい。
その他、上記実施形態で説明した表示システムの構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。例えば、自動運転車両側で人物の認識や危険度の決定を行う構成の全て、あるいは、その一部を実施するようにしてもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。
10 車載装置、11、21 CPU、12、22 メモリ、14、24 表示部、15、25 記憶部、16 センサ群、17 カメラ、18、26 通信部、20 表示装置、21A 人物認識部、21B 危険度決定部、21C 表示制御部、23 操作部、25A 表示プログラム、25B 画像情報、25C 車両情報、25D 危険度テーブル、25E、25F 移動速度補正テーブル、30〜34 監視画面、90 表示システム

Claims (16)

  1. 自動運転車両の車外にいる人物を表す情報を表示する表示システム(90)であって、
    前記人物の移動速度、及び、前記自動運転車両のドアを閉める動作を開始してから前記ドアが閉まるまでのドア閉時間に基づいて、前記人物に対して、前記人物が前記ドアに挟まる危険の程度を表す危険度を決定する危険度決定部(21B)と、
    前記危険度決定部により決定された、前記人物の危険度に応じて、前記人物を表す情報の表示形態を変更する制御を行う表示制御部(21C)と、
    を備えた表示システム(90)。
  2. 前記危険度決定部は、前記移動速度及び前記ドア閉時間によって定まる複数レベルの危険度に基づいて、前記車外の領域を複数の危険度別領域に分割し、分割した複数の危険度別領域のうち、前記人物がいる危険度別領域の危険度を、前記人物の危険度として決定する
    請求項1に記載の表示システム。
  3. 前記危険度決定部は、前記人物の移動方向を予測し、予測した移動方向に基づいて、前記人物の移動検知から所定時間経過後に前記人物がいると予測される危険度別領域の危険度を、前記人物の危険度として決定する
    請求項2に記載の表示システム。
  4. 前記表示制御部は、前記人物を表す情報と共に、前記予測された前記人物の移動方向を表す情報を表示する制御を行う
    請求項3に記載の表示システム。
  5. 前記危険度決定部は、前記人物の移動速度を更に予測し、予測した移動方向及び移動速度に基づいて、前記人物の移動検知から所定時間経過後に前記人物がいると予測される危険度別領域の危険度を、前記人物の危険度として決定する
    請求項3に記載の表示システム。
  6. 前記表示制御部は、前記人物を表す情報と共に、前記予測された前記人物の移動方向及び移動速度の少なくとも一方を表す情報を表示する制御を行う
    請求項5に記載の表示システム。
  7. 前記危険度決定部は、前記複数の危険度別領域の形状を、前記自動運転車両の車両状態に応じて変更する
    請求項2又は請求項3に記載の表示システム。
  8. 前記危険度決定部は、前記複数の危険度別領域の形状を、前記自動運転車両が停車する特定の場所の形状に応じて変更する
    請求項2又は請求項3に記載の表示システム。
  9. 前記危険度決定部は、前記人物の移動方向を予測する際に、前記人物が移動可能な複数の移動範囲に対して確率分布を設定し、設定した確率分布に基づいて、前記危険度の期待値を算出する
    請求項3に記載の表示システム。
  10. 前記危険度決定部は、前記車外の領域にいる人物の密度に応じて、前記人物の移動速度を補正する
    請求項1又は請求項2に記載の表示システム。
  11. 前記危険度決定部は、前記人物の属性に応じて、前記人物の移動速度を補正する
    請求項1又は請求項2に記載の表示システム。
  12. 前記危険度決定部は、前記人物が前記危険度別領域に静止している時間が所定時間以上になった場合に、前記人物の危険度を、前記危険度別領域の危険度よりも低い危険度に変更する
    請求項2に記載の表示システム。
  13. 前記人物を表す情報は、前記人物の画像を模式化した図形であり、
    前記表示制御部は、前記人物の危険度に応じて、前記人物に対応する前記図形の色、サイズ、形状、及び輪郭線の少なくとも1つを変更する制御を行う
    請求項1〜請求項12のいずれか1項に記載の表示システム。
  14. 前記人物を表す情報は、前記人物の画像であり、
    前記表示制御部は、前記人物の危険度に応じて、前記人物の前記画像に付与される囲み枠の色、サイズ、形状、及び輪郭線の少なくとも1つを変更する制御を行う
    請求項1〜請求項12のいずれか1項に記載の表示システム。
  15. 自動運転車両の車外にいる人物を表す情報を表示する表示システム(90)による表示方法であって、
    前記人物の移動速度、及び、前記自動運転車両のドアを閉める動作を開始してから前記ドアが閉まるまでのドア閉時間に基づいて、前記人物に対して、前記人物が前記ドアに挟まる危険の程度を表す危険度を決定し、
    前記決定された、前記人物の危険度に応じて、前記人物を表す情報の表示形態を変更する制御を行う、
    表示方法。
  16. 自動運転車両の車外にいる人物を表す情報を表示する表示システムの表示プログラム(25A)であって、
    コンピュータを、
    前記人物の移動速度、及び、前記自動運転車両のドアを閉める動作を開始してから前記ドアが閉まるまでのドア閉時間に基づいて、前記人物に対して、前記人物が前記ドアに挟まる危険の程度を表す危険度を決定する危険度決定部(21B)、及び、
    前記危険度決定部により決定された、前記人物の危険度に応じて、前記人物を表す情報の表示形態を変更する制御を行う表示制御部(21C)、
    として機能させるための表示プログラム(25A)。
JP2020079824A 2020-04-28 2020-04-28 表示システム、表示方法、及び表示プログラム Pending JP2021174405A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020079824A JP2021174405A (ja) 2020-04-28 2020-04-28 表示システム、表示方法、及び表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020079824A JP2021174405A (ja) 2020-04-28 2020-04-28 表示システム、表示方法、及び表示プログラム

Publications (1)

Publication Number Publication Date
JP2021174405A true JP2021174405A (ja) 2021-11-01

Family

ID=78279923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020079824A Pending JP2021174405A (ja) 2020-04-28 2020-04-28 表示システム、表示方法、及び表示プログラム

Country Status (1)

Country Link
JP (1) JP2021174405A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7226597B1 (ja) 2022-01-17 2023-02-21 いすゞ自動車株式会社 ドア開閉制御装置
WO2023149283A1 (ja) * 2022-02-04 2023-08-10 株式会社デンソー 周辺監視装置及びプログラム
WO2023153019A1 (ja) * 2022-02-10 2023-08-17 パナソニックIpマネジメント株式会社 情報処理装置、端末、情報処理方法、警報方法及び情報処理システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008174076A (ja) * 2007-01-18 2008-07-31 Xanavi Informatics Corp 車両周辺監視装置、その表示方法
JP2010198519A (ja) * 2009-02-27 2010-09-09 Hitachi Constr Mach Co Ltd 周囲監視装置
JP2011238161A (ja) * 2010-05-13 2011-11-24 Yupiteru Corp 警報装置
JP2013078151A (ja) * 2013-01-18 2013-04-25 Denso Corp 車両用表示装置
JP2015141490A (ja) * 2014-01-28 2015-08-03 三菱電機株式会社 車両情報表示制御装置および車両情報表示制御方法
JP2016184200A (ja) * 2015-03-25 2016-10-20 住友電気工業株式会社 歩行者接近報知装置、歩行者接近報知システム、コンピュータプログラム及び歩行者接近報知方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008174076A (ja) * 2007-01-18 2008-07-31 Xanavi Informatics Corp 車両周辺監視装置、その表示方法
JP2010198519A (ja) * 2009-02-27 2010-09-09 Hitachi Constr Mach Co Ltd 周囲監視装置
JP2011238161A (ja) * 2010-05-13 2011-11-24 Yupiteru Corp 警報装置
JP2013078151A (ja) * 2013-01-18 2013-04-25 Denso Corp 車両用表示装置
JP2015141490A (ja) * 2014-01-28 2015-08-03 三菱電機株式会社 車両情報表示制御装置および車両情報表示制御方法
JP2016184200A (ja) * 2015-03-25 2016-10-20 住友電気工業株式会社 歩行者接近報知装置、歩行者接近報知システム、コンピュータプログラム及び歩行者接近報知方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7226597B1 (ja) 2022-01-17 2023-02-21 いすゞ自動車株式会社 ドア開閉制御装置
WO2023135908A1 (ja) * 2022-01-17 2023-07-20 いすゞ自動車株式会社 ドア開閉制御装置
JP2023104115A (ja) * 2022-01-17 2023-07-28 いすゞ自動車株式会社 ドア開閉制御装置
WO2023149283A1 (ja) * 2022-02-04 2023-08-10 株式会社デンソー 周辺監視装置及びプログラム
WO2023153019A1 (ja) * 2022-02-10 2023-08-17 パナソニックIpマネジメント株式会社 情報処理装置、端末、情報処理方法、警報方法及び情報処理システム

Similar Documents

Publication Publication Date Title
US10217343B2 (en) Alert generation correlating between head mounted imaging data and external device
US11604470B2 (en) Safety procedure analysis for obstacle avoidance in autonomous vehicles
US11067986B2 (en) Autonomous driving vehicle, method of stopping autonomous driving vehicle, and recording medium
US20210291873A1 (en) Manual vehicle control notification
KR102479493B1 (ko) 자율 주행 차량을 보조하기 위한 방법 및 이를 위한 장치
US20210197720A1 (en) Systems and methods for incident detection using inference models
CN108139756B (zh) 为自动驾驶车辆构建周围环境以制定驾驶决策的方法和系统
KR102032666B1 (ko) 주차 지원 방법 및 주차 지원 장치
US20180075747A1 (en) Systems, apparatus, and methods for improving safety related to movable/ moving objects
KR102051142B1 (ko) 차량용 운전자 위험 지수 관리 시스템 및 그 방법
JP2021174405A (ja) 表示システム、表示方法、及び表示プログラム
JP2020021471A (ja) 自動運転車(adv)のサブシステムによるパトロールカーのパトロール
CN110291479B (zh) 一种基于瞬时自主操作情境执行回退操作的方法及车辆
JP2017135742A (ja) 推論された車両状態に基づいたユーザ・インタフェース体験の提供
KR20200086268A (ko) 정보 처리 장치 및 정보 처리 방법
KR20200125910A (ko) 자율 주행 차량 거동을 디스플레이하기 위한 그래픽 사용자 인터페이스
KR101999079B1 (ko) 표시 장치의 제어 방법 및 표시 장치
CN114072865A (zh) 信息处理装置、移动装置、方法和程序
US20200130678A1 (en) Control apparatus, control method, and program
JPWO2020031695A1 (ja) 情報処理装置、移動体、情報処理方法及びプログラム
US20190147264A1 (en) Concentration determination apparatus, concentration determination method, and program for concentration determination
EP4331938A1 (en) Control method and apparatus
JP2022129013A (ja) 移動体制御システム、移動体、制御方法、およびプログラム
US10969240B2 (en) Systems and methods for controlling vehicle systems using experience attributes
JP7236897B2 (ja) 運転支援方法及び運転支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240319