JP2018206210A - 衝突事故抑制システム及び衝突事故抑制方法 - Google Patents

衝突事故抑制システム及び衝突事故抑制方法 Download PDF

Info

Publication number
JP2018206210A
JP2018206210A JP2017112872A JP2017112872A JP2018206210A JP 2018206210 A JP2018206210 A JP 2018206210A JP 2017112872 A JP2017112872 A JP 2017112872A JP 2017112872 A JP2017112872 A JP 2017112872A JP 2018206210 A JP2018206210 A JP 2018206210A
Authority
JP
Japan
Prior art keywords
vehicle
output
collision
relative angle
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017112872A
Other languages
English (en)
Inventor
美紀 地頭薗
Miki Jitosono
美紀 地頭薗
毅英 小松
Takehide Komatsu
毅英 小松
博智 門田
Hirotomo Kadota
博智 門田
永井 大輔
Daisuke Nagai
大輔 永井
雷 陳
Lei Chen
雷 陳
真弓 鶴
Mayumi Tsuru
真弓 鶴
西田 稔
Minoru Nishida
稔 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017112872A priority Critical patent/JP2018206210A/ja
Publication of JP2018206210A publication Critical patent/JP2018206210A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】コリジョンコースの判定精度が低下するのを抑制すること。【解決手段】サーバ装置10は、車両に搭載されたセンサから出力されたセンシングデータを用いてコリジョンコース現象の対象となる車両間の相対角度を算出し、算出された相対角度に変化があるか否かにより、コリジョンコース現象の発生に関するアラートを出力するか否かを制御する。【選択図】図1

Description

本発明は、衝突事故抑制システム及び衝突事故抑制方法に関する。
衝突事故の中には、コリジョンコース現象が原因となって発生するものが含まれる。コリジョンコース現象とは、複数の車両が互いに衝突する進路で移動中であるという認識を各車両のドライバーができない(錯覚により動いている車両を認識できない)現象を指す。このコリジョンコース現象は、人の視覚能力の特性により引き起こされる。すなわち、人の周辺視野には、中心視野に比べて動体でないものを認識しづらい特性がある。これが一因となって、同じタイミングで衝突点へ進行する車両のドライバーが相手の車両が静止していると誤認し、動体を認識しづらい錯覚に陥る。それ故、コリジョンコース現象は、見通しのよい交差点でも発生しうる。
このようなコリジョンコース現象による衝突事故を抑制するための技術の一例として、衝突警戒車両認知支援装置などの文献の開示がある。この衝突警戒車両認知支援装置に関し、「コリジョンコース上の衝突警戒車両は、自車との相対速度が低い関係上、車両撮影カメラの視野では低速移動するように見える。しかしながら、路面や背景に対しては該他車固有の走行速度で移動しているので、衝突警戒車両の背景部分は高速で流れ去るように動いており、撮影画像としてみると該背景部分をなす画素の出力変動は非常に大きく、その変動の周波数は高い。一方、衝突警戒車両の像領域は低速でしか移動しないので、画素の出力変動は小さくその変動の周波数も低い。従って、衝突警戒車両像領域特定手段を、撮影される動画のフレームを構成する各画素の出力波形を検出する画素出力波形検出手段と、上記画素のうち、出力波形の周波数が予め定められた閾周波数未満となるものを衝突警戒車両の像領域構成画素として特定する衝突警戒車両像領域構成画素特定手段とを有するものとして構成すれば、衝突警戒車両の像領域をなす画素を、背景領域の画素に対し、出力周波数により簡単に分離でき、パターンマッチング等の複雑な画像処理を用いることなく、衝突警戒車両の像領域を簡単に分離できる。例えば、各画素の出力を、適当なカットオフ周波数(閾周波数)を有したローパスフィルタを通過させ、該ローパスフィルタ通過後に一定レベル以上の出力を有している画素を、衝突警戒車両の像領域画素として特定できる。」といった記載がある。
特開2010−83205号公報
しかしながら、上記の技術では、コリジョンコースの判定精度が低下する場合がある。
すなわち、上記の衝突警戒車両認知支援装置では、「衝突警戒車両の像領域の空間周波数<背景部分の空間周波数」という関係に基づいて、撮影される動画のフレームから閾値として設定された空間周波数未満となる領域が衝突警戒車両の像領域として分離される。このような衝突警戒車両の像領域の分離は、「衝突警戒車両の像領域の空間周波数<背景部分の空間周波数」という関係があってこそ始めて成立する。このため、背景部分および衝突警戒車両の間で空間周波数に差がない場合、衝突警戒車両の像領域を分離できない。例えば、車両が深夜の暗闇の景色を背景にして走行する場合や車両が単色の壁面等を背景にして走行する場合の他、車両が空間周波数の低いデザインの景色を背景にして走行する場合、上記の関係が成立しない場合があるので、衝突警戒車両の像領域を分離できず、コリジョンコースの判定精度が低下する場合がある。
1つの側面では、本発明は、コリジョンコースの判定精度が低下するのを抑制できる衝突事故抑制システム及び衝突事故抑制方法を提供することを目的とする。
一態様では、衝突事故抑制システムは、車両に搭載されたセンサから出力されたセンシングデータを用いてコリジョンコース現象の対象となる車両間の相対角度を算出する算出部と、前記算出部により算出された相対角度に変化があるか否かにより、コリジョンコース現象の発生に関するアラートを出力するか否かを制御する出力制御部と、を有する。
コリジョンコースの判定精度が低下するのを抑制できる。
図1は、実施例1に係る衝突事故抑制システムに含まれる各装置の機能的構成を示すブロック図である。 図2は、回転カメラの設置例を示す図である。 図3は、回転カメラの回転方向の一例を示す図である。 図4は、瞳孔と角膜反射の位置関係を示す図である。 図5は、ロケーションの一例を示す図である。 図6は、ロケーションの一例を示す図である。 図7は、ロケーションの一例を示す図である。 図8は、ロケーションの一例を示す図である。 図9は、パノラマ画像の一例を示す図である。 図10は、パノラマ画像の一例を示す図である。 図11は、瞳孔の中心位置の一例を示す図である。 図12は、瞳孔の中心位置の一例を示す図である。 図13は、実施例1に係るアラートの出力制御処理の手順を示すフローチャート(1)である。 図14は、実施例1に係るアラートの出力制御処理の手順を示すフローチャート(2)である。 図15は、回転カメラの設置例を示す図である。 図16は、交差点以外の衝突点の一例を示す図である。 図17は、交差点以外の衝突点の一例を示す図である。 図18は、実施例2に係わる車両の相対速度の算出方法を示す図である。 図19は、実施例1及び実施例2に係る衝突事故抑制プログラムを実行するコンピュータのハードウェア構成例を示す図である。
以下に添付図面を参照して本願に係る衝突事故抑制システム及び衝突事故抑制方法について説明する。なお、この実施例は開示の技術を限定するものではない。そして、各実施例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[衝突事故抑制システム]
図1は、実施例1に係る衝突事故抑制システムに含まれる各装置の機能的構成を示すブロック図である。図1に示す衝突事故抑制システム1は、コリジョンコース現象の発生による衝突事故を抑制する衝突事故抑制サービスを提供するものである。この衝突事故抑制サービスの一環として、衝突事故抑制システム1は、車両間の相対角度に変化があるか否かによりコリジョンコース現象の発生に関するアラートを出力するか否かを制御するアラートの出力制御処理を実現する。
図1に示すように、衝突事故抑制システム1には、サーバ装置10と、車載装置30とが含まれる。これらサーバ装置10及び車載装置30の間は、ネットワークNWを介して通信可能に接続される。このネットワークNWには、有線または無線を問わず、インターネットを始め、モバイルネットワークやLAN(Local Area Network)、VPN(Virtual Private Network)などの任意の種類の通信網を採用できる。なお、図1には、サーバ装置10が1つの車載装置30を収容する場合を示すが、1つのサーバ装置10に複数の車載装置30が収容されることとしてもかまわない。
車載装置30は、車両に搭載される機器である。
車載装置30には、コリジョンコースの判定に用いるデータをセンシングする各種のセンサ類が含まれる。このようなセンサ類の例として、図1に示す通り、GPS(Global Positioning System)受信機34、回転カメラ35や視線センサ36などが車両に搭載される。これらGPS受信機34、回転カメラ35及び視線センサ36が出力するセンシングデータは、車載装置30からサーバ装置10にアップロードされる。例えば、サーバ装置10へのアップロードは、GPS受信機34、回転カメラ35及び視線センサ36による出力が得られる度、所定の周期もしくは定期時刻などの任意の契機に実行できる。
サーバ装置10は、上記の衝突事故抑制サービスを提供するコンピュータである。ここで言う「サーバ装置」とは、あくまで機能の分類によるラベルであり、そのハードウェア構成は任意のコンピュータであってかまわない。
一形態として、サーバ装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の衝突事故抑制サービスを実現する衝突事故抑制プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、サーバ装置10は、上記の衝突事故抑制サービスを提供するWebサーバとして実装することとしてもよいし、アウトソーシングによって上記の衝突事故抑制サービスを提供するクラウドとして実装することとしてもかまわない。
例えば、サーバ装置10は、車載装置30からアップロードされるセンシングデータのうちGPS受信機34が出力する位置情報を用いて、車両が進入する道路網上のノードがコリジョンコースでないロケーションに対応するか否かを判定する。ここで言う「ノード」は、交差点を始め、ジャンクション等の合流点、結節点や道路上の構造変化点なども含まれる。この結果、コリジョンコースでないロケーションに対応する場合、当該位置情報と同期して回転カメラ35により撮像されたパノラマ画像をコリジョンコースの判定対象から除外する。例えば、車両が進入する交差点が立体交差である場合、車載装置30が搭載される車両と、当該立体交差へ異なる道路からへ進入する他の車両との間で衝突が起こらない。このように、車載装置30の位置情報を用いて、コリジョンコースでないロケーションで撮像される回転カメラ35のパノラマ画像をコリジョンコースの判定対象から除外する一方で、コリジョンコースの可能性があるロケーションで撮像される回転カメラ35のパノラマ画像をコリジョンコースの判定対象として抽出するフィルタリングが実施される。
このフィルタリングにより抽出される回転カメラ35のパノラマ画像を用いて、サーバ装置10は、回転カメラ35を搭載する車両の進行方向に対する、回転カメラ35が出力するパノラマ画像から検出される車両の方向を車両間の相対角度として算出する。その上で、サーバ装置10は、車両間の相対角度に変化があるか否かを判定する。ここで、車両間の相対角度に変化がない場合、車両間の相対角度に変化がある場合よりもコリジョンコース現象が発生する可能性が高くなる。この場合、サーバ装置10は、アラートを車載装置30に出力する。このようにアラートを出力するにあたって、サーバ装置10は、車載装置30からアップロードされるセンシングデータのうち視線センサ36が出力する視線情報を用いて、視線および頭部に動きがあるか否かをさらに判定する。そして、視線および頭部に動きがない場合、視線及び頭部が固定されている可能性が高く、コリジョンコース現象に陥る可能性がさらに高まる。この場合、サーバ装置10は、アラートの表示出力および音声出力を車載装置30に実行させる。一方、視線および頭部に動きがある場合、視線および頭部に動きがない場合に比べれば、コリジョンコース現象に陥る可能性は低い。この場合、サーバ装置10は、アラートの表示出力および音声出力のうち表示出力を車載装置30に実行させる。
このように、本実施例に係るサーバ装置10は、車載センサ、例えば回転カメラ35の出力を用いて車両間の相対角度に変化があるか否かによりコリジョンコース現象の発生に関するアラートを出力するか否かを制御するアラートの出力制御処理を実現する。このように必ずしも画像に含まれる車両以外の背景領域に依存せずに、コリジョンコース現象の判定を実施できる。したがって、本実施例に係るサーバ装置10によれば、コリジョンコースの判定精度が低下するのを抑制できる。
[車載装置の構成]
まず、本実施例に係る車載装置30の機能的構成を説明する。図1に示すように、車載装置30は、ディスプレイ31と、スピーカ32と、通信部33と、GPS受信機34と、回転カメラ35と、視線センサ36と、制御部37とを有する。
図1に示す車載装置30には、上記のアラートの出力制御機能に関連する機能部が抜粋して示されているに過ぎず、既存の車載装置がデフォルトまたはオプションで装備する機能部であれば、図示以外の機能部が車載装置30に備わることを妨げない。例えば、GPS受信機34、回転カメラ35や視線センサ36以外にも、加速度、速度、操舵角等のセンシングを行う各種のセンサ類が搭載されることとしてもかまわない。
ディスプレイ31は、各種の情報を表示する表示部の一例である。
一実施形態として、ディスプレイ31には、発光により表示を実現する液晶ディスプレイや有機EL(ElectroLuminescence)ディスプレイなどを採用できる。このディスプレイ31には、制御部37から出力される画像データが表示される。なお、ここでは、表示部の一例として、発光により表示を実現するディスプレイ31を例示したが、投影により表示を実現するプロジェクタなどを表示部に用いることもできる。また、入力および表示の機能が一体化されたタッチパネルを表示入力部として実装することができる。
スピーカ32は、各種の音声を出力する音声出力部の一例である。
一実施形態として、スピーカ32は、1つまたは複数のスピーカを含むスピーカユニットとして実装することができる。このスピーカ32は、制御部37から出力される音声データを音声出力することができる。なお、ここでは、音声出力部の一例としてスピーカを例示したが、チャイムやベル等の他の音声出力部を採用することもできる。
通信部33は、他の装置、例えばサーバ装置10との間で通信を行う処理部である。
一実施形態として、通信部33は、移動体通信部として実装できる。例えば、通信部33は、図示しないアンテナを介して基地局と接続することにより、基地局と接続される移動体通信網等を介して他の装置、例えばサーバ装置10との間でデータの送受信を行う。なお、通信部33が接続する移動体通信網は、3G(Generation)、3.9G、4Gや5Gなどの任意の世代の規格に対応するものであってかまわない。
GPS受信機34は、位置情報を取得する位置情報取得部の一例である。
例えば、GPS受信機34は、複数のGPS衛星から送信される時刻情報から位置、例えば緯度および経度を測位する。このようにGPS受信機34が測位する位置が位置情報として制御部37へ出力される。このとき、GPS受信機34が測位する位置は、必ずしもそのまま出力されずともよく、車載装置30が接続する基地局から送信される位置情報等を用いて各種の補正が行われることとしてもかまわない。
回転カメラ35は、画像を取得する画像取得部の一例である。
一実施形態として、回転カメラ35は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子およびレンズなどの光学系を含む撮像部と、撮像部のレンズを回転させる駆動を行う駆動部とを含むユニットして実装できる。このような実装の下、回転カメラ35は、撮像部のレンズをパンしながら撮像部に画像を撮像させることにより、撮像部をパンさせない場合よりも水平画角が広い画像、いわゆるパノラマ画像を撮影することができる。例えば、回転カメラ35は、水平画角が360度となるまで撮像部のレンズをパンすることにより、水平360度のパノラマ画像を撮影できる。なお、レンズをパンさせるパン速度、1フレームのパノラマ画像を撮影する撮影所要時間あるいはパノラマ画像を撮影してから次のパノラマ画像を撮影するまでの撮影間隔は、制御部37またはサーバ装置10から制御することもできる。
ここでは、図2及び図3を用いて、1台の回転カメラ35を用いる場合の車両への実装例を説明する。図2は、回転カメラ35の設置例を示す図である。図3は、回転カメラ35の回転方向の一例を示す図である。図2及び図3には、車両の側面方向をx軸、車両3aの進行方向をy軸、これらx軸およびy軸を含む水平面に直交する方向、すなわち垂直方向をz軸とする座標系が示されている。例えば、回転カメラ35は、図2に示すように、車両3aのルーフ上に設置することができる。このように車両3aのルーフ上に設置された回転カメラ35は、図3に示すように、撮像部のレンズLをz軸回りにパンすることにより、パノラマ画像を撮影する。この他、回転カメラ35は、撮像部のレンズLをx軸回りにチルトすることもできるし、撮像部のレンズLをy軸回りにロールすることもできる。このように車両3aのルーフ上に回転カメラ35を設置することにより、撮像部のレンズLがパンするのに伴ってレンズLが捉える撮影範囲が変化しても、車両3aのボディが被写体を遮るのを抑制できる。
視線センサ36は、視線検出を行う視線検出部の一例である。
例えば、視線検出のアルゴリズムの一例として、点光源およびカメラを含む光学系を用いる角膜反射法を適用することができる。このように角膜反射法を適用する場合、視線センサ36は、赤外線カメラおよび近赤外のLED(Light Emitting Diode)照明を含むユニットとして構成される。すなわち、赤外線カメラは、赤外線カメラのレンズが車両の運転者に正対する方向付近に近赤外のLED照明とともに設けられる。この近赤外のLED照明から照射される近赤外光は、角膜表面で反射し、その反射光が白い点として映る。
図4は、瞳孔と角膜反射の位置関係を示す図である。図4の上段には、視線が正面から見て左を向く場合の眼が示されると共に、図4の下段には、視線が正面から見て右を向く場合の眼が示されている。図4に示すように、近赤外光が反射する角膜上の位置は、楕円状の眼球の表面における反射であるので、たとえ眼球が左右に回転したとしても変化しない。その一方で、瞳孔中心は、眼球の回転に伴って移動する。これら瞳孔および角膜反射の性質を利用し、視線センサ36は、角膜反射の中心位置を基準点とし、当該基準点に対する瞳孔中心の相対位置を求める。これにより、角膜反射の中心位置及び楕円状の眼球の瞳孔中心の位置を結ぶ視線方向を検出する。
このように視線センサ36が検出する角膜反射の位置、瞳孔中心の位置および視線方向が視線情報として制御部37へ出力される。この他、視線情報には、目の大きさなどを含めることもできる。ここでは、あくまで一例として角膜反射法を適用する場合を例示したが、これ以外の方法を用いて視線検出を実現することもできる。例えば、目頭と虹彩の位置から視線を検出することもできる。また、フロントガラスを分割し、分割した領域を見る眼の形状を学習しておき、カメラから入力される被写体の画像から検出される眼の形状とテンプレートマッチングを実行することによって視線方向を検出することもできる。この他、運転者が装着するウェアラブルデバイスが検出する視線方向を取得することとしてもかまわない。
制御部37は、車載装置30の全体制御を行う処理部である。
一実施形態として、制御部37は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などのハードウェアプロセッサにより実装することができる。ここでは、プロセッサの一例として、CPUやMPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより実装することができる。この他、制御部37は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されることとしてもかまわない。
制御部37は、図示しない主記憶装置として実装されるDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)などのRAMのワークエリア上に、上記の衝突事故抑制サービスを利用するサービス利用プログラム、すなわち車載装置30用の制御プログラムを展開することにより、次のような処理を実行することができる。
一側面として、制御部37は、GPS受信機34、回転カメラ35及び視線センサ36により出力された位置情報、パノラマ画像および視線情報などのセンシングデータをサーバ装置10へアップロードすることができる。例えば、GPS受信機34、回転カメラ35及び視線センサ36が位置情報、パノラマ画像及び視線情報をサンプリングする周波数が同一である場合、制御部37は、GPS受信機34、回転カメラ35及び視線センサ36に位置情報、パノラマ画像及び視線情報を同期してセンシングさせた後、そのセンシングデータをアップロードすればよい。この際、サーバ装置10側でセンシングデータを送信する車両を識別させるために、センシングデータには、車両の識別情報が付与される。また、GPS受信機34、回転カメラ35及び視線センサ36が位置情報、パノラマ画像及び視線情報をサンプリングする周波数が異なる場合、制御部37は、GPS受信機34、回転カメラ35及び視線センサ36のうち最もサンプリング周波数が低い機能部によりセンシングされたタイミングに合わせてセンシングデータをアップロードすればよい。
他の側面として、制御部37は、サーバ装置10からの指示にしたがってアラートを出力させる。例えば、サーバ装置10からアラートの表示出力および音声出力が指示された場合、制御部37は、コリジョンコース現象の発生のおそれがある旨を注意喚起するメッセージをディスプレイ31に表示させると共に、当該メッセージに対応する音声もしくは効果音をスピーカ32から出力させる。また、サーバ装置10からアラートの表示出力が指示された場合、制御部37は、上記のメッセージをディスプレイ31に表示させる一方で、スピーカ32からの音声もしくは効果音の出力は省略される。
[サーバ装置10の構成]
次に、本実施例に係るサーバ装置10の機能的構成を説明する。図1に示すように、サーバ装置10は、通信I/F(InterFace)部11と、記憶部13と、制御部15とを有する。なお、図1には、上記のアラートの出力制御機能に関連するサーバ装置10の機能部が抜粋して示されているに過ぎず、図示以外の機能部、例えば既存のコンピュータがデフォルトまたはオプションで装備する機能部がサーバ装置10に備わることを妨げない。
通信I/F部11は、他の装置との間で通信制御を行うインタフェースである。
一実施形態として、通信I/F部11には、LANカードなどのネットワークインタフェースカードが対応する。例えば、通信I/F部11は、車載装置30から位置情報、パノラマ画像及び視線情報などのセンシングデータを受信したり、また、アラートの表示出力及び/又は音声出力の指示などを車載装置30へ送信したりする。
記憶部13は、制御部15で実行されるOS(Operating System)を始め、上記の衝突事故抑制機能を実現する衝突事故抑制プログラムなどの各種プログラムに用いられるデータを記憶する記憶デバイスである。
一実施形態として、記憶部13は、サーバ装置10における補助記憶装置として実装される。例えば、補助記憶装置には、HDD(Hard Disk Drive)、光ディスクやSSD(Solid State Drive)などが対応する。この他、EPROM(Erasable Programmable Read Only Memory)などのフラッシュメモリも補助記憶装置に対応する。
記憶部13は、制御部15で実行されるプログラムに用いられるデータの一例として、道路ネットワーク情報13aを記憶する。この道路ネットワーク情報13a以外にも、他の電子データを記憶することもできる。例えば、記憶部13には、上記の衝突事故抑制サービスの提供を受けるアカウント情報、例えば車両の識別情報および認証情報などを記憶することができる。
道路ネットワーク情報13aは、道路地図に関するデジタルデータである。
一実施形態として、道路ネットワーク情報13aは、道路網がノード及びリンクにより表現される。ここで言う「ノード」とは、道路上の特徴点を指し、交差点を始め、ジャンクション等の合流点、結節点や道路上の構造変化点なども含まれる。また、「リンク」とは、ノード間を接続する道路のことを指す。これらノード及びリンクには、各種の属性情報を対応付けることができる。例えば、ノード及びリンクには、政令等により設置が定められた信号機又は道路標識、例えば一時停止や速度制限などの有無を関連付けることができる。この他、リンクには、道路の名称や車線の数などを関連付けることができる。また、ノードには、交差点やジャンクション等の名称や立体交差の有無、工事の有無などが挙げられる。
制御部15は、ネットワーク管理装置10の全体制御を行う処理部である。
一実施形態として、制御部15は、CPUやMPUなどのハードウェアプロセッサにより実装することができる。ここでは、プロセッサの一例として、CPUやMPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより実装することができる。この他、制御部15は、ASICやFPGAなどのハードワイヤードロジックによって実現されることとしてもかまわない。
制御部15は、図示しない主記憶装置として実装されるDRAMやSRAMなどのRAMのワークエリア上に、上記の衝突事故抑制機能を実現する衝突事故抑制プログラムを展開することにより、下記の処理部を仮想的に実現する。
制御部15は、図1に示すように、フィルタリング部15aと、検出部15bと、算出部15cと、出力制御部15dとを有する。これらフィルタリング部15a、検出部15b、算出部15cおよび出力制御部15dにより実行される処理は、センシングデータをアップロードする車載装置30ごとに並列して実行することができる。
フィルタリング部15aは、コリジョンコースの判定対象のフィルタリングを実行する処理部である。
一実施形態として、フィルタリング部15aは、車載装置30からアップロードされるセンシングデータのうちGPS受信機34が出力する位置情報を用いて、車両が進入する道路網上のノードがコリジョンコースでないロケーションに対応するか否かを判定する。この判定結果にしたがって、フィルタリング部15aは、コリジョンコース現象が発生しにくいロケーションで撮影されたパノラマ画像をコリジョンコースの判定対象から除外する一方で、コリジョンコース現象が発生する可能性があるロケーションで撮影されたパノラマ画像をコリジョンコースの判定対象として抽出する。
<最寄りのノードの識別>
具体的には、フィルタリング部15aは、車載装置30から位置情報がアップロードされた場合、記憶部13に記憶された道路ネットワーク情報13aから車両の進路上に存在する最寄りのノードを識別する。例えば、フィルタリング部15aは、記憶部13に記憶された道路ネットワーク情報13aから車両が走行中であるリンクを検索する。続いて、フィルタリング部15aは、車載装置30から過去にアップロードされた位置情報の履歴をさらに参照する。これにより、位置情報の時系列データが得られる。そして、フィルタリング部15aは、位置情報の時系列データから車両が走行中であるリンク上の進行方向を識別する。その上で、フィルタリング部15aは、車両が走行中であるリンクが接続する2つのノードのうち進行方向に対応するノードを抽出する。これにより、車両の進路上に存在する最寄りのノードが得られる。
<立体交差ノードの除外>
その上で、フィルタリング部15aは、車両の進路上に存在する最寄りのノードに関連付けられた属性情報を参照して、当該ノードが立体交差に対応するか否かを判定する。図5は、ロケーションの一例を示す図である。図5には、車載装置30が搭載された車両3aが最寄りのノードN1に向かって走行中である状況が示されている。ここで、図5に示すように、最寄りのノードN1が立体交差である場合、最寄りのノードN1へ進入するタイミングが重複する他の車両3bが存在したとしても、車両3aおよび車両3bの間で衝突事故が起こらないことは明らかである。このように最寄りのノードN1がコリジョンコース現象の発生しにくいロケーションである場合、フィルタリング部15aは、当該車両3aの車載装置30からアップロードされるパノラマ画像をコリジョンコースの判定対象から除外する。
<信号機設置ノードの除外>
また、フィルタリング部15aは、車両の進路上に存在する最寄りのノードに関連付けられた属性情報を参照して、当該ノードにおける信号機の設置の有無を判定する。図6は、ロケーションの一例を示す図である。図6には、車載装置30が搭載された車両3aが最寄りのノードN2に向かって走行中である状況が示されている。図6に示すように、最寄りのノードN2に信号機S1が設置されている場合、最寄りのノードN2へ進入するタイミングが重複する他の車両3bが存在したとしても、車両3aまたは車両3bのうちいずれかの車両がノードN2に進入する前に停止する可能性が高い。すなわち、図6を例に言えば、車両3aの進行方向の正面に存在する信号機S1には赤が表示されているので、車両3aがノードN2へ進入する前に停止する一方で、車両3bがノードN2を通過することになる。それ故、車両3aおよび車両3bの間で衝突事故が起こらない可能性も高いと判断できる。このように最寄りのノードN2がコリジョンコース現象の発生しにくいロケーションである場合、フィルタリング部15aは、当該車両3aの車載装置30からアップロードされるパノラマ画像をコリジョンコースの判定対象から除外する。
<一時停止ノードの除外>
さらに、フィルタリング部15aは、車両の進路上に存在する最寄りのノードに関連付けられた属性情報を参照して、当該ノードにおける一時停止の道路標識の有無を判定する。図7は、ロケーションの一例を示す図である。図7には、車載装置30が搭載された車両3aが最寄りのノードN3に向かって走行中である状況が示されている。図7に示すように、最寄りのノードN3に一時停止の道路標識Rm1が設置されている場合、最寄りのノードN3へ進入するタイミングが重複する他の車両3bが存在したとしても、車両3aまたは車両3bのうちいずれかの車両がノードN3に進入する前に停止する可能性が高い。すなわち、図7を例に言えば、車両3aの進行方向の正面に一時停止の道路標識Rm1が存在するので、車両3aがノードN3へ進入する前に停止する一方で、車両3bがノードN3を通過することになる。それ故、車両3aおよび車両3bの間で衝突事故が起こらない可能性も高いと判断できる。このように最寄りのノードN3がコリジョンコース現象の発生しにくいロケーションである場合、フィルタリング部15aは、当該車両3aの車載装置30からアップロードされるパノラマ画像をコリジョンコースの判定対象から除外する。
<工事中ノードの除外>
また、フィルタリング部15aは、車両の進路上に存在する最寄りのノードに関連付けられた属性情報を参照して、当該ノードの手前側で工事中であるか否かを判定する。図8は、ロケーションの一例を示す図である。図8には、車載装置30が搭載された車両3aが最寄りのノードN4に向かって走行中である状況が示されている。図8に示すように、最寄りのノードN4の手前側で工事中である場合、最寄りのノードN4へ進入するタイミングが重複する他の車両3bが存在したとしても、車両3aまたは車両3bのうちいずれかの車両がノードN4に進入する前に停止する可能性が高い。すなわち、図8を例に言えば、車両3aがノードN4へ進入する手前側で工事中であるので、車両3aは、工事が原因となって減速、停止および迂回などの行動を行った後にノードN4へ進入することになる。一方、車両3bは、減速、停止および迂回などの行動を行わずともよいので、車両3aがノードN4へ進入する前にノードN4を通過することになる。それ故、車両3aおよび車両3bの間で衝突事故が起こらない可能性が高いと判断できる。このように最寄りのノードN4がコリジョンコース現象の発生しにくいロケーションである場合、フィルタリング部15aは、当該車両3aの車載装置30からアップロードされるパノラマ画像をコリジョンコースの判定対象から除外する。
これらのフィルタリングが実行された後、コリジョンコースの判定対象から除外されなかったパノラマ画像を対象にコリジョンコースの判定が実施される。
検出部15bは、パノラマ画像から車両が映る領域を検出する処理部である。以下では、車載装置30からセンシングデータをアップロードする車両、すなわち回転カメラ35によりパノラマ画像を撮影する車両と、パノラマ画像から検出される車両とを区別する観点から、前者のことを「第1の車両」と記載すると共に後者のことを「第2の車両」と記載することがある。
一実施形態として、検出部15bは、フィルタリング部15aにより抽出されたパノラマ画像にテンプレートマッチング等の画像処理を実行することにより、上記のパノラマ画像から第2の車両の車体領域を検出する。例えば、検出部15bは、車両のテンプレートをパノラマ画像上で移動させながらテンプレートと当該テンプレートがパノラマ画像上で重なる領域との間で誤差又は類似度を算出する。そして、検出部15bは、テンプレートとの誤差が所定の閾値以内である領域の重心、或いはテンプレートとの類似度が所定の閾値以上である領域の重心を第2の車両の所在位置として検出する。このようなマッチングは、一例として、車種、あるいは車両の分類ごとに定義されたテンプレートごとに実施することができる。
算出部15cは、コリジョンコース現象の対象となる車両間の相対速度を算出する処理部である。
一実施形態として、算出部15cは、パノラマ画像を撮影する回転カメラ35が搭載された第1の車両の進行方向と、当該第1の車両の所在位置および検出部15bにより検出された第2の車両の所在位置の間を結ぶ所在方向との角度差を第1の車両および第2の車両の間の相対角度として算出する。例えば、算出部15cは、パノラマ画像上で第1の車両の進行方向に対応する第1の水平画角および第2の車両の所在位置に対応する第2の水平画角を識別する。そして、算出部15cは、第1の水平画角および第2の水平画角の差を計算することにより、第1の車両および第2の車両の間の相対角度を算出する。
出力制御部15dは、アラートの出力制御を実行する処理部である。
一実施形態として、出力制御部15dは、コリジョンコース現象の対象となる車両間の相対角度に変化があるか否かに応じてコリジョンコース現象の発生に関するアラートを出力するか否かを制御する。ここで、相対角度の変化は経時的な変化である。例えば、出力制御部15dは、算出部15cにより算出された相対角度θと、当該相対角度θの算出に用いられたパノラマ画像よりも前に取得されたパノラマ画像から算出された相対角度θとを比較することにより、車両間の相対角度θに変化がある否かを判定する。例えば、出力制御部15dは、相対角度θおよび相対角度θの差の絶対値が所定の閾値Th1以上であるか否かを判定する。このとき、相対角度θおよび相対角度θの差の絶対値が閾値Th1以上である場合、すなわち|θ−θ|≧Th1である場合、第1の車両および第2の車両が等速度で走行していないと判断できる。この場合、アラートの出力は実行されない。一方、相対角度θおよび相対角度θの差の絶対値が閾値Th1未満である場合、すなわち|θ−θ|<Th1である場合、第1の車両および第2の車両が最寄りのノードに向かって等速度で走行している可能性が高いと判断できる。この場合、アラートの出力が実行される。
図9及び図10は、パノラマ画像の一例を示す図である。図9及び図10には、一例として、回転カメラ35のレンズの水平画角の右端が第1の車両の進行方向と一致する状態を撮影の初期状態とし、回転カメラ35のレンズがz軸の反時計回り(左回り)にパンされることにより撮影された水平360度のパノラマ画像90及びパノラマ画像91が示されている。これらパノラマ画像90及びパノラマ画像91では、パノラマ座標系の縦軸の座標が垂直画角により示されると共に、パノラマ座標系の横軸の座標が水平画角により示されている。これらのうち、パノラマ画像90は、回転カメラ35によりN−1番目に撮影されたフレームに対応し、パノラマ画像91は、回転カメラ35によりN番目に撮影されたフレームに対応する。
例えば、図9に示すように、N−1フレーム目のパノラマ画像90では、第1の車両の進行方向に対応する第1の水平画角が水平0度(360度)と一致する。さらに、パノラマ画像90から検出された第2の車両の所在位置はパノラマ画像上で水平130度に対応する。このパノラマ画像90上の第2の車両の所在位置は、実空間における第1の車両の所在位置および第2の車両の所在位置を結ぶ所在方向に対応する。よって、第2の水平画角から第1の水平画角を差し引く計算、すなわち「第2の水平画角−第1の水平画角」により、N−1フレーム目における第1の車両および第2の車両の間の相対角度は、130度(=130度−0度)と算出できる。
また、図10に示すように、Nフレーム目のパノラマ画像91でも、第1の車両の進行方向に対応する第1の水平画角が水平0度(360度)と一致する。さらに、パノラマ画像90の場合と同様、パノラマ画像91から検出された第2の車両の所在位置もパノラマ画像上で水平130度に対応する。このパノラマ画像91上の第2の車両の所在位置は、実空間における第1の車両の所在位置および第2の車両の所在位置を結ぶ所在方向に対応する。よって、Nフレーム目における第1の車両および第2の車両の間の相対角度も、130度(=130度−0度)と算出できる。
例えば、閾値を「Th1(=5度)」としたとき、N−1フレーム目で算出された相対速度は「θ=130度」に対応し、Nフレームで算出された相対速度は「θ=130度」に対応する。この場合、相対角度θおよび相対角度θの差の絶対値、すなわち|θ−θ|は、0度(=130度−130度)となるので、|θ−θ|<Th1の条件を満たすので、第1の車両および第2の車両は最寄りのノードに向かって等速度で走行している可能性が高いと判断できる。よって、アラートの出力が実行される。
ここで、相対角度θおよび相対角度θの差の絶対値が閾値Th1未満である場合、車載装置30にアラートを出力させることになるが、出力制御部15dは、第1の車両の運転者の状態に応じて車載装置30に出力させるアラートの出力レベルを変更することもできる。
一側面として、出力制御部15dは、第1の車両の運転者の視線変化の有無に応じて、アラートの出力レベルを変更する。すなわち、出力制御部15dは、車両間の相対角度に変化があると判定されたフレームに視線センサ36から取得される視線情報と、当該フレームよりも前に視線センサ36から取得された視線情報とを比較することにより、第1の車両の運転者の視線に変化があるか否かを判定する。例えば、Nフレーム目で車両間の相対角度に変化があると判定された場合、出力制御部15dは、N−1フレーム目に視線センサ36から取得された瞳孔の中心位置と、Nフレーム目に視線センサ36から取得された瞳孔の中心位置との差分が所定の閾値以上であるか否かを判定する。
図11及び図12は、瞳孔の中心位置の一例を示す図である。図11には、N−1フレーム目の瞳孔の中心位置が示される一方で、図12には、Nフレーム目の瞳孔の中心位置が示されている。例えば、瞳孔の中心位置の差分は、水平成分および垂直成分ごとに算出される。すなわち、図12に示すNフレーム目の瞳孔中心の水平座標X2と、図11に示すN−1フレーム目の瞳孔中心の水平座標X1との差分の絶対値が算出される。また、図12に示すNフレーム目の瞳孔中心の垂直座標Y2と、図11に示すN−1フレーム目の瞳孔中心の垂直座標Y1との差分の絶対値も算出される。
これら水平および垂直の差分の絶対値のうちいずれか一方が閾値以上である場合、視線に変化があると判定される。すなわち、出力制御部15dは、瞳孔中心の水平座標の差分|X2−X1|が所定の閾値Th21以上であるか否かを判定する。また、瞳孔中心の垂直座標の差分|Y2−Y1|が所定の閾値Th22以上であるか否かを判定する。
このとき、瞳孔中心の水平座標の差分|X2−X1|が閾値Th21未満であり、かつ瞳孔中心の垂直座標の差分|Y2−Y1|が閾値Th22未満である場合、視線に変化がないと判定される。この場合、第1の車両の運転者の視線が一点に集中している可能性が高く、コリジョンコース現象に陥りやすい状況であると判断できる。したがって、出力制御部15dは、アラートの表示出力および音声出力を車載装置30へ指示する。
一方、瞳孔中心の水平座標の差分|X2−X1|が閾値Th21以上である場合、あるいは瞳孔中心の垂直座標の差分|Y2−Y1|が閾値Th22以上である場合、視線に変化があると判定される。この場合、第1の車両の運転者の視線が一点には集中していない可能性が高く、視線が一点に集中する場合よりコリジョンコース現象に陥りにくい状況であると判断できる。したがって、出力制御部15dは、アラートの表示出力および音声出力のうちアラートの表示出力を車載装置30へ指示する。
なお、ここでは、瞳孔の中心位置の差分により視線の変化の有無を判定する場合を例示するが、N−1フレーム及びNフレームの間で視線方向のベクトルの類似度を内積や外積等の計算により算出し、類似度に基づいて視線に変化があるか否かを判定できる。例えば、ベクトル間の内積から求められた類似度が所定の閾値以上である場合に視線に変化があると判定する一方で、類似度が所定の閾値未満である場合に視線に変化がないと判定することができる。
他の側面として、出力制御部15dは、第1の車両の運転者の頭部位置の変化の有無に応じて、アラートの出力レベルを変更する。例えば、頭部位置の変化の有無を判定するには、視線情報に含まれる目の大きさの変化を用いることができる。なぜなら、頭部位置の変化と目の大きさの変化は、互いに連動するので、次のような関連がある。すなわち、視線センサ36および頭部の距離が大きくなるに伴って視線センサ36が撮像する画像に映る目が小さくなる一方で、視線センサ36および頭部の距離が小さくなるのに伴って視線センサ36が撮像する画像に映る目が大きくなるという関連がある。それ故、出力制御部15dは、車両間の相対角度に変化があると判定されたフレームで視線センサ36から視線情報として取得される目の大きさと、当該フレームよりも前に視線センサ36から視線情報として取得された目の大きさとを比較することにより、第1の車両の運転者の頭部位置に変化があるか否かを判定する。
例えば、Nフレーム目で車両間の相対角度に変化があると判定された場合、出力制御部15dは、N−1フレーム目に視線センサ36から取得された目の大きさと、Nフレーム目に視線センサ36から取得された目の大きさとの差分が所定の閾値以上であるか否かを判定する。図11及び図12には、瞳孔の中心位置に加えて、目の大きさも示されている。例えば、目の大きさの差分は、水平成分および垂直成分ごとに算出される。すなわち、図12に示すNフレーム目における目の水平方向の大きさx2と、図11に示すN−1フレーム目における目の水平方向の大きさx1との差分の絶対値が算出される。また、図12に示すNフレーム目における目の垂直方向の大きさy2と、図11に示すN−1フレーム目における目の垂直方向の大きさy1との差分の絶対値も算出される。
これら水平および垂直の差分の絶対値のうちいずれか一方が閾値以上である場合、頭部位置に変化があると判定される。すなわち、出力制御部15dは、目の水平方向の大きさの差分|x2−x1|が所定の閾値Th31以上であるか否かを判定する。また、目の垂直方向の大きさの差分|y2−y1|が所定の閾値Th32以上であるか否かを判定する。
このとき、目の水平方向の大きさの差分|x2−x1|が閾値Th31未満であり、かつ目の垂直方向の大きさの差分|y2−y1|が閾値Th32未満である場合、頭部位置に変化がないと判定される。この場合、第1の車両の運転者の頭部位置が変化していない可能性が高く、コリジョンコース現象に陥りやすい状況であると判断できる。したがって、出力制御部15dは、アラートの表示出力および音声出力を車載装置30へ指示する。
一方、目の水平方向の大きさの差分|x2−x1|が閾値Th31以上である場合、あるいは目の垂直方向の大きさの差分|y2−y1|が閾値Th32以上である場合、頭部位置に変化があると判定される。この場合、第1の車両の運転者の頭部位置が変化している可能性が高く、頭部位置が変化していない場合よりもコリジョンコース現象に陥りにくい状況であると判断できる。したがって、出力制御部15dは、アラートの表示出力および音声出力のうちアラートの表示出力を車載装置30へ指示する。
なお、ここでは、視線の変化の有無および頭部位置の変化の有無を個別に実施する場合を例示したが、両者を組み合わせて実施することもできる。例えば、出力制御部15dは、視線に変化がなく、かつ頭部位置に変化がない場合にアラートの表示出力および音声出力を車載装置30に実行させる一方で、視線に変化があるか、あるいは頭部位置に変化がある場合にアラートの表示出力を車載装置30に実行させることもできる。また、ここでは、頭部位置の変化の有無を目の大きさの変化の有無により判定する場合を例示したが、図示しないドライブレコーダに搭載されるカメラにより撮像された画像に頭部検出を行い、ドライブレコーダのカメラに映る頭部領域を追跡することにより、頭部位置に変化があるか否かを判定することとしてもかまわない。
[処理の流れ]
図13及び図14は、実施例1に係るアラートの出力制御処理の手順を示すフローチャートである。図13及び図14に示す出力制御処理は、第1の車両の車載装置30からセンシングデータが取得される度に繰り返し実行される。なお、出力制御処理は、上記の衝突事故抑制サービスに加入する車載装置30ごとに並列して実行することができる。
図13に示すように、フィルタリング部15aは、第1の車両の車載装置30からアップロードされるセンシングデータを取得する(ステップS101)。続いて、フィルタリング部15aは、車載装置30から取得されたセンシングデータに含まれる位置情報を用いて、記憶部13に記憶された道路ネットワーク情報13aに含まれるノードの中から車両の進路上に存在する最寄りのノードを識別する(ステップS102)。
そして、フィルタリング部15aは、車両の進路上に存在する最寄りのノードに関連付けられた属性情報を参照して、当該ノードが立体交差に対応するか否かを判定する(ステップS103)。このとき、最寄りのノードが立体交差である場合(ステップS103Yes)、コリジョンコース現象の発生しにくいロケーションであると判断できる。この場合、第1の車両の車載装置30から取得されたセンシングデータに含まれるパノラマ画像がコリジョンコースの判定対象から除外され、ステップS101の処理に戻る。
一方、最寄りのノードが立体交差でない場合(ステップS103No)、コリジョンコース現象の発生しやすいロケーションである余地が残る。この場合、フィルタリング部15aは、車両の進路上に存在する最寄りのノードに関連付けられた属性情報を参照して、当該ノードにおける信号機の設置の有無を判定する(ステップS104)。このとき、最寄りのノードに信号機が設置されている場合(ステップS104Yes)、コリジョンコース現象の発生しにくいロケーションであると判断できる。この場合、第1の車両の車載装置30から取得されたセンシングデータに含まれるパノラマ画像がコリジョンコースの判定対象から除外され、ステップS101の処理に戻る。
また、最寄りのノードに信号機が設置されていない場合(ステップS104No)、コリジョンコース現象の発生しやすいロケーションである余地が残る。この場合、フィルタリング部15aは、車両の進路上に存在する最寄りのノードに関連付けられた属性情報を参照して、当該ノードにおける一時停止の道路標識の有無を判定する(ステップS105)。このとき、最寄りのノードに一時停止の道路標識が設置されている場合(ステップS105Yes)、コリジョンコース現象の発生しにくいロケーションであると判断できる。この場合、第1の車両の車載装置30から取得されたセンシングデータに含まれるパノラマ画像がコリジョンコースの判定対象から除外され、ステップS101の処理に戻る。
また、最寄りのノードに一時停止の道路標識が設置されていない場合(ステップS105No)、コリジョンコース現象の発生しやすいロケーションである余地が残る。この場合、フィルタリング部15aは、車両の進路上に存在する最寄りのノードに関連付けられた属性情報を参照して、当該ノードの手前側で工事中であるか否かを判定する(ステップS106)。このとき、最寄りのノード手前が工事中である場合(ステップS106Yes)、コリジョンコース現象の発生しにくいロケーションであると判断できる。この場合、第1の車両の車載装置30から取得されたセンシングデータに含まれるパノラマ画像がコリジョンコースの判定対象から除外され、ステップS101の処理に戻る。
また、最寄りのノード手前が工事中でない場合(ステップS106No)、コリジョンコース現象の発生しやすいロケーションである余地が残る。この場合、検出部15bは、図14に示すように、第1の車両の車載装置30から取得されたセンシングデータに含まれるパノラマ画像にテンプレートマッチング等の画像処理を実行することにより、上記のパノラマ画像から第2の車両の車体領域を検出する(ステップS107)。
そして、算出部15cは、パノラマ画像を撮影する回転カメラ35が搭載された第1の車両の進行方向と、当該第1の車両の所在位置およびステップS107でパノラマ画像から検出された第2の車両の所在位置の間を結ぶ所在方向との角度差を第1の車両および第2の車両の間の相対角度として算出する(ステップS108)。
続いて、出力制御部15dは、ステップS108で算出された相対角度θと、当該相対角度θの算出に用いられたパノラマ画像よりも前に取得されたパノラマ画像から算出された相対角度θとの差の絶対値が所定の閾値Th1以上であるか否かにより、車両間の相対角度に変化があるか否かを判定する(ステップS109)。
そして、車両間の相対角度に変化があると判定された場合(ステップS109No)、第1の車両および第2の車両が等速度で走行していないと判断できる。この場合、アラートの出力は実行されず、上記のステップS101の処理へ移行する。
一方、車両間の相対角度に変化がないと判定された場合(ステップS109Yes)、第1の車両および第2の車両が最寄りのノードに向かって等速度で走行している可能性が高いと判断できる。この場合、出力制御部15dは、車両間の相対角度に変化があると判定されたフレームに視線センサ36から取得される視線情報と、当該フレームよりも前に視線センサ36から取得された視線情報とを比較することにより、第1の車両の運転者の視線に変化があるか否かをさらに判定する(ステップS110)。
ここで、第1の車両の運転者の視線に変化がない場合(ステップS110No)、第1の車両の運転者の視線が一点に集中している可能性が高く、コリジョンコース現象に陥りやすい状況であると判断できる。したがって、出力制御部15dは、アラートの表示出力および音声出力を車載装置30へ指示し(ステップS111)、ステップS101の処理へ移行する。
また、第1の車両の運転者の視線に変化がある場合(ステップS110Yes)、第1の車両の運転者の視線が一点には集中していない可能性が高く、視線が一点に集中する場合よりコリジョンコース現象に陥りにくい状況であると判断できる。したがって、出力制御部15dは、アラートの表示出力および音声出力のうちアラートの表示出力を車載装置30へ指示し(ステップS112)、ステップS101の処理へ移行する。
[効果の一側面]
上述してきたように、本実施例に係るサーバ装置10は、車載センサ、例えば回転カメラ35の出力を用いて車両間の相対角度に変化があるか否かによりコリジョンコース現象の発生に関するアラートを出力するか否かを制御するアラートの出力制御処理を実現する。このように必ずしも画像に含まれる車両以外の背景領域に依存せずに、コリジョンコース現象の判定を実施できる。したがって、本実施例に係るサーバ装置10によれば、コリジョンコースの判定精度が低下するのを抑制できる。
また、本実施例に係るサーバ装置10は、回転カメラ35を用いてコリジョンコースの判定を実施する。例えば、コリジョンコースの判定に水平360度のパノラマ画像を用いることができる。このため、固定カメラが用いられる場合のようにカメラの死角が発生しにくいので、コリジョンコースの判定に漏れが生じるのを抑制できる。この他、上記の背景技術で説明した衝突警戒車両認知支援装置のように、衝突警戒車両の像領域を検出した上で衝突警戒車両の像領域と背景部分との間で更なる画像解析を実施せずともよい。このため、コリジョンコースの判定処理時間や判定処理負荷を軽減できる。
[回転カメラ35]
上記の実施例1では、1台の回転カメラ35を用いる場合を例示したが、複数の回転カメラ35を用いることにより、パノラマ画像に対する画像処理のコストを低減することもできる。図15は、回転カメラ35の設置例を示す図である。図15には、回転カメラ35a、回転カメラ35b、回転カメラ35c及び回転カメラ35dの4つの回転カメラ35の設置例が示されている。図15に示すように、回転カメラ35aは、車両3aのフロントの左端に設けられる。また、回転カメラ35bは、車両3aのフロントの右端に設けられる。また、回転カメラ35cは、車両3aのリアの左端に設けられる。また、回転カメラ35dは、車両3aのリアの右端に設けられる。これら回転カメラ35a、回転カメラ35b、回転カメラ35c及び回転カメラ35dは、互いの撮影範囲に死角が生じないように設置されると共に、ソフトウェアによる情報処理が実行可能なプロセッサが搭載される。
このような環境の下、各回転カメラ35は、並行して下記の処理を実行する。すなわち回転カメラ35は、画像を撮像する度に当該画像にテンプレートマッチング等の画像処理を行うことにより、第2の車両の車体領域を検出する。続いて、回転カメラ35は、回転カメラ35のレンズの光軸と、画像上における第2の車両の車体領域の重心との回転角度の差を算出する。そして、回転カメラ35は、上記の回転角度の差にしたがってレンズを含む撮像部をパンさせることにより、回転カメラ35のレンズの光軸と、画像上における第2の車両の車体領域の重心とを一致させる。その上で、回転カメラ35は、回転カメラ35の回転角度をサーバ装置10にアップロードする。このとき、回転カメラ35は、回転カメラ35の回転角度を車両3aの進行方向をゼロ度としたときの相対角度で表すことにより、回転カメラ35の回転角度を第1の車両および第2の車両の相対角度として出力することができる。これにより、図14に示すフローチャートにおけるステップS107およびステップS108の画像処理コストを削減できる。
[最寄りのノード]
上記の実施例1では、最寄りのノードの一例として交差点を例示したが、必ずしもコリジョンコースにおける衝突点は交差点でなくともかまわない。図16及び図17は、交差点以外の衝突点の一例を示す図である。図16には、高速道路やバイパスにおける合流点が示されており、また、図17には、片側複数車線の道路が示されている。図16及び図17には、第1の車両3a及び第2の車両3bの位置情報の時系列データ、すなわち移動軌跡が模式的に示されている。図16及び図17に示すように、高速道路やバイパスにおける合流点や片側複数車線の道路における車線変更においても、最寄りのノードが交差点である場合と同様に、第1の車両3aおよび第2の車両3bが等速度で走行する衝突点が発生する。このため、高速道路やバイパスにおける合流点や片側複数車線の道路を最寄りのノードとする場合にも図13および図14に示す処理を同様に適用できる。さらに、高速道路やバイパスにおける合流点や片側複数車線の道路における車線変更では、衝突点が交差点である場合に比べて、第1の車両3aおよび第2の車両3bの間の距離が短くなるケースが多い。このため、アラートが出力されるまでの所要時間を短縮するために、一例として、図14に示すステップS110の処理をスキップしてアラートを出力することもできる。
[コリジョンコース現象が発生しやすいロケーションの抽出]
上記の実施例1では、フィルタリング部15aがコリジョンコース現象の発生しにくいロケーションで撮影されたパノラマ画像をコリジョンコースの判定対象から除外する場合を例示したが、コリジョンコース現象の発生しやすいロケーションで撮影されたパノラマ画像をコリジョンコースの判定対象として抽出するフィルタリングを実施することとしてもかまわない。例えば、最寄りのノードが、高速道路(都市高速)、広い場所(工場、空港、学校、大型駐車場)、左折専用レーンのある交差点、ラウンドアバウト、海岸沿い等のロケーションに対応する場合、当該ロケーションで撮影されたパノラマ画像をコリジョンコースの判定対象として抽出することもできる。
[サンプリング周期]
位置情報やパノラマ画像、視線情報のサンプリング周期は、あくまで一例として、時速100km/hの車両が1m走行する時間「35.72ms」をGPS受信機34、回転カメラ35及び視線センサ36のサンプリング周期として設定することができる。
また、コリジョンコース現象の衝突点に到達する7秒前に運転者にアラートを出力するために、一例として、サンプリング周波数を20Hz程度に設定することもできる。
この数値の論拠は、次の通りである。すなわち、運転者が危険を感じてから、ブレーキをかけ、ブレーキが効き始めるまでを反応時間と言う。この反応時間は、一例として、下記の式(1)で求められる。
反応時間=反射時間+踏み替え時間+踏み込み時間・・・(1)
上記の式(1)における「反射時間」とは、運転者が危険を感じ、ブレ−キをかける必要があると判断して、足が運動を始めるまでの時間を指す。また、「踏み替え時間」とは、アクセルペダルからブレーキペダルに足を移す時間を指す。また、「踏み込み時間」とは、ブレーキを踏みブレーキが効き始めるまでの時間を指す。
ここで、上記の反応時間は、約1秒程度と言われており、この約1秒間に車両が進む距離のことを空走距離と言う。例えば、車両が時速100kmで移動する場合、1秒間の空走距離は、「100*1000/3600≒28(m)」となる。
また、運転者がブレーキを踏んで制動がかかってから停止するまでに車両が進む距離を制動距離と言う。よって、運転者が危険を感じてから停止するまでの距離である停止距離は、下記の式(2)で求まる。
停止距離=空走距離+制動距離・・・(2)
上記の式(2)における「制動距離」は、路面が濡れている場合や、タイヤが磨耗している条件でも長くなることが知られている。例えば、時速100kmで路面乾燥時、タイヤ摩耗時、路面ウェット時の停止距離を比較する。すなわち、路面乾燥時には、停止距離は84m(空走距離28m+制動距離56m)となる。また、タイヤ磨耗時には、停止距離は94m(空走距離28m+制動距離66m)となり、路面乾燥時に比べると約12%増しとなる。また、路面ウェット時には、停止距離は107m(空走距離28m+制動距離79m)となり、路面乾燥時に比べると約27%増しとなる。なお、使用年数が5〜7年を超えるタイヤが摩耗と判断される。
また、同様に、時間の観点で見ると、停止時間は、下記の式(3)で表すことができる。下記の式(3)にしたがって停止時間を求めた場合、次の通りとなる。すなわち、路面乾燥時には、停止時間は5.049秒(空走時間1.000秒+制動時間4.049)となる。また、タイヤ磨耗時には、停止時間は5.724秒(空走時間1.000秒+制動時間4.724秒)となり、路面乾燥時に比べて約13%増しとなる。また、路面ウェット時には、停止時間は6.669秒(空走時間1.000秒+制動時間5.669秒)となり、路面乾燥時に比べて32%増しとなる。
停止時間=空走時間+制動時間・・・(3)
このように、路面の状態やタイヤの磨耗に合わせて適切なサンプリング周期やサンプリング周波数を求めることも可能である。例えば、路面ウェット時の停止時間を考慮して、そのままではコリジョンコース現象により衝突が発生してしまう7秒前に運転者に通知できるようなサンプリング周波数の一例として、20Hzを採用することができる。
[スタンドアローン]
上記の実施例1では、図13及び図14に示すアラートの出力制御処理がサーバ装置10により実行される場合を例示したが、図13及び図14に示すアラートの出力制御処理は必ずしもサーバ装置10で実行されずともかまわない。例えば、車載装置30は、図13及び図14に示すアラートの出力制御処理をスタンドアローンで実行することもできる。この場合、車載装置30が図1に示すサーバ装置10の処理部、すなわちフィルタリング部15a、検出部15b、算出部15c及び出力制御部15dを有することとすればよい。
さて、これまで開示の装置に関する実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では、本発明に含まれる他の実施例を説明する。
[移動軌跡によるコリジョンコースの判定]
上記の実施例1では、回転カメラ35を用いて車両間の相対角度を算出する場合を例示したが、必ずしも回転カメラ35を用いずともかまわない。そこで、本実施例では、複数の車載装置30から取得される位置情報の時系列データ、すなわち移動軌跡を用いて車両間の相対角度を算出する例を説明する。
例えば、フィルタリング部15aは、複数の車載装置30から位置情報を取得する度に、車載装置30に対応する車両ごとに最寄りのノードおよび進行方向を識別すると共に最寄りノードまでの距離を算出する。その後、フィルタリング部15aは、図13に示すステップS103〜ステップS106の処理を行うことにより、コリジョンコースの判定対象とする車両を絞り込むことができる。続いて、算出部15cは、最寄りのノード及び進行方向が共通する車両の中から第1の車両を1つ選択する。そして、算出部15cは、最寄りのノード及び進行方向が共通する車両ごとに、当該車両の最寄りのノードまでの距離と、第1の車両の最寄りノードまでの距離との距離差が所定の閾値、例えば30m以内であるか否かを判定する。この閾値は、一例として、車載装置30から位置情報と共に取得できる情報、例えば車両の速度から設定することができる。このとき、第1の車両の最寄りノードまでの距離との距離差が閾値以内である車両を第2の車両として抽出する。なお、1つの第1の車両に対し、複数の第2の車両が抽出されることとしてもかまわない。
図18は、車両の相対速度の算出方法を示す図である。図18には、第1の車両Aの位置情報の時系列データおよび第2の車両Bの位置情報の時系列データがマッピングされた模式図が示されている。図18には、第1の車両Aおよび第2の車両ともに、時刻t1の位置情報、時刻t2の位置情報および時刻t3の位置情報、・・・、時刻tnの位置情報がマッピングされている。ここで、時刻t1、時刻t2、時刻t3、・・・、時刻tnの大小関係は、t1<t2<t3<・・・tnであるものとする。なお、以下では、第1の車両Aの時刻t1、時刻t2、時刻t3、・・・、時刻tnの座標を「At1」、「At2」、「At3」、・・・、「Atn」と記載すると共に、第2の車両Bの時刻t1、時刻t2、時刻t3、・・・、時刻tnの座標を「Bt1」、「Bt2」、「Bt3」、・・・、「Btn」と記載する。また、第1の車両Aから交差点Cまでの距離は、時刻順に「LAt1」、「LAt2」、「LAt3」、・・・、「LAtn」と記載すると共に、第2の車両Bから交差点Cまでの距離は、時刻順に「LBt1」、「LBt2」、「LBt3」、・・・、「LBtn」と記載する。
図18に示すように、三角形C−At1−Bt1、三角形C−At2−Bt2、三角形C−At3−Bt2、・・・、三角形C−Atn−Btnが相似である場合、第1の車両Aおよび第2の車両Bの相対角度φは同一であるとみなすことができる。このため、相対角度φに変化がない場合、下記の式(4)が成立する。
LAt1/LBt1≒LAt2/LBt2≒LAt3/LBt3≒LAtn/LBtn・・・(4)
したがって、算出部15cは、第1の車両Aから交差点Cまでの距離および第2の車両Bから交差点Cまでの距離の比と、当該距離の比が算出される位置情報の前に取得された位置情報を用いて算出された距離の比との差が所定の閾値以内であるか否かを判定することにより、第1の車両Aおよび第2の車両Bの相対角度φに変化があるか否かを判定することができる。そして、相対角度φに変化がない場合、出力制御部15dは、第1の車両および第2の車両にアラートの出力を指示する。このとき、上記の実施例1と同様、視線に変化があるか否かによりアラートの出力レベルを変更できることは言うまでもない。このように、複数の車載装置30から収集される位置情報から車両間の相対速度に変化があるか否かを判定することにより、第1の車両および第2の車両の両方でアラートを出力させることもできる。また、相対角度φに変化がある場合、出力制御部15dは、アラートを出力させない。
[スタンドアローン]
ここで、本実施例で説明したアラートの出力制御処理についても、必ずしもサーバ装置10で実行されずともかまわない。例えば、車載装置30は、他の車載装置30から位置情報を通知させることにより、上記のアラートの出力制御処理をスタンドアローンで実行することもできる。この場合、車載装置30がフィルタリング部15a、算出部15c及び出力制御部15dを有することとすればよい。また、車載装置30と最寄りのノード及び進行方向が共通し、かつ最寄りのノードまでの距離差が閾値以内である他の車載装置30に絞って位置情報の通知を受けることもできる。この場合、フィルタリング部15aの処理は、他の車載装置30やサーバ装置10に担わせることができる。
[コリジョンコース現象の警告マップの生成]
サーバ装置10は、車載装置30にアラートの出力を指示した位置情報を地図上にマッピングすることにより、コリジョンコース現象の警告マップを生成することもできる。さらに、サーバ装置10は、ノードから所定の範囲内にマッピングされた位置情報を集計する。このとき、サーバ装置10は、ノードへの進入および脱出の経路別に位置情報を集計することもできる。その上で、サーバ装置10は、当該ノードにおける累積警告回数または当該ノードへの進入および脱出の経路別における累積警告回数を求め、累積警告回数が所定の閾値を超えるノードをコリジョンコース現象の要注意ノードに設定することができる。このようにコリジョンコース現象の要注意ノードに設定されたノードは、各種のサービスに活用できる。例えば、ナビゲーションサービスに利用する場合、出発地点から目的地までの経路に要注意ノードが含まれる場合、当該要注意ノードを含まない経路を案内経路として設定することができる。
[衝突事故抑制プログラム]
また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図19を用いて、上記の実施例と同様の機能を有する衝突事故抑制プログラムを実行するコンピュータの一例について説明する。
図19は、実施例1及び実施例2に係る衝突事故抑制プログラムを実行するコンピュータのハードウェア構成例を示す図である。図19に示すように、コンピュータ100は、操作部110aと、スピーカ110bと、カメラ110cと、ディスプレイ120と、通信部130とを有する。さらに、このコンピュータ100は、CPU150と、ROM160と、HDD170と、RAM180とを有する。これら110〜180の各部はバス140を介して接続される。
HDD170には、図19に示すように、上記の実施例1及び実施例2で示したフィルタリング部15a、検出部15b、算出部15c及び出力制御部15dと同様の機能を発揮する衝突事故抑制プログラム170aが記憶される。この衝突事故抑制プログラム170aは、図1に示したフィルタリング部15a、検出部15b、算出部15c及び出力制御部15dの各構成要素と同様、統合又は分離してもかまわない。すなわち、HDD170には、必ずしも上記の実施例1で示した全てのデータが格納されずともよく、処理に用いるデータがHDD170に格納されればよい。
このような環境の下、CPU150は、HDD170から衝突事故抑制プログラム170aを読み出した上でRAM180へ展開する。この結果、衝突事故抑制プログラム170aは、図19に示すように、衝突事故抑制プロセス180aとして機能する。この衝突事故抑制プロセス180aは、RAM180が有する記憶領域のうち衝突事故抑制プロセス180aに割り当てられた領域にHDD170から読み出した各種データを展開し、この展開した各種データを用いて各種の処理を実行する。例えば、衝突事故抑制プロセス180aが実行する処理の一例として、図13〜図14に示す処理などが含まれる。なお、CPU150では、必ずしも上記の実施例1で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されればよい。
なお、上記の衝突事故抑制プログラム170aは、必ずしも最初からHDD170やROM160に記憶されておらずともかまわない。例えば、コンピュータ100に挿入されるフレキシブルディスク、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に衝突事故抑制プログラム170aを記憶させる。そして、コンピュータ100がこれらの可搬用の物理媒体から衝突事故抑制プログラム170aを取得して実行するようにしてもよい。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ100に接続される他のコンピュータまたはサーバ装置などに衝突事故抑制プログラム170aを記憶させておき、コンピュータ100がこれらから衝突事故抑制プログラム170aを取得して実行するようにしてもよい。
1 衝突事故抑制システム
3a、3b 車両
10 サーバ装置
11 通信I/F部
13 記憶部
13a 道路ネットワーク情報
15 制御部
15a フィルタリング部
15b 検出部
15c 算出部
15d 出力制御部
30 車載装置
31 ディスプレイ
32 スピーカ
33 通信部
34 GPS受信機
35 回転カメラ
36 視線センサ

Claims (7)

  1. 車両に搭載されたセンサから出力されたセンシングデータを用いてコリジョンコース現象の対象となる車両間の相対角度を算出する算出部と、
    前記算出部により算出された相対角度に変化があるか否かにより、コリジョンコース現象の発生に関するアラートを出力するか否かを制御する出力制御部と、
    を有することを特徴とする衝突事故抑制システム。
  2. 前記算出部は、第1の車両に設置された回転カメラが水平面に直交する軸回りに回転することにより撮影されたパノラマ画像から、前記第1の車両の進行方向と、前記第1の車両の所在位置および前記パノラマ画像から検出された第2の車両の所在位置の間を結ぶ所在方向との角度差を前記第1の車両に対する前記第2の車両の間の相対角度として算出することを特徴とする請求項1に記載の衝突事故抑制システム。
  3. 前記算出部は、第1の車両に設置された回転カメラにより画像が撮影される度に、前記回転カメラのレンズの光軸と、前記画像から検出された第2の車両の車体領域の重心とが一致するように前記回転カメラのレンズが回転された時の回転角度を前記第1の車両に対する前記第2の車両の間の相対角度として算出する請求項1に記載の衝突事故抑制システム。
  4. 前記算出部は、第1の車両の位置情報取得部から取得される位置情報と、第2の車両の位置情報取得部から取得される位置情報とを参照して、前記第1の車両から最寄りのノードまでの距離および前記第2の車両から前記最寄りのノードまでの距離の比を前記第1の車両および前記第2の車両の間の相対角度として算出することを特徴とする請求項1に記載の衝突事故抑制システム。
  5. 前記出力制御部は、前記算出部により算出された相対角度に変化がある場合、前記車両に搭載された視線センサの出力から検出される視線または頭部の位置に変化があるか否かにより、前記アラートの出力レベルを変更することを特徴とする請求項1〜4のいずれか1つに記載の衝突事故抑制システム。
  6. 前記出力制御部は、前記視線または前記頭部の位置に変化がない場合、前記アラートの表示出力および音声出力を実行し、前記視線または前記頭部の位置に変化がある場合、前記アラートの表示出力を実行することを特徴とする請求項5に記載の衝突事故抑制システム。
  7. 車両に搭載されたセンサから出力されたセンシングデータを用いてコリジョンコース現象の対象となる車両間の相対角度を算出し、
    算出された相対角度に変化があるか否かにより、コリジョンコース現象の発生に関するアラートを出力するか否かを制御する、
    処理をコンピュータが実行することを特徴とする衝突事故抑制方法。
JP2017112872A 2017-06-07 2017-06-07 衝突事故抑制システム及び衝突事故抑制方法 Pending JP2018206210A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017112872A JP2018206210A (ja) 2017-06-07 2017-06-07 衝突事故抑制システム及び衝突事故抑制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112872A JP2018206210A (ja) 2017-06-07 2017-06-07 衝突事故抑制システム及び衝突事故抑制方法

Publications (1)

Publication Number Publication Date
JP2018206210A true JP2018206210A (ja) 2018-12-27

Family

ID=64957278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112872A Pending JP2018206210A (ja) 2017-06-07 2017-06-07 衝突事故抑制システム及び衝突事故抑制方法

Country Status (1)

Country Link
JP (1) JP2018206210A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071812A (ja) * 2019-10-29 2021-05-06 株式会社トヨタマップマスター 空走時間特定方法、空走距離特定方法、それらの装置及びコンピュータ用のプログラム
CN115131958A (zh) * 2021-03-26 2022-09-30 上海博泰悦臻网络技术服务有限公司 拥堵路况推送方法、装置、电子设备和存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0336700A (ja) * 1989-07-03 1991-02-18 Mitsubishi Heavy Ind Ltd 周辺監視装置
JPH04239400A (ja) * 1991-01-11 1992-08-27 Toshiba Corp 車載監視カメラ装置
JPH0757199A (ja) * 1993-06-30 1995-03-03 Mitsubishi Motors Corp 物体認識装置
JPH07167668A (ja) * 1993-12-14 1995-07-04 Nissan Motor Co Ltd 走行情報提供装置
JPH0816982A (ja) * 1994-06-28 1996-01-19 Nissan Motor Co Ltd 車両誘導装置
JPH11242799A (ja) * 1998-02-26 1999-09-07 Nippon Seiki Kk 出会頭事故回避補助装置
JP2003227722A (ja) * 2002-02-05 2003-08-15 Mitsubishi Electric Corp ナビゲーション装置
JP2004302621A (ja) * 2003-03-28 2004-10-28 Calsonic Kansei Corp 車両衝突防止装置
JP2005078265A (ja) * 2003-08-29 2005-03-24 Nec Commun Syst Ltd 交差点事故防止システム
JP2005135025A (ja) * 2003-10-28 2005-05-26 Denso Corp 衝突可能性判定装置
JP2006085285A (ja) * 2004-09-14 2006-03-30 Matsushita Electric Ind Co Ltd 危険車両予測装置
JP2010009235A (ja) * 2008-06-25 2010-01-14 Toyota Motor Corp 画像表示装置
JP2011237871A (ja) * 2010-05-06 2011-11-24 Toyota Motor Corp 運転支援装置
JP2017097681A (ja) * 2015-11-26 2017-06-01 マツダ株式会社 標識認識システム

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0336700A (ja) * 1989-07-03 1991-02-18 Mitsubishi Heavy Ind Ltd 周辺監視装置
JPH04239400A (ja) * 1991-01-11 1992-08-27 Toshiba Corp 車載監視カメラ装置
JPH0757199A (ja) * 1993-06-30 1995-03-03 Mitsubishi Motors Corp 物体認識装置
JPH07167668A (ja) * 1993-12-14 1995-07-04 Nissan Motor Co Ltd 走行情報提供装置
JPH0816982A (ja) * 1994-06-28 1996-01-19 Nissan Motor Co Ltd 車両誘導装置
JPH11242799A (ja) * 1998-02-26 1999-09-07 Nippon Seiki Kk 出会頭事故回避補助装置
JP2003227722A (ja) * 2002-02-05 2003-08-15 Mitsubishi Electric Corp ナビゲーション装置
JP2004302621A (ja) * 2003-03-28 2004-10-28 Calsonic Kansei Corp 車両衝突防止装置
JP2005078265A (ja) * 2003-08-29 2005-03-24 Nec Commun Syst Ltd 交差点事故防止システム
JP2005135025A (ja) * 2003-10-28 2005-05-26 Denso Corp 衝突可能性判定装置
JP2006085285A (ja) * 2004-09-14 2006-03-30 Matsushita Electric Ind Co Ltd 危険車両予測装置
JP2010009235A (ja) * 2008-06-25 2010-01-14 Toyota Motor Corp 画像表示装置
JP2011237871A (ja) * 2010-05-06 2011-11-24 Toyota Motor Corp 運転支援装置
JP2017097681A (ja) * 2015-11-26 2017-06-01 マツダ株式会社 標識認識システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071812A (ja) * 2019-10-29 2021-05-06 株式会社トヨタマップマスター 空走時間特定方法、空走距離特定方法、それらの装置及びコンピュータ用のプログラム
JP7402012B2 (ja) 2019-10-29 2023-12-20 株式会社トヨタマップマスター 空走時間特定方法、空走距離特定方法、それらの装置及びコンピュータ用のプログラム
CN115131958A (zh) * 2021-03-26 2022-09-30 上海博泰悦臻网络技术服务有限公司 拥堵路况推送方法、装置、电子设备和存储介质
CN115131958B (zh) * 2021-03-26 2024-03-26 上海博泰悦臻网络技术服务有限公司 拥堵路况推送方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
JP6648411B2 (ja) 処理装置、処理システム、処理プログラム及び処理方法
US10896310B2 (en) Image processing device, image processing system, and image processing method
US20170185853A1 (en) Processing apparatus, processing system, and processing method
JP6838248B2 (ja) 情報処理装置
US20150332103A1 (en) Processing apparatus, computer program product, and processing method
JP6397934B2 (ja) 走行制御装置
JP2019175451A (ja) 交通状況のリアルタイム検出
US20220215751A1 (en) Moving object and driving support system for moving object
JP2019008519A (ja) 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム
JP2007257299A (ja) 車外認識装置
WO2019193928A1 (ja) 車両システム、空間領域推測方法及び空間領域推測装置
JPWO2020036108A1 (ja) 車両用表示システム及び車両
JP2007257301A (ja) 車両用標識認識装置
JP2015210584A (ja) 画像処理装置
JP2018206210A (ja) 衝突事故抑制システム及び衝突事故抑制方法
US20200118280A1 (en) Image Processing Device
JP2005182307A (ja) 車両運転支援装置
JP2022006844A (ja) 物体検出方法及び物体検出装置
JP5291524B2 (ja) 車両周辺監視装置
WO2017024458A1 (en) System, method and apparatus for vehicle and computer readable medium
RU2681346C2 (ru) Способ и система точной локализации слабовидящего или слепого человека
JP2022161066A (ja) 表示制御システム、表示制御方法及びプログラム
JP7397575B2 (ja) 信号機制御装置及び信号機制御方法
US20230206470A1 (en) Electronic device, method, and computer readable storage medium for obtaining location information of at least one subject by using plurality of cameras
US11804132B2 (en) Systems and methods for displaying bird's eye view of a roadway

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211005