JP2013077122A - 事故解析装置、事故解析方法、および、プログラム - Google Patents

事故解析装置、事故解析方法、および、プログラム Download PDF

Info

Publication number
JP2013077122A
JP2013077122A JP2011216127A JP2011216127A JP2013077122A JP 2013077122 A JP2013077122 A JP 2013077122A JP 2011216127 A JP2011216127 A JP 2011216127A JP 2011216127 A JP2011216127 A JP 2011216127A JP 2013077122 A JP2013077122 A JP 2013077122A
Authority
JP
Japan
Prior art keywords
vehicle
contact
image
accident analysis
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011216127A
Other languages
English (en)
Inventor
Yasunari Sato
康成 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2011216127A priority Critical patent/JP2013077122A/ja
Publication of JP2013077122A publication Critical patent/JP2013077122A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自動車のような移動体において、事故解析になるべく適した画像を、より簡易な方法によって得る技術を提供することを目的とする。
【解決手段】車両に設置された事故解析装置(6)は、当該車両について複数方向からみた車体画像を記憶する記憶部(67)と、当該車両の周辺を撮像する撮像部(10)と、当該車両と物体の接触位置および接触方向を特定する接触特定部(66)と、接触特定部(66)で特定された接触位置および接触方向に応じて、当該車両と物体の接触状況が視覚化される仮想視点からみた車体画像を記憶部(67)から選択する選択部(66)と、撮像部(10)で撮像された周辺画像を、その仮想視点からみた座標の画像に変換する座標変換部(63)と、座標変換部(63)で座標変換された周辺画像と、選択部(66)で選択された車体画像と、を合成して保存する合成部(64)と、を備える。
【選択図】図1

Description

本発明は、事故解析装置、事故解析方法、および、プログラムに関する。
近年の車両(例えば、自動車)には、物損、人身事故等が発生した場合に、その事故について解析するための装置(以下では、「事故解析装置」とよぶ)が設けられているものがある。
例えば、特許文献1の事故解析装置では、車両の進行方向に向けられた車載カメラが撮影した事故映像を用いて、交通事故発生時の状況を解析している。
特開2009−211678号
しかし、交通事故は、車両の進行方向側(前方)で発生するとは限らない。車両の側方や後方で発生する場合もある。
そのため、特許文献1の例のように、車両の進行方向を撮影しているだけでは、事故解析に必要な事故映像を得ることができない場合がある。
本発明は、事故解析になるべく適した画像を、より簡易な方法によって得る技術を提供することを目的とする。
上記課題を解決するための本願発明は、車両に設置された事故解析装置であって、当該車両について複数方向からみた車体画像を記憶する記憶部と、当該車両の周辺を撮像する撮像部と、当該車両と物体の接触位置および接触方向を特定する接触特定部と、前記接触特定部で特定された前記接触位置および前記接触方向に応じて、当該車両と前記物体の接触状況が視覚化される仮想視点からみた車体画像を前記記憶部から選択する選択部と、前記撮像部で撮像された周辺画像を、前記仮想視点からみた座標の画像に変換する座標変換部と、前記座標変換部で座標変換された周辺画像と、前記選択部で選択された車体画像と、を合成して保存する合成部と、を備える。
本発明の一実施形態が適用された事故解析装置の概略構成図である。 (A)車載カメラの設置例を示す図である。(B)車載カメラの別の設置例を示す図である。 (A)超音波センサの設置例を示す図である。(B)衝撃センサの設置例を示す図である。 変換マップ(車体画像)の一例を示す図である。(A)車両の前方右側からみた変換マップの一例を示す図である。(B)車両の前方上部からみた変換マップの一例を示す図である。(C)車両の前方左側からみた変換マップの一例を示す図である。(D)車両の後方右側からみた変換マップの一例を示す図である。(E)車両の後方上部からみた変換マップの一例を示す図である。(F)車両の後方左側からみた変換マップの一例を示す図である。(G)車両の前方斜め上方向からみた変換マップの一例を示す図である。(H)車両の後方斜め上方向からみた変換マップの一例を示す図である。(I)車両の真上からみた変換マップの一例を示す図である。 (A)データベースから選択された車体画像(変換マップ)の一例を示す図である。(B)視点変更後の周辺画像の一例を示す図である。(C)生成される事故解析用画像の一例を示す図である。 事故解析装置が接続されたナビゲーション装置の概略構成図である。 地図データの概略データ構造の一例を示す図である。 事故解析用画像の生成処理の一例を示すフロー図である。 変換マップ選択処理の一例を示すフロー図である。 選択テーブルの概略データ構造の一例を示す図である。
以下、本発明の実施形態の一例について、図面を参照して説明する。
図1は、本発明の一実施形態が適用された事故解析装置6の概略構成図である。
事故解析装置6は、物損、人身事故等の検証に必要な物的証拠(例えば、事故発生時の車両周辺画像)を残しておく装置であり、車両に設置される。事故解析装置6によって残された物的証拠は、事故状況を後で検証するのに役立つ。
事故解析装置6は、図示するように、第1の記憶部61と、第2の記憶部62と、画像変換処理部63と、合成処理部64と、インターフェイス部65と、制御部66と、データベース67と、を備えている。
また、事故解析装置6には、車両に備えられた車載カメラ10と、同車両に備えられた超音波センサ11と、同車両に備えられた衝撃センサ12と、が接続されている。
車載カメラ10は、車両周辺の状況を定期的に撮影し、突発的に発生する事故に備えている。
図2(A)は、車載カメラ10の設置例を示す図である。図の黒丸で示すように、複数の車載カメラ10が車両に設置される。
例えば、第1の車載カメラ10aは、車両の前方位置に設置され、車両の前方方向の領域を撮影する。
また、第2の車載カメラ10bは、車両の右側面に設置され、車両の右側方向の領域を撮影する。
また、第3の車載カメラ10cは、車両の左側面に設置され、車両の左側方向の領域を撮影する。
また、第4の車載カメラ10dは、車両の後方位置に設置され、車両の後方方向の領域を撮影する。
なお、車載カメラ10の個数および設置場所は、これに限定されず、適宜、変更可能である。
図2(B)は、車載カメラ10の別の設置例を示す図である。上記第1〜4の車載カメラ(10a、b、c、d)に加え、さらに、図の白丸で示すように、第5〜8の車載カメラ(10e、f、g、h)を設置するようにしてもよい。
例えば、第5の車載カメラ10eは、車両の天井部分の右前方位置に設置され、第1、第2の車載カメラ(10a、b)で撮影できない領域(例えば、第2の車載カメラ10bよりも上方の領域)を撮影する。
また、第6の車載カメラ10fは、車両の天井部分の左前方位置に設置され、第1、第3の車載カメラ(10a、c)で撮影できない領域(例えば、第3の車載カメラ10cよりも上方の領域)を撮影する。
また、第7の車載カメラ10gは、車両の天井部分の右後方位置に設置され、第2、第4の車載カメラ(10b、d)で撮影できない領域(例えば、第2の車載カメラ10bよりも後方の領域)を撮影する。
また、第8の車載カメラ10hは、車両の天井部分の左後方位置に設置され、第3、第4の車載カメラ(10c、d)で撮影できない領域(例えば、第3の車載カメラ10cよりも後方の領域)を撮影する。
図1に戻り、超音波センサ11は、送波器により超音波を対象物(本実施形態では、車両と接触しそうな物体)に向け発信し、その反射波を受波器で受信することにより、対象物の有無、対象物までの距離、を検出する。
図3(A)は、超音波センサ11の設置例を示す図である。図の白塗りの四角形で示すように、複数の超音波センサ11が車両に設置される。
例えば、第1の超音波センサ11aは、車両の前方左側に設置され、車両の前方斜め左方向(図示する網掛け部分)に向けて超音波を発信する。
また、第2の超音波センサ11bは、車両の前方中央位置に設置され、車両の進行方向(図示する網掛け部分)に向けて超音波を発信する。
また、第3の超音波センサ11cは、車両の前方右側に設置され、車両の前方斜め右方向(図示する網掛け部分)に向けて超音波を発信する。
また、第4の超音波センサ11dは、車両の左前輪付近(前方)に設置され、車両の左側方方斜め右方向(図示する網掛け部分)に向けて超音波を発信する。
また、第5の超音波センサ11eは、車両の右前輪付近(前方)に設置され、車両の左前方 方向に向けて超音波を発信する。
また、第6の超音波センサ11fは、車両の左前輪付近(後方)に設置され、車両の左前方方向に向けて超音波を発信する。
また、第7の超音波センサ11gは、車両の右前輪付近(後方)に設置され、車両の右後方方向に向けて超音波を発信する。
また、第8の超音波センサ11hは、車両の後方左側に設置され、車両の後方斜め左方向(図示する網掛け部分)に向けて超音波を発信する。
また、第9の超音波センサ11iは、車両の後方中央位置に設置され、車両の真後ろ方向(図示する網掛け部分)に向けて超音波を発信する。
また、第10の超音波センサ11jは、車両の後方右側に設置され、車両の後方斜め右方向(図示する網掛け部分)に向けて超音波を発信する。
なお、超音波センサ11の個数および設置場所は、これに限定されず、超音波センサ11の性能や車両の形状等に応じて、適宜、変更可能である。
図1に戻り、衝撃センサ12は、車両に物体が接触したときの衝撃(強さ、方向)を検知する加速度センサ等で構成される。
図3(B)は、衝撃センサ12の設置例を示す図である。図の黒塗りの四角形で示すように、複数の衝撃センサ12が車両に設置される。
例えば、第1の衝撃センサ12aは、車両の前方左側に設置され、当該設置場所への衝撃(例えば、図示する矢印方向の衝撃)を検知する。
また、第2の衝撃センサ12bは、車両の前方右側に設置され、当該設置場所への衝撃(例えば、図示する矢印方向の衝撃)を検知する。
また、第3の衝撃センサ12cは、車両の左側に設置され、当該設置場所への衝撃(例えば、図示する矢印方向への衝撃)を検知する。
また、第4の衝撃センサ12dは、車両の右側に設置され、当該設置場所への衝撃(例えば、図示する矢印方向への衝撃)を検知する。
また、第5の衝撃センサ12eは、車両の後方左側に設置され、当該設置場所への衝撃(例えば、図示する矢印方向への衝撃)を検知する。
また、第6の衝撃センサ12fは、車両の後方右側に設定され、当該設置場所への衝撃(例えば、図示する矢印方向への衝撃)を検知する。
なお、衝撃センサ12の個数および設置場所は、これに限定されず、衝撃センサ12の性能や車両の形状等に応じて、適宜、変更可能である。
事故解析装置6には、以上のような、車載カメラ10、超音波センサ11、衝撃センサ12が接続される。
図1に戻り、事故解析装置6の第1の記憶部61は、車載カメラ10で撮影された画像(以下では「撮影画像」ともいう)を一時的に格納する。このような第1の記憶部61は、例えば、RAM(Random Access Memory)等の揮発性ストレージや、フラッシュメモリ、ハードディスク等の不揮発性ストレージで構成される。
また、データベース67は、車両について複数方向からみた車体画像、すなわち、様々な角度(視点)からみた車体画像(以下では、「変換マップ」ともいう)を格納する。図4は、データベース67に格納されている車体画像の例を示す図である。
図4(A)は、車両の前方右側からみた車体画像(変換マップ)の一例を示す図である。図4(B)は、車両の前方上部からみた車体画像の一例を示す図である。図4(C)は、車両の前方左側からみた車体画像の一例を示す図である。図4(D)は、車両の後方右側からみた車体画像の一例を示す図である。図4(E)は、車両の後方上部からみた車体画像の一例を示す図である。図4(F)は、車両の後方左側からみた車体画像の一例を示す図である。図4(G)は、車両の前方斜め上方向からみた車体画像の一例を示す図である。図4(H)は、車両の後方斜め上方向からみた車体画像の一例を示す図である。図4(I)は、車両の真上からみた車体画像の一例を示す図である。
このように、データベース67には、様々な角度(視点)からみた車体画像(変換マップ)が格納される。
図1に戻り、インターフェイス部65は、超音波センサ11で検出された情報(具体的には、車両に接触しそうな物体の有無、当該物体までの距離)を、事故解析装置6へ入力する。これとともに、インターフェイス部65は、衝撃センサ12で検知された情報(具体的には、車両に物体が接触したときの衝撃の強さや方向)を、事故解析装置6に入力する。
制御部66は、事故解析装置6の各ユニットを統括的に制御する。
例えば、制御部66は、超音波センサ11と衝撃センサ12から得られた情報に基づいて、車両と物体の接触位置や接触方向を特定する。ここで、接触位置とは、車両の中心位置からみて、車両と物体が接触した位置(相対位置)を指す。また、接触方向とは、物体が車両に接近してきた方向(接近方向)を指す。
また、制御部66は、特定した接触位置と接触方向に応じて、車両と物体の接触状況が視覚化される一視点(以下では「仮想視点」とよぶ)からみた車体画像を、データベース67から選択する。ここで、仮想視点には、事故状況の解析に最適な角度(視点)が選ばれる。
画像変換処理部63は、複数の車載カメラ10で撮影された画像(車両の周辺画像)を合成して、制御部66で選ばれた仮想視点からみた座標の画像に変換する。なお、車両の周辺画像を、仮想視点(例えば、車両の真上)からみた座標の画像に変換する技術は、アラウンドビューモニターと呼ばれる技術において一般的に採用されているため、詳細については記述しない。
合成処理部64は、データベース67から選択された車体画像(仮想視点からみた車体画像)と、画像変換処理部63によって座標変換された画像(同仮想視点からみた周辺画像)と、を合成して、事故状況の解析に用いる画像(以下では「事故解析用画像」ともいう)を生成する。
図5は、合成処理部64で行われる合成処理のイメージ図である。図5(A)は、データベース67から選択された車体画像(仮想視点からみた車体画像)の一例を示す図である。図5(B)は、画像変換処理部63によって座標変換された画像(同仮想視点からみた周辺画像)の一例を示す図である。図5(C)は、合成処理部64で生成される事故解析用画像の一例を示す図である。
図示するように、合成処理部64は、同一の仮想視点からみた、車体画像(図5(A))と車両の周辺画像(図5(B))を合成して、事故解析用画像(図5(C))を生成する。
また、第2の記憶部62は、合成処理部64で生成された事故解析用画像を格納する。このような第2の記憶部62は、例えば、フラッシュメモリ、ハードディスク等の不揮発性ストレージで構成される。
本実施形態が適用された事故解析装置6は、以上のような構成からなる。制御部66と、画像変換処理部63と、合成処理部64と、インターフェイス部65とは、例えば、CPU(不図示)が、ROM(不図示)からRAM(不図示)にロードした所定のプログラムを実行することにより実現される。もちろん、これに限定されず、制御部66と、画像変換処理部63と、合成処理部64と、インターフェイス部65とは、それぞれ、ASICその他のハードウェアにより実現されてもよい。
また、事故解析装置6は、ナビゲーション装置100に接続されてもよい。この場合には、例えば、制御部66と、画像変換処理部63と、合成処理部64と、インターフェイス部65とは、ナビゲーション装置100に備わるCPU21が、ROM23からRAM22にロードした所定のプログラムを実行することにより実現されてもよい。
以下では、事故解析装置6がナビゲーション装置100に接続されて動作する場合の例について説明する。
図6は、事故解析装置6が接続されたナビゲーション装置100の概略構成図である。
図示するように、ナビゲーション装置100は、演算処理部1と、ディスプレイ2と、記憶装置3と、音声入出力装置4(マイクロフォン41、スピーカ42)と、入力装置5(タッチパネル51、ダイヤルスイッチ52)と、上述した事故解析装置6と、車速センサ7と、ジャイロセンサ8と、GPS受信装置9と、上述した車載カメラ10と、上述した超音波センサ11と、上述した衝撃センサ12と、を備えている。
演算処理部1は、様々な処理を行う中心的ユニットである。例えば、演算処理部1は、数値演算及び各デバイスを制御するといった様々な処理を実行するCPU(Central Processing Unit)21と、記憶装置3から読み出した地図データ、演算データなどを格納するRAM(Random Access Memory)22と、プログラムやデータを格納するROM(Read Only Memory)23と、各種ハードウェアを演算処理部1に接続するためのI/F(インターフェイス)24と、を有する。そして、演算処理部1は、各デバイスをバス25で相互に接続した構成からなる。また、図1に示す各機能部(制御部66、画像変換処理部63、合成処理部64、インターフェイス部65)は、演算処理部1のCPU21がRAM22などのメモリに読み出したプログラムを実行することで実現可能である。
ところで、演算処理部1は、例えば、車速センサ7、ジャイロセンサ8、GPS受信装置9から出力される情報を基にして現在地を算出する。また、得られた現在地に基づいて、表示に必要な地図データを記憶装置3から読み出す。また、読み出した地図データをグラフィック展開し、そこに現在地マーク(或いは、移動体の位置を示す移動体マーク)を重ねてディスプレイ2に表示する。また、記憶装置3に記憶されている地図データを用いて、ユーザから指示された出発地または演算処理部1で算出された現在地と、目的地と、を結ぶ最適な経路(以下では「推奨経路」という)を探索する。また、音声入出力装置4のスピーカ42やディスプレイ2を用いてユーザを誘導する。
ディスプレイ2は、文字や画像の表示を行うための画面を備え、演算処理部1等で生成されたグラフィックス情報を前記画面上に表示するユニットである。ディスプレイ2は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイなどで構成される。
記憶装置3は、CD−ROMやDVD−ROMやHDDやICカードといった記憶媒体で構成される。この記憶媒体には、例えば、地図データ310、辞書データ、音声データ、動画データ、等が記憶されている。また、記憶媒体は、電源供給が停止した場合でも必要なデータを保持可能なフラッシュメモリなどで構成されていてもよい。また、上記の第1の記憶部61、第2の記憶部62、データベース67は、記憶装置3で実現されてもよい。
図7は、地図データ310の概略データ構造を示す図である。図示するように、地図データ310は、地図上の区画された領域であるメッシュの識別コード(メッシュID)311ごとに、そのメッシュ領域に含まれている道路を構成する各リンクのリンクデータ320を含んでいる。
リンクデータ320は、リンクの識別コード(リンクID)321ごとに、リンクを構成する2つのノード(開始ノード、終了ノード)の座標情報322、リンクを含む道路の種別情報を示す道路種別323、リンクの長さを示すリンク長情報324、リンク旅行時間325、2つのノードにそれぞれ接続するリンクの識別コード(接続リンクID)326、などを含んでいる。なお、ここでは、リンクを構成する2つのノードについて開始ノードと終了ノードを区別することで、道路の上り方向と下り方向を、それぞれ別のリンクとして管理することができる。また、地図データ310には、地図表示における道路や施設を表示するための描画データが格納されている。
図6に戻り、音声入出力装置4は、音声入力装置としてマイクロフォン41と、音声出力装置としてスピーカ42と、を備える。マイクロフォン41は、運転手やその他の搭乗者から発された音声などを取得する。スピーカ42は、演算処理部1で生成された音声信号を出力する。これらのマイクロフォン41とスピーカ42は、車両の所定の部位に、別個に配置されている。
入力装置5は、ユーザからの指示を受け付けるユニットである。入力装置5は、タッチパネル51と、ダイヤルスイッチ52と、その他のハードスイッチ(図示せず)であるスクロールキー、縮尺変更キーなどで構成される。また、入力装置5には、ナビゲーション装置100に対して遠隔で操作指示を行うことができるリモートコントローラが含まれる。リモートコントローラは、ダイヤルスイッチやスクロールキー、縮尺変更キーなどを備え、各キーやスイッチが操作された情報をナビゲーション装置100に送出することができる。
タッチパネル51は、ディスプレイ2の表示面に貼られた透過性のある操作パネルである。タッチパネル51は、ディスプレイ2に表示された画像のXY座標と対応したタッチ位置を特定し、タッチ位置を座標に変換して出力する。タッチパネル51は、感圧式または静電式の入力検出素子などにより構成される。
ダイヤルスイッチ52は、時計回り及び反時計回りに回転可能に構成され、所定の角度の回転ごとにパルス信号を発生し、演算処理部1に出力する。演算処理部1では、パルス信号の数から、ダイヤルスイッチ52の回転角度を求める。
車速センサ7、ジャイロセンサ8、及び、GPS受信装置9は、移動体(ナビゲーション装置100)の現在地(自車位置)などを算出するために使用される。車速センサ7は、車速を算出するために用いる車速データを出力するセンサである。ジャイロセンサ8は、光ファイバジャイロや振動ジャイロ等で構成され、移動体の回転による角速度を検出するものである。GPS受信装置9は、GPS衛星からの信号を受信し、移動体とGPS衛星間の距離とその距離の変化率を3個以上の衛星に対して測定することで、移動体の現在地や進行速度を測定する。
なお、事故解析装置6、車載カメラ10、超音波センサ11、衝撃センサ12については、図1を参照して説明したため、ここでは説明を省略する。
上記した各構成要素は、ナビゲーション装置100の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
次に、上記構成からなるナビゲーション装置100の特徴的な動作について説明する。
<事故解析用画像の生成処理>
図8は、上述した事故解析用画像を生成する処理の一例を示すフローチャートである。
ナビゲーション装置100の演算処理部1は、例えば、ナビゲーション装置100に電源が投入されるタイミングで、本フローを開始する。
本フローが開始すると、演算処理部1は、車載カメラ10に対して撮影を指示する。これに応じて、各車載カメラ(すなわち、第1〜第8の車載カメラ10a〜h)は、撮影を行い、撮影画像を事故解析装置6へ入力する。
そして、制御部66は、事故解析装置6に入力された撮影画像を、第1の記憶部61に一時保存する(ステップS101)。
次に、制御部66は、超音波センサ11による検知があるか否か判別する(ステップS102)。
具体的には、制御部66は、各超音波センサ(すなわち、第1〜第10の超音波センサ11a〜j)から得られた信号に基づいて、車両と接触しそうな物体(車両に向かって接近する物体)があるか否か判別する。
そして、制御部66は、車両と接触しそうな物体がある場合には、超音波センサ11による検知があるものと判定し(ステップS102;Yes)、処理をステップS103に移行する。
一方、制御部66は、車両と接触しそうな物体がない場合には、超音波センサ11による検知はないものと判定し(ステップS102;No)、処理をステップS101に戻す。
処理がステップS103に移行すると、次に、制御部66は、衝撃センサ12による検知があるか否か判別する(ステップS103)。
具体的には、制御部66は、各衝撃センサ(すなわち、第1〜第6の衝撃センサ12a〜f)から得られた信号に基づいて、車両に物体が接触したか否か判別する。なお、制御部66は、例えば、少なくとも1つ以上の衝撃センサ12で得られた衝撃の強度が所定値以上である場合に、車両に物体が接触したと判定すればよい。
そして、制御部66は、車両に物体が接触した場合には、衝撃センサ12による検知があるものと判定し(ステップS103;Yes)、処理をステップS104に移行する。
一方、制御部66は、車両に物体が接触していない場合には、衝撃センサ12による検知はないものと判定し(ステップS103;No)、処理をステップS101に戻す。
すなわち、車両に接近してくる物体が存在し、かつ、その物体が車両に接触したと判定されるまでは、各車載カメラ(すなわち、第1〜第8の車載カメラ10a〜h)による撮影、および保存の処理(ステップS101)が繰り返し実行される。
処理がステップS104に移行すると、制御部66は、超音波センサ11と衝撃センサ12から得られた情報に基づいて、車両と物体の接触位置と接触方向を特定し、特定した接触位置と接触方向に応じて、車両と物体の接触状況が視覚化される一視点(仮想視点)からみた車体画像(変換マップ)を、データベース67から選択する(ステップS104)。なお、ステップS104の詳細については、後述する。
それから、制御部66は、データベース67から選択した車体画像(変換マップ)の仮想視点を画像変換処理部63へ通知するとともに、当該車体画像(変換マップ)を、合成処理部64へ送信する(ステップS105)。
このとき、合成処理部64は、データベース67から選択された車体画像(変換マップ)を受信すると、車体画像を格納するために用意されている記憶領域に格納する(上書きする)。なお、この記憶領域には、デフォルトの車体画像(変換マップ)として、図4(I)に示す車体画像(変換マップ)が格納されているものとする。
続いて、画像変換処理部63は、ステップS101で第1の記憶部61に一時保存された撮影画像(車両の周辺画像)を、ステップS105で制御部66から通知された仮想視点からみた座標の画像に変換する(ステップS106)。
これにより、画像変換処理部63は、データベース67から選択された車体画像(変換マップ)と同じ仮想視点(角度)からみた撮影画像を生成する。例えば、ステップS105で制御部66から通知された仮想視点が、図5(A)に示す「車両の前方右側」である場合には、画像変換処理部63は、第1〜第8の車載カメラ10a〜hで撮影された撮影画像を、図5(B)に示すような、「車両の前方右側」からみた画像に変換する。
それから、画像変換処理部63は、ステップS106で視点が変更(座標変換)された画像を、合成処理部64へ送信する。
合成処理部64は、画像変換処理部63で座標変換された画像(車両の周辺画像)と、データベース67から選択された車体画像(変換マップ)と、を合成して、図5(C)に示すような事故解析用画像を生成する(ステップS107)。
そして、合成処理部64は、ステップS107で生成した事故解析用画像を、第2の記憶部62に格納し(ステップS108)、本フローを終了する。
こうして、本実施形態のナビゲーション装置100では、突発的な事故が発生した場合であっても、事故状況を解析するのに最適な視点(角度)からみた事故解析用画像を、得ることができる。
また、得られた事故解析用画像は、第2の記憶部62に格納されるため、事故発生後いつでも読み出して事故の解析に使用できる。例えば、演算処理部1は、第2の記憶部62から事故解析用画像を読み出して、ナビゲーション装置100に備わるディスプレイ2に表示してもよい。もちろん、第2の記憶部62を車両から取り外し可能にしておき、ナビゲーション装置100のディスプレイ2とは別の表示装置に事故解析用画像を表示可能にしてもよい。
次に、上記のステップS104の処理(データベース67から車体画像(変換マップ)を選択する処理)について詳細に説明する。
<車体画像の選択処理(S104)>
図9は、上述したステップS104で行われる処理の具体例を示すフローチャートである。
図示するように、処理がステップS104に移行すると、まず、制御部66は、超音波センサ11(第1〜第10の超音波センサ11a〜j)から得られた情報に基づいて、車両に物体が接近してきた方向(すなわち、接触方向)を特定する(ステップS201)。
例えば、制御部66は、各超音波センサ(第1〜第10の超音波センサ11a〜j)からそれぞれ得た、複数回の検出結果を用いて、車両に接近してきている物体を検出した超音波センサ11を特定する。このとき、制御部66は、車両に接近してきている物体を検出した超音波センサ11の方向(車両の中心位置からみて)を、接触方向とみなす。なお、車両に接近してきている物体を検出した超音波センサ11が複数個存在する場合には、接触方向も複数個存在するものとみなす。
次に、制御部66は、衝撃センサ12(第1〜第6の衝撃センサ12a〜f)から得られた情報に基づいて、車両に物体が接触した位置(すなわち、接触位置)を特定する(ステップS202)。
例えば、制御部66は、各衝撃センサ(第1〜第6の衝撃センサ12a〜f)からそれぞれ得た、少なくとも1回以上の検出結果を用いて、所定閾値以上の強さの衝撃を検出した衝撃センサ12を特定する。このとき、制御部66は、所定閾値以上の強さの衝撃を検出した衝撃センサ12の位置(車両の中心位置からの相対位置)を、接触位置とみなす。なお、所定閾値以上の強さの衝撃を検出した衝撃センサ12が複数個存在する場合には、接触位置も複数個存在するものとみなす。
それから、制御部66は、ステップS201で特定した接触方向と、ステップS202で特定した接触位置と、に応じて、車両と物体の接触状況が視覚化される一視点(仮想視点)からみた車体画像(変換マップ)を、データベース67から選択する(ステップS203)。
なお、制御部66は、例えば、選択テーブル400を参照して、車両と物体の接触状況が視覚化される一視点(仮想視点)を決定する。
図10は、選択テーブル400の概略データ構造の一例を示す図である。図示するように、選択テーブル400は、ステップS201で特定した接触方向401と、ステップS202で特定した接触位置402と、の組み合わせごとのレコード404からなる。各レコード404には、接触方向401と接触方向402に加え、車体画像(変換マップ)403と、が対応付けて格納される。このような選択テーブル400は、例えば、記憶装置3(或いは、データベース67等)に予め格納されている。
ステップS203において、制御部66は、ステップS201で特定した接触方向401と、ステップS202で特定した接触位置402と、の両データを有するレコード404を選択テープル400から検索し、検索したレコード404に対応付けられている車体画像(変換マップ)403を、データベース67から選択する。
図示する例では、制御部66は、車両に接近してきている物体を検出した超音波センサ11が、第1の超音波センサ11aと、第2の超音波センサ11bと、第4の超音波センサ11dと、の少なくともいずれかであり、かつ、所定閾値以上の強さの衝撃を検出した衝撃センサ12が、第1の衝撃センサ12aである場合に、仮想視点を車両の前方右側と決定し、図4(A)に示す車体画像(変換マップ)403を選択する。
同様に、制御部66は、車両に接近してきている物体を検出した超音波センサ11が、第1の超音波センサ11aと、第2の超音波センサ11bと、第3の超音波センサ11cと、の少なくともいずれかであり、かつ、所定閾値以上の強さの衝撃を検出した衝撃センサ12が、第1の衝撃センサ12aと、第2の衝撃センサ12bと、の少なくともいずれかである場合に、仮想視点を車両の前方上部と決定し、図4(B)に示す車体画像(変換マップ)403を選択する。
また、制御部66は、車両に接近してきている物体を検出した超音波センサ11が、第2の超音波センサ11bと、第3の超音波センサ11cと、第5の超音波センサ11eと、の少なくともいずれかであり、かつ、所定閾値以上の強さの衝撃を検出した衝撃センサ12が、第2の衝撃センサ12bである場合に、仮想視点を車両の前方左側と決定し、図4(C)に示す車体画像(変換マップ)403を選択する。
また、制御部66は、車両に接近してきている物体を検出した超音波センサ11が、第6の超音波センサ11fと、第8の超音波センサ11hと、第9の超音波センサ11iと、の少なくともいずれかであり、かつ、所定閾値以上の強さの衝撃を検出した衝撃センサ12が、第5の衝撃センサ12eである場合に、仮想視点を車両の後方右側と決定し、図4(D)に示す車体画像(変換マップ)403を選択する。
また、制御部66は、車両に接近してきている物体を検出した超音波センサ11が、第8の超音波センサ11hと、第9の超音波センサ11iと、第10の超音波センサ11jと、の少なくともいずれかであり、かつ、所定閾値以上の強さの衝撃を検出した衝撃センサ12が、第5の衝撃センサ12eと、第6の衝撃センサ12fと、の少なくともいずれかである場合に、仮想視点を車両の後方上部と決定し、図4(E)に示す車体画像(変換マップ)403を選択する。
また、制御部66は、車両に接近してきている物体を検出した超音波センサ11が、第7の超音波センサ11gと、第9の超音波センサ11iと、第10の超音波センサ11jと、の少なくともいずれかであり、かつ、所定閾値以上の強さの衝撃を検出した衝撃センサ12が、第6の衝撃センサ12fである場合に、仮想視点を車両の後方左側と決定し、図4(F)に示す車体画像(変換マップ)403を選択する。
また、制御部66は、車両に接近してきている物体を検出した超音波センサ11が、第4〜第10の超音波センサ11d〜jの少なくともいずれかであり、かつ、所定閾値以上の強さの衝撃を検出した衝撃センサ12が、第3〜第6の衝撃センサ12c〜fの少なくともいずれかである場合に、仮想視点を車両の前方斜め上方向と決定し、図4(G)に示す車体画像(変換マップ)403を選択する。
また、制御部66は、車両に接近してきている物体を検出した超音波センサ11が、第1〜第7の超音波センサ11a〜gの少なくともいずれかであり、かつ、所定閾値以上の強さの衝撃を検出した衝撃センサ12が、第1〜第4の衝撃センサ12a〜dの少なくともいずれかである場合に、仮想視点を車両の後方斜め上方向と決定し、図4(H)に示す車体画像(変換マップ)403を選択する。
また、制御部66は、車両に接近してきている物体を検出した超音波センサ11と、所定閾値以上の強さの衝撃を検出した衝撃センサ12と、の組み合わせが、いずれのレコード404にも存在しない場合には、仮想視点を車両の真上と決定し、図4(I)に示す車体画像(変換マップ)403を選択する。
もちろん、上記の接触方向401(超音波センサ11)と接触方向402(衝撃センサ12)の組み合わせは、一例にすぎず、これに限定されない。接触方向401(超音波センサ11)と接触方向402(衝撃センサ12)の組み合わせは、事故状況を解析するのに最適な仮想視点の車体画像を選択できるのであれば、どのような組み合わせでもよい。
また、ステップS201で複数の超音波センサ11(すなわち、接触方向)が特定された場合には、制御部66は、特定した超音波センサ11をより多く有するレコード404を検索するようにしてもよい。同様に、ステップS202で複数の衝撃センサ12(すなわち、接触位置)が特定された場合には、制御部66は、特定した衝撃センサ12をより多く有するレコード404を検索するようにしてもよい。
制御部66は、以上のように車体画像(変換マップ)403を選択後、処理をステップS105(図8)に移行して、車体画像の選択処理(S104)を終了する。
こうして、本実施形態のナビゲーション装置100では、事故状況を解析するのに最適な視点(角度)からみた車体画像(変換マップ)を選択することができる。
なお、上記した各フローの各処理単位は、ナビゲーション装置100の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。ナビゲーション装置100が行う処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。
また、上記の実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。
例えば、上記実施形態では、事故解析装置6がナビゲーション装置100に接続されて動作する場合の例について説明している。しかし、本発明は、これに限定されず、事故解析装置6が単独で上記各フローの処理を実行するようにしてもよい。
また、上記実施形態では、超音波センサ11と衝撃センサ12から得られる両情報を用いて事故解析に最適な仮想視点を決定しているが、これに限られない。例えば、超音波センサ11と衝撃センサ12の少なくともいずれかから得られた情報を用いて仮想視点を決定してもよい。
また、上記実施形態では、事故解析装置6で生成された事故解析用画像は、事故解析装置6内の第2の記憶部62に格納される。しかし、本発明は、これに限定されず、無線通信などによって事故解析用画像を車両の外部へ出力し、車両からは離れた場所に設置された記憶装置に格納するようにしてもよい。
また、上記の車載カメラ10を、動画像を撮影可能な装置に代えてもよい。
また、上記実施形態では、車載カメラ10に、車両周辺の状況を定期的に撮影させている。しかし、本発明は、これに限定されず、事故が発生しやすい道路(交差点等も含む)上を走行している場合に、重点的に車両周辺の状況を撮影させてもよい。この場合には、例えば、地図データ310の各リンク(リンクID321)に、事故の発生しやすさを表す事故発生度を対応付けておき、事故発生度の高いリンクを走行している場合に、車載カメラ10に車両周辺の状況を重点的に撮影させればよい。
また、事故が発生しやすい状況である場合に、重点的に車両周辺の状況を撮影させてもよい。この場合には、例えば、走行状況(例えば、路面状況や天気など)を取得するセンサを車両に備えておき、事故が発生しやすい状況であると判定された場合(例えば、悪路を走行している場合や、雪が降っている場合、等)に、車載カメラ10に車両周辺の状況を重点的に撮影させればよい。
1・・・演算処理部、2・・・ディスプレイ、3・・・記憶装置、4・・・音声入出力装置、5・・・入力装置、6・・・事故解析装置、7・・・車速センサ、8・・・ジャイロセンサ、9・・・GPS受信装置、10・・・車載カメラ、11・・・超音波センサ、12・・・衝撃センサ、21・・・CPU、22・・・RAM、23・・・ROM、24・・・インターフェイス(I/F)、41・・・マイクロフォン、42・・・スピーカ、51・・・タッチパネル、52・・・ダイヤルスイッチ、61・・・第1の記憶部、62・・・第2の記憶部、63・・・画像変換処理部、64・・・合成処理部、65・・・インターフェイス部、66・・・制御部、67・・・データベース、100・・・ナビゲーション装置、400・・・選択テーブル。

Claims (6)

  1. 車両に設置された事故解析装置であって、
    当該車両について複数方向からみた車体画像を記憶する記憶部と、
    当該車両の周辺を撮像する撮像部と、
    当該車両と物体の接触位置および接触方向を特定する接触特定部と、
    前記接触特定部で特定された前記接触位置および前記接触方向に応じて、当該車両と前記物体の接触状況が視覚化される仮想視点からみた車体画像を前記記憶部から選択する選択部と、
    前記撮像部で撮像された周辺画像を、前記仮想視点からみた座標の画像に変換する座標変換部と、
    前記座標変換部で座標変換された周辺画像と、前記選択部で選択された車体画像と、を合成して保存する合成部と、を備える、
    ことを特徴とする事故解析装置。
  2. 請求項1に記載の事故解析装置であって、
    前記接触特定部は、
    前記車両に設置された衝撃センサの検出結果に基づき前記接触位置を特定し、
    前記車両に設置された超音波センサの検出結果に基づき前記接触方向を特定する、
    ことを特徴とする事故解析装置。
  3. 請求項1又は2に記載の事故解析装置は、
    前記接触位置と前記接触方向の組み合わせごとに、前記仮想視点が異なる車体画像を対応付けて記憶しておき、
    前記選択部は、
    前記接触特定部で特定された前記接触位置および前記接触方向の組み合わせに対応付けられた車体画像を選択する、
    ことを特徴とする事故解析装置。
  4. 請求項1乃至3のいずれか1項に記載の事故解析装置は、
    ナビゲーション装置としての機能を備える、
    ことを特徴とする事故解析装置。
  5. 車両に設置された事故解析装置における事故解析用の画像表示方法であって、
    前記事故解析装置は、当該車両について複数方向からみた車体画像を記憶する記憶装置を備えており、
    当該車両の周辺を撮像する撮像ステップと、
    当該車両と物体の接触位置および接触方向を特定する接触特定ステップと、
    前記接触特定ステップで特定された前記接触位置および前記接触方向に応じて、当該車両と前記物体の接触状況が視覚化される仮想視点からみた車体画像を前記記憶装置から選択する選択ステップと、
    前記撮像ステップで撮像された周辺画像を、前記仮想視点からみた座標の画像に変換する座標変換ステップと、
    前記座標変換ステップで座標変換された周辺画像と、前記選択ステップで選択された車体画像と、を合成して保存する合成ステップと、を行う、
    ことを特徴とする画像表示方法。
  6. コンピューターを、車両に設置された事故解析装置として機能させるためのプログラムであって、
    前記事故解析装置は、当該車両について複数方向からみた車体画像を記憶する記憶装置を備えており、
    当該車両の周辺を撮像する撮像ステップと、
    当該車両と物体の接触位置および接触方向を特定する接触特定ステップと、
    前記接触特定ステップで特定された前記接触位置および前記接触方向に応じて、当該車両と前記物体の接触状況が視覚化される仮想視点からみた車体画像を前記記憶装置から選択する選択ステップと、
    前記撮像ステップで撮像された周辺画像を、前記仮想視点からみた座標の画像に変換する座標変換ステップと、
    前記座標変換ステップで座標変換された周辺画像と、前記選択ステップで選択された車体画像と、を合成して保存する合成ステップと、を前記コンピューターに実行させる、
    ことを特徴とするプログラム。
JP2011216127A 2011-09-30 2011-09-30 事故解析装置、事故解析方法、および、プログラム Withdrawn JP2013077122A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011216127A JP2013077122A (ja) 2011-09-30 2011-09-30 事故解析装置、事故解析方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011216127A JP2013077122A (ja) 2011-09-30 2011-09-30 事故解析装置、事故解析方法、および、プログラム

Publications (1)

Publication Number Publication Date
JP2013077122A true JP2013077122A (ja) 2013-04-25

Family

ID=48480545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011216127A Withdrawn JP2013077122A (ja) 2011-09-30 2011-09-30 事故解析装置、事故解析方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP2013077122A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238805A (ja) * 2013-06-10 2014-12-18 現代自動車株式会社 車両の接触事故感知装置及びその方法
JP2017511907A (ja) * 2013-12-17 2017-04-27 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited 車両データを記録する方法およびシステム
WO2019022119A1 (ja) * 2017-07-26 2019-01-31 学校法人五島育英会 移動体データ処理装置及びコンピュータプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014238805A (ja) * 2013-06-10 2014-12-18 現代自動車株式会社 車両の接触事故感知装置及びその方法
JP2017511907A (ja) * 2013-12-17 2017-04-27 ジャガー ランド ローバー リミテッドJaguar Land Rover Limited 車両データを記録する方法およびシステム
WO2019022119A1 (ja) * 2017-07-26 2019-01-31 学校法人五島育英会 移動体データ処理装置及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP4562471B2 (ja) ナビゲーション装置及び進行方向案内方法
JP5143235B2 (ja) 制御装置および車両周囲監視装置
JP5461065B2 (ja) 現在位置特定装置とその現在位置特定方法
US11631326B2 (en) Information providing system, server, onboard device, vehicle, storage medium, and information providing method
JP6323074B2 (ja) 表示物情報表示装置
JP6757442B2 (ja) 自動運転車における車線後処理
US20130170706A1 (en) Guidance device, guidance method, and guidance program
US11118934B2 (en) Method and system of route guidance for a towing vehicle
JP2011109170A (ja) 車両周囲表示装置、車両周囲表示方法
JP2019109707A (ja) 表示制御装置、表示制御方法および車両
JPWO2018180756A1 (ja) 運転支援システム
JPWO2008105062A1 (ja) 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
JP2013077122A (ja) 事故解析装置、事故解析方法、および、プログラム
JP6080735B2 (ja) 運転支援装置
JP5702476B2 (ja) 表示装置、制御方法、プログラム、記憶媒体
JP2008262481A (ja) 車両制御装置
JP5041411B2 (ja) 情報表示装置
JPWO2008047449A1 (ja) 画像表示装置、表示制御方法、表示制御プログラムおよび記録媒体
JP2007028363A (ja) トップビュー画像生成装置及びトップビュー画像表示方法
JP6799523B2 (ja) 走行現調支援装置
JP2012220259A (ja) 車載装置とその車両方位修正方法
JP2009104330A (ja) 死角車両検出システム、路側装置、車載装置および死角車両検出方法
WO2007145257A1 (ja) 表示装置、表示方法、表示プログラムおよびコンピュータに読み取り可能な記録媒体
JP6041780B2 (ja) 運転支援装置
JP7021899B2 (ja) 画像生成装置および画像生成方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141202