JP7168367B2 - 事故通報装置 - Google Patents

事故通報装置 Download PDF

Info

Publication number
JP7168367B2
JP7168367B2 JP2018139669A JP2018139669A JP7168367B2 JP 7168367 B2 JP7168367 B2 JP 7168367B2 JP 2018139669 A JP2018139669 A JP 2018139669A JP 2018139669 A JP2018139669 A JP 2018139669A JP 7168367 B2 JP7168367 B2 JP 7168367B2
Authority
JP
Japan
Prior art keywords
vehicle
image
accident
control unit
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018139669A
Other languages
English (en)
Other versions
JP2020017077A (ja
Inventor
奨 八杉
幸一 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018139669A priority Critical patent/JP7168367B2/ja
Priority to US16/357,933 priority patent/US10713829B2/en
Priority to EP19164394.9A priority patent/EP3599134B1/en
Publication of JP2020017077A publication Critical patent/JP2020017077A/ja
Application granted granted Critical
Publication of JP7168367B2 publication Critical patent/JP7168367B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/10Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle 
    • B60K28/14Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the vehicle  responsive to accident or emergency, e.g. deceleration, tilt of vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0136Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to actual contact with an obstacle, e.g. to vehicle deformation, bumper displacement or bumper velocity relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/02Occupant safety arrangements or fittings, e.g. crash pads
    • B60R21/13Roll-over protection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/90Services for handling of emergency or hazardous situations, e.g. earthquake and tsunami warning systems [ETWS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/0027Post collision measures, e.g. notifying emergency services
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Public Health (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)
  • Telephonic Communication Services (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、事故通報装置に関する。
近年、車両事故の発生時に、事故に係る情報を所定の通報先に通報する技術が種々提案されている。例えば、特許文献1で提案された車両用緊急通報装置は、車両事故の発生を検知した場合に、乗員の着座情報、乗員のシートベルト着用情報、及び緊急通報信号を車両の外部の管理センターへ送信する。さらに、この車両用緊急通報装置は、乗員の着座情報を所定時間間隔で繰り返し取得し、管理センターへ送信する動作を所定時間にわたって継続する。これにより、乗員の傷害程度を推定することができ、適切な緊急処置を行うことができる。
特開2016-30481号公報
しかしながら、従来技術では、車両事故の発生時に、車両及びその周辺の状況を通報先において迅速かつ明確に把握することができないことに課題があった。
本発明は、上記の課題に鑑みなされたものであり、車両事故の発生時に、車両及びその周辺の状況を通報先において迅速かつ明確に把握することを可能とする技術を提供することを目的とする。
本発明に係る事故通報装置は、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、前記車両に係る情報を取得する情報取得部と、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末で表示させる画像制御部と、を備え、前記情報取得部は、前記車両の乗員の着座情報を取得し、前記画像制御部は、前記車両の像と、乗員の着座位置を示す着座位置マークと、を前記合成画像に含ませる構成(第1の構成)である。
また、上記第の構成の事故通報装置において、前記情報取得部は、前記車両が受けた衝撃に係る情報を取得し、前記画像制御部は、衝撃を受ける前後において前記着座情報が異なる場合に、前記合成画像の前記着座位置マークの表示態様を変更させる構成(第の構成)であっても良い。
また、上記第の構成の事故通報装置において、衝撃を受けた位置に基づき乗員の救出優先順位を導出する優先順位導出部を備え、前記画像制御部は、前記合成画像の前記着座位置に前記救出優先順位を表示させる構成(第の構成)であっても良い。
また、上記第1から第の構成の事故通報装置において、前記情報取得部は、前記車両が受けた衝撃に係る情報を取得し、前記画像制御部は、衝撃を受ける前に撮影された前記撮影画像に基づき前記合成画像を生成させる構成(第の構成)であっても良い。
また、本発明に係る事故通報装置は、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、前記車両に係る情報を取得する情報取得部と、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末で表示させる画像制御部と、を備え、前記情報取得部は、前記車両が受けた衝撃に係る情報を取得し、前記画像制御部は、衝撃を受ける前に撮影された前記撮影画像に基づき前記合成画像を生成させる構成(第5の構成)である。
また、上記第4又は第5の構成の事故通報装置において、前記画像制御部は、前記車両の像と、衝撃の状態を示す衝撃マークと、を前記合成画像に含ませる構成(第6の構成)であっても良い。
また、上記第6の構成の事故通報装置において、前記画像制御部は、衝撃の大きさに基づき前記合成画像の前記衝撃マークの表示態様を変更させる構成(第7の構成)であっても良い。
また、上記第1から第7の構成の事故通報装置において、前記情報取得部は、前記車両の姿勢に係る情報を取得し、前記画像制御部は、前記車両の姿勢に基づき前記合成画像に含ませる前記車両の像の表示態様を変更させる構成(第8の構成)であっても良い。
また、本発明に係る事故通報装置は、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、前記車両に係る情報を取得する情報取得部と、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末で表示させる画像制御部と、を備え、前記情報取得部は、前記車両の姿勢に係る情報を取得し、前記画像制御部は、前記車両の姿勢に基づき前記合成画像に含ませる前記車両の像の表示態様を変更させる構成(第9の構成)である。
また、本発明に係る事故通報装置は、制御部を含み、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、前記制御部は、前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、前記車両に係る情報を取得する情報取得部と、を備え、前記制御部は、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末に対して送信し、前記情報取得部は、前記車両の乗員の着座情報を取得し、前記合成画像には、前記車両の像と、乗員の着座位置を示す着座位置マークと、が含まれている構成(第10の構成)である。
また、本発明に係る事故通報装置は、制御部を含み、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、前記制御部は、前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、前記車両に係る情報を取得する情報取得部と、を備え、前記制御部は、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末に対して送信し、前記情報取得部は、前記車両が受けた衝撃に係る情報を取得し、前記合成画像は、衝撃を受ける前に撮影された前記撮影画像に基づき生成される構成(第11の構成)である。
また、本発明に係る事故通報装置は、制御部を含み、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、前記制御部は、前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、前記車両に係る情報を取得する情報取得部と、を備え、前記制御部は、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末に対して送信し、前記情報取得部は、前記車両の姿勢に係る情報を取得し、前記合成画像に含まれる前記車両の像は、前記車両の姿勢に基づき表示態様が変更される構成(第12の構成)である。
本発明の構成によれば、車両の外観を含む車両の周辺領域を、画像として確認することができる。これにより、車両事故の発生時に、車両及びその周辺の状況を通報先において迅速かつ明確に把握することが可能になる。
実施形態の事故通報装置の構成を示すブロック図 車載カメラが車両に配置される位置を例示する図 車両の周辺領域を示す合成画像を生成する手法を説明するための図 車両事故の発生時に車両が衝撃を受ける状況を示す説明図 実施例1の通報センターで表示された合成画像の模式図 実施例1の合成画像を通報センターで表示させる処理フローの例を示すフローチャート 実施例2の通報センターで連続的に表示される合成画像の模式図 実施例3の通報センターで表示された合成画像の模式図(第1例) 実施例3の通報センターで表示された合成画像の模式図(第2例) 実施例4の通報センターで表示された合成画像の模式図(第1例) 実施例4の通報センターで表示された合成画像の模式図(第2例) 実施例5の事故通報装置の構成を示すブロック図 実施例5の救出優先順位の導出手法を説明するための図 実施例5の通報センターで表示された合成画像の模式図 実施例6の通報センターで表示された合成画像の模式図(第1例) 実施例6の通報センターで表示された合成画像の模式図(第2例) 実施例6の通報センターで表示された合成画像の模式図(第3例) 実施例7の通報センターで表示された合成画像の模式図
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。なお、本発明は以下に示す実施形態の内容に限定されるものではない。
また、以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向(前方)」とする。車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向(後方)」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の右側から左側に向かう方向を「左方向」とする。車両の直進進行方向及び鉛直線に垂直な方向であって、前方を向いている運転手の左側から右側に向かう方向を「右方向」とする。
<1.事故通報装置の概略>
図1は、実施形態の事故通報装置1の構成を示すブロック図である。事故通報装置1は、例えば撮影部2と、センサ部3と、画像処理部4と、を含む車両周辺監視システムに組み込むことができる。車両周辺監視システムは、撮影部2(車載カメラ)が搭載された車両5の周辺状況を監視するシステムである。
事故通報装置1は、車両事故の発生時に事故に係る情報を所定の通報先に通報する装置である。事故通報装置1は、車載カメラを搭載する車両ごとに備えられる。事故通報装置1は、車両5で発生した事故に係る情報の通報先として、通報センター7に通報する。通報センター7では、事故の状況に応じて、例えば消防機関への緊急通報やロードサービスへの対応要請が実施される。本実施形態では、事故通報装置1は、車両事故の発生時に、車載カメラで撮影された撮影画像と、車両5に係る各種情報とを車両5から取得し、車両5及びその周辺の状況を通報センター7で画像として表示させる制御を実施する。
撮影部2は、車両周辺の状況を監視する目的で設けられる。本実施形態では、撮影部2は、例えば4つの車載カメラ21~24を備える。図2は、車載カメラ21~24が車両5に配置される位置を例示する図である。
車載カメラ21は車両5の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両5の前後方向に沿って延びる。フロントカメラ21は車両5の前方向を撮影する。車載カメラ23は車両5の後端に設けられる。このため、車載カメラ23をバックカメラ23とも呼ぶ。バックカメラ23の光軸23aは上からの平面視で車両5の前後方向に沿って延びる。バックカメラ23は車両5の後方向を撮影する。フロントカメラ21及びバックカメラ23の取付位置は、車両5の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であっても良い。
車載カメラ22は車両5の右側ドアミラー61に設けられる。このため、車載カメラ22を右サイドカメラ22とも呼ぶ。右サイドカメラ22の光軸22aは上からの平面視で車両5の左右方向に沿って延びる。右サイドカメラ22は車両5の右方向を撮影する。車載カメラ24は車両5の左側ドアミラー62に設けられる。このため、車載カメラ24を左サイドカメラ24とも呼ぶ。左サイドカメラ24の光軸24aは上からの平面視で車両5の左右方向に沿って延びる。左サイドカメラ24は車両5の左方向を撮影する。
なお、車両5がいわゆるドアミラーレス車である場合、右サイドカメラ22は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく設けられ、左サイドカメラ24は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく設けられる。
車載カメラ21~24のレンズとしては、例えば魚眼レンズが使用される。車載カメラ21~24は、それぞれの水平方向の画角θが180度以上であるため、車両5の水平方向における全周囲を撮影することができる。
図1に戻って、センサ部3は、車載カメラ21~24が搭載される車両5に関する情報を検出する複数のセンサを有する。車両5に関する情報には、車両自体の情報と、車両周辺の情報とが含まれて良い。本実施形態では、センサ部3は、例えば車両の乗員のシートへの着座を検出する着座センサ、車両の振動を検出する振動センサ、車両の傾きを検出する傾斜センサ、車両周辺の人や動物、車両、その他の物体を検出する障害物センサ等が含まれる。
画像処理部4は、車載カメラ21~24で撮影された撮影画像を処理する装置である。本実施形態では、例えば画像処理部4は車両5に備えられるが、画像処理部4が通報センター7に備えられることにしても良い。画像処理部4は、撮影部2で撮影された撮影画像を事故通報装置1を介して取得し、処理する。
画像処理部4は、撮影部2で撮影された撮影画像を処理して表示用画像を生成する。本実施形態では、画像処理部4は、各種の画像処理が可能なハードウェア回路として構成される。本実施形態では、画像処理部4は、車両5に搭載された車載カメラ21~24によって撮影された撮影画像に基づき、仮想視点から見た車両5の周辺領域を示す合成画像を生成する。さらに、画像処理部4は、当該合成画像に基づき、通報センター7で表示するための表示用画像を生成する。合成画像を生成する手法の詳細については後述する。
通報センター7は、事故通報装置1から出力される表示用画像を受信する端末8を備える。端末8としては、例えばパーソナルコンピュータ等の据え置き型情報端末、スマートフォン等の携帯端末等が含まれる。端末8は、事故通報装置1から出力された表示用画像を画面表示する表示部81を備える。
<2.事故通報装置の詳細>
事故通報装置1は、制御部11及び記憶部12を含んで構成される。
制御部11は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む、いわゆるマイコンである。制御部11は、記憶部12に記憶されたプログラムに基づいて情報の処理及び送受信を行う。制御部11は、有線または無線で、撮影部2、センサ部3、画像処理部4及び通報センター7に接続される。
制御部11は、画像取得部111と、情報取得部112と、画像制御部113と、を備える。制御部11が備えるこれらの各構成要素それぞれの機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。
画像取得部111は、車載カメラ21~24で撮影された撮影画像を取得する。本実施形態では、車載カメラ21~24の数は4つであり、画像取得部111は、車載カメラ21~24それぞれで撮影された撮影画像を取得する。撮影画像の画像処理を行う場合、画像取得部111を介して取得された撮影画像は画像処理部4に送信される。
情報取得部112は、車両5に係る各種情報を取得する。例えば、情報取得部112は、センサ部3の着座センサから車両5の乗員の着座情報を取得する。また例えば、情報取得部112は、センサ部3の振動センサから車両5が受けた衝撃に係る情報を取得する。また例えば、情報取得部112は、センサ部3の傾斜センサから車両5の姿勢に係る情報を取得する。
画像制御部113は、画像処理部4によって実行される画像処理の制御を行う。例えば、画像制御部113は、画像処理部4に対して、合成画像及び表示用画像を生成するために必要となる各種のパラメータ等の指示を行う。また、画像制御部113は、撮影画像に基づき生成された、仮想視点から見た車両5の外観を含む車両5の周辺領域を示す合成画像の表示用画像を通報センター7の端末8で表示させる際の制御を行う。端末8における合成画像の表示は、表示制御信号を端末8に対して送信することで実施される。なお、この説明において、端末8の表示部81に表示される「合成画像の表示用画像」のことを、単に「合成画像」と呼ぶ場合がある。
記憶部12は、例えばフラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部12は、例えばファームウェアとしてのプログラム、画像処理部4が合成点画像及び表示用画像を生成するための各種のデータを記憶する。また、記憶部12は、画像取得部111、情報取得部112及び画像制御部113が処理を実行するために必要となる各種のデータを記憶する。
<3.合成画像の生成>
画像処理部4が、仮想視点から見た車両5の周辺領域を示す合成画像を生成する手法について説明する。図3は、車両5の周辺領域を示す合成画像CPを生成する手法を説明するための図である。
フロントカメラ21、右サイドカメラ22、バックカメラ23及び左サイドカメラ24によって、車両5の前方、右側方、後方及び左側方それぞれを示す4つの撮影画像P21~P24が同時に取得される。これら4つの撮影画像P21~P24には、車両5の全周囲のデータが含まれる。画像処理部4は、これら4つの撮影画像P21~P24を、画像取得部111を介して取得する。
画像処理部4は、これら4つの撮影画像P21~P24に含まれるデータ(各画素の値)を、仮想的な三次元空間における立体的な曲面である投影面TSに投影する。投影面TSは、例えば略半球形状(お椀形状)をしており、その中心部(お椀の底部分)が車両5の位置として定められる。
投影面TSでは、車両5の領域の外側の領域に、撮影画像のデータが投影される。撮影画像P21~P24に含まれる各画素の位置と、投影面TSの各画素の位置とは予め対応関係が定められる。この対応関係を示すテーブルデータは、記憶部12に記憶される。投影面TSの各画素の値は、この対応関係と、撮影画像P21~P24に含まれる各画素の値とに基づいて決定できる。
次に、画像処理部4は、画像制御部113の制御により、三次元空間に対して仮想視点VPを設定する。仮想視点VPは、視点位置と視線方向とで規定される。画像処理部4は、任意の視点位置、且つ、任意の視線方向の仮想視点VPを三次元空間に設定できる。画像処理部4は、投影面TSのうち、設定された仮想視点VPから見た視野内に含まれる領域に投影されたデータを画像として切り出す。これにより、画像処理部4は、任意の仮想視点VPから見た合成画像を生成する。
例えば、図3に示すように、視点位置を車両5の直上、視線方向を直下とした仮想視点VPaを想定した場合、車両5及び車両5の周辺領域を俯瞰する合成画像(俯瞰画像)CPaを生成することができる。
合成画像CPa中の車両5の像5pは、予めビットマップなどのデータとして用意され、記憶部12に記憶される。合成画像の生成の際には、当該合成画像の仮想視点VPの視点位置と視線方向とに応じた形状の車両5の像5pのデータが記憶部12から読み出されて、合成画像CPa中に含められる。
このようにして、画像処理部4は、仮想の立体的な投影面TSを用いることで、現実に近い臨場感のある合成画像CPaを生成することができる。さらに、車両5に搭載された複数の車載カメラ21~24それぞれで撮影された複数の撮影画像に基づき生成された、車両5の周辺領域を示す合成画像CPを用いて、車両5の周辺領域を確認することができる。
<4.事故通報装置による車両事故の通報の実施例>
<4-1.実施例1>
図4は、車両事故の発生時に車両5が衝撃を受ける状況を示す説明図である。図4に示すように、本実施形態では、例えば車両5に他車両Trが接触するという車両事故が発生したこととする。接触位置は、例えば車両5の右前扉5fである。車両周辺の状況は、車載カメラ21~24に車両周辺の画像を撮影させることで取得することができる。事故通報装置1の制御部11は、撮影部2に、車載カメラ21~24による車両周辺の撮影を指示する指令を送信する。制御部11は、車載カメラ21~24それぞれで撮影された撮影画像を画像取得部111を介して取得し、記憶部12に記憶させる。
車両5に対する他車両Trの接触位置及び接触方向は、車載カメラ21~24で撮影された車両周辺の撮影画像に基づいて検出される。制御部11は、車両5に対して外部から接触する他車両Trの接触位置及び接触方向を検出する。また例えば、接触位置及び接触方向は、情報取得部112がセンサ部3の振動センサから取得した車両5が受けた衝撃に係る情報に基づき、検出しても良い。
画像制御部113は、記憶部12に記憶した車両周辺の複数の撮影画像に基づき、仮想視点から見た車両5の周辺の様子を示す合成画像を画像処理部4に生成させる。より詳細に言えば、画像制御部113は、車両5の外部の右前方の所定位置を視点位置とし、当該視点位置から見た接触の位置である車両5の右前扉5fの方向を視線方向とした仮想視点VP1(図4参照)に基づき、図5に示す合成画像CP1を画像処理部4に生成させる。
図5は、実施例1の通報センター7で表示された合成画像CP1の模式図である。合成画像CP1は、車両5の右前方上方から車両5の周辺領域を見た画像である。合成画像CP1は、画像処理部4が生成した合成画像に、車両5の像5pを含む。画像制御部113は、画像処理部4によって生成された合成画像CP1(表示用画像)を通報センター7の端末8で表示させる際の制御を行う。すなわち、画像制御部113は、撮影画像に基づき生成された、仮想視点から見た車両5の外観を含む車両5の周辺領域を示す合成画像CP1を通報センター7の端末8で表示させる。
さらに、画像制御部113は、合成画像CP1に、車両5に対する他車両Trの接触位置を示す接触マークM1を表示させる。本実施例では、接触位置は、車両5の右前扉5fである。なお、本実施例では、接触位置は1箇所であるが、接触位置が複数である場合、接触位置の数に応じた接触マークが表示される。
また、合成画像CP1は、図5に示す車両5の右前方上方から車両5の周辺領域を見た画像に限定されるわけではない。例えば、車両5の右後方上方から車両5の周辺領域を見た画像や、車両5の周辺領域を真上から見た俯瞰画像であっても良い。
図6は、実施例1の合成画像CP1を通報センター7で表示させる処理フローの例を示すフローチャートである。実施例1の合成画像CP1を通報センター7で表示させる処理について、図6の処理フローを参照しつつ説明する。
事故通報装置1は、例えば車両5のイグニッションONにより起動し、処理を開始する(図6の「開始」)。続いて、事故通報装置1は、車両周辺の撮影画像を取得する(ステップS101)。事故通報装置1は、車載カメラ21~24それぞれで撮影された撮影画像を画像取得部111を介して取得し、記憶部12に記憶する。
次に、事故通報装置1は、車両5が受ける衝撃を監視する(ステップS102)。車両5が受ける衝撃は、車載カメラ21~24で撮影された車両周辺の撮影画像を用いて監視される。また、車両5が受ける衝撃は、情報取得部112がセンサ部3の振動センサから取得した情報を用いて監視しても良い。
次に、車両5が受ける衝撃を検出したか否かが判定される(ステップS103)。車両5が受ける衝撃は、例えば車両周辺の撮影画像において、車両5への他車両Trの接近の程度に基づき判定される。また、車両5が受ける衝撃は、例えばセンサ部3の振動センサから取得した車両5の振動の程度を表す検出信号に基づき判定される。
車両5が受ける衝撃を検出しない場合(ステップS103のNo)、ステップS101に戻って、車両周辺の撮影画像の取得が継続される。
車両5が受ける衝撃を検出した場合(ステップS103のYes)、接触位置及び接触方向が検出される(ステップS104)。制御部11は、車両周辺の撮影画像に基づき、車両5に対して外部から接触する他車両Trの接触位置及び接触方向を検出する。また、制御部11は、情報取得部112を介して取得したセンサ部3の情報にもとづき、接触位置及び接触方向を検出する。
次に、画像制御部113は、画像処理部4に対して、合成画像CP1の生成を指令する(ステップS105)。画像処理部4は、記憶部12に記憶された車両周辺の複数の撮影画像に基づき、仮想視点から見た車両5の周辺領域を示す合成画像CP1とその表示用画像とを生成する。
次に、制御部11は、合成画像CP1(表示用画像)を画像処理部4から受信する(ステップS106)。合成画像CP1は、例えば記憶部12に記憶される。
次に、制御部11は、合成画像CP1(表示用画像)を通報センター7の端末8に対して送信する(ステップS107)。このとき、制御部11は、合成画像CP1に加えて、合成画像CP1の表示制御信号も端末8に対して送信する。これにより、合成画像CP1を端末8で表示させることができる。なお、合成画像CP1には、車両5に対する他車両Trの接触位置を示す接触マークM1が表示される。合成画像CP1が通報センター7の端末8に対して送信されると、図6に示す処理フローが終了される。
上記のように、本実施例の事故通報装置1は、車両事故の発生時に、車載カメラ21~24で撮影された撮影画像に基づき生成された、仮想視点から見た車両5の外観(像5p)を含む車両5の周辺領域を示す合成画像CP1を通報センター7の端末8で表示させる。これにより、通報センター7では、車両5の外観を含む車両5の周辺領域を、画像として確認することができる。したがって、車両事故の発生時に、車両5及びその周辺の状況を通報センター7において迅速かつ明確に把握することが可能になる。
なお、画像制御部113は、衝撃を受ける前に撮影された撮影画像に基づき合成画像CP1を生成させることにしても良い。このとき、合成画像CP1は、衝撃を受ける直前に撮影された撮影画像に基づき生成されることが好ましい。これにより、車両事故によって車載カメラ21~24が使用できなくなった状況になっても、合成画像CP1を生成し、通報センター7の端末8で表示させることができる。さらに、合成画像CP1は、衝撃を受ける直前に撮影された撮影画像に基づき生成されることで、車両事故の発生時の車両5及びその周辺の状況をできるだけ明確にすることが可能である。
なお、合成画像CP1は、図5に示す車両5の右前方上方から車両5の周辺領域を見た画像に限定されるわけではなく、通報センター7の端末8において、他の方向から車両5の周辺領域を見た画像に切り替えられるようにしても良い。この場合、制御部11は、画像を任意に切り替えることが可能なアイコン等を端末8に表示させる表示制御信号を端末8に対して送信する。
また、本実施形態では、画像処理部4が車両5に設けられ、車両5において合成画像CP1を生成することとしたが、画像処理部を通報センター7に設け、通報センター7において合成画像を生成することにしても良い。この場合、事故通報装置1は、通報センター7の画像処理部に対して、例えば車載カメラ21~24それぞれで撮影された撮影画像と、合成画像及び表示用画像を生成するために必要となる各種のパラメータ等と、画像処理に係る制御信号と、を送信する。
画像制御部113は、通報センター7の画像処理部に対して制御信号を送信することで、通報センター7の画像処理部によって実行される画像処理の制御を行う。そして、画像制御部113は、通報センター7おいて合成画像及び表示用画像を生成させ、端末8に表示させる。さらに、画像制御部113は、当該合成画像に、車両5に対する他車両等の障害物の接触位置を示す接触マークを表示させる。
<4-2.実施例2>
図7は、実施例2の通報センター7で連続的に表示される合成画像の模式図である。実施例2の事故通報装置1は、通報センター7の端末8において、合成画像CP2の表示の開始初期に、車両5の周囲一周の合成画像CP21~CP25を連続的に表示する。
例えば、画像制御部113は、車両5の外観(像5p)を含む車両5の周辺領域を示す合成画像CP2を通報センター7の端末8で表示させるとき、図7に示す合成画像CP21を第一に表示させる。合成画像CP21は、例えば車両5の左後方上方から車両5の周辺領域を見た画像である。続いて、画像制御部113は、例えば車両5の左前方上方から車両5の周辺領域を見た合成画像CP22を表示させる。さらに、画像制御部113は、例えば車両5のほぼ正面上方から車両5の周辺領域を見た合成画像CP23、車両5の右前方上方から車両5の周辺領域を見た合成画像CP24、車両5の右後方上方から車両5の周辺領域を見た合成画像CP25を順に表示させる。最後に、画像制御部113は、車両5の周辺領域を示す俯瞰画像である合成画像CP2を表示させる。そして、画像制御部113は、合成画像CP21~CP25及び合成画像CP2において、車両5に対する他車両等の障害物の接触位置が映る場合、該当箇所に接触マークM1を表示させる。
なお、本実施例では、車両5の周囲一周の合成画像を合成画像CP21~CP25の5つであることとしたが、車両5の周囲一周の合成画像は5つに限定されるわけではなく、5つよりも少なくても、多くても良い。また、本実施例では、車両5の周囲一周の合成画像CP21~CP25を、合成画像CP1の車両5の像5pに対して時計回りで表示することとしたが、反時計回りであっても良い。
本実施例の事故通報装置1の構成によれば、通報センター7の端末8における合成画像CP2の表示の開始初期に、車両5の周囲一周の状況を容易に確認することができる。したがって、より効果的に、車両事故の発生時に、車両5及びその周辺の状況を通報センター7において迅速かつ明確に把握することが可能になる。
<4-3.実施例3>
図8は、実施例3の通報センター7で表示された合成画像CP31の模式図(第1例)である。合成画像CP31は、車両5の右前方上方から車両5の周辺領域を見た画像である。図9は、実施例3の通報センター7で表示された合成画像CP32の模式図(第2例)である。合成画像CP32は、車両5の真上から車両5の周辺領域を見た俯瞰画像である。実施例3の事故通報装置1は、通報センター7の端末8において、合成画像CP31、CP32に重ねて、車両5の乗員の着座位置を示す着座位置マークM31、M32、M33を表示させる。
情報取得部112は、センサ部3の着座センサから車両5の乗員の着座情報を取得する。着座情報は、所定のタイミング毎に定期的に取得することが好ましい。これにより、車室内における乗員の移動を把握することができる。本実施例では、例えば車両5の乗員の着座位置は、運転席(M31)、助手席(M32)及び助手席の直ぐ後ろの座席(M33)の3つである。これにより、画像制御部113は、車両5の像5pと、着座位置を示す着座位置マークM31、M32、M33と、を合成画像CP31、CP32に含ませる。
本実施例の事故通報装置1の構成によれば、通報センター7の端末8において、車両5の乗員の着座位置を、直感的に容易に確認することができる。そして、車両事故の発生時に、車両5の乗員の着座位置を通報センター7において迅速かつ明確に把握することが可能になり、救助活動において有効な目安となる。
<4-4.実施例4>
図10は、実施例4の通報センター7で表示された合成画像CP41の模式図(第1例)である。合成画像CP41は、車両5の右前方上方から車両5の周辺領域を見た画像である。図11は、実施例4の通報センター7で表示された合成画像CP42の模式図(第2例)である。合成画像CP42は、車両5の真上から車両5の周辺領域を見た俯瞰画像である。実施例4の事故通報装置1は、通報センター7の端末8において、合成画像CP41、CP42に重ねて、車両5の乗員の着座位置を示す着座位置マークM41、M42、M43を表示させる。
情報取得部112は、センサ部3の着座センサから車両5の乗員の着座情報を取得する。着座情報は、所定のタイミング毎に定期的に取得することが好ましい。また、情報取得部112は、車両5が受けた衝撃に係る情報を取得する。車両5が受けた衝撃は、例えば車両周辺の撮影画像において、車両5への他車両等の接近の程度に基づき判定される。また、車両5が受けた衝撃は、例えばセンサ部3の振動センサから取得した車両5の振動の程度を表す検出信号に基づき判定される。
そして、画像制御部113は、衝撃を受ける前後において着座情報が異なる場合に、合成画像CP41、CP42の着座位置マークの表示態様を変更させる。本実施例では、例えば車両5の乗員の着座位置は、運転席(M41)、助手席(M42)及び助手席の直ぐ後ろの座席(M43)の3つである。運転席(M41)及び助手席(M42)は、衝撃を受ける前後において着座情報が同じであるため、例えば実線等の態様で着座位置マークが表示される。一方、助手席の直ぐ後ろの座席(M43)は、衝撃を受ける前後において着座情報が異なるため、例えば破線等の、運転席(M41)及び助手席(M42)とは異なる態様で着座位置マークが表示される。
本実施例の事故通報装置1の構成によれば、通報センター7の端末8において、車両5の乗員の着座位置を、衝撃を受ける前後において直感的に容易に確認することができる。したがって、車両事故の発生時に、衝撃による車両5の乗員の移動も含め、乗員の着座位置を通報センター7において迅速かつ明確に把握することが可能になり、救助活動において有効な目安となる。
<4-5.実施例5>
図12は、実施例5の事故通報装置1の構成を示すブロック図である。実施例5の事故通報装置1は、制御部11に優先順位導出部114を備える。優先順位導出部114は、衝撃を受けた位置に基づき車両5の乗員の救出優先順位を導出する。
図13は、実施例5の救出優先順位の導出手法を説明するための図である。車両5の衝撃を受けた位置は、例えば車両5の右前扉5fである。優先順位導出部114は情報取得部112を介して、センサ部3の着座センサから車両5の乗員の着座情報を取得する。本実施例では、例えば車両5の乗員の着座位置は、運転席S1、助手席S2及び助手席の直ぐ後ろの座席S3の3つである。優先順位導出部114は、衝撃を受けた右前扉5fから運転席S1までの距離L1と、助手席S2までの距離L2と、座席S3までの距離L3と、を導出する。そして、優先順位導出部114は、右前扉5fからの距離が短い順に、乗員の救出優先順位を高くする。
図14は、実施例5の通報センター7で表示された合成画像CP5の模式図である。図14に示すように、画像制御部113は、合成画像CP5の着座位置に救出優先順位を表示させる。衝撃を受けた位置である右前扉5fからの距離が最も短い運転席S1の着座位置マークM51には、救出優先順位第1位の「1」が表示される。続いて、右前扉5fからの距離が短い順に、助手席S2の着座位置マークM52に救出優先順位第2位の「2」が表示され、座席S3の着座位置マークM53に救出優先順位第3位の「3」が表示される。
なお、衝撃を受けた位置が複数である場合、優先順位導出部114は、衝撃を受けた位置毎に衝撃の度合いを導出する。衝撃を受けた位置毎の衝撃の度合いは、例えば車両周辺の撮影画像において、車両5への他車両等の障害物の接近の程度に基づき判定される。また、衝撃を受けた位置毎の衝撃の度合いは、例えばセンサ部3の振動センサから取得した車両5の振動の程度を表す検出信号に基づき判定される。続いて、優先順位導出部114は、衝撃を受けた位置毎の衝撃の度合いと、当該位置から乗員の着座位置までの距離と、をそれぞれ乗算し、乗員の救出優先順位を導出する。
優先順位導出部114は、ここで説明した手法に限らない種々の手法により、乗員の着座位置毎の救出優先順位に重み付けを行う。
本実施例の事故通報装置1の構成によれば、通報センター7の端末8において、最も優先して救出が必要な乗員の着座位置を容易に確認することができる。そして、車両事故の発生時に、車両5の乗員の救出優先順位を通報センター7において迅速かつ明確に把握することが可能になり、救助活動において有効な目安となる。
<4-6.実施例6>
図15は、実施例6の通報センター7で表示された合成画像CP61の模式図(第1例)である。合成画像CP61は、車両5の真上から車両5の周辺領域を見た俯瞰画像である。実施例6の事故通報装置1は、通報センター7の端末8において、合成画像CP61に重ねて、車両5の衝撃の状態を示す衝撃マークM61を表示させる。本実施例では、衝撃を受けた位置は、例えば車両5の右前扉5fである。
情報取得部112は、車両5が受けた衝撃に係る情報を取得する。車両5が受けた衝撃の状態は、例えば車両周辺の撮影画像において、車両5への他車両等の障害物の接近の程度に基づき判定される。また、車両5が受けた衝撃の状態は、例えばセンサ部3の振動センサから取得した車両5の振動の程度を表す検出信号に基づき判定される。車両5が受けた衝撃が、例えば車両5のボディが大きく凹む程度の衝撃であったのか、ボディに軽くこする程度の衝撃であったのか、などといった衝撃の状態に基づき、衝撃マークM61の態様が変更される。
そして、衝撃マークは、衝撃を受けた方向に基づき、態様が変更される。例えば図15は、図中に白抜き矢印を付したとおり、衝撃を車両5の右前扉5fにおいて左方向に真横に向かって受けた例を示した。衝撃を右前扉5fにおいて左方向に真横に向かって受けたことで、衝撃マークM61は、例えば右前扉5fから車両5(像5p)の内側に、左方向に真横に向かって拡がる半円形状の態様である。
図16は、実施例6の通報センター7で表示された合成画像CP62の模式図(第2例)である。例えば図16は、図中に白抜き矢印を付したとおり、衝撃を車両5の右前扉5fにおいて後方から斜め前方に向かって受けた例を示した。衝撃を右前扉5fにおいて後方から斜め前方に向かって受けたことで、衝撃マークM62は、例えば右前扉5fから車両5(像5p)の内側に、斜め前方に向かって拡がる半楕円形状の態様である。
このようにして、画像制御部113は、車両5の像5pと、車両5の衝撃の状態を示す衝撃マークM61、M62と、を合成画像CP61、CP62に含ませる。この構成によれば、通報センター7の端末8において、車両5が受けた衝撃の状態と、衝撃を受けた方向とを、直感的に容易に確認することができる。そして、車両事故の発生時に、車両5の被害状況を通報センター7において迅速かつ明確に把握することが可能になり、救助活動において有効な目安となる。
図17は、実施例6の通報センター7で表示された合成画像CP63の模式図(第3例)である。画像制御部113は、衝撃の大きさに基づき合成画像CP63の衝撃マークM63の表示態様を変更させる。すなわち、車両5が受けた衝撃が大きいほど、例えば衝撃マークM63の表示が大きくなることにしても良い。また、車両5が受けた衝撃が大きいほど、例えば青、黄色、赤の順に、衝撃マークM63の色彩が変化することにしても良い。また、車両5が受けた衝撃が大きいほど、例えば衝撃マークM63の形態がいびつになっていくことにしても良い。
この構成によれば、通報センター7の端末8において、車両5が受けた衝撃の大きさを、直感的に容易に確認することができる。そして、車両事故の発生時に、車両5の被害状況を通報センター7において迅速かつ明確に把握することが可能になり、救助活動において有効な目安となる。
<4-7.実施例7>
図18は、実施例7の通報センター7で表示された合成画像CP71の模式図である。実施例7の事故通報装置1は、通報センター7の端末8において、合成画像CP71に車両5の像5pxを含ませる。本実施例では、車両5は、例えば車両事故の衝撃で横転したこととする。
情報取得部112は、車両5の姿勢に係る情報を取得する。車両5の姿勢は、例えば車両周辺の撮影画像に基づき判定される。例えば、車両周辺の撮影画像に空が広く映り、地面が映らないことなどに基づき横転が判定される。また例えば、撮影画像に空が広く映り、地面が映らないことなどに起因して正常に合成画像を生成できないこと基づき横転が判定される。また、情報取得部112は、センサ部3の傾斜センサから車両5の姿勢に係る情報を取得することにしても良い。画像制御部113は、車両5の姿勢に基づき合成画像CP71に含ませる車両5の像5pxの表示態様を変更させる。すなわち、合成画像CP71には、横転した車両5の像5pxが表示される。
本実施例の事故通報装置1の構成によれば、通報センター7の端末8において、車両5の姿勢を、直感的に容易に確認することができる。そして、車両事故の発生時に、車両5の乗員の救出に係る段取りを通報センター7において迅速かつ明確に把握することが可能になり、救助活動において有効な目安となる。
<5.その他>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は全ての点で例示であって、制限的なものではないと考えられるべきである。本発明の技術的範囲は上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、上記の複数の実施形態及び実施例は可能な範囲で組み合わせて実施しても良い。
また、上記実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的に各種の機能が実現されていると説明したが、これらの機能のうちの一部は電気的なハードウェア回路によって実現されても良い。また逆に、ハードウェア回路によって実現されるとした機能のうちの一部は、ソフトウェア的に実現されても良い。
1 事故通報装置
3 センサ部
4 画像処理部
5 車両
5p、5px 像
7 通報センター
8 端末
11 制御部
12 記憶部
21、22、23、24 車載カメラ
81 表示部
111 画像取得部
112 情報取得部
113 画像制御部
114 優先順位導出部
CP、CP1、CP2 合成画像
CP21、CP22、CP23、CP24、CP25 合成画像
CP31、CP32 合成画像
CP41、CP42 合成画像
CP5 合成画像
CP61、CP62、CP63 合成画像
CP71 合成画像
M31、M32、M33 着座位置マーク
M41、M42、M43 着座位置マーク
M51、M52、M53 着座位置マーク
M61、M62、M63 衝撃マーク

Claims (12)

  1. 車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、
    前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、
    前記車両に係る情報を取得する情報取得部と、
    前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末で表示させる画像制御部と、を備え
    前記情報取得部は、前記車両の乗員の着座情報を取得し、
    前記画像制御部は、前記車両の像と、乗員の着座位置を示す着座位置マークと、を前記合成画像に含ませる事故通報装置。
  2. 前記情報取得部は、前記車両が受けた衝撃に係る情報を取得し、
    前記画像制御部は、衝撃を受ける前後において前記着座情報が異なる場合に、前記合成画像の前記着座位置マークの表示態様を変更させる請求項に記載の事故通報装置。
  3. 衝撃を受けた位置に基づき乗員の救出優先順位を導出する優先順位導出部を備え、
    前記画像制御部は、前記合成画像の前記着座位置に前記救出優先順位を表示させる請求項に記載の事故通報装置。
  4. 前記情報取得部は、前記車両が受けた衝撃に係る情報を取得し、
    前記画像制御部は、衝撃を受ける前に撮影された前記撮影画像に基づき前記合成画像を生成させる請求項1から請求項のいずれかに記載の事故通報装置。
  5. 車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、
    前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、
    前記車両に係る情報を取得する情報取得部と、
    前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末で表示させる画像制御部と、を備え
    前記情報取得部は、前記車両が受けた衝撃に係る情報を取得し、
    前記画像制御部は、衝撃を受ける前に撮影された前記撮影画像に基づき前記合成画像を生成させる事故通報装置。
  6. 前記画像制御部は、前記車両の像と、衝撃の状態を示す衝撃マークと、を前記合成画像に含ませる請求項4又は5に記載の事故通報装置。
  7. 前記画像制御部は、衝撃の大きさに基づき前記合成画像の前記衝撃マークの表示態様を変更させる請求項6に記載の事故通報装置。
  8. 前記情報取得部は、前記車両の姿勢に係る情報を取得し、
    前記画像制御部は、前記車両の姿勢に基づき前記合成画像に含ませる前記車両の像の表示態様を変更させる請求項1から請求項7のいずれかに記載の事故通報装置。
  9. 車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、
    前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、
    前記車両に係る情報を取得する情報取得部と、
    前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末で表示させる画像制御部と、を備え
    前記情報取得部は、前記車両の姿勢に係る情報を取得し、
    前記画像制御部は、前記車両の姿勢に基づき前記合成画像に含ませる前記車両の像の表示態様を変更させる事故通報装置。
  10. 制御部を含み、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、
    前記制御部は、
    前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、
    前記車両に係る情報を取得する情報取得部と、を備え、
    前記制御部は、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末に対して送信し、
    前記情報取得部は、前記車両の乗員の着座情報を取得し、
    前記合成画像には、前記車両の像と、乗員の着座位置を示す着座位置マークと、が含まれている事故通報装置。
  11. 制御部を含み、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、
    前記制御部は、
    前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、
    前記車両に係る情報を取得する情報取得部と、を備え、
    前記制御部は、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末に対して送信し、
    前記情報取得部は、前記車両が受けた衝撃に係る情報を取得し、
    前記合成画像は、衝撃を受ける前に撮影された前記撮影画像に基づき生成される事故通報装置。
  12. 制御部を含み、車両事故の発生時に事故に係る情報を所定の通報先に通報する事故通報装置であって、
    前記制御部は、
    前記車両に搭載された少なくとも1つの車載カメラで撮影された撮影画像を取得する画像取得部と、
    前記車両に係る情報を取得する情報取得部と、を備え、
    前記制御部は、前記撮影画像に基づき生成された、仮想視点から見た前記車両の外観を含む前記車両の周辺領域を示す合成画像を前記通報先の端末に対して送信し、
    前記情報取得部は、前記車両の姿勢に係る情報を取得し、
    前記合成画像に含まれる前記車両の像は、前記車両の姿勢に基づき表示態様が変更される事故通報装置。
JP2018139669A 2018-07-25 2018-07-25 事故通報装置 Active JP7168367B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018139669A JP7168367B2 (ja) 2018-07-25 2018-07-25 事故通報装置
US16/357,933 US10713829B2 (en) 2018-07-25 2019-03-19 Accident report device and accident report method
EP19164394.9A EP3599134B1 (en) 2018-07-25 2019-03-21 Accident report device and accident report method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018139669A JP7168367B2 (ja) 2018-07-25 2018-07-25 事故通報装置

Publications (2)

Publication Number Publication Date
JP2020017077A JP2020017077A (ja) 2020-01-30
JP7168367B2 true JP7168367B2 (ja) 2022-11-09

Family

ID=65904201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018139669A Active JP7168367B2 (ja) 2018-07-25 2018-07-25 事故通報装置

Country Status (3)

Country Link
US (1) US10713829B2 (ja)
EP (1) EP3599134B1 (ja)
JP (1) JP7168367B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7336776B2 (ja) * 2021-03-24 2023-09-01 パナソニックIpマネジメント株式会社 車両監視装置、および車両監視システム
JP7476854B2 (ja) * 2021-06-08 2024-05-01 トヨタ自動車株式会社 情報処理装置、プログラム及び情報処理方法
FR3127093A1 (fr) * 2021-09-16 2023-03-17 Idemia Identity & Security France Procédé d’échange d’informations sur un évènement et système d’échange d’informations associé.

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128734A (ja) 2010-12-16 2012-07-05 Denso Corp ドライブレコーダシステム及びドライブレコーダ装置
WO2013111492A1 (ja) 2012-01-26 2013-08-01 日産自動車株式会社 監視システム
JP2014134912A (ja) 2013-01-09 2014-07-24 Fujitsu Ten Ltd 再生装置、再生システム、再生方法及びプログラム
JP2017005497A (ja) 2015-06-10 2017-01-05 富士通テン株式会社 画像処理装置および画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101284169B1 (ko) * 2011-09-02 2013-07-09 에스엘 주식회사 사고 영상 기록 장치 및 방법
JP2015153001A (ja) 2014-02-12 2015-08-24 株式会社デンソー 車両事故状況予測装置及び車両事故状況予測システム
JP2016002812A (ja) * 2014-06-13 2016-01-12 株式会社デンソー 車両用非常通報装置
JP6376381B2 (ja) 2014-07-28 2018-08-22 株式会社デンソー 車両事故通報システム
DE102015014750B4 (de) * 2015-11-13 2021-05-12 Audi Ag Verfahren zum Betreiben eines Kraftfahrzeugs, bei welchem ein Notruf abgesetzt wird, und Kraftfahrzeug
US10789650B1 (en) * 2016-04-27 2020-09-29 State Farm Mutual Automobile Insurance Company Systems and methods for reconstruction of a vehicular crash

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012128734A (ja) 2010-12-16 2012-07-05 Denso Corp ドライブレコーダシステム及びドライブレコーダ装置
WO2013111492A1 (ja) 2012-01-26 2013-08-01 日産自動車株式会社 監視システム
JP2014134912A (ja) 2013-01-09 2014-07-24 Fujitsu Ten Ltd 再生装置、再生システム、再生方法及びプログラム
JP2017005497A (ja) 2015-06-10 2017-01-05 富士通テン株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US10713829B2 (en) 2020-07-14
JP2020017077A (ja) 2020-01-30
US20200031299A1 (en) 2020-01-30
EP3599134A1 (en) 2020-01-29
EP3599134B1 (en) 2020-11-11

Similar Documents

Publication Publication Date Title
JP4615380B2 (ja) 画像送信装置
JP7168367B2 (ja) 事故通報装置
JP5341789B2 (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
US10609339B2 (en) System for and method of dynamically displaying images on a vehicle electronic display
US20120314072A1 (en) Image generation apparatus
US11087438B2 (en) Merging of partial images to form an image of surroundings of a mode of transport
JP6723820B2 (ja) 画像生成装置、画像表示システムおよび画像表示方法
JP2012040883A (ja) 車両周囲画像生成装置
US9162621B2 (en) Parking support apparatus
JP2019156299A (ja) 車両遠隔操作装置及び車両遠隔操作方法
KR102288950B1 (ko) 차량 및 그 제어 방법
US10540807B2 (en) Image processing device
JP6575404B2 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP7000383B2 (ja) 画像処理装置および画像処理方法
JPWO2003034738A1 (ja) 画像処理装置
KR102304391B1 (ko) 차량 및 그 제어 방법
JP2005069776A (ja) 車両用表示方法、車両用表示装置
KR20180094717A (ko) Avm을 이용한 운전 지원 장치 및 시스템
JP2005182305A (ja) 車両走行支援装置
JP2015106777A (ja) 画像処理装置並びに運転支援装置およびナビゲーション装置およびカメラ装置
CN114290998B (zh) 一种天窗显示控制装置、方法及设备
WO2021131481A1 (ja) 表示装置、表示方法及び表示プログラム
KR102300652B1 (ko) 차량 및 그 제어 방법
JP2021118435A (ja) 画像処理装置及び画像処理方法
JP7112191B2 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R150 Certificate of patent or registration of utility model

Ref document number: 7168367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150