JP2022190766A - 車両周辺情報表示装置、及び車両周辺情報表示方法 - Google Patents

車両周辺情報表示装置、及び車両周辺情報表示方法 Download PDF

Info

Publication number
JP2022190766A
JP2022190766A JP2021099180A JP2021099180A JP2022190766A JP 2022190766 A JP2022190766 A JP 2022190766A JP 2021099180 A JP2021099180 A JP 2021099180A JP 2021099180 A JP2021099180 A JP 2021099180A JP 2022190766 A JP2022190766 A JP 2022190766A
Authority
JP
Japan
Prior art keywords
vehicle
image
display
peripheral information
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021099180A
Other languages
English (en)
Inventor
拓真 塩口
Takuma Shioguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faurecia Clarion Electronics Co Ltd filed Critical Faurecia Clarion Electronics Co Ltd
Priority to JP2021099180A priority Critical patent/JP2022190766A/ja
Priority to US17/835,122 priority patent/US11967007B2/en
Priority to DE102022114858.0A priority patent/DE102022114858A1/de
Publication of JP2022190766A publication Critical patent/JP2022190766A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

【課題】俯瞰画像よりも広範囲の周辺情報を表示する。【解決手段】車両周辺情報表示装置100は、距離センサ40から取得した車両1からの距離を示す点群データに基づき、車両1の周辺情報を示す周辺情報画像PSを生成する周辺情報画像生成部131と、車両1の周辺の地図画像PGを取得する地図画像取得部132と、車両1の周囲の俯瞰画像PBを取得する俯瞰画像取得部133と、地図画像PG、車両1の位置を示す車両マークPM、車両マークPMの周囲に配置される俯瞰画像PB、及び俯瞰画像PBの周囲に配置される周辺情報画像PSを合成して、表示パネル61に表示する表示画像PDを生成する表示画像生成部135と、を備える。【選択図】図1

Description

本発明は、車両周辺情報表示装置、及び車両周辺情報表示方法に関する。
従来、車両の周辺の情報を示す画像を表示する技術が知られている。
例えば、特許文献1には、自車両の周囲の画像を表示する際に、輝度の高い被写体の影響によってスミアが発生した場合でも、表示画像におけるスミアの影響を低減する技術が記載されている。
特開2012-134586号公報
しかしながら、特許文献1に記載の技術では、カメラの撮像画像に基づき、俯瞰画像(いわゆるサラウンドビュー)を表示するに止まり、車両から近距離の周辺情報が表示されるに過ぎない。
本発明は、俯瞰画像よりも広範囲の周辺情報を表示できる車両周辺情報表示装置、及び車両周辺情報表示方法を提供することを目的とする。
上記目的を達成するために本発明の車両周辺情報表示装置は、センサから取得した車両からの距離を示す点群データに基づき、前記車両の周辺情報を示す周辺情報画像を生成する周辺情報画像生成部と、前記車両の周辺の地図画像を取得する地図画像取得部と、前記地図画像、前記車両の位置を示す車両マーク、前記車両マークの周囲に配置される前記俯瞰画像、及び前記俯瞰画像の周囲に配置される前記周辺情報画像を合成して、ディスプレイに表示する表示画像を生成する表示画像生成部と、を備える。
上記目的を達成するために本発明の車両周辺情報表示方法は、センサから取得した車両からの距離を示す点群データに基づき、前記車両の周辺情報を示す周辺情報画像を生成する周辺情報画像生成ステップと、前記車両の周辺の地図画像を取得する地図画像取得ステップと、前記車両の周囲の俯瞰画像を取得する俯瞰画像取得ステップと、前記地図画像、前記車両の位置を示す車両マーク、前記車両マークの周囲に配置される前記俯瞰画像、及び前記俯瞰画像の周囲に配置される前記周辺情報画像を合成して、ディスプレイに表示する表示画像を生成する表示画像生成ステップと、を含む。
本発明の車両周辺情報表示装置、及び車両周辺情報表示方法によれば、地図画像、前記車両の位置を示す車両マーク、車両マークの周囲に配置される俯瞰画像、及び俯瞰画像の周囲に配置される周辺情報画像を合成して、ディスプレイに表示する表示画像を生成する。したがって、俯瞰画像よりも広範囲の周辺情報を表示できる。
車両周辺情報表示装置を含む車載装置の構成の一例を示す図である。 第1状態の表示画像を表示する第1画面の一例を示す画面図である。 第2状態の表示画像を表示する第2画面の一例を示す画面図である。 第3状態の表示画像を表示する第3画面の一例を示す画面図である。 第4状態の表示画像を表示する第4画面の一例を示す画面図である。 第5状態の表示画像を表示する第5画面の一例を示す画面図である。 第6状態の表示画像を表示する第6画面の一例を示す画面図である。 第7状態の表示画像を表示する第7画面の一例を示す画面図である。 第8状態の表示画像を表示する第8画面の一例を示す画面図である。 第9状態の表示画像を表示する第9画面の一例を示す画面図である。 車両周辺情報表示装置の処理の一例を示すフローチャートである。 車両周辺情報表示装置の危険表示処理の一例を示すフローチャートである。 車両周辺情報表示装置の危険表示処理の一例を示すフローチャートである。
以下、図面を参照して本発明の実施形態について説明する。
図1は、車両周辺情報表示装置100を含む車載装置3の構成の一例を示す図である。車載装置3は、車両1に搭載される。
車載装置3は、位置検出ユニット10、検出部20、操作部50、表示部60及び車両周辺情報表示装置100を備える。
位置検出ユニット10は、車両1の位置を検出する。位置検出ユニット10は、GNSS(Global Navigation Satellite System)信号を受信するGNSS受信器と、GNSS受信器が受信したGNSS信号に基づいて車両1の位置を算出するプロセッサと、を備える。GNSS受信器、及びプロセッサの図示は省略する。位置検出ユニット10は、車両1の位置を示す位置情報を車両周辺情報表示装置100に出力する。
検出部20は、車両1の周囲の画像を撮影すると共に、車両1から所定距離までの範囲に存在する移動体MSとの間の距離を示す点群データを検出する。移動体MSは、他の車両C、自転車、及び歩行者を含む。所定距離は、例えば、20mである。
検出部20は、撮影部30と、距離センサ40とを備える。
撮影部30は、車両1の周囲の画像を撮影する。撮影部30は、車両1の前方を撮影するフロントカメラ31、車両1の後方を撮影するリアカメラ33、車両1の左側方を撮影する左サイドカメラ35、及び車両1の右側方を撮影する右サイドカメラ37を備える。これらのカメラの各々は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide-Semiconductor)等のイメージセンサと、イメージセンサから撮影画像を生成するデータ処理回路と、を備える。
撮影部30は、4方向に向けられたカメラによって車両1を中心に360°の範囲を撮影可能となるように、4方向に向けられたカメラの各々の画角が調整される。フロントカメラ31、リアカメラ33、左サイドカメラ35、及び右サイドカメラ37の各々は、撮影範囲を所定のフレームレートで撮影して撮影画像を生成する。撮影部30は、生成した撮影画像を車両周辺情報表示装置100に出力する。車両周辺情報表示装置100は、入力された撮影画像をメモリ140に記憶させる。
なお、フロントカメラ31、リアカメラ33、左サイドカメラ35、及び右サイドカメラ37の各々は、1台のカメラで構成されてもよいし、複数台のカメラで構成されてもよい。
距離センサ40は、車両1から所定距離までの範囲に存在する移動体MSとの間の距離を示す点群データを検出する。距離センサ40は、例えば、車両1の前方、後方、左側方、及び右側方等の複数箇所にLiDAR(Light Detection and Ranging)を備え、電磁波を用いて、点群データを取得する。点群データを構成する各々の点データは、車両1から所定距離までの範囲に存在する移動体MSとの間の距離を示す。
本実施形態では、距離センサ40がLiDARである場合について説明するが、これに限定されない。距離センサ40が、例えば、レーダーやソナーセンサーでもよい。
また、本実施形態では、LiDARが、車両1の前方、後方、左側方、及び右側方等の複数箇所に配置される場合について説明するが、これに限定されない。LiDARが、車両1のルーフに配置され、全周囲(すなわち、前方、後方、左側方、及び右側方)の点群データを取得してもよい。
距離センサ40は、「センサ」の一例に対応する。
操作部50は、車両1に乗車したユーザーの操作を受け付ける。ユーザーは、例えば、運転者である。操作部50は、受け付けた操作に対応した操作信号を車両周辺情報表示装置100に出力する。操作部50が受け付ける操作には、例えば、車両周辺情報表示処理の開始を指示する操作や、車両周辺情報表示処理を終了させる操作等が含まれる。
操作部50は、例えば、図略の車両周辺情報表示オンスイッチ、及び図略の車両周辺情報表示オフスイッチを備え、車両周辺情報表示オンスイッチが押下された場合には、車両周辺情報表示装置100は、車両周辺情報表示処理の開始を指示する操作を受け付ける。また、車両周辺情報表示処理を実行中に、車両周辺情報表示オフスイッチが押下された場合には、車両周辺情報表示装置100は、車両周辺情報表示処理を終了させる操作を受け付ける。
なお、「車両周辺情報表示処理」とは、車両周辺情報表示装置100が、地図画像PG、車両マークPM、俯瞰画像PB、及び周辺情報画像PSを合成して、表示画像PDを生成し、生成した表示画像PDを表示パネル61に表示する処理である。
「車両周辺情報表示処理」については、図1を参照して車両周辺情報表示装置100の機能構成を説明し、図2~図13を参照して更に説明する。
また、地図画像PG、車両マークPM、俯瞰画像PB、周辺情報画像PS、及び表示画像PDについては、図2~図10を参照して説明する。
表示部60は、表示パネル61と、タッチセンサ63と、を備える。
表示パネル61には、液晶ディスプレイや有機ELディスプレイ等が用いられる。表示部60は、車両周辺情報表示装置100から入力される表示データに基づき、表示画像PD等の画像を表示パネル61に表示させる。
表示パネル61は、「ディスプレイ」の一例に対応する。
表示画像PDについては、図2~図10を参照して説明する。
タッチセンサ63は、抵抗膜方式や静電容量方式等のセンサが用いられる。表示部60は、表示パネル61に対するユーザーの指でのタッチ操作を、タッチセンサ63によって検出し、検出したタッチ操作の操作位置を示す位置信号を生成する。表示部60は、生成した位置信号を車両周辺情報表示装置100に出力する。
車両周辺情報表示装置100は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)等のプロセッサ130と、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ140と、を備えるコンピュータである。車両周辺情報表示装置100は、これらの装置の他に、HDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージ装置や、センサ類や周辺機器等を接続するためのインターフェース回路、車載ネットワークを介して他の車載装置と通信する車載ネットワーク通信回路等を備える。車両周辺情報表示装置100は、メモリ140、又はストレージ装置が記憶する制御プログラムを、プロセッサ130が実行することで各種の機能的構成を実現する。
車両周辺情報表示装置100は、周辺情報画像生成部131と、地図画像取得部132と、俯瞰画像取得部133と、危険性検出部134と、表示画像生成部135と、表示制御部136と、地図記憶部141と、画像記憶部142と、を備える。
具体的には、プロセッサ130が、メモリ140又はストレージ装置が記憶する制御プログラムを実行することによって、プロセッサ130が、周辺情報画像生成部131、地図画像取得部132、俯瞰画像取得部133、危険性検出部134、表示画像生成部135、及び表示制御部136、として機能する。また、プロセッサ130が、メモリ140又はストレージ装置が記憶する制御プログラムを実行することによって、メモリ140を、地図記憶部141、及び画像記憶部142、として機能させる。
地図記憶部141は、地図画像PGを記憶する。地図画像PGは、地図画像取得部132によって読み出される。
画像記憶部142は、車両マークPM、第1車両画像CR1、第1車両マークCM1、第2車両画像CR2、第2車両マークCM2、歩行者マークP等の画像を記憶する。
車両マークPMは、車両1を示す。車両マークPMは、表示画像生成部135によって、地図画像PGにおける車両1の位置に配置される。すなわち、車両マークPMは、地図画像PGにおける車両1の位置を示す。
第1車両画像CR1は、距離センサ40によって検出される第1車両C1の画像である。第1車両画像CR1は、表示画像生成部135によって、地図画像PGにおける第1車両C1の位置に配置される。第1車両C1は、例えば、4輪の乗用車である。
第1車両マークCM1は、距離センサ40によって検出される第1車両C1を示す。第1車両マークCM1は、表示画像生成部135によって、地図画像PGにおける第1車両C1の進行方向の道路上に配置される。第1車両マークCM1は、例えば、5角形状のマークである。
第2車両画像CR2は、距離センサ40によって検出される第2車両C2の画像である。第2車両画像CR2は、表示画像生成部135によって、地図画像PGにおける第2車両C2の位置に配置される。第2車両C2は、例えば、自動二輪車である。
第2車両マークCM2は、距離センサ40によって検出される第2車両C2を示す。第2車両マークCM2は、表示画像生成部135によって、地図画像PGにおける第2車両C2の進行方向の道路上に配置される。第2車両マークCM2は、例えば、5角形状のマークである。
歩行者マークPは、距離センサ40によって検出される歩行者を示す。歩行者マークPは、表示画像生成部135によって、地図画像PGにおける歩行者の位置に配置される。歩行者マークPは、例えば、円形状のマークである。
第1車両マークCM1、及び第2車両マークCM2については、図3及び図4を参照して更に説明する。
第1車両画像CR1、及び第2車両画像CR2については、図5を参照して更に説明する。
なお、以下の説明において、第1車両C1及び第2車両C2を互いに区別しない場合には、車両Cと記載する場合がある。
歩行者マークPについては、図8を参照して更に説明する。
周辺情報画像生成部131は、距離センサ40から点群データを取得し、点群データに基づき、車両1の周辺情報を示す周辺情報画像PSを生成する。点群データを構成する各々の点データは、車両1から所定距離までの範囲に存在する移動体MSとの間の距離を示す。所定距離は、例えば20mである。
周辺情報画像PSは、第1車両画像CR1、第1車両マークCM1、第2車両画像CR2、第2車両マークCM2、及び歩行者マークPを含む。
第1車両画像CR1は、第1車両C1が表示パネル6に表示される地図画像PGの示す領域に含まれる場合に、表示画像生成部135によって、第1車両C1の地図画像PG上の位置に配置される。
第2車両画像CR2は、第2車両C2が表示パネル6に表示される地図画像PGの示す領域に含まれる場合に、表示画像生成部135によって、第2車両C2の地図画像PG上の位置に配置される。
第1車両マークCM1は、第1車両C1が表示パネル6に表示される地図画像PGの示す領域に含まれず、且つ、危険性検出部134によって車両1との接触の危険性があると検出された場合に、表示画像生成部135によって、地図画像PG上の第1車両C1の進行方向の道路上に配置される。
第2車両マークCM2は、第2車両C2が表示パネル6に表示される地図画像PGの示す領域に含まれず、且つ、危険性検出部134によって第2車両C2との接触の危険性があると検出された場合に、表示画像生成部135によって、地図画像PG上の第2車両C2の進行方向の道路上に配置される。
歩行者マークPは、距離センサ40によって検出される歩行者が、表示パネル6に表示される地図画像PGの示す領域に含まれる場合に、歩行者の地図画像PG上の位置に配置される。
地図画像取得部132は、位置検出ユニット10から車両1の位置を示す位置情報を取得し、取得した位置情報に対応する地図画像PGを地図記憶部141から読み出すことによって、車両1の周辺の地図画像PGを取得する。
本実施形態では、地図画像取得部132が、位置情報に対応する地図画像PGを地図記憶部141から読み出すことによって、車両1の周辺の地図画像PGを取得する場合について説明するが、これに限定されない。車両周辺情報表示装置100がサーバ装置と通信可能に接続され、地図画像取得部132が、位置情報に対応する地図画像PGをサーバ装置から受信することによって、車両1の周辺の地図画像PGを取得してもよい。この場合には、地図記憶部141が地図画像PGを記憶する必要がないため、車両周辺情報表示装置100の構成を簡素化できる。
俯瞰画像取得部133は、フロントカメラ31、リアカメラ33、左サイドカメラ35、及び右サイドカメラ37の各々が撮影した撮影画像を合成することによって、車両1の周囲の俯瞰画像PBを生成し、車両1の周囲の俯瞰画像PBを取得する。
危険性検出部134は、距離センサ40からの点群データに基づき、移動体MSの車両1との接触の危険性を検出する。
危険性検出部134は、例えば、車両1との接触の危険性のある移動体MSの位置を検出する。危険性検出部134は、例えば、車両1との接触の危険性のある移動体MSの属性を検出する。移動体MSの属性とは、例えば、移動体MSが車両Cであるか、歩行者であるかを示す。また、危険性検出部134は、例えば、車両1を基準として、移動体MSが車両1と接触する危険性のある方向を検出する。また、危険性検出部134は、例えば、移動体MSの車両1との接触の危険性の程度を検出する。
移動体MSは、他の車両C、自転車、及び歩行者を含む。
表示画像生成部135は、地図画像PG、車両1の位置を示す車両マークPM、車両マークPMの周囲に配置される俯瞰画像PB、及び俯瞰画像PBの周囲に配置される周辺情報画像PSを合成して、表示パネル61に表示する表示画像PDを生成する。
周辺情報画像PSは、第1車両画像CR1、第1車両マークCM1、第2車両画像CR2、第2車両マークCM2、及び歩行者マークPを含む。
表示パネル61において、俯瞰画像PBが表示される領域は、車両マークPMを中心とする円形の第1領域AR1である。
第1領域AR1は、「円形の領域」の一例に対応する。
第1領域AR1については、図2を参照して更に説明する。
表示画像生成部135は、車両1を基準として、車両1が移動体MSと接触する危険性のある方向について、第1領域AR1と周辺情報画像PSが表示される第2領域AR2との円周状の境界線CFを強調表示する。
表示画像生成部135は、例えば、境界線CFの強調表示として、車両1を基準として、車両1との接触の危険性のある方向について、境界線CFの色を、境界線CFの他の部分とは異なる色(例えば、赤色、黄色等)で表示する。
境界線CFについては、図2~図10を参照して更に説明する。なお、図2~図10では、境界線CFの強調表示を、方向表示CFEとして記載する。方向表示CFEは、第1方向表示CFRと、第2方向表示CFYとを含む。
本実施形態では、境界線CFの強調表示として、車両1との接触の危険性のある方向の境界線CFの色を、境界線CFの他の部分とは異なる色で表示する場合について説明するが、これに限定されない。境界線CFの強調表示として、例えば、車両1との接触の危険性のある方向の境界線CFを点滅表示してもよい。この場合には、ユーザーによる車両1との接触の危険性のある方向の境界線CFの視認性を向上できる。
表示制御部136は、表示画像生成部135が生成した表示画像PDを、表示パネル61に表示する。
表示画像PDについては、図2~図10を参照して更に説明する。
本実施形態では、表示制御部136が、表示パネル61の表示面の全面に、表示画像PDを表示する場合について説明するが、これに限定されない。表示制御部136が、表示パネル61の表示面の一部の領域に、表示画像PDを表示してもよい。
次に、図2~図10を参照して、表示パネル61に表示される表示画像PDの具体例について説明する。
図2~図10の各々には、方角を示している。図の上方向が、北方向に対応し、図の下方向が、南方向に対応し、図の右方向が、東方向に対応し、図の左方向が、西方向に対応する。
図2は、第1状態の表示画像PDを表示する第1画面700の一例を示す画面図である。第1画面700は、表示制御部136によって表示パネル61に表示される。
第1画面700には、第1領域AR1に、車両マークPMと、俯瞰画像PBとが表示され、第2領域AR2に、地図画像PGが表示され、第1領域AR1と第2領域AR2との境界に、境界線CFが表示される。
地図画像PGは、道路画像RWと、歩道画像SWとを含む。道路画像RWは、東西方向に延びる第1道路R1を示す第1道路画像RW1と、南北方向に延びる第2道路R2を示す第2道路画像RW2と、第1道路R1と第2道路R2とが交差する交差点R3を示す交差点画像RW3と、を含む。なお、本実施形態では、交差点R3には、信号が配置されていない。
図2に示すように、車両1は、第2道路R2を北向きに走行しており、交差点R3の手前を走行している。
第1状態では、距離センサ40が移動体MSを検出していない。そこで、危険性検出部134は、車両1との接触の危険性のある移動体MSはないと検出する。この場合には、表示画像生成部135は、境界線CFを、車両1が移動体MSと接触する危険性がないことを示す第1色で表示する。
表示画像生成部135は、例えば、境界線CFを緑色で表示する。緑色は、第1色の一例に対応する。換言すれば、境界線CFが緑色で表示されることは、車両1が移動体MSと接触する危険性がないことを示す。図2では、境界線CFが緑色であることを、便宜上、破線で示している。緑色で表示された境界線CFを、第1境界線CF1と記載する場合がある。
また、俯瞰画像PBは、第1領域AR1に表示される。第1領域AR1は、車両1を含む円形の領域である。一方、俯瞰画像PBは、フロントカメラ31、リアカメラ33、左サイドカメラ35、及び右サイドカメラ37の各々が撮影した撮影画像を射影変換した後、合成することによって生成される。そこで、俯瞰画像PBを矩形の画像として表示する場合には、矩形の画像の四隅に対応する位置の画像の歪みが大きく、地図画像PGとの接合部において、不連続な画像が生成される。
これに対して、本実施形態では、俯瞰画像PBとして生成された矩形の画像のうち、四隅に対応する位置の画像を切り捨てて、円形の俯瞰画像PBを生成する。そこで、円形の俯瞰画像PBには、歪みが大きい箇所は含まれない。したがって、俯瞰画像PBを、地図画像PGと違和感なく接続できる。
図2を参照して説明したように、表示制御部136は、境界線CFを、車両1が移動体MSと接触する危険性がないことを示す第1境界線CF1で表示するため、ユーザーは、車両1が移動体MSと接触する危険性がないことを視認できる。
図3は、第2状態の表示画像PDを表示する第2画面710の一例を示す画面図である。第2画面710は、表示制御部136によって表示パネル61に表示される。
第2画面710には、第1領域AR1に、図2に示す第1画面700と同様に、車両マークPMと、俯瞰画像PBとが表示される。
第2画面710には、第2領域AR2に、地図画像PGと、第1車両マークCM1と、第2車両マークCM2と、第1危険検出表示ED1と、第2危険検出表示ED2と、衝突危険画像ARCと、が表示制御部136によって表示される。
第1車両マークCM1は、東西方向に延びる第1道路R1を東方向に走行し、交差点R3に進入する第1車両C1を示す。第1車両C1は、距離センサ40によって検出される移動体MSの一例に対応する。
第1車両C1は、表示パネル6に表示される地図画像PGの示す領域に含まれず、且つ、危険性検出部134によって車両1との接触の危険性があると検出される。この場合に、表示画像生成部135は、第1車両マークCM1を、地図画像PG上の第1車両C1の進行方向の道路上に配置する。表示画像生成部135は、第1車両マークCM1を、例えば、第1道路画像RW1の西端(図3では、左端)に配置する。
危険性検出部134が、距離センサ40によって検出される第1車両C1が、車両1との接触の危険性があると検出した場合に、表示制御部136は、第1危険検出表示ED1を表示する。表示制御部136は、第1危険検出表示ED1を、車両1を基準として、車両1との接触の危険性のある方向(本実施形態では、左方向)の表示パネル61の端部に表示する。
本実施形態では、表示制御部136は、第1危険検出表示ED1として、表示パネル61の左辺近傍を赤色に所定期間点滅させることによって、車両1との接触の危険性があると検出された方向をユーザーに報知する。所定期間は、例えば、3秒間である。
なお、第1危険検出表示ED1の色は、第1車両C1が車両1と接触する危険性の程度に応じて決定される。第1車両C1が車両1と接触する危険性の程度は、危険性検出部134によって検出される。本実施形態では、第1車両C1が車両1と接触する危険性が高いと検出され、第1危険検出表示ED1の色が、例えば、赤色に決定される。
衝突危険画像ARCは、第1車両C1の走行速度が第1速度以上である場合に、画像生成部135によって生成され、表示制御部136によって表示される画像である。また、衝突危険画像ARCは、第1車両C1の進行方向と、衝突の危険性のある範囲を示す画像である。第1速度は、例えば、70km/時である。第1車両C1の走行速度は、例えば80km/時である。
衝突危険画像ARCは、第1道路画像RW1上に、例えば、赤色半透明に表示される。衝突危険画像ARCは、例えば、東西方向に延びる矩形画像として表示される。衝突危険画像ARCの幅(短辺方向、すなわち南北方向のサイズ)は、例えば、第1車両C1の幅を示す。
第2車両マークCM2は、南北方向に延びる第2道路R2を北方向に走行し、交差点R3に進入する第2車両C2を示す。第2車両C2は、距離センサ40によって検出される移動体MSの一例に対応する。第2車両C2の走行速度は、第1速度未満、且つ第2速度以上である。第2速度、例えば、30km/時である。第2車両C2の走行速度は、例えば、40km/時である。
第2車両C2は、表示パネル6に表示される地図画像PGの示す領域に含まれず、且つ、危険性検出部134によって車両1との接触の危険性があると検出される。この場合に、周辺情報画像生成部131は、第2車両マークCM2を、地図画像PG上の第2車両C2の進行方向の道路上に配置する。周辺情報画像生成部131は、第2車両マークCM2を、例えば、第2道路画像RW2の南端(図3では、下端)に配置する。
危険性検出部134が、距離センサ40によって検出される第2車両C2が、車両1との接触の危険性があると検出した場合に、画像生成部135は、第2危険検出表示ED2を生成し、表示制御部136は、第2危険検出表示ED2を表示する。表示制御部136は、第2危険検出表示ED2を、車両1を基準として、車両1との接触の危険性のある方向(本実施形態では、下方向)の表示パネル61の端部に表示する。
本実施形態では、表示制御部136は、第2危険検出表示ED2として、表示パネル61の下辺近傍を黄色に所定期間点滅させることによって、車両1との接触の危険性があると検出された方向をユーザーに報知する。所定期間は、例えば、3秒間である。
なお、第2危険検出表示ED2の色は、第2車両C2が車両1と接触する危険性の程度に応じて決定される。第2車両C2が車両1と接触する危険性の程度は、危険性検出部134によって検出される。本実施形態では、第2車両C2が車両1と接触する危険性が中程度であると検出され、第2危険検出表示ED2の色が黄色に決定される。
第1危険検出表示ED1と、第2危険検出表示ED2とを区別しない場合には、以下の説明において、危険検出表示EDと記載する場合がある。
また、第2画面710には、境界線CFの一部に重畳されて、第1方向表示CFR、及び第2方向表示CFYが更に表示される。
第1方向表示CFRは、表示画像生成部135によって、車両1を基準として、車両1が第1車両C1と接触する危険性のある方向について、円周状の境界線CFに配置される。車両1が第1車両C1と接触する危険性のある方向は、危険性検出部134によって、例えば、境界線CFが、衝突危険画像ARCと重なる範囲として求められる。
第1方向表示CFRは、表示画像生成部135によって、例えば、赤色の円弧状の画像として表示される。
なお、第1方向表示CFRの色は、第1車両C1が車両1と接触する危険性の程度に応じて決定される。第1車両C1が車両1と接触する危険性の程度は、危険性検出部134によって検出される。本実施形態では、第1車両C1が車両1と接触する危険性が高いと検出され、第1方向表示CFRの色が赤色に決定される。第1方向表示CFRの色が赤色であることを、濃いハッチングで示している。
第2方向表示CFYは、表示画像生成部135によって、車両1を基準として、車両1が第2車両C2と接触する危険性のある方向について、円周状の境界線CFに配置される。車両1が第2車両C2と接触する危険性のある方向は、危険性検出部134によって、例えば、車両1を基準として、第2車両C2の位置する方向(ここでは、南方向)として求められる。
第2方向表示CFYは、表示画像生成部135によって、例えば、黄色の円弧状の画像として表示される。
なお、第2方向表示CFYの色は、第2車両C2が車両1と接触する危険性の程度に応じて決定される。第2車両C2が車両1と接触する危険性の程度は、危険性検出部134によって検出される。本実施形態では、第2車両C2が車両1と接触する危険性が中程度であると検出され、第2方向表示CFYの色が黄色に決定される。第2方向表示CFYの色が黄色であることを、薄いハッチングで示している。
第1方向表示CFRと、第2方向表示CFYとを区別しない場合には、以下の説明において、方向表示CFEと記載する場合がある。
境界線CFの一部に重畳して、第1方向表示CFR、及び第2方向表示CFYが表示されるため、表示画像生成部135によって、境界線CFの色は、目立たない色で表示される。境界線CFは、表示画像生成部135によって、例えば、灰色で表示される。灰色で表示された境界線CFを、第2境界線CF2と記載する場合がある。
図3を参照して説明したように、表示制御部136は、第1危険検出表示ED1を表示パネル61の左辺近傍に表示するため、ユーザーは、車両1に対して西方向において、車両1との接触の危険性がある移動体MSが検出されたことを視認できる。
また、表示制御部136は、第1危険検出表示ED1を赤色で表示するため、ユーザーは、車両1との接触の危険性が高いことを視認できる。
図3を参照して説明したように、表示制御部136は、第2危険検出表示ED2を表示パネル61の下辺近傍に表示するため、ユーザーは、車両1に対して南方向において、車両1との接触の危険性がある移動体MSが検出されたことを視認できる。
また、表示制御部136は、第2危険検出表示ED2を黄色で表示するため、ユーザーは、車両1との接触の危険性が中程度であることを視認できる。
図3を参照して説明したように、表示制御部136は、衝突危険画像ARCを第1道路画像RW1上に、赤色半透明に表示するため、ユーザーは、衝突危険画像ARCに対応する第1車両C1の走行速度が第1速度以上であることを視認できる。
図3を参照して説明したように、表示制御部136は、第1方向表示CFRを、境界線CFが、衝突危険画像ARCと重なる範囲に、円弧状の画像として表示するためユーザーは、車両1との接触の危険性のある方向を視認できる。また、表示制御部136は、第1方向表示CFRを、赤色の円弧状の画像として表示するため、第1方向表示CFRの表示される方向において、車両1との接触の危険性が高いことを視認できる。
図3を参照して説明したように、表示制御部136は、第2方向表示CFYを、車両1を基準として、第2車両C2の位置する方向に、円弧状の画像として表示するため、ユーザーは、車両1との接触の危険性のある方向を視認できる。また、表示制御部136は、第2方向表示CFYを、黄色の円弧状の画像として表示するため、第2方向表示CFYの表示される方向において、車両1との接触の危険性が中程度であることを視認できる。
図4は、第3状態の表示画像PDを表示する第3画面720の一例を示す画面図である。第3画面720は、表示制御部136によって表示パネル61に表示される。
第3画面720には、第1危険検出表示ED1、及び、第2危険検出表示ED2が表示されていない点で、図3に示す第2画面710と相違する。換言すれば、第3状態は、第2状態から所定期間が経過した後の状態である。
表示制御部136は、第1危険検出表示ED1及び第2危険検出表示ED2を所定期間点滅させた後、第1危険検出表示ED1及び第2危険検出表示ED2の表示パネル61への表示を終了する。その結果、図4の第3画面720に示すように、第1危険検出表示ED1、及び、第2危険検出表示ED2が表示されない。
図4を参照して説明したように、表示制御部136は、第1危険検出表示ED1及び第2危険検出表示ED2を所定期間点滅させた後、第1危険検出表示ED1及び第2危険検出表示ED2の表示パネル61への表示を終了する。したがって、第1危険検出表示ED1及び第2危険検出表示ED2の点滅表示によって、ユーザーの注意が第1危険検出表示ED1及び第2危険検出表示ED2に集中し、表示画像PD全体の視認性が低下することを抑制できる。
図5は、第4状態の表示画像PDを表示する第4画面730の一例を示す画面図である。第4画面730は、表示制御部136によって表示パネル61に表示される。
第4画面730には、第1車両マークCM1に換えて、第1車両画像CR1が表示され、第2車両マークCM2に換えて第2車両画像CR2が表示されている点で、第3画面720と相違する。
第4状態では、第1車両C1が、表示パネル6に表示される地図画像PGの示す領域に含まれない位置から、表示パネル6に表示される地図画像PGの示す領域に含まれる位置に移動する。そこで、表示制御部136は、第1車両マークCM1に換えて、第1車両画像CR1を表示する。
第1車両画像CR1は、距離センサ40によって検出される第1車両C1の形状、及びサイズに基づいて、周辺情報画像生成部131によって生成される。周辺情報画像生成部131は、例えば、距離センサ40によって検出される第1車両C1の形状、及びサイズに基づいて、画像記憶部142に記憶された複数の車両の画像から、第1車両画像CR1を読み出すことによって、第1車両画像CR1を生成する。本実施形態では、第1車両C1は、例えば、4輪の乗用車であるため、第1車両画像CR1は、4輪の乗用車を示す画像である。
第4状態では、第2車両C2が、表示パネル6に表示される地図画像PGの示す領域に含まれない位置から、表示パネル6に表示される地図画像PGの示す領域に含まれる位置に移動する。そこで、表示制御部136は、第2車両マークCM2に換えて、第2車両画像CR2を表示する。
第2車両画像CR2は、距離センサ40によって検出される第2車両C2の形状、及びサイズに基づいて、周辺情報画像生成部131によって生成される。周辺情報画像生成部131は、例えば、距離センサ40によって検出される第2車両C2の形状、及びサイズに基づいて、画像記憶部142に記憶された複数の車両の画像から、第2車両画像CR2を読み出すことによって、第2車両画像CR2を生成する。本実施形態では、第2車両C2は、例えば、自動二輪車であるため、第2車両画像CR2は、自動二輪車を示す画像である。
図5を参照して説明したように、第1車両C1が、表示パネル6に表示される地図画像PGの示す領域に含まれない位置から、表示パネル6に表示される地図画像PGの示す領域に含まれる位置に移動した場合に、表示制御部136は、第1車両マークCM1に換えて、第1車両画像CR1を表示する。したがって、ユーザーは、第1車両C1の位置を視認できる。また、第1車両画像CR1によって、第1車両C1が4輪の乗用車であることを視認できる。
図5を参照して説明したように、第2車両C2が、表示パネル6に表示される地図画像PGの示す領域に含まれない位置から、表示パネル6に表示される地図画像PGの示す領域に含まれる位置に移動した場合に、表示制御部136は、第2車両マークCM2に換えて、第2車両画像CR2を表示する。したがって、ユーザーは、第2車両C2の位置を視認できる。また、第2車両画像CR2によって、第2車両C2が自動二輪車であることを視認できる。
図6は、第5状態の表示画像PDを表示する第5画面740の一例を示す画面図である。第5画面740は、表示制御部136によって表示パネル61に表示される。
第5状態を示す第5画面740では、第1車両C1が、交差点R3を通過している点で、第4状態を示す第4画面730と相違する。
第5状態では、第1車両C1が、交差点R3を通過しているため、表示画像生成部135は、第1車両画像CR1を、交差点画像RW3の東方向に配置する。
また、第1車両C1が、交差点R3を通過しているため、危険性検出部134は、第1車両C1が、車両1との接触する危険性がないと検出する。そこで、表示画像生成部135は、衝突危険画像ARC、及び第1方向表示CFRを表示しない。
図6を参照して説明したように、第1車両C1が交差点R3を通過している場合に、衝突危険画像ARC、及び第1方向表示CFRを表示しない。したがって、ユーザーは、第1車両C1と接触する危険性がないことを視認できる。
図7は、第6状態の表示画像PDを表示する第6画面750の一例を示す画面図である。第6画面750は、表示制御部136によって表示パネル61に表示される。
第6状態を示す第6画面750では、第2車両C2の一部が、境界線CFの内部に位置する点で、第5状態を示す第5画面740と相違する。
第6状態では、第2車両C2の一部が、境界線CFの内部に位置するため、表示画像生成部135は、第2方向表示CFYを表示しない。また、危険性検出部134は、第2車両C2が、車両1との接触する危険性が高いと検出する。そこで、表示制御部136は、境界線CFを強調表示する。表示制御部136は、例えば、境界線CFを赤色で表示する。赤色で表示された境界線CFを、第3境界線CF3と記載する場合がある。
図7を参照して説明したように、第2車両C2の一部が、境界線CFの内部に位置する場合に、境界線CFを赤色で表示する。したがって、ユーザーは、第2車両C2と接触する危険性が高いことを視認できる。
図8は、第7状態の表示画像PDを表示する第7画面800の一例を示す画面図である。
第7画面800は、表示制御部136によって表示パネル61に表示される。
図3に示す第2状態~図7に示す第6状態においては、距離センサ40が、第1車両C1及び第1車両C1の少なくとも一方を検出する場合について説明するが、図8に示す第7状態~図10に示す第9状態では、距離センサ40が、車両Cを検出せず、歩行者を検出する場合について説明する。
図8に示すように、周辺情報画像生成部131は、周辺情報画像PSとして、第1歩行者マークP1、第2歩行者マークP2、第3歩行者マークP3、及び、第4歩行者マークP4を生成する。第1歩行者マークP1~第4歩行者マークP4の各々は、円形状のマークである。
第1歩行者マークP1は、第1道路画像RW1において、交差点画像RW3の西方向に位置している。第1歩行者マークP1は、第1道路画像RW1に位置しているため、例えば、ユーザーが注意する必要性が高いことを示す赤色で表示される。
第2歩行者マークP2は、第1領域AR1内の歩道画像SWに位置しているため、例えば、ユーザーが注意する必要性が中程度であることを示す黄色で表示される。
第3歩行者マークP3、及び第4歩行者マークP4は、歩道画像SWに位置しているため、例えば、ユーザーが注意する必要性が低いことを示す灰色で表示される。
危険性検出部134は、第1歩行者マークP1~第4歩行者マークP4の各々に対応する歩行者が車両1と接触する危険性は低いと検出する。そこで、表示制御部136は、境界線CFを、例えば、危険性が低いことを示す緑色で表示する。図8では、境界線CFが緑色であることを、便宜上、破線で示している。
図9は、第8状態の表示画像PDを表示する第8画面810の一例を示す画面図である。
第8画面810は、表示制御部136によって表示パネル61に表示される。
図8に示す第7状態では、第1歩行者マークP1が第2領域AR2に位置しているのに対して、図9に示す第8状態では、第1歩行者マークP1が第1領域AR1に位置している点で相違する。
第1歩行者マークP1が第1領域AR1に位置しているため、危険性検出部134は、第1歩行者マークP1に対応する歩行者が車両1と接触する危険性が高いと検出する。そこで、表示制御部136は、境界線CFを、例えば、危険性が高いことを示す赤色で表示する。図9では、境界線CFが赤色であることを、便宜上、実線で示している。
図10は、第9状態の表示画像PDを表示する第9画面820の一例を示す画面図である。
第9画面820は、表示制御部136によって表示パネル61に表示される。
図9に示す第8状態では、第1歩行者マークP1が第1道路画像RW1に位置するのに対して、図10に示す第9状態では、第1歩行者マークP1が歩道画像SWに位置している点で相違する。
第1歩行者マークP1が第1領域AR1内の歩道画像SWに位置しているため、例えばユーザーが注意する必要性が中程度であることを示す黄色で表示される。
第1歩行者マークP1が第1領域AR1内の歩道画像SWに位置しているため、危険性検出部134は、第1歩行者マークP1に対応する歩行者が車両1と接触する危険性は低いと検出する。そこで、表示制御部136は、境界線CFを、例えば、危険性が低いことを示す緑色で表示する。図10では、境界線CFが緑色であることを、便宜上、破線で示している。
図8~図10を参照して説明したように、距離センサ40が検出した歩行者の位置に応じて、危険性検出部134は、歩行者が車両1との接触の危険性を検出する。そして、表示制御部136は、危険性検出部134が検出した危険性に応じた色で、境界線CFを表示する。したがって、ユーザーは、境界線CFの色によって、歩行者が車両1と接触する危険性の程度を視認できる。
次に、図11、図12、及び図13を参照して、車両周辺情報表示装置100の車両周辺情報表示処理の一例について説明する。
図11は、車両周辺情報表示装置100の処理の一例を示すフローチャートである。
まず、図11に示すように、ステップS101において、地図画像取得部132は、位置検出ユニット10から車両1の位置を示す位置情報を取得する。
次に、ステップS103において、地図画像取得部132は、ステップS101で取得した位置情報に対応する地図画像PGを、地図記憶部141から読み出すことによって、車両1の周辺の地図画像PGを取得する。
次に、ステップS105において、周辺情報画像生成部131は、距離センサ40から点群データを取得する。
次に、ステップS107において、周辺情報画像生成部131は、ステップS105で取得した点群データに基づき、車両1の周辺情報を示す周辺情報画像PSを生成する。
次に、ステップS109において、俯瞰画像取得部133は、フロントカメラ31、リアカメラ33、左サイドカメラ35、及び右サイドカメラ37の各々が撮影した撮影画像を取得する。
次に、ステップS111において、俯瞰画像取得部133は、ステップS109で取得した撮影画像を合成することによって、車両1の周囲の俯瞰画像PBを生成し、車両1の周囲の俯瞰画像PBを取得する。
次に、ステップS113において、表示画像生成部135は、地図画像PG、車両1の位置を示す車両マークPM、車両マークPMの周囲に配置される俯瞰画像PB、及び俯瞰画像PBの周囲に配置される周辺情報画像PSを合成して、表示パネル61に表示する表示画像PDを生成する。
次に、ステップS115において、表示制御部136は、ステップS113で表示画像生成部135が生成した表示画像PDを、表示パネル61に表示する。
次に、ステップS117において、表示画像生成部135及び表示制御部136は、「危険表示処理」を実行する。「危険表示処理」は、危険性検出部134の検出結果を示す画像を生成し、表示パネル61に表示する処理である。
なお、危険性検出部134の検出結果を示す画像は、境界線CF、方向表示CFE、危険検出表示ED、及び衝突危険画像ARCを含む。方向表示CFEは、第1方向表示CFRと、第2方向表示CFYとを含む。危険検出表示EDは、第1危険検出表示ED1と、第2危険検出表示ED2とを含む。
「危険表示処理」については、図12及び図13を参照して更に説明する。
次に、ステップS119において、車両周辺情報表示装置100は、操作部50に対するユーザーの操作を受け付けて、車両周辺情報表示処理を終了するか否かを判定する。
車両周辺情報表示処理を終了しないと車両周辺情報表示装置100が判定した場合(ステップS119;NO)には、処理がステップS101に戻る。車両周辺情報表示処理を終了すると車両周辺情報表示装置100が判定した場合(ステップS119;YES)には、その後、処理が終了する。
ステップS105及びステップS107は、「周辺情報画像生成ステップ」の一例に対応する。ステップS101及ステップS103は、「地図画像取得ステップ」の一例に対応する。ステップS109及びステップS111は、「俯瞰画像取得ステップ」の一例に対応する。ステップS113は、「表示画像生成ステップ」の一例に対応する。
図11を参照して説明したように、表示画像生成部135は、地図画像PG、車両1の位置を示す車両マークPM、車両マークPMの周囲に配置される俯瞰画像PB、及び俯瞰画像PBの周囲に配置される周辺情報画像PSを合成して、表示パネル61に表示する表示画像PDを生成する。そして、表示制御部136は、表示画像生成部135が生成した表示画像PDを、表示パネル61に表示する。したがって、表示画像PDとして俯瞰画像PBよりも広範囲の周辺情報を表示できる。
次に、図12及び図13を参照して、車両周辺情報表示装置100が実行する危険表示処理について説明する。
図12及び図13の各々は、車両周辺情報表示装置100の危険表示処理の一例を示すフローチャートである。
まず、図12に示すように、ステップS201において、危険性検出部134は、距離センサ40から点群データに基づき、移動体MSを検出したか否かを判定する。
移動体MSを検出していないと危険性検出部134が判定した場合(ステップS201;NO)には、処理がステップS203へ進む。
そして、ステップS203において、危険性検出部134は、移動体MSが車両1と接触する危険性は低いと検出する。表示画像生成部135は、境界線CFを、車両1が移動体MSと接触する危険性は低いことを示す色、例えば緑色で表示する。表示制御部136は、生成された緑色の第1境界線CF1を表示パネル61に表示する。その後、処理が図11のステップS119へリターンされる。
移動体MSを検出したと危険性検出部134が判定した場合(ステップS201;YES)には、処理がステップS205へ進む。
そして、ステップS205において、周辺情報画像生成部131は、距離センサ40から点群データに基づき、移動体MSが歩行者であるか否かを判定する。
移動体MSが歩行者ではないと周辺情報画像生成部131が判定した場合(ステップS205;NO)には、処理がステップS207へ進む。
そして、ステップS207において、表示画像生成部135は、境界線CFを、例えば灰色で表示する。表示制御部136は、生成された灰色の第2境界線CF2を表示パネル61に表示する。また、危険性検出部134は、移動体MSが車両Cであると検出する。その後、処理が図13に示すステップS219へ進む。
移動体MSが歩行者であると周辺情報画像生成部131が判定した場合(ステップS205;YES)には、処理がステップS209へ進む。
そして、ステップS209において、危険性検出部134は、歩行者が車道上にいるか否かを判定する。
歩行者が車道上にはいないと危険性検出部134が判定した場合(ステップS209;NO)には、処理がステップS211へ進む。
そして、ステップS211において、危険性検出部134は、歩行者が歩道上にいると判定し、歩行者が車両1と接触する危険性は低いと検出する。表示画像生成部135は、境界線CFを、車両1が歩行者と接触する危険性が低いことを示す色、例えば緑色で表示する。表示制御部136は、生成された緑色の第1境界線CF1を表示パネル61に表示する。その後、処理が図11のステップS119へリターンされる。
歩行者が車道上にいると危険性検出部134が判定した場合(ステップS209;YES)には、処理がステップS213に進む。
そして、ステップS213において、危険性検出部134は、歩行者が第1領域AR1にいるか否かを判定する。
歩行者が第1領域AR1にはいないと危険性検出部134が判定した場合(ステップS213;NO)には、処理がステップS215へ進む。
そして、ステップS215において、危険性検出部134は、歩行者が車両1と接触する危険性は低いと検出する。表示画像生成部135は、境界線CFを、車両1が歩行者と接触する危険性が低いことを示す色、例えば緑色で表示する。表示制御部136は、生成された緑色の第1境界線CF1を表示パネル61に表示する。その後、処理が図11のステップS119へリターンされる。
歩行者が第1領域AR1にいると危険性検出部134が判定した場合(ステップS213;YES)には、処理がステップS217へ進む。
そして、ステップS217において、危険性検出部134は、歩行者が車両1と接触する危険性が高いと検出する。表示画像生成部135は、境界線CFを、車両1が歩行者と接触する危険性が高いことを示す色、例えば赤色で表示する。表示制御部136は、生成された赤色の第3境界線CF3を表示パネル61に表示する。その後、処理が図11のステップS119へリターンされる。
ステップS205でNOの場合には、ステップS207において、移動体MSが車両Cであると検出し、図13に示すように、ステップS219において、危険性検出部134は、車両Cの走行速度が第1速度(例えば、70km/時)以上の高速であるか否かを判定する。
車両Cの走行速度が高速であると危険性検出部134が判定した場合(ステップS219;YES)には、処理がステップS231へ進む。車両Cの走行速度が高速ではないと危険性検出部134が判定した場合(ステップS219;NO)には、処理がステップS221へ進む。
そして、ステップS221において、危険性検出部134は、車両Cの走行速度が第2速度(例えば、30km/時)以上の中速であるか否かを判定する。
車両Cの走行速度が中速ではないと危険性検出部134が判定した場合(ステップS221;NO)には、その後、処理が図11のステップS119へ戻る。車両Cの走行速度が中速であると危険性検出部134が判定した場合(ステップS221;YES)には、処理がステップS223へ進む。
そして、ステップS223において、表示制御部136は、中速の車両Cに対応する危険検出表示EDの点滅が終了したか否かを判定する。ここでは、危険検出表示EDは、図3に示す第2危険検出表示ED2を示す。
危険検出表示EDの点滅が終了したと表示制御部136が判定した場合(ステップS223;YES)には、処理がステップS225へ進む。
そして、ステップS225において、危険性検出部134が、車両1との接触の危険性のある方向を検出する。表示画像生成部135は、方向表示CFEを黄色の円弧状の画像として生成し、円周状の境界線CFに配置する。表示制御部136は、方向表示CFEを表示パネル61に表示する。方向表示CFEは、図3に示す第2方向表示CFYに対応する。その後、処理が図11のステップS119へリターンされる。
なお、ステップS219において、危険性検出部134は、車両Cの走行速度が高速であるか否かを判定するが、これに限定されない。危険性検出部134は、車両Cの走行速度による判定に加えて、又はそれに換えて、車両1の走行速度に対する車両Cの走行速度の違いが規定値以上であるか否かによって危険性を判定してもよい。
例えば、危険性検出部134は、車両1の走行速度と車両Cの走行速度との速度比が1:2以上であるか否かによって危険性を判定してもよい。また、例えば、車両1の走行速度と車両Cの走行速度との差が60km/時以上であるか否かによって危険性を判定してもよい。
このようにすれば、例えば、高速道路等で、車両1と車両Cとが同じ方向に走行中である場合に、両者の走行速度が略同一の走行速度で高速である場合を危険性判定から除外できる。また、車両1と車両Cとが同じ方向に走行中である場合に、両者が急接近する危険性を検出することができる。
危険検出表示EDの点滅が終了していないと表示制御部136が判定した場合(ステップS223;NO)には、処理がステップS227へ進む。
そして、ステップS227において、危険性検出部134が、車両1との接触の危険性が中程度であると検出する。表示制御部136は、危険検出表示EDの色を、例えば黄色に決定する。表示制御部136は、車両1を基準として、車両1との接触の危険性のある方向の表示パネル61の端部に、危険検出表示EDを点滅表示する。危険検出表示EDは、図3に示す第2危険検出表示ED2に対応する。
次に、ステップS229において、危険性検出部134が、車両1との接触の危険性のある方向を検出する。表示画像生成部135は、方向表示CFEを黄色の円弧状の画像として生成し、円周状の境界線CFに配置する。表示制御部136は、方向表示CFEを表示パネル61に表示する。方向表示CFEは、図3に示す第2方向表示CFYに対応する。その後、処理がステップS243へ進む。
ステップS219でYESの場合には、ステップS231において、表示制御部136は、危険検出表示EDの点滅が終了したか否かを判定する。ここでは、危険検出表示EDは、図3に示す第1危険検出表示ED1を示す。
危険検出表示EDの点滅が終了したと表示制御部136が判定した場合(ステップS231;YES)には、処理がステップS233へ進む。
そして、ステップS233において、画像生成部135は、衝突危険画像ARCを生成し、表示制御部136は、衝突危険画像ARCを表示する。衝突危険画像ARCは、車両Cの進行方向と、衝突の危険性のある範囲を示す画像である。衝突危険画像ARCは、図3に示す衝突危険画像ARCである。
次に、ステップS235において、危険性検出部134が、車両1との接触の危険性のある方向を検出する。表示画像生成部135は、方向表示CFEを赤色の円弧状の画像として生成し、円周状の境界線CFに配置する。表示制御部136は、方向表示CFEを表示パネル61に表示する。方向表示CFEは、図3に示す第1方向表示CFRに対応する。その後、処理が図11のステップS119へリターンされる。
ステップS231でNOの場合には、ステップS237において、危険性検出部134が、車両1との接触の危険性が高いと検出する。表示制御部136は、危険検出表示EDの色を、例えば赤色に決定する。表示制御部136は、車両1を基準として、車両1との接触の危険性のある方向の表示パネル61の端部に、危険検出表示EDを点滅表示する。危険検出表示EDは、図3に示す第1危険検出表示ED1に対応する。
次に、ステップS239において、画像生成部135は、衝突危険画像ARCを生成し、表示制御部136は、衝突危険画像ARCを表示する。
次に、ステップS241において、危険性検出部134が、車両1との接触の危険性のある方向を検出する。表示画像生成部135は、方向表示CFEを赤色の円弧状の画像として生成し、円周状の境界線CFに配置する。表示制御部136は、方向表示CFEを表示パネル61に表示する。方向表示CFEは、図3に示す第1方向表示CFRに対応する。
次に、ステップS243において、表示制御部136は、ステップS227、又はステップS237において危険検出表示EDの点滅表示を開始してから、所定期間(例えば、3秒間)が経過したか否かを判定する。
所定期間が経過していないと表示制御部136が判定した場合(ステップS243;NO)には、処理が待機状態になる。所定期間が経過したと表示制御部136が判定した場合(ステップS243;YES)には、処理がステップS245へ進む。
そして、ステップS245において、表示制御部136は、危険検出表示EDの点滅表示を終了する。その後、処理が図11のステップS119へリターンされる。
図12及び図13を参照して説明したように、移動体MSが車両Cであり、車両Cの走行速度が高速であり、車両1との接触の危険性が高いと検出した場合に、第1危険検出表示ED1と、衝突危険画像ARCと、第1方向表示CFRとが表示される。
第1危険検出表示ED1が表示されるため、ユーザーは、車両1との接触の危険性が高い車両Cが、第1危険検出表示ED1は表示される方向で検出されたことを視認できる。
また、衝突危険画像ARCが表示されるため、ユーザーは、高速で走行する車両Cと衝突の危険性のある範囲を視認できる。
第1方向表示CFRが表示されるため、ユーザーは、高速で走行する車両Cと接触する可能性の高い方向を視認できる。
以上説明したように、本実施形態の車両周辺情報表示装置100は、距離センサ40から取得した車両1からの距離を示す点群データに基づき、車両1の周辺情報を示す周辺情報画像PSを生成する周辺情報画像生成部131と、車両1の周辺の地図画像PGを取得する地図画像取得部132と、車両1の周囲の俯瞰画像PBを取得する俯瞰画像取得部133と、地図画像PG、車両1の位置を示す車両マークPM、車両マークPMの周囲に配置される俯瞰画像PB、及び俯瞰画像PBの周囲に配置される周辺情報画像PSを合成して、表示パネル61に表示する表示画像PDを生成する表示画像生成部135と、を備える。
したがって、地図画像PG、車両マークPM、俯瞰画像PB、及び周辺情報画像PSが合成された表示画像PDが表示パネル61に表示されるため、俯瞰画像PBよりも広範囲の周辺情報を表示できる。
また、俯瞰画像PBが表示される第1領域AR1は、車両マークPMを中心とする円形の領域である。
よって、矩形画像として生成される俯瞰画像PBのうち、歪みの大きい端部領域を含まないため、地図画像PGと滑らかに接続できる。したがって、視認性の良好な表示画像PDを表示できる。
また、点群データにより車両1との接触の危険性のある移動体MSを検出する危険性検出部134を備え、表示画像生成部135は、車両1を基準として、車両1が移動体MS(例えば、車両C)と接触する危険性のある方向について、円形の第1領域AR1と周辺情報画像PSが表示される第2領域AR2との円周状の境界線CFを強調表示する。
したがって、車両1を基準として強調表示された境界線CFの方向によって、ユーザーは、車両1が移動体MSと接触する危険性のある方向を容易に視認できる。
また、強調表示は、車両1を基準として、車両1が移動体MS(例えば、車両C)と接触する危険性のある方向について、境界線CFの色を、境界線CFの他の部分とは異なる色で表示することを含む。
したがって、車両1を基準として、境界線CFの他の部分とは異なる色で表示された境界線CFの方向によって、ユーザーは、車両1が移動体MSと接触する危険性のある方向を容易に視認できる。例えば、図3を参照して説明したように、車両1が移動体MSと接触する危険性のある方向の境界線CFの色を赤色で表示し、境界線CFの他の部分を灰色に表示すればよい。図3に示す第1方向表示CFRは、車両1が移動体MSと接触する危険性のある方向を示す。
また、強調表示は、車両1を基準として危険性のある方向について境界線CFを点滅表示してもよい。
この場合には、境界線CFを点滅表示することによって、ユーザーは、車両1が移動体MSと接触する危険性のある方向を容易に視認できる。
また、サーバ装置と通信可能に接続され、地図画像取得部132は、サーバ装置から地図画像PGを取得してもよい。
この場合には、地図画像取得部132がサーバ装置から地図画像PGを取得するため、地図画像取得部132の処理を簡素化できる。
また、距離センサ40は、LiDAR(Light Detection And Ranging)を含む。
したがって、周辺情報を示す周辺情報画像PSは、LiDARから取得した車両1からの距離を示す点群データに基づき生成されるため、周辺情報画像PSとして適正な周辺情報を示す画像を生成できる。
また、本実施形態の車両周辺情報表示方法は、距離センサ40から取得した車両1からの距離を示す点群データに基づき、車両1の周辺情報を示す周辺情報画像PSを生成する周辺情報画像生成ステップと、車両1の周辺の地図画像PGを取得する地図画像取得ステップと、車両1の周囲の俯瞰画像PBを取得する俯瞰画像取得ステップと、地図画像PG、車両1の位置を示す車両マークPM、車両マークPMの周囲に配置される俯瞰画像PB、及び俯瞰画像PBの周囲に配置される周辺情報画像PSを合成して、表示パネル61に表示する表示画像PDを生成する表示画像生成ステップ、を含む。
したがって、地図画像PG、車両マークPM、俯瞰画像PB、及び周辺情報画像PSが合成された表示画像PDが表示パネル61に表示されるため、俯瞰画像PBよりも広範囲の周辺情報を表示できる。
上述した本実施形態は、あくまでも本発明の一実施形態を例示したものであって、本発明の主旨を逸脱しない範囲で任意に変形、及び応用が可能である。
例えば、図1は、本発明の理解を容易にするために、構成要素を主な処理内容に応じて分類して示した図であり、構成要素は、処理内容に応じて、更に多くの構成要素に分類することもできる。また、1つの構成要素が更に多くの処理を実行するように分類することもできる。
また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、各構成要素の処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。
また、図1において、車両周辺情報表示装置100が、検出部20及び表示部50の少なくとも一方を一体に備えてもよい。
また、本実施形態では、車両周辺情報表示装置100が、周辺情報画像生成部131、地図画像取得部132、俯瞰画像取得部133、危険性検出部134、表示画像生成部135、及び表示制御部136を備えるが、これに限定されない。車両周辺情報表示装置100とインターネット等のネットワークを介して通信可能に接続されたサーバ装置が、周辺情報画像生成部131、地図画像取得部132、俯瞰画像取得部133、危険性検出部134、表示画像生成部135、及び表示制御部136の少なくとも1つを備えてもよい。サーバ装置が、例えば、地図画像取得部132、及び俯瞰画像取得部133を備えてもよい。この場合には、俯瞰画像取得部133は、人工衛星が撮像した俯瞰画像PBを取得してもよい。
また、本実施形態では、移動体MSが車両Cである場合、及び移動体MSが歩行者である場合について説明するが、これに限定されない。移動体MSが、例えば、自転車であってもよい。
また、本実施形態では、俯瞰画像PBを円形の領域である第1領域AR1に表示する場合について説明するが、これに限定されない。俯瞰画像PBを、矩形領域に表示してもよい。
また、本実施形態では、危険検出表示EDとして、表示パネル61の端部を所定期間点滅させる場合について説明するが、これに限定されない。危険検出表示EDとして、方向表示CFEを所定期間点滅させてもよい。この場合には、危険検出表示EDを表示する必要がないため、処理を簡素化できる。
また、本発明の車両周辺情報表示方法を、コンピュータを用いて実現する場合には、このコンピュータに実行させる制御プログラムを記録媒体、又はこの制御プログラムを伝送する伝送媒体の態様で構成することも可能である。
記録媒体には、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。具体的には、フレキシブルディスク、HDD、CD-ROM(Compact Disk Read Only Memory)、DVD、Blu-ray(登録商標) Disc、光磁気ディスク、フラッシュメモリ、カード型記録媒体等の可搬型、或いは固定式の記録媒体が挙げられる。また、上記記録媒体は、車両周辺情報表示装置100が備えるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。
また、制御プログラムを、車両周辺情報表示装置100とネットワークを介して通信可能に接続されたサーバ装置から車両周辺情報表示装置100がダウンロードしてもよい。
また、例えば、図11、図12及び図13に示すフローチャートの処理単位は、車両周辺情報表示装置100の処理の理解を容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって、本発明が限定されることはない。車両周辺情報表示装置100の処理は、処理内容に応じて、更に多くの処理単位に分割してもよい。また、車両周辺情報表示装置100の処理は、1つの処理単位が更に多くの処理を含むように分割してもよい。
100 車両周辺情報表示装置
1 車両
10 位置検出ユニット
20 検出部
30 撮影部
40 距離センサ(センサ)
50 操作部
60 表示部
61 表示パネル(ディスプレイ)
130 プロセッサ
131 周辺情報画像生成部
132 地図画像取得部
133 俯瞰画像取得部
134 危険性検出部
135 画像生成部
136 表示制御部
140 メモリ
141 地図記憶部
142 画像記憶部
AR1 第1領域
AR2 第2領域
ARC 衝突危険画像
C 車両
C1 第1車両
C2 第2車両
CF 境界線
CFE 方向表示
CFR 第1方向表示
CFY 第2方向表示
ED 危険検出表示
ED1 第1危険検出表示
ED2 第2危険検出表示
MS 移動体
PM 車両マーク
PD 表示画像
PB 俯瞰画像
PG 地図画像
PS 周辺情報画像

Claims (8)

  1. センサから取得した車両からの距離を示す点群データに基づき、前記車両の周辺情報を示す周辺情報画像を生成する周辺情報画像生成部と、
    前記車両の周辺の地図画像を取得する地図画像取得部と、
    前記車両の周囲の俯瞰画像を取得する俯瞰画像取得部と、
    前記地図画像、前記車両の位置を示す車両マーク、前記車両マークの周囲に配置される前記俯瞰画像、及び前記俯瞰画像の周囲に配置される前記周辺情報画像を合成して、ディスプレイに表示する表示画像を生成する表示画像生成部と、
    を備える、車両周辺情報表示装置。
  2. 前記俯瞰画像が表示される領域は、前記車両マークを中心とする円形の領域である、
    請求項1に記載の車両周辺情報表示装置。
  3. 前記点群データにより前記車両との接触の危険性のある移動体を検出する危険性検出部を備え、
    前記表示画像生成部は、前記車両を基準として、前記車両が前記移動体と接触する危険性のある方向について、前記円形の領域と前記周辺情報画像が表示される領域との円周状の境界線を強調表示する、
    請求項2に記載の車両周辺情報表示装置。
  4. 前記強調表示は、前記車両を基準として前記危険性のある方向について、前記境界線の色を、前記境界線の他の部分とは異なる色で表示することを含む、
    請求項3に記載の車両周辺情報表示装置。
  5. 前記強調表示は、前記車両を基準として前記危険性のある方向について前記境界線を点滅表示することを含む、
    請求項3又は請求項4に記載の車両周辺情報表示装置。
  6. サーバ装置と通信可能に接続され、
    前記地図画像取得部は、前記サーバ装置から前記地図画像を取得する、
    請求項1から請求項5のいずれか1項に記載の車両周辺情報表示装置。
  7. 前記センサは、LiDAR(Light Detection And Ranging)を含む、
    請求項1から請求項6のいずれか1項に記載の車両周辺情報表示装置。
  8. センサから取得した車両からの距離を示す点群データに基づき、前記車両の周辺情報を示す周辺情報画像を生成する周辺情報画像生成ステップと、
    前記車両の周辺の地図画像を取得する地図画像取得ステップと、
    前記車両の周囲の俯瞰画像を取得する俯瞰画像取得ステップと、
    前記地図画像、前記車両の位置を示す車両マーク、前記車両マークの周囲に配置される前記俯瞰画像、及び前記俯瞰画像の周囲に配置される前記周辺情報画像を合成して、ディスプレイに表示する表示画像を生成する表示画像生成ステップと、
    を含む、車両周辺情報表示方法。
JP2021099180A 2021-06-15 2021-06-15 車両周辺情報表示装置、及び車両周辺情報表示方法 Pending JP2022190766A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021099180A JP2022190766A (ja) 2021-06-15 2021-06-15 車両周辺情報表示装置、及び車両周辺情報表示方法
US17/835,122 US11967007B2 (en) 2021-06-15 2022-06-08 Vehicle surroundings information displaying system and vehicle surroundings information displaying method
DE102022114858.0A DE102022114858A1 (de) 2021-06-15 2022-06-13 Fahrzeugumgebungsinformationsanzeigesystem und Fahrzeugumgebungsinformationsanzeigeverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021099180A JP2022190766A (ja) 2021-06-15 2021-06-15 車両周辺情報表示装置、及び車両周辺情報表示方法

Publications (1)

Publication Number Publication Date
JP2022190766A true JP2022190766A (ja) 2022-12-27

Family

ID=84192768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021099180A Pending JP2022190766A (ja) 2021-06-15 2021-06-15 車両周辺情報表示装置、及び車両周辺情報表示方法

Country Status (3)

Country Link
US (1) US11967007B2 (ja)
JP (1) JP2022190766A (ja)
DE (1) DE102022114858A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230256985A1 (en) * 2022-02-14 2023-08-17 Continental Advanced Lidar Solutions Us, Llc Method and system for avoiding vehicle undercarriage collisions

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230419B2 (en) * 2010-07-27 2016-01-05 Rite-Hite Holding Corporation Methods and apparatus to detect and warn proximate entities of interest
JP5728929B2 (ja) 2010-12-20 2015-06-03 日産自動車株式会社 車両周辺監視装置
US20130162665A1 (en) * 2011-12-21 2013-06-27 James D. Lynch Image view in mapping
US10086699B2 (en) * 2015-06-24 2018-10-02 Nissan North America, Inc. Vehicle operation assistance information management for autonomous vehicle control operation
US10150414B2 (en) * 2016-07-08 2018-12-11 Ford Global Technologies, Llc Pedestrian detection when a vehicle is reversing
WO2019172938A1 (en) * 2018-03-09 2019-09-12 Ford Global Technologies, Llc Turn path visualization to improve spatial and situational awareness in turn maneuvers
US11237269B2 (en) 2018-04-26 2022-02-01 Ford Global Technologies, Llc Localization technique
US11812197B2 (en) * 2018-08-09 2023-11-07 Sony Corporation Information processing device, information processing method, and moving body
US10488215B1 (en) * 2018-10-26 2019-11-26 Phiar Technologies, Inc. Augmented reality interface for navigation assistance
DK180774B1 (en) * 2018-10-29 2022-03-04 Motional Ad Llc Automatic annotation of environmental features in a map during navigation of a vehicle
US11370424B1 (en) * 2019-08-02 2022-06-28 Zoox, Inc. Relevant object detection
US20220415059A1 (en) * 2019-11-15 2022-12-29 Nvidia Corporation Multi-view deep neural network for lidar perception
US11361490B2 (en) * 2020-08-18 2022-06-14 Here Global B.V. Attention guidance for ground control labeling in street view imagery
US20220267992A1 (en) * 2021-02-19 2022-08-25 Trimble Inc. Visual indication system for mobile machines
JP2023001977A (ja) * 2021-06-22 2023-01-10 フォルシアクラリオン・エレクトロニクス株式会社 車両周辺情報表示装置、及び車両周辺情報表示方法

Also Published As

Publication number Publication date
US11967007B2 (en) 2024-04-23
US20220398788A1 (en) 2022-12-15
DE102022114858A1 (de) 2022-12-15

Similar Documents

Publication Publication Date Title
KR101822894B1 (ko) 차량 운전 보조 장치 및 차량
KR101822895B1 (ko) 차량 운전 보조 장치 및 차량
JP4783430B2 (ja) 駆動制御装置、駆動制御方法、駆動制御プログラムおよび記録媒体
US20180312110A1 (en) Display Control Method and Display Control Device
JP2006279752A (ja) 車両直下画像表示制御装置および車両直下画像表示制御プログラム
FR2958741A1 (fr) Procede et systeme d'information pour marquer une destination dans un vehicule
JP2016134129A (ja) 映像表示システム、処理装置、映像表示方法、及び映像表示プログラム
JP2022140530A (ja) 情報記録装置、情報記録方法及び情報記録用プログラム
JP4650687B2 (ja) 周辺監視装置
JP2022190766A (ja) 車両周辺情報表示装置、及び車両周辺情報表示方法
JP6620368B2 (ja) 報知システム、およびプログラム
JP2023001977A (ja) 車両周辺情報表示装置、及び車両周辺情報表示方法
JP2014211323A (ja) 画像処理装置、雨滴検出装置およびプログラム
Grimm Camera-based driver assistance systems
US10864856B2 (en) Mobile body surroundings display method and mobile body surroundings display apparatus
JP2023019828A (ja) 情報処理装置、画像処理装置、及びプログラム等
CN104972980A (zh) 车体转向侧照影像定点追踪辨识方法及其装置
Kutila et al. Towards autonomous vehicles with advanced sensor solutions
JP2019205032A (ja) 車載用故障検出装置、及び故障検出方法
JP2023093846A (ja) 駐車支援装置、及び駐車支援方法
JP3222638U (ja) 安全運転支援装置
JP5722643B2 (ja) 物体検出装置、および、物体検出方法
US20210321062A1 (en) Image processing device in moving object, imaging device, image processing method, and recording medium
JP2023088589A (ja) 車両周囲画像表示装置、及び車両周囲画像表示方法
KR102552489B1 (ko) 차량 카메라를 이용한 여정기록 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240426