JPWO2019175956A1 - 表示制御装置、表示装置、及び表示制御方法 - Google Patents

表示制御装置、表示装置、及び表示制御方法 Download PDF

Info

Publication number
JPWO2019175956A1
JPWO2019175956A1 JP2020505976A JP2020505976A JPWO2019175956A1 JP WO2019175956 A1 JPWO2019175956 A1 JP WO2019175956A1 JP 2020505976 A JP2020505976 A JP 2020505976A JP 2020505976 A JP2020505976 A JP 2020505976A JP WO2019175956 A1 JPWO2019175956 A1 JP WO2019175956A1
Authority
JP
Japan
Prior art keywords
vehicle
information
display
approaching
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020505976A
Other languages
English (en)
Other versions
JP6687306B2 (ja
Inventor
弥生 林
弥生 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6687306B2 publication Critical patent/JP6687306B2/ja
Publication of JPWO2019175956A1 publication Critical patent/JPWO2019175956A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • B60K2360/149
    • B60K2360/166
    • B60K2360/167
    • B60K35/10
    • B60K35/23
    • B60K35/26
    • B60K35/28
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)

Abstract

自車両情報取得部(102)は、車両がこれから行う進路変更の合図とこの進路変更により車両がこれから向かう進行方向とを示す自車両情報を取得する。接近物情報取得部(103)は、車両の周囲の予め定められた範囲において車両に接近する接近物を示す接近物情報を取得する。有効視野決定部(105)は、車両の運転者の有効視野を決定する。対象物特定部(104)は、自車両情報及び接近物情報に基づいて、車両に接近する接近物のうちの車両がこれから向かう進行方向の反対側から接近する接近物を特定し、特定した接近物を対象物とする。表示情報生成部(108)は、自車両情報に基づいて、車両が進路変更する場合に、対象物特定部(104)により特定された対象物の情報を有効視野決定部(105)により決定された運転者の有効視野に表示させるための表示情報を生成する。

Description

この発明は、ヘッドアップディスプレイ(以下、「HUD」と称する。)の表示を制御する表示制御装置及び表示制御方法、並びにHUDを備えた表示装置に関するものである。
車両用のHUDは、運転者の視線の先に映像(「虚像」とも称する。)を表示できるため、運転者の視線移動を減少させることができる。最近では、現実世界に虚像を重畳表示させる拡張現実(Augmented Reality、AR)技術の普及によって、HUDの表示範囲における現実の対象物の位置に虚像を重畳表示させて当該対象物をマーキングすることが可能である。ARを利用したマーキングにより、運転者に対して運転支援に関する情報を提供することができる(例えば、特許文献1及び2参照)。
例えば、特許文献1に係る車両用表示装置は、車両前方の信号機又は標識を検出し、検出した信号機又は標識が運転者の有効視野外にある場合、HUDの表示エリアにおける運転者の有効視野内に、検出した信号機又は標識の存在を強調する虚像を表示する。有効視野とは、人間の視野範囲のうちの視覚刺激を認識できる範囲である。
また、例えば、特許文献2に係る車両用夜間視界支援装置は、赤外線カメラにより撮像された車両前方の画像をメインディスプレイに表示し、メインディスプレイに表示されている画像中に歩行者が存在する場合にHUDに注意喚起表示を行う。この車両用夜間視界支援装置は、メインディスプレイに表示されている画像上に存在しなくなった歩行者が運転者の視野範囲内に存在する場合にも、HUDに注意喚起表示を行う。
特開2017−146737号公報 特開2011−91549号公報
特許文献1に係る車両用表示装置における虚像表示の対象物は、静止している物体のみであり、他車両及び歩行者等の移動している物体ではない。そのため、上記車両用表示装置は、運転者の有効視野外において自車両に接近してくる対象物を、運転者に報知することができない。
特許文献2に係る車両用夜間視界支援装置は、自車両と歩行者との相対位置、及び自車両の走行方向とに基づいて、歩行者が運転者の視野範囲内に存在するか否かを推定する。そのため、自車両が右左折又は車線変更等をする際に自車両がこれから向かう進行方向とは反対の方向から自車両に接近してくる歩行者は、メインディスプレイに表示されている画像上及び運転者の視野範囲内の両方に存在しない可能性が非常に高い。その場合、上記車両用夜間視界支援装置は、運転者の視野範囲外において自車両に接近してくる対象物を、運転者に報知することができない。
特に右左折時又は車線変更時においては、運転者の有効視野がこれから向かう方向へ集中する可能性が高く、運転者は有効視野外において自車両に接近してくる対象物の存在に気付きにくい。このような状況において、従来は、運転者が気付いていない可能性の高い対象物の存在を、運転者に報知することができないという課題があった。
この発明は、上記のような課題を解決するためになされたもので、運転者の有効視野外において自車両に接近してくる対象物を、運転者に報知することを目的とする。
この発明に係る表示制御装置は、車両の運転者へ提供する情報をヘッドアップディスプレイに表示させる表示制御装置であって、車両がこれから行う進路変更の合図と進路変更により車両がこれから向かう進行方向とを示す自車両情報を取得する自車両情報取得部と、車両の周囲の予め定められた範囲において車両に接近する接近物を示す接近物情報を取得する接近物情報取得部と、車両の運転者の有効視野を決定する有効視野決定部と、自車両情報及び接近物情報に基づいて、車両に接近する接近物のうちの車両がこれから向かう進行方向の反対側から接近する接近物を特定し、特定した接近物を対象物とする対象物特定部と、自車両情報に基づいて、車両が進路変更する場合に、対象物特定部により特定された対象物の情報を有効視野決定部により決定された運転者の有効視野に表示させるための表示情報を生成する表示情報生成部とを備えるものである。
この発明によれば、車両が進路変更する場合に、車両がこれから向かう進行方向の反対側から接近する対象物の情報を、運転者の有効視野に表示させるようにしたので、運転者が気付いていない可能性の高い対象物の存在を、運転者に報知することができる。
実施の形態1に係る表示装置の構成例を示すブロック図である。 実施の形態1における内的要因、外的要因、及び有効視野の対応関係が定義された有効視野情報の一例を示す図である。 実施の形態1において、自車両が右へ進路変更する合図を出した後に右折する状況の一例を示す俯瞰図である。 図3に示される状況において自車両の運転者に見える前方風景を示す図である。 実施の形態1に係る表示装置の動作例を示すフローチャートである。 図5のステップST3における有効視野決定部の動作例を示すフローチャートである。 図5のステップST4における対象物特定部の動作例を示すフローチャートである。 図5のステップST5における表示情報生成部の動作例を示すフローチャートである。 図3に示される状況において運転者と有効視野の位置関係の一例を示す図である。 実施の形態1におけるオブジェクトの一例を示す図である。 図3に示される状況において生成される表示情報の一例を示す図である。 図3に示される状況において自車両の運転者に見える前方風景に、対象物の存在を報知する表示が重畳された状態を示す図である。 実施の形態2に係る表示装置の構成例を示すブロック図である。 実施の形態2において、自車両が右へ進路変更する合図を出した後に右側車線に車線変更する状況の一例を示す俯瞰図である。 図14に示される状況において自車両の運転者に見える前方風景を示す図である。 図5のステップST5における実施の形態2の表示情報生成部の動作例を示すフローチャートである。 実施の形態2におけるオブジェクトの一例を示す図である。 図14に示される状況において生成される表示情報の一例を示す図である。 図14に示される状況において自車両の運転者に見える前方風景に、対象物の存在を報知する表示と、現実の対象物に重なる表示とが重畳された状態を示す図である。 実施の形態3に係る表示装置の構成例を示すブロック図である。 実施の形態3において、自車両が左へ進路変更する合図を出した後に左折する状況の一例を示す俯瞰図である。 図21に示される状況において自車両の運転者に見える前方風景を示す図である。 実施の形態3に係る表示装置の動作例を示すフローチャートである。 実施の形態3におけるオブジェクトの一例を示す図である。 図21に示される状況において生成される表示情報の一例を示す図である。 図21に示される状況において自車両の運転者に見える前方風景に、対象物の存在を報知する表示が重畳された状態を示す図である。 各実施の形態に係る表示装置のハードウェア構成の一例を示す図である。 各実施の形態に係る表示装置のハードウェア構成の別の例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る表示装置100の構成例を示すブロック図である。表示装置100は、右左折時及び車線変更時といった運転者の有効視野が車両がこれから向かう進行方向に集中している可能性が非常に高い場合に、認識が疎かになる上記進行方向の反対側から接近する対象物の存在を運転者に気付かせるために、運転者の有効視野に上記対象物の存在を強調する表示を行うものである。
表示装置100は、表示制御装置101及びHUD114を備える。表示制御装置101は、自車両情報取得部102、接近物情報取得部103、対象物特定部104、有効視野決定部105、及び表示情報生成部108を備える。有効視野決定部105は、運転者情報格納部106及び有効視野情報格納部107を備える。表示情報生成部108は、オブジェクト格納部109を備える。また、表示装置100には、自車両情報検出部110、接近物情報検出部111、運転者情報検出部112、及び走行情報検出部113が接続される。
なお、自車両情報検出部110、接近物情報検出部111、運転者情報検出部112、走行情報検出部113、及びHUD114は、車両に搭載されているものとする。一方、表示制御装置101は、車両に搭載されてもよいし、車外にサーバ装置として構築され、無線通信によってサーバ装置と車両側の自車両情報検出部110等との間で情報を授受する構成でもよい。
自車両情報検出部110は、方向指示器、操舵角を検出する操舵角センサ、又は走行予定経路を案内するカーナビゲーション装置等で構成される。つまり、自車両情報検出部110は、自車両がこれから行う進路変更の合図とこの進路変更により車両がこれから向かう進行方向とを示す自車両情報を検出するものであればよい。進路変更の合図は、自車両の右折、左折、右側車線への車線変更、及び左側車線への車線変更の合図を示し、例えば運転者により方向指示器が操作されたタイミングを示す。進行方向は、これから自車両が右に曲がるのか、左に曲がるのか、右側車線へ車線変更するのか、左側車線へ車線変更するのかを示し、例えばカーナビゲーション装置の走行予定経路を示す。
自車両情報取得部102は、自車両情報検出部110から自車両情報を取得する。自車両情報は、上述の通り自車両がこれから行う進路変更の合図とこの進路変更により車両がこれから向かう進行方向とを示す情報であり、方向指示器の点灯状態を示す情報、操舵角センサが検出した操舵角を示す情報、又はカーナビゲーション装置が案内中の走行予定経路を示す情報等である。自車両情報取得部102は、自車両情報に基づいて進路変更の合図の有無を検出し、進路変更の合図があったときにこの進路変更により車両がこれから向かう進行方向を示す情報を対象物特定部104へ出力する。
接近物情報検出部111は、自車両の周囲の予め定められた範囲を撮像する車外カメラ等で構成される。予め定められた範囲は、例えば、自車両前方、直径50mの円状範囲である。接近物情報検出部111は、撮像画像等を接近物検出情報として、接近物情報取得部103へ出力する。
接近物情報取得部103は、接近物情報検出部111から接近物検出情報を取得する。接近物情報取得部103は、接近物検出情報である撮像画像から、上記予め定められた範囲において自車両に接近する接近物を検出する。また、接近物情報取得部103は、検出した接近物の位置と種類とを特定し、接近物の位置と種類とを示す接近物情報を生成して対象物特定部104へ出力する。接近物の種類は、車両、自転車、及び歩行者等である。例えば、接近物情報取得部103は、時系列で撮像された複数の撮像画像から車両、自転車、及び歩行者等の移動方向を推定し、自車両に接近しているか否かを判断する。
対象物特定部104は、自車両情報取得部102から進行方向を示す情報を取得すると共に、接近物情報取得部103から接近物情報を取得する。対象物特定部104は、進行方向を示す情報及び接近物情報に基づいて、自車両に接近する接近物のうちの自車両がこれから向かう進行方向の反対側から接近する接近物を特定し、特定した接近物を対象物とする。対象物特定部104は、対象物の位置と種類とを示す対象物情報を生成し、対象物情報と進行方向を示す情報とを表示情報生成部108へ出力する。
ところで、人間の視野範囲には、視覚刺激を認識できる範囲である有効視野がある。運転者の有効視野は、4度〜20度と言われているが、その範囲は運転者の内的要因及び外的要因に応じて変化する。内的要因とは、運転者の年齢及び運転熟練度等、運転者の運転特性である。外的要因とは、車速、混雑度及び車線数等、車両の走行環境である。
運転者情報検出部112は、車内における運転者の位置と運転者個人を特定するための画像を撮像する車内カメラ等で構成される。運転者情報検出部112は、撮像画像等を運転者情報として、有効視野決定部105へ出力する。
走行情報検出部113は、自車両の車速を検出する加速度センサ等と、自車両の走行場所、混雑度及び車線数を検出する車外カメラ、ミリ波レーダ又は地図情報データベース等とで構成される。走行情報検出部113は、車速等を走行情報として、有効視野決定部105へ出力する。なお、走行情報検出部113の車外カメラは、接近物情報検出部111の車外カメラと兼用されてもよい。
運転者情報格納部106には、運転者の顔画像と運転特性情報との対応関係が定義された運転者情報が、予め登録されている。運転特性情報とは、運転者の有効視野が変化する内的要因である、年齢及び運転熟練度等の情報である。
有効視野情報格納部107には、内的要因、外的要因、及び有効視野の対応関係が定義された有効視野情報が、予め登録されている。図2は、実施の形態1における内的要因、外的要因、及び有効視野の対応関係が定義された有効視野情報の一例を示す図である
有効視野決定部105は、運転者情報検出部112から運転者情報を取得すると共に、走行情報検出部113から走行情報を取得する。有効視野決定部105は、運転者情報である撮像画像から、運転者の頭の位置を決定し、運転者位置情報として表示情報生成部108へ出力する。
また、有効視野決定部105は、運転者情報である撮像画像から運転者の顔を検出し、検出した運転者の顔を運転者情報格納部106に予め登録されている運転者の顔情報と比較することによって運転者個人を特定する。そして、有効視野決定部105は、特定した運転者に対応付けられている運転特性情報を、運転者情報格納部106から取得する。
さらに、有効視野決定部105は、運転者情報格納部106から取得した運転者特性情報、及び走行情報検出部113から取得した走行情報を、それぞれ、有効視野情報格納部107に予め登録されている内的要因及び外的要因と比較することによって、運転者の有効視野を決定する。有効視野決定部105は、決定した有効視野を示す情報を表示情報生成部108へ出力する。
ここで、有効視野決定部105による走行環境の特定方法の一例を示す。有効視野決定部105は、走行環境の1つである道路の混雑度について、例えば、車両周囲が撮像された画像に写る車両、自転車、及び歩行者等の数が予め定められた閾値未満である場合に低混雑道路と特定し、閾値以上である場合に高混雑道路と特定する。図2の例では、運転初心者が高混雑道路を走行している場合、内的要因が運転初心者であり外的要因が高混雑道路であるので、有効視野は4度となる。また、若年層の運転者が単線道路を走行している場合、内的要因が若年層であり外的要因が単線道路であるので、有効視野は18度となる。また、有効視野の初期値は、運転者の有効視野と言われている範囲のうちの最も狭い4度に設定されている。
オブジェクト格納部109には、HUD114に表示させるためのオブジェクトが予め登録されている。オブジェクトは、対象物の位置を示す矢印、対象物の種類を示すテキスト若しくはアイコン、又は対象物を囲むマーカ等である。
表示情報生成部108は、対象物特定部104から対象物情報と進行方向を示す情報とを取得すると共に、有効視野決定部105から運転者位置情報と有効視野を示す情報とを取得する。表示情報生成部108は、対象物情報と進行方向を示す情報とに基づいて、オブジェクト格納部109に予め登録されているオブジェクトの中から、HUD114に表示させるオブジェクトの種類及び表示個数等を特定する。また、表示情報生成部108は、運転者位置情報と有効視野を示す情報とに基づいて、HUD114の表示範囲におけるオブジェクトの表示位置を決定する。HUD114の表示範囲を示す情報は、表示情報生成部108に予め与えられているものとする。そして、表示情報生成部108は、オブジェクトを表示位置に配置した表示情報を生成し、HUD114へ出力する。表示情報の生成方法については後述する。
HUD114は、表示情報生成部108から表示情報を取得し、車両のフロントウインドウ又はコンバイナに表示情報を投影する。
次に、表示装置100の動作例を説明する。
ここでは、自車両が交差点を右折する場合を例に用いて、表示装置100の動作を説明する。図3は、実施の形態1において、自車両200が右へ進路変更する合図を出した後に右折する状況の一例を示す俯瞰図である。図3の例では、自車両200がこれから右折する道路の左側に他車両201が存在、右側に他車両202,203が存在し、自車両200が直進してきた道路の対向車線に他車両204が存在する。
図4は、図3に示される状況において自車両200の運転者210に見える前方風景を示す図である。図4の例では、自車両200のフロントウインドウのうちの運転者210側が、HUD114の表示範囲であるHUD表示範囲211になっている。運転者210は、フロントウインドウ越しに、他車両201,202が見える。
図5は、実施の形態1に係る表示装置100の動作例を示すフローチャートである。表示装置100は、図5のフローチャートに示される動作を繰り返す。
ステップST1において、自車両情報取得部102は、自車両200がこれから右折することを示す合図を含む自車両情報を自車両情報検出部110から取得する。自車両情報取得部102は、自車両情報に基づき自車両200がこれから右折すると判断した場合、自車両200がこれから右折することを示す進行方向の情報を対象物特定部104へ出力する。
ステップST2において、接近物情報取得部103は、接近物検出情報を接近物情報検出部111から取得し、接近物検出情報に基づいて、予め定められた接近物検出範囲205において自車両200に接近する他車両201,202,204を検出する。そして、接近物情報取得部103は、接近物検出範囲205において自車両200に接近する接近物が自車両200の左側の他車両201及び右側の他車両202,204であることを示す接近物情報を対象物特定部104へ出力する。
ステップST3において、有効視野決定部105は、運転者情報を運転者情報検出部112から取得すると共に、走行情報を走行情報検出部113から取得する。有効視野決定部105は、運転者情報及び走行情報に基づいて、運転者210の位置及び有効視野を決定し、運転者位置情報と有効視野を示す情報とを表示情報生成部108へ出力する。
図6は、図5のステップST3における有効視野決定部105の動作例を示すフローチャートである。
ステップST301において、有効視野決定部105は、運転者情報を運転者情報検出部112から取得する。ステップST302において、有効視野決定部105は、走行情報を走行情報検出部113から取得する。
ステップST303において、有効視野決定部105は、ステップST301で取得した運転者情報に基づいて、運転者210の頭の位置を決定する。ステップST304において、有効視野決定部105は、ステップST301で取得した運転者情報と運転者情報格納部106に登録されている顔画像とに基づいて運転者210を特定する。
ステップST305において、有効視野決定部105は、ステップST302で取得した走行情報に基づいて、自車両200の走行環境を特定する。図3の例では、自車両200の走行環境として、低混雑道路であることが特定されることとする。
ステップST306において、有効視野決定部105は、ステップST304で特定した運転者210に対応付けられている運転特性情報が運転者情報格納部106に存在するか否かを確認する。有効視野決定部105は、運転者情報格納部106に運転特性情報が存在する場合(ステップST306“YES”)、ステップST307へ進む。一方、有効視野決定部105は、ステップST304で運転者情報格納部106内に運転者210に該当する顔画像が存在せず個人を特定できなかった場合、又は顔画像は存在したが当該顔画像に運転特性情報が対応付けられていない場合(ステップST306“NO”)、ステップST310へ進む。ステップST307において、有効視野決定部105は、運転者210に対応付けられている運転特性情報を、運転者情報格納部106から取得する。この例における運転者210の運転特性情報は、運転初心者であることを示す情報とする。
ステップST308において、有効視野決定部105は、ステップST305で特定した走行環境及びステップST306で取得した運転特性情報に該当する内的要因及び外的要因をもつ有効視野情報が有効視野情報格納部107に存在するか否かを確認する。有効視野決定部105は、有効視野情報格納部107に有効視野情報が存在する場合(ステップST308“YES”)、ステップST309へ進み、存在しない場合(ステップST308“NO”)、ステップST310へ進む。
ステップST309において、有効視野決定部105は、走行環境及び運転特性情報に該当する内的要因及び外的要因をもつ有効視野情報に含まれる有効視野を、運転者210の有効視野と決定する。一方、ステップST310において、有効視野決定部105は、有効視野情報格納部107に初期値として登録されている有効視野を、運転者210の有効視野と決定する。この例では、走行環境、つまり外的要因が低混雑道路であり、運転特性、つまり内的要因が運転初心者であるため、運転者210の有効視野は10度である。
ステップST311において、有効視野決定部105は、ステップST303で決定した運転者210の頭の位置を、運転者位置情報として表示情報生成部108へ出力する。ステップST312において、有効視野決定部105は、ステップST309又はステップST310で決定した運転者210の有効視野を示す情報を、表示情報生成部108へ出力する。
ステップST4において、対象物特定部104は、自車両200の進行方向を示す情報を自車両情報取得部102から取得すると共に、他車両201,202,204の接近物情報を接近物情報取得部103から取得する。対象物特定部104は、これらの情報に基づいて、対象物を特定し、対象物情報と進行方向を示す情報とを表示情報生成部108へ出力する。
図7は、図5のステップST4における対象物特定部104の動作例を示すフローチャートである。
ステップST401において、対象物特定部104は、自車両200がこれから右折することを示す進行方向の情報を自車両情報取得部102から取得したか否かを確認する。対象物特定部104は、進行方向の情報を取得した場合(ステップST401“YES”)、ステップST402へ進み、取得していない場合(ステップST401“NO”)、ステップST401を繰り返す。
ステップST402において、対象物特定部104は、他車両201,202,204の接近物情報を接近物情報取得部103から取得する。
ステップST403において、対象物特定部104は、ステップST401で取得した進行方向の情報とステップST402で取得した接近物情報とに基づいて、自車両200の進行方向の反対側に接近物が存在するか否かを確認する。対象物特定部104は、進行方向の反対側に接近物が存在する場合(ステップST403“YES”)、ステップST404へ進み、存在しない場合(ステップST403“NO”)、ステップST405へ進む。ステップST404において、対象物特定部104は、進行方向の反対側に存在する接近物を、対象物と特定する。一方、ステップST405において、対象物特定部104は、進行方向の反対側に接近物が存在しないので対象物が存在しないと判断する。図2の例では、交差点に進入しようとしている自車両200の位置を基準として、この自車両200がこれから向かおうとする進行方向側とは反対側205aに、接近物である他車両201が存在する。そのため、他車両201が対象物と特定される。一方、接近物である他車両202及び他車両204は、自車両200の位置を基準として、この自車両200がこれから向かおうとする進行方向側に存在するので、対象物ではない。
ステップST406において、対象物特定部104は、ステップST404で特定した対象物である他車両201を示す対象物情報を、表示情報生成部108へ出力する。ステップST407において、対象物特定部104は、ステップST401で取得した進行方向を示す情報を表示情報生成部108へ出力する。
ステップST5において、表示情報生成部108は、自車両200の進行方向を示す情報と対象物情報とを対象物特定部104から取得すると共に、運転者210の運転者位置情報と有効視野を示す情報とを有効視野決定部105から取得する。表示情報生成部108は、これらの情報に基づいて表示情報を生成し、HUD114へ出力する。
図8は、図5のステップST5における表示情報生成部108の動作例を示すフローチャートである。
ステップST501において、表示情報生成部108は、対象物情報を対象物特定部104から取得したか否かを確認する。表示情報生成部108は、対象物情報を取得した場合(ステップST501“YES”)、ステップST502へ進み、取得していない場合(ステップST501“NO”)、ステップST501を繰り返す。
ステップST502において、表示情報生成部108は、自車両200がこれから右折することを示す進行方向の情報を自車両情報取得部102から取得する。ステップST503において、表示情報生成部108は、運転者210の頭の位置を示す運転者位置情報を、有効視野決定部105から取得する。ステップST504において、表示情報生成部108は、運転者210の有効視野を示す情報を、有効視野決定部105から取得する。
ステップST505において、表示情報生成部108は、ステップST502で取得した進行方向を示す情報とステップST503で取得した運転者位置情報とステップST504で取得した有効視野を示す情報とに基づいて、自車両200における運転者210の有効視野を特定する。ここで、図9に、図3に示される状況における運転者210と有効視野212の位置関係の一例を示す。表示情報生成部108は、自車両200の進行方向が右方向であり、運転者210の有効視野が10度であることから、運転者210の頭の位置を基準として、この運転者210の前方右側における10度の範囲を、有効視野212と特定する。
ステップST506において、表示情報生成部108は、ステップST501で取得した対象物情報とステップST502で取得した進行方向を示す情報とステップST505で特定した運転者210の有効視野212と予め定められたHUD114の表示範囲とに基づいて、表示情報を生成する。ここで、図10に、実施の形態1におけるオブジェクト213の一例を示す。図11は、図3に示される状況において生成される表示情報の一例を示す図である。表示情報生成部108は、オブジェクト格納部109に登録されているオブジェクトの中から、自車両200の進行方向とは反対の左方向から他車両201が接近していることを表現する左向き矢印のオブジェクトと「車」というテキストのオブジェクトとを選択し、両者を組み合わせて、オブジェクト213を生成する。このオブジェクト213は、他車両201の存在を運転者210に報知する表示であり、目立つ色であることが好ましい。続いて、表示情報生成部108は、図11のように、運転者210の有効視野212、かつ、HUD表示範囲211におけるオブジェクト213の位置を決定し、オブジェクト213の内容と位置とを含む表示情報を生成する。図11の例では、自車両200のフロントガラス越しに見える現実の他車両201にオブジェクト213の矢印が向くよう、オブジェクト213の位置が決定される。
なお、図11の例では、対象物の種類が車両であるため「車」というテキストのオブジェクトが選択されたが、対象物の種類が歩行者である場合には「歩行者」というテキストのオブジェクトが選択される。
ステップST507において、表示情報生成部108は、ステップST506で生成した表示情報をHUD114へ出力する。
ステップST6において、HUD114は、表示情報を表示情報生成部108から取得し、HUD表示範囲211に表示する。ここで、図12に、図3に示される状況において自車両200の運転者210に見える前方風景に、他車両201の存在を報知するオブジェクト213が重畳された状態を示す。運転者210は、これから向かう右側を見ている可能性が高いため、左側から接近してくる他車両201に気付いていない可能性が高い。この状況において、オブジェクト213は、運転者210の有効視野212に表示されるため、運転者210は、オブジェクト213を確実に認知でき、他車両201の存在を認識することができる。
以上のように、実施の形態1に係る表示装置100は、HUD114と、表示制御装置101とを備える。表示制御装置101は、自車両情報取得部102と、接近物情報取得部103と、有効視野決定部105と、対象物特定部104と、表示情報生成部108とを備える。自車両情報取得部102は、車両がこれから行う進路変更の合図と進路変更により車両がこれから向かう進行方向とを示す自車両情報を取得する。接近物情報取得部103は、車両の周囲の予め定められた範囲において車両に接近する接近物を示す接近物情報を取得する。有効視野決定部105は、車両の運転者の有効視野を決定する。対象物特定部104は、自車両情報及び接近物情報に基づいて、車両に接近する接近物のうちの車両がこれから向かう進行方向の反対側から接近する接近物を特定し、特定した接近物を対象物とする。表示情報生成部108は、自車両情報に基づいて、車両が進路変更する場合に、対象物特定部104により特定された対象物の情報を有効視野決定部105により決定された運転者の有効視野に表示させるための表示情報を生成する。この構成により、表示装置100は、運転者が気付いていない可能性の高い対象物の存在を、運転者に報知することができる。
また、実施の形態1の有効視野決定部105は、運転者の運転特性又は車両の走行環境の少なくとも一方に基づいて運転者の有効視野を変更する。この構成により、表示装置100は、運転者の有効視野を変化させる内的要因又は外的要因の少なくとも一方に基づいて、現在の運転者の有効視野をより正確に決定することができる。また、表示装置100は、より正確な有効視野に対象物の情報を表示させることができるので、対象物を、運転者により確実に報知することができる。
実施の形態2.
図13は、実施の形態2に係る表示装置100aの構成例を示すブロック図である。実施の形態2に係る表示装置100aは、図1に示された実施の形態1の表示装置100のうちの表示情報生成部108が表示情報生成部108aに変更された構成である。図13において図1と同一又は相当する部分は、同一の符号を付し説明を省略する。
実施の形態2の表示情報生成部108aは、自車両がこれから向かう進行方向の反対側から接近する対象物が、HUD114の表示範囲内に存在する場合と表示範囲外に存在する場合とで、対象物の情報の表示態様を変更する構成である。
次に、表示装置100aの動作例を説明する。
ここでは、自車両が右側車線へ車線変更する場合を例に用いて、表示装置100aの動作を説明する。図14は、実施の形態2において、自車両200が右へ進路変更の合図を出した後に右側車線に車線変更する状況の一例を示す俯瞰図である。図14の例では、自車両200が走行してきた車線の左側車線に他車両201が存在し、自車両200が直進してきた車線の前方に他車両202,203が存在し、自車両200がこれから車線変更する右側車線に他車両204が存在する。なお、他車両201,204は直進しており、他車両202は左側車線に車線変更しようとしており、他車両203は右側車線に車線変更しようとしている。
図15は、図14に示される状況において自車両200の運転者210に見える前方風景を示す図である。図15の例では、自車両200のフロントウインドウのうちの運転者210側が、HUD114の表示範囲であるHUD表示範囲211になっている。運転者210は、フロントウインドウ越しに、他車両203,204が見える。
実施の形態2の表示装置100aは、図5のフローチャートに示される動作を繰り返す。以下では、実施の形態1の表示装置100と実施の形態2の表示装置100aとで動作が異なる部分を中心に説明する。
ステップST2において、接近物情報取得部103は、接近物情報検出部111から取得した接近物検出情報に基づいて、予め定められた接近物検出範囲205において自車両200に接近する他車両203,204を検出する。そして、接近物情報取得部103は、接近物検出範囲205において自車両200に接近する接近物が自車両200の前方から左側へ向かう他車両203と自車両200の右側にいる他車両204であることを示す接近物情報を対象物特定部104へ出力する。
ステップST3において、有効視野決定部105は、運転者情報検出部112から取得した運転者情報と走行情報検出部113から取得した走行情報とに基づいて、運転者210の位置及び有効視野を決定し、運転者位置情報と有効視野を示す情報とを表示情報生成部108aへ出力する。図14の例では、有効視野決定部105は、若年層の運転者210が三車線道路を走行していると特定し、有効視野情報格納部107に登録されている有効視野情報を参照して有効視野を12度と決定する。有効視野決定部105は、決定した運転者210の有効視野を示す情報を、表示情報生成部108aへ出力する。
ステップST4において、対象物特定部104は、自車両情報取得部102から取得した自車両200の進行方向を示す情報と、接近物情報取得部103から取得した他車両203,204の接近物情報とに基づいて、自車両200の進行方向の反対側205aに存在する他車両203を対象物と特定する。対象物特定部104は、特定した他車両203を示す対象物情報を表示情報生成部108aへ出力する。
ステップST5において、表示情報生成部108aは、対象物特定部104から取得した進行方向を示す情報と対象物情報と、有効視野決定部105から取得した運転者位置情報と有効視野を示す情報とに基づいて、表示情報を生成し、HUD114へ出力する。
図16は、図5のステップST5における実施の形態2の表示情報生成部108aの動作例を示すフローチャートである。図16のステップST501〜ST505,ST507は、図8のステップST501〜ST505,ST507と同じ動作である。
ステップST510において、表示情報生成部108aは、ステップST501で取得した対象物情報とステップST505で特定した運転者210の有効視野と予め定められたHUD114の表示範囲とに基づいて、対象物がHUD114の表示範囲内にあるか否かを確認する。表示情報生成部108aは、対象物がHUD114の表示範囲内にある場合(ステップST510“YES”)、ステップST511へ進み、対象物がHUD114の表示範囲外にある場合(ステップST510“NO”)、ステップST512へ進む。
なお、対象物が有効視野内にある場合、運転者210がその対象物に気付いている可能性が高い。そのため、表示情報生成部108aは、その対象物の存在を運転者210に報知する表示を行わない。同様に、実施の形態1及び後述の実施の形態3においても、表示情報生成部108は、有効視野内にある対象物の存在を運転者210に報知する表示を行わなくてよい。
ステップST511において、表示情報生成部108aは、オブジェクト格納部109に登録されているオブジェクトの中から、他車両203の存在を運転者210に報知するオブジェクトと、自車両200のフロントウインドウ越しに運転者210に見える現実の他車両203に重ねて表示させるオブジェクトとを選択する。ここで、図17に、実施の形態2におけるオブジェクト221,222の一例を示す。図18は、図14に示される状況において生成される表示情報の一例を示す図である。図14に示される状況において、他車両203は、HUD表示範囲211内にある。表示情報生成部108aは、他車両203の存在を運転者210に報知するためのオブジェクト221を、有効視野220内に配置する。また、表示情報生成部108aは、HUD表示範囲211において、自車両200のフロントウインドウ越しに運転者210に見える現実の他車両203に重なる位置に、オブジェクト222を配置する。そして、表示情報生成部108aは、オブジェクト221,222の内容と位置とを含む表示情報を生成する。
なお、図18の例では、対象物の種類が車両であるため車両アイコンのオブジェクトが選択されたが、対象物の種類が歩行者である場合には歩行者アイコンのオブジェクトが選択される。
図19は、図14に示される状況において自車両200の運転者210に見える前方風景に、他車両203の存在を報知するオブジェクト221と、現実の他車両203に重なるオブジェクト222とが重畳された状態を示す図である。運転者210は、これから向かう右側を見ている可能性が高いため、左側車線に車線変更してくる他車両203に気付いていない可能性が高い。この状況において、オブジェクト221は、運転者210の有効視野220に表示されるため、運転者210は、オブジェクト221を確実に認知でき、他車両203の存在を認識することができる。加えて、マーカとしてのオブジェクト222が現実の他車両203に重ねて表示されるため、運転者210は、オブジェクト222により強調された他車両203の存在をより的確に認識することができる。
ステップST512において、表示情報生成部108aは、実施の形態1の図8におけるステップST506と同様に、オブジェクト格納部109に登録されているオブジェクトの中から、他車両203の存在を運転者210に報知するオブジェクト221を選択し、有効視野220内に配置する。そして、表示情報生成部108aは、オブジェクト221の内容と位置とを含む表示情報を生成する。
以上のように、実施の形態2の表示情報生成部108aは、自車両がこれから向かう進行方向の反対側から接近する対象物が、HUD114の表示範囲内に存在する場合と表示範囲外に存在する場合とで、対象物の情報の表示態様を変更する。この構成により、表示装置100aは、運転者が気付いていない可能性の高い対象物の存在を、運転者により確実に報知することができる。
また、実施の形態2の表示情報生成部108aは、自車両がこれから向かう進行方向の反対側から接近する対象物が、HUD114の表示範囲内に存在する場合、対象物の情報を、HUD114越しに運転者に見える対象物に重ねる。この構成により、表示装置100aは、運転者が気付いていない可能性が高い対象物に直接マーカを重畳表示することができる。
実施の形態3.
図20は、実施の形態3に係る表示装置100bの構成例を示すブロック図である。実施の形態3に係る表示装置100bは、図1に示された実施の形態1の表示装置100に対して音声情報生成部120及びスピーカ121が追加された構成である。図20において図1と同一又は相当する部分は、同一の符号を付し説明を省略する。
実施の形態3の音声情報生成部120は、自車両が進路変更する場合に、対象物特定部104により特定された対象物の情報を音声出力するための音声情報を生成し、スピーカ121へ出力する。音声情報とは、例えば、対象物の位置、種類又は個数といった内容の音声でもよいし、無意味音でもよい。
スピーカ121は、音声情報を音声情報生成部120から取得し、音声出力する。
次に、表示装置100bの動作例を説明する。
ここでは、自車両が交差点を左折する場合を例に用いて、表示装置100bの動作を説明する。図21は、実施の形態3において、自車両200が左へ進路変更する合図を出した後に左折する状況の一例を示す俯瞰図である。図21の例では、自車両200がこれから左折する道路の左側に他車両201が存在、右側に他車両202,203が存在し、自車両200が直進してきた道路の対向車線に他車両204が存在する。
図22は、図21に示される状況において自車両200の運転者210に見える前方風景を示す図である。図22の例では、自車両200のフロントウインドウのうちの運転者210側が、HUD114の表示範囲であるHUD表示範囲211になっている。運転者210は、フロントウインドウ越しに、他車両201,202が見える。また、自車両200の運転者210付近にスピーカ121が設置されている。
図23は、実施の形態3に係る表示装置100bの動作例を示すフローチャートである。表示装置100bは、図23のフローチャートに示される動作を繰り返す。なお、図23のステップST1〜ST6は、図5のステップST1〜ST6と同じ動作である。以下では、実施の形態1の表示装置100と実施の形態3の表示装置100bとで動作が異なる部分を中心に説明する。
ステップST2において、接近物情報取得部103は、接近物情報検出部111から取得した接近物検出情報に基づいて、予め定められた接近物検出範囲205において自車両200に接近する他車両201,202,204を検出する。そして、接近物情報取得部103は、接近物検出範囲205において自車両200に接近する接近物が自車両200の左側の他車両201及び右側の他車両202,204であることを示す接近物情報を対象物特定部104へ出力する。
ステップST3において、有効視野決定部105は、運転者情報検出部112から取得した運転者情報と走行情報検出部113から取得した走行情報とに基づいて、運転者210の位置及び有効視野を決定し、運転者位置情報と有効視野を示す情報とを表示情報生成部108へ出力する。図21の例では、有効視野決定部105は、若年層の運転者210が低混雑道路を走行していると特定し、有効視野情報格納部107に登録されている有効視野情報を参照して有効視野を18度と決定する。有効視野決定部105は、決定した運転者210の有効視野を示す情報を、表示情報生成部108へ出力する。
ステップST4において、対象物特定部104は、自車両情報取得部102から取得した自車両200の進行方向を示す情報と、接近物情報取得部103から取得した他車両201,202,204の接近物情報とに基づいて、自車両200の進行方向の反対側205aに存在する他車両202,204を対象物と特定する。対象物特定部104は、特定した他車両202,204を示す対象物情報を表示情報生成部108及び音声情報生成部120へ出力する。
ステップST5において、表示情報生成部108は、対象物特定部104から取得した進行方向を示す情報と対象物情報と、有効視野決定部105から取得した運転者位置情報と有効視野を示す情報とに基づいて、表示情報を生成し、HUD114へ出力する。
図24は、実施の形態3におけるオブジェクト231,232の一例を示す図である。図25は、図21に示される状況において生成される表示情報の一例を示す図である。表示情報生成部108は、他車両202の存在を運転者210に報知するためのオブジェクト231を、運転者210の有効視野230内に配置する。また、表示情報生成部108は、他車両204の存在を運転者210に報知するためのオブジェクト232を、運転者210の有効視野230内に配置する。そして、表示情報生成部108は、オブジェクト231,232の内容と位置とを含む表示情報を生成する。
図26は、図21に示される状況において自車両200の運転者210に見える前方風景に、他車両202,204の存在を報知するオブジェクト231,232が重畳された状態を示す図である。運転者210は、これから向かう左側を見ている可能性が高いため、右側から接近してくる他車両202,204に気付いていない可能性が高い。この状況において、オブジェクト231,232は、運転者210の有効視野230に表示されるため、運転者210は、オブジェクト231,232を確実に認知でき、他車両202,204の存在を認識することができる。
ステップST11において、音声情報生成部120は、対象物特定部104から取得した対象物情報に基づいて、「右手に車両があります」等の音声情報を生成する。音声情報生成部120は、生成した音声情報を、スピーカ121へ出力する。表示情報生成部108が対象物特定部104から対象物情報を取得した場合に表示情報を生成するのと同様に、音声情報生成部120も、対象物特定部104から対象物情報を取得した場合に音声情報を生成する。
ステップST12において、スピーカ121は、音声情報生成部120から取得した音声情報を音声出力する。図26の例では、音声情報生成部120は、他車両202の存在を報知する「右手に車両があります」等の音声233を、スピーカ121から出力させる。音声情報生成部120は、「右手に車両があります」等の音声233に続けて、他車両204の存在を報知する「右手前方に車両があります」等の音声を、スピーカ121から出力させる。なお、音声情報生成部120は、他車両202,204の存在を報知する「右手及び右手前方に車両があります」等の音声を、スピーカ121から出力させてもよい。または、音声情報生成部120は、対象物の存在を報知する報知音を、スピーカ121から出力させてもよい。
なお、図26の例では、対象物の種類が車両であるため「右手に車両があります」等の音声情報が生成されたが、対象物の種類が歩行者である場合には「右手に歩行者があります」等の音声情報が生成される。
以上のように、実施の形態3に係る表示装置100bは、車両が進路変更する場合に、対象物特定部104により特定された対象物の情報を音声出力するための音声情報を生成する音声情報生成部120を備える。この構成により、表示装置100bは、表示と音声とによって、運転者が気付いていない可能性の高い対象物の存在を、運転者により確実に報知することができる。
なお、実施の形態3の表示装置100bは、音声情報生成部120が実施の形態1の表示装置100に組み合わされた構成であったが、音声情報生成部120が実施の形態2の表示装置100aに組み合わされた構成でもよい。
また、各実施の形態において、有効視野決定部105は、内的要因である運転特性と外的要因である走行環境の両方に基づいて有効視野を決定したが、内的要因又は外的要因のいずれか一方に基づいて有効視野を決定してもよい。その場合、有効視野情報格納部107には、内的要因と有効視野との対応関係が定義された有効視野情報、又は外的要因と有効視野との対応関係が定義された有効視野情報のいずれか一方が登録される。
なお、有効視野情報が複数ある場合、有効視野決定部105は、有効視野が狭い方の有効視野情報を選択してもよい。例えば、運転者が運転初心者かつ若年層である場合、有効視野決定部105は、相対的に有効視野が狭い運転初心者を優先する。また、例えば、走行道路が高混雑道路かつ車速40km/hである場合、有効視野決定部105は、相対的に有効視野が狭い高混雑道路を優先する。
また、内的要因及び外的要因は、図2に例示されたものに限らず、他の要因であってもよい。
また、有効視野の値及び初期値は、図2に例示された値に限らず、他の値であってもよい。
また、自車両情報検出部110、接近物情報検出部111、運転者情報検出部112、及び走行情報検出部113を構成するセンサ類は、上述したものに限らず、他のセンサ等であってもよい。
また、各実施の形態において、HUD114に表示されるオブジェクトは、図10及び図17等に例示されたものに限らず、他の図形等であってもよい。
また、各実施の形態において、表示制御装置101は、進路変更の合図があったときにHUD114に対象物の情報を表示させる構成であったが、進路変更の合図があったときから進路変更が終わるまでの間、時々刻々と変化する自車両と接近物との位置関係に基づいて、HUD114に表示させる対象物の情報を更新し続ける構成であってもよい。
最後に、各実施の形態に係る表示装置100,100a,100bのハードウェア構成例を説明する。図27及び図28は、各実施の形態に係る表示装置100,100a,100bのハードウェア構成例を示す図である。表示装置100,100a,100bにおける自車両情報検出部110、接近物情報検出部111、運転者情報検出部112及び走行情報検出部113は、センサ類2である。表示装置100,100a,100bにおける自車両情報取得部102、接近物情報取得部103、対象物特定部104、有効視野決定部105、表示情報生成部108,108a、及び音声情報生成部120の各機能は、処理回路により実現される。即ち、表示装置100,100a,100bは、上記各機能を実現するための処理回路を備える。処理回路は、専用のハードウェアとしての処理回路1であってもよいし、メモリ4に格納されるプログラムを実行するプロセッサ3であってもよい。表示装置100,100a,100bにおける運転者情報格納部106、有効視野情報格納部107、及びオブジェクト格納部109は、メモリ4である。
図27に示されるように、処理回路が専用のハードウェアである場合、処理回路1は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、又はこれらを組み合わせたものが該当する。自車両情報取得部102、接近物情報取得部103、対象物特定部104、有効視野決定部105、表示情報生成部108,108a、及び音声情報生成部120の機能を複数の処理回路1で実現してもよいし、各部の機能をまとめて1つの処理回路1で実現してもよい。
図28に示されるように、処理回路がプロセッサ3である場合、自車両情報取得部102、接近物情報取得部103、対象物特定部104、有効視野決定部105、表示情報生成部108,108a、及び音声情報生成部120の各機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアはプログラムとして記述され、メモリ4に格納される。プロセッサ3は、メモリ4に格納されたプログラムを読みだして実行することにより、各部の機能を実現する。即ち、表示装置100,100a,100bは、プロセッサ3により実行されるときに、図5等のフローチャートで示されるステップが結果的に実行されることになるプログラムを格納するためのメモリ4を備える。また、このプログラムは、自車両情報取得部102、接近物情報取得部103、対象物特定部104、有効視野決定部105、表示情報生成部108,108a、及び音声情報生成部120の手順又は方法をコンピュータに実行させるものであるとも言える。
ここで、プロセッサ3とは、CPU(Central Processing Unit)、処理装置、演算装置、又はマイクロプロセッサ等のことである。
メモリ4は、RAM(Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、又はフラッシュメモリ等の不揮発性もしくは揮発性の半導体メモリであってもよいし、ハードディスク又はフレキシブルディスク等の磁気ディスクであってもよいし、CD(Compact Disc)又はDVD(Digital Versatile Disc)等の光ディスクであってもよい。
なお、自車両情報取得部102、接近物情報取得部103、対象物特定部104、有効視野決定部105、表示情報生成部108,108a、及び音声情報生成部120の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、表示装置100,100a,100bにおける処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、上述の各機能を実現することができる。
本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、又は各実施の形態の任意の構成要素の省略が可能である。
この発明に係る表示装置は、運転者の有効視野外において自車両に接近してくる対象物を、運転者に報知するようにしたので、運転を支援する運転支援装置等に用いる表示装置に適している。
1 処理回路、2 センサ類、3 プロセッサ、4 メモリ、100,100a,100b 表示装置、101 表示制御装置、102 自車両情報取得部、103 接近物情報取得部、104 対象物特定部、105 有効視野決定部、106 運転者情報格納部、107 有効視野情報格納部、108,108a 表示情報生成部、109 オブジェクト格納部、110 自車両情報検出部、111 接近物情報検出部、112 運転者情報検出部、113 走行情報検出部、114 HUD、120 音声情報生成部、121 スピーカ、200 自車両、201〜204 他車両、205 接近物検出範囲、205a 進行方向の反対側、210 運転者、211 HUD表示範囲、212,220,230 有効視野、213,221,222,231,232 オブジェクト、233 音声。

Claims (9)

  1. 車両の運転者へ提供する情報をヘッドアップディスプレイに表示させる表示制御装置であって、
    前記車両がこれから行う進路変更の合図と前記進路変更により前記車両がこれから向かう進行方向とを示す自車両情報を取得する自車両情報取得部と、
    前記車両の周囲の予め定められた範囲において前記車両に接近する接近物を示す接近物情報を取得する接近物情報取得部と、
    前記車両の運転者の有効視野を決定する有効視野決定部と、
    前記自車両情報及び前記接近物情報に基づいて、前記車両に接近する前記接近物のうちの前記車両がこれから向かう進行方向の反対側から接近する接近物を特定し、特定した接近物を対象物とする対象物特定部と、
    前記自車両情報に基づいて、前記車両が進路変更する場合に、前記対象物特定部により特定された前記対象物の情報を前記有効視野決定部により決定された前記運転者の有効視野に表示させるための表示情報を生成する表示情報生成部とを備えることを特徴とする表示制御装置。
  2. 前記有効視野決定部は、前記運転者の運転特性又は前記車両の走行環境の少なくとも一方に基づいて前記運転者の有効視野を変更することを特徴とする請求項1記載の表示制御装置。
  3. 前記自車両情報は、前記車両の方向指示器の点灯状態を示す情報、前記車両の操舵角を示す情報、又は前記車両の走行予定経路を示す情報の少なくとも1つであることを特徴とする請求項1記載の表示制御装置。
  4. 前記進路変更は、前記車両の右折、左折、右側車線への車線変更、又は左側車線への車線変更であることを特徴とする請求項1記載の表示制御装置。
  5. 前記表示情報生成部は、前記車両がこれから向かう進行方向の反対側から接近する前記対象物が、前記ヘッドアップディスプレイの表示範囲内に存在する場合と前記ヘッドアップディスプレイの表示範囲外に存在する場合とで、前記対象物の情報の表示態様を変更することを特徴とする請求項1記載の表示制御装置。
  6. 前記表示情報生成部は、前記車両がこれから向かう進行方向の反対側から接近する前記対象物が、前記ヘッドアップディスプレイの表示範囲内に存在する場合、前記対象物の情報を、前記ヘッドアップディスプレイ越しに前記運転者に見える前記対象物に重ねることを特徴とする請求項5記載の表示制御装置。
  7. 前記車両が進路変更する場合に、前記対象物特定部により特定された前記対象物の情報を音声出力するための音声情報を生成する音声情報生成部を備えることを特徴とする請求項1記載の表示制御装置。
  8. 請求項1記載の表示制御装置と、
    前記表示情報生成部により生成された前記表示情報を表示するヘッドアップディスプレイとを備える表示装置。
  9. 車両の運転者へ提供する情報をヘッドアップディスプレイに表示させる表示制御方法であって、
    自車両情報取得部が、前記車両がこれから行う進路変更の合図と前記進路変更により前記車両がこれから向かう進行方向とを示す自車両情報を取得し、
    接近物情報取得部が、前記車両の周囲の予め定められた範囲において前記車両に接近する接近物を示す接近物情報を取得し、
    有効視野決定部が、前記車両の運転者の有効視野を決定し、
    対象物特定部が、前記自車両情報及び前記接近物情報に基づいて、前記車両に接近する前記接近物のうちの前記車両がこれから向かう進行方向の反対側から接近する接近物を特定し、特定した接近物を対象物とし、
    表示情報生成部が、前記自車両情報に基づいて、前記車両が進路変更する場合に、前記対象物特定部により特定された前記対象物の情報を前記有効視野決定部により決定された前記運転者の有効視野に表示させるための表示情報を生成することを特徴とする表示制御方法。
JP2020505976A 2018-03-13 2018-03-13 表示制御装置、表示装置、及び表示制御方法 Expired - Fee Related JP6687306B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/009675 WO2019175956A1 (ja) 2018-03-13 2018-03-13 表示制御装置、表示装置、及び表示制御方法

Publications (2)

Publication Number Publication Date
JP6687306B2 JP6687306B2 (ja) 2020-04-22
JPWO2019175956A1 true JPWO2019175956A1 (ja) 2020-05-28

Family

ID=67908189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505976A Expired - Fee Related JP6687306B2 (ja) 2018-03-13 2018-03-13 表示制御装置、表示装置、及び表示制御方法

Country Status (5)

Country Link
US (1) US20200406753A1 (ja)
JP (1) JP6687306B2 (ja)
CN (1) CN111886636A (ja)
DE (1) DE112018007063T5 (ja)
WO (1) WO2019175956A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7190261B2 (ja) * 2018-04-27 2022-12-15 日立Astemo株式会社 位置推定装置
JP2020095565A (ja) * 2018-12-14 2020-06-18 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
JP6984624B2 (ja) * 2019-02-05 2021-12-22 株式会社デンソー 表示制御装置および表示制御プログラム
JP7259802B2 (ja) * 2019-10-17 2023-04-18 株式会社デンソー 表示制御装置、表示制御プログラム及び車載システム
WO2021075160A1 (ja) * 2019-10-17 2021-04-22 株式会社デンソー 表示制御装置、表示制御プログラム及び車載システム
US20220058825A1 (en) * 2020-08-18 2022-02-24 Here Global B.V. Attention guidance for correspondence labeling in street view image pairs
US11361490B2 (en) * 2020-08-18 2022-06-14 Here Global B.V. Attention guidance for ground control labeling in street view imagery
CN115122910A (zh) * 2021-03-29 2022-09-30 本田技研工业株式会社 车辆用显示装置
CN113984087A (zh) * 2021-11-08 2022-01-28 维沃移动通信有限公司 导航方法、装置、电子设备和可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011128799A (ja) * 2009-12-16 2011-06-30 Panasonic Corp 運転者状態推定装置及び運転者状態推定方法
JP2014120113A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
WO2016140192A1 (ja) * 2015-03-04 2016-09-09 三菱電機株式会社 車両用表示制御装置および車両用表示装置
JP2017182570A (ja) * 2016-03-31 2017-10-05 株式会社Subaru 周辺リスク表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011128799A (ja) * 2009-12-16 2011-06-30 Panasonic Corp 運転者状態推定装置及び運転者状態推定方法
JP2014120113A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
WO2016140192A1 (ja) * 2015-03-04 2016-09-09 三菱電機株式会社 車両用表示制御装置および車両用表示装置
JP2017182570A (ja) * 2016-03-31 2017-10-05 株式会社Subaru 周辺リスク表示装置

Also Published As

Publication number Publication date
WO2019175956A1 (ja) 2019-09-19
CN111886636A (zh) 2020-11-03
JP6687306B2 (ja) 2020-04-22
US20200406753A1 (en) 2020-12-31
DE112018007063T5 (de) 2020-10-29

Similar Documents

Publication Publication Date Title
JP6687306B2 (ja) 表示制御装置、表示装置、及び表示制御方法
JP6486474B2 (ja) 表示制御装置、表示装置及び表示制御方法
US20190039613A1 (en) Apparatus and method for changing route of vehicle based on emergency vehicle
JP6398957B2 (ja) 車両制御装置
US9046380B2 (en) Guiding apparatus, guiding method, and guiding program product
JP6332246B2 (ja) 標識認識システム
WO2016035118A1 (ja) 車両用照射制御システムおよび画像照射の制御方法
JP2018079916A (ja) 自律走行車(adv)用のビジュアルコミュニケーションシステム
CN111919211A (zh) 用于改进转弯操纵中的空间和情景感知的转弯路径可视化
US20090265061A1 (en) Driving assistance device, driving assistance method, and program
JP2019091412A5 (ja)
CN104691447A (zh) 用于动态地聚焦车辆传感器的系统和方法
JP2022542246A (ja) 緊急車両の検出
JP2009109340A (ja) 車両用ナビゲーション装置及び車両用ナビゲーションプログラム
EP3330668B1 (en) Lane display device and lane display method
JP6651796B2 (ja) 運転支援装置
TW202031538A (zh) 輔助駕駛方法和系統
JP6922425B2 (ja) 車両用表示制御装置及び表示制御プログラム
JP6396672B2 (ja) 情報表示装置及び情報表示方法
JP2017111498A (ja) 運転支援装置
US20200031227A1 (en) Display control apparatus and method for controlling display
JP6448806B2 (ja) 表示制御装置、表示装置及び表示制御方法
JP2019164602A (ja) 逆走警告システム、逆走警告方法、及び逆走警告プログラム
US10864856B2 (en) Mobile body surroundings display method and mobile body surroundings display apparatus
WO2018207308A1 (ja) 表示制御装置および表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200207

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200331

R150 Certificate of patent or registration of utility model

Ref document number: 6687306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees