JPWO2020105685A1 - 表示制御装置、方法、及びコンピュータ・プログラム - Google Patents

表示制御装置、方法、及びコンピュータ・プログラム Download PDF

Info

Publication number
JPWO2020105685A1
JPWO2020105685A1 JP2020557598A JP2020557598A JPWO2020105685A1 JP WO2020105685 A1 JPWO2020105685 A1 JP WO2020105685A1 JP 2020557598 A JP2020557598 A JP 2020557598A JP 2020557598 A JP2020557598 A JP 2020557598A JP WO2020105685 A1 JPWO2020105685 A1 JP WO2020105685A1
Authority
JP
Japan
Prior art keywords
image
information
information image
displayed
visibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020557598A
Other languages
English (en)
Other versions
JP7255608B2 (ja
Inventor
誠 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Publication of JPWO2020105685A1 publication Critical patent/JPWO2020105685A1/ja
Application granted granted Critical
Publication of JP7255608B2 publication Critical patent/JP7255608B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/347Optical elements for superposition of display information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/40Hardware adaptations for dashboards or instruments
    • B60K2360/48Sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

運転者の視界前方の実景、及びこの実景に重なって表示される画像の見やすさを向上させる。車両の運転者から見て前景に重なる領域に画像を表示する画像表示部を制御する表示制御装置表示制御装置は、画像表示部に第1情報画像210と第2情報画像220とを表示させ、自車両の運転者の視線方向を検出し、第1情報画像210が視認されたと判定すると視認性を低下させ、第2情報画像220が視認されたと判定すると、第1情報画像210より視認性を低下させないようにする。

Description

本開示は、車両で使用され、車両の前景に画像を重畳して視認させる表示制御装置、方法、及びコンピュータ・プログラムに関する。
特許文献1には、車両の運転者の視線と一致した画像の目立ち具合を低下させることで、運転者によって知覚されていない画像の知覚のしやすさを相対的に高める車両用画像表示システムが開示されている。
特開2017−39373号公報
しかしながら、特許文献1の車両用画像表示システムでは、知覚された画像の目立ち具合を低下させることで、他の目立ち具合を低下させていない画像への視覚的注意を相対的に向きやすくすることはできるものの、知覚された後の画像へも注意を向けるべきシチュエーションや、注意を払いたいという運転者の潜在的な願望も想定され、さらに利便性を向上させた表示制御装置が望まれている。
本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。
本開示の概要は、運転者の視界前方の実景、及びこの実景に重なって表示される画像の見やすさを向上させることに関する。より具体的には、実景に重なって表示される画像の視覚的刺激を抑えつつ、運転者に情報を伝達しやすくすることにも関する。
したがって、本明細書に記載される表示制御装置は、視線が向くと視認性を低下させる第1情報画像と、視線が向くと第1情報画像の視認性が低下する度合いより視認性を低下させない第2情報画像と、を表示させる。いくつかの実施形態では、情報画像が示す情報のリスクポテンシャルの大きさに応じて、視線が向けられた際の情報画像の視認性の変化度合いを決めてもよい。
いくつかの実施形態に係る、車両用表示システムの適用例を示す図である。 いくつかの実施形態に係る、車両用表示システムのブロック図である。 いくつかの実施形態に係る、画像の視認性を低下させる処理のフロー図である。 いくつかの実施形態に係る、画像の視認性を上昇させる処理のフロー図である。 いくつかの実施形態に係る、車両用表示システムが表示する画像の例を示す図である。 いくつかの実施形態に係る、車両用表示システムが表示する画像の例を示す図である。 いくつかの実施形態に係る、画像の視認性を低下させる処理のフロー図である。 いくつかの実施形態に係る、車両用表示システムが表示する画像の例を示す図である。 いくつかの実施形態に係る、車両用表示システムが表示する画像の例を示す図である。
以下、図1及び図2では、例示的なヘッドアップディスプレイ装置の構成の説明を提供する。図3、図4、図6では、例示的な表示制御の処理の流れを説明する。図5A、図5B、及び図7A、図7Bでは、表示例を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。
図1を参照する。車両用表示システム10における画像表示部11は、自車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置は、表示光11aをフロントウインドシールド2(被投影部材の一例である)に向けて出射し、仮想的な表示領域100内に画像200を表示することで、フロントウインドシールド2を介して視認される現実空間である前景300に重ねて画像200を視認させる。
また、画像表示部11は、ヘッドマウントディスプレイ(以下、HMD)装置であってもよい。運転者4は、HMD装置を頭部に装着して自車両1の座席に着座することで、表示される画像200を、自車両1のフロントウインドシールド2を介した前景300に重畳して視認する。車両用表示システム10が所定の画像200を表示する表示領域100は、自車両1の座標系を基準とした特定の位置に固定され、運転者4がその方向を向くと、その特定の位置に固定された表示領域100内に表示された画像200を視認することができる。
画像表示部11は、表示制御装置13の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景300に存在する、障害物(歩行者、自転車、自動二輪車、他車両など)、路面、道路標識、及び地物(建物、橋など)などの実オブジェクト310の近傍(画像と実オブジェクトとの位置関係の一例)、実オブジェクト310に重なる位置(画像と実オブジェクトとの位置関係の一例)、又は実オブジェクト310を基準に設定された位置(画像と実オブジェクトとの位置関係の一例)に画像200を表示することで、視覚的な拡張現実(AR:Augmented Reality)を形成することもできる。画像表示部11は、提供する情報の種類に応じて異なる第1情報画像210(AR画像)と、第2情報画像220(AR画像)と、を表示する(後で詳述する)。
図2は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、画像表示部11と、画像表示部11を制御する表示制御装置13と、で構成される。表示制御装置13は、1つ又はそれ以上のI/Oインタフェース14、1つ又はそれ以上のプロセッサ16、1つ又はそれ以上の記憶部18、及び1つ又はそれ以上の画像処理回路20を備える。図2に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図2は、実施態様の一実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路20(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ16に含まれてもよい。
図示するように、プロセッサ16及び画像処理回路20は、記憶部18と動作可能に連結される。より具体的には、プロセッサ16及び画像処理回路20は、記憶部18に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ16又は/及び画像処理回路20は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。記憶部18は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。
図示するように、プロセッサ16は、I/Oインタフェース14と動作可能に連結されている。例えば、I/Oインタフェース14は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、4G又はLTE(登録商標)セルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース14は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。
図示するように、プロセッサ16は、I/Oインタフェース14と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース14)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース14には、例えば、自車両1に設けられた車両ECU401、道路情報データベース403、自車位置検出部405、車外センサ407、視線方向検出部409、目位置検出部411、携帯情報端末413、及び車外通信接続機器420などが動作可能に連結される。画像表示部11は、プロセッサ16及び画像処理回路20に動作可能に連結される。したがって、画像表示部11によって表示される画像は、プロセッサ16又は/及び画像処理回路20から受信された画像データに基づいてもよい。プロセッサ16及び画像処理回路20は、I/Oインタフェース14から得られる情報に基づき、画像表示部11が表示する画像を制御する。なお、I/Oインタフェース14は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。
自車両1は、自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)などを検出する車両ECU401を含んでいる。車両ECU401は、自車両1の各部を制御するものであり、例えば、自車両1の現在の車速を示す車速情報をプロセッサ16へ送信することができる。なお、車両ECU401は、単にセンサで検出したデータをプロセッサ16へ送信することに加え、又は代わりに、センサで検出したデータの判定結果、又は/及び解析結果をプロセッサ16へ送信することができる。例えば、自車両1が低速走行しているか、又は停止しているかを示す情報をプロセッサ16へ送信してもよい。また、車両ECU401は、車両用表示システム10が表示する画像200を指示する指示信号をI/Oインタフェース14に送信してもよく、この際、画像200の座標、画像200の報知必要度、又は/及び報知必要度を判定する元となる必要度関連情報を、指示信号に付加して送信してもよい。
自車両1は、ナビゲーションシステム等からなる道路情報データベース403を含んでいてもよい。道路情報データベース403は、後述する自車位置検出部405から取得される自車両1の位置に基づき、実オブジェクト関連情報の一例である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ16に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路を算出し、ナビゲーション情報としてプロセッサ16に送信してもよい。
自車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部405を含んでいてもよい。道路情報データベース403、後述する携帯情報端末413、又は/及び車外通信接続機器420は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ16に送信することができる。
自車両1は、自車両1の周辺(本実施形態では特に前景300)に存在する実オブジェクトを検出する1つ又はそれ以上の車外センサ407を含んでいてもよい。車外センサ407が検知する実オブジェクトは、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、又は/及び種類等を検出してもよい。1つ又はそれ以上の車外センサ407は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト関連情報の一例である実オブジェクト関連情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、又は/及び種類等の情報)をプロセッサ16に送信することができる。なお、これら実オブジェクト関連情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ16に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。
自車両1は、運転者4の注視方向(以下では「視線方向」ともいう)を検出する、運転者4の顔を撮像する赤外線カメラ等からなる視線方向検出部409を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の視線方向を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から視線方向検出部409(又は他の解析部)が特定した運転者4の視線方向をI/Oインタフェース14から取得するものであってもよい。また、自車両1の運転者4の視線方向、又は運転者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。
自車両1は、運転者4の目の位置を検出する赤外線カメラ等からなる目位置検出部411を含んでいてもよい。プロセッサ16は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで運転者4の目の位置を特定することができる。なお、プロセッサ16は、赤外線カメラの撮像画像から特定された運転者4の目の位置の情報をI/Oインタフェース14から取得するものであってもよい。なお、自車両1の運転者4の目の位置、又は運転者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ16は、運転者4の目の位置に基づき、画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した画像200を、目位置を検出した視認者(運転者4)に視認させてもよい。
携帯情報端末413は、スマートフォン、ノートパソコン、スマートウォッチ、又は運転者4(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース14は、携帯情報端末413とペアリングすることで、携帯情報端末413と通信を行うことが可能であり、携帯情報端末413(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末413は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。また、携帯情報端末413は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、携帯情報端末413は、携帯情報端末413の所持者(例えば、運転者4)のスケジュール情報、携帯情報端末413での着信情報、メールの受信情報などをプロセッサ16に送信し、プロセッサ16及び画像処理回路20は、これらに関する画像データを生成又は/及び送信してもよい。
車外通信接続機器420は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。車外通信接続機器420は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)の位置を取得し、プロセッサ16に送信してもよい。また、車外通信接続機器420は、上述の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ16に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ16に送信してもよい。なお、車外通信接続機器420から取得される情報は、上述のものに限定されない。
記憶部18に記憶されたソフトウェア構成要素は、実オブジェクト関連情報検出モジュール502、報知必要度検出モジュール504、画像種類決定モジュール506、画像位置決定モジュール508、画像サイズ決定モジュール510、目位置検出モジュール512、視認検出モジュール514、行動判定モジュール516、及びグラフィックモジュール518を含む。
実オブジェクト関連情報検出モジュール502は、後述する画像200の座標やサイズを決定する元となる、自車両1の前景300に存在する実オブジェクトの位置やサイズを検出する。実オブジェクト関連情報検出モジュール502は、例えば、道路情報データベース403、車外センサ407、又は車外通信接続機器420から、自車両1の前景300に存在する実オブジェクト310(例えば、図5Aに示された路面311、先行車312、歩行者313、及び建物314など)の位置(自車両1の運転者4が運転席から自車両1の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい)、及び実オブジェクト310のサイズ(高さ方向、横方向のサイズ)、を取得してもよい。
また、実オブジェクト関連情報検出モジュール502は、車外センサ407による実オブジェクトの位置やサイズを検出する際、検出精度が低下する環境(雨、霧、雪などの悪天候)であるかを判定してもよい。例えば、実オブジェクトの位置検出精度を計算し、検出精度の低下の度合い、検出精度が低下している位置、検出精度が低下するような環境(悪天候)であるか否かの判定結果を、プロセッサ16に送信してもよい。なお、携帯情報端末413、車外通信接続機器420などから自車両1が走行する位置の天候情報を取得することで悪天候を判定してもよい。
また、実オブジェクト関連情報検出モジュール502は、後述する画像200の内容(以下では、適宜「画像の種類」ともいう)を決定する元となる、自車両1の前景300に存在する実オブジェクトに関する情報(実オブジェクト関連情報)を検出してもよい。実オブジェクト関連情報は、例えば、実オブジェクトが、歩行者である、又は他車両であるなどの実オブジェクトの種類を示す種類情報、実オブジェクトの移動方向を示す移動方向情報、実オブジェクトまでの距離や到達時間を示す距離時間情報、又は駐車場(実オブジェクト)の料金などの実オブジェクトの個別詳細情報、である(但し、これらに限定されない)。例えば、実オブジェクト関連情報検出モジュール502は、道路情報データベース403又は携帯情報端末413から種類情報、距離時間情報、又は/及び個別詳細情報を取得し、車外センサ407から種類情報、移動方向情報、又は/及び距離時間情報を取得し、車外通信接続機器420から種類情報、移動方向情報、距離時間情報、又は/及び個別詳細情報を検出してもよい。
報知必要度検出モジュール504は、実オブジェクト関連情報検出モジュール502が検出した実オブジェクトの位置情報とともに、実オブジェクト関連情報検出モジュール502が検出した実オブジェクト関連情報を運転者4に報知する必要度(報知必要度)を検出する。報知必要度検出モジュール504は、I/Oインタフェース14に接続される種々の他の電子機器から報知必要度を検出してもよい。また、図2でI/Oインタフェース14に接続された電子機器が車両ECU401に情報を送信し、受信した情報に基づき車両ECU401が決定した報知必要度を、報知必要度検出モジュール504が検出(取得)してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、自車両1や運転者4(又は自車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。
また、報知必要度検出モジュール504は、画像200の報知必要度を推定する元となる必要度関連情報を検出し、これから報知必要度を推定してもよい。画像200の報知必要度を推定する元となる必要度関連情報は、例えば、実オブジェクトや交通規制(道路情報の一例)の位置、種類などで推定されてもよく、I/Oインタフェース14に接続される種々の他の電子機器から入力される他の情報に基づいて、又は他の情報を加味して推定されてもよい。なお、車両用表示システム10は、前記報知必要度を推定する機能を有していなくてもよく、前記報知必要度を推定する機能の一部又は全部は、車両用表示システム10の表示制御装置13とは別に設けられてもよい。
画像種類決定モジュール506は、例えば、実オブジェクト関連情報検出モジュール502により検出された実オブジェクトの種類、位置、実オブジェクト関連情報検出モジュール502で検出された実オブジェクト関連情報の種類、数、又は/及び報知必要度検出モジュール504で検出された(推定された)報知必要度の大きさに基づいて、実オブジェクトに対して表示する画像200の種類を決定することができる。また、画像種類決定モジュール506は、後述する視認検出モジュール514による判定結果により、表示する画像200の種類を増減させてもよい。具体的には、実オブジェクト310が運転者4によって視認されにくい状態である場合、実オブジェクトの近傍に運転者4によって視認される画像200の種類を多くしてもよい。
画像位置決定モジュール508は、実オブジェクト関連情報検出モジュール502により検出された実オブジェクトの位置に基づき、画像200の座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。特定の実オブジェクトに関連する画像200を表示する場合、画像位置決定モジュール508は、特定の実オブジェクトと所定の位置関係になるように画像200の座標を決定する。例えば、画像200の中心が実オブジェクトの中心と重なって視認されるように、画像200の左右方向、及び上下方向の位置を決定する。また、画像位置決定モジュール508は、画像200が直接関連しない実オブジェクトを基準に、所定の位置関係になるように、画像200の座標を決定することができる。例えば、図5Aに示すように、自車両1が走行する車線(路面310)の左側の区画線311a(実オブジェクトの一例)や右側の区画線311b(実オブジェクトの一例)を基準に、区画線とは直接関連しない先行車312(特定の実オブジェクトの一例)に関連する後述する第1FCW画像221の座標を決定(又は補正)してもよい。なお、『所定の位置関係』は、実オブジェクト又は自車両1の状況、実オブジェクトの種類、表示される画像の種類などにより調整され得る。
画像サイズ決定モジュール510は、実オブジェクト関連情報検出モジュール502により検出された画像200を対応付けて表示する実オブジェクトの種類、位置、実オブジェクト関連情報検出モジュール502で検出された実オブジェクト関連情報の種類、数、又は/及び報知必要度検出モジュール504で検出された(推定された)報知必要度の大きさに基づいて、画像200のサイズを決定することができる。また、画像サイズ決定モジュール510は、画像200の種類の数に応じて、画像サイズを変更できる。例えば、画像200の種類が多くなれば、画像サイズを小さくしてもよい。
目位置検出モジュール512は、自車両1の運転者4の眼の位置を検出する。目位置検出モジュール512は、複数段階で設けられた高さ領域のどこに運転者4の眼の高さがあるかの判定、運転者4の眼の高さ(Y軸方向の位置)の検出、運転者4の眼の高さ(Y軸方向の位置)及び奥行方向の位置(Z軸方向の位置)の検出、又は/及び運転者4の眼の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール512は、例えば、目位置検出部411から運転者4の眼の位置を取得する、又は、目位置検出部411から運転者4の目の高さを含む目の位置を推定可能な情報を受信し、運転者4の目の高さを含む目の位置を推定する。目の位置を推定可能な情報は、例えば、自車両1の運転席の位置、運転者4の顔の位置、座高の高さ、運転者4による図示しない操作部での入力値などであってもよい。
視認検出モジュール514は、自車両1の運転者4が所定の画像200を視認したかを検出する。視認検出モジュール514は、運転者4が所定の画像200を視認したかの判定、運転者4が所定の画像200の周辺(近傍)を視認したかの判定、に関する様々な動作を実行するための様々なソフトウェア構成要素を含む。視認検出モジュール514は、視線方向検出部409から取得した運転者4の後述する注視位置GZと、グラフィックモジュール518から取得した画像200の位置と、を比較して、画像200を運転者4が視認したかを判定し、視認しているか否かの判定結果と、視認された画像200を特定する情報を、プロセッサ16に送信してもよい。
また、視認検出モジュール514は、運転者4が所定の画像200の周辺(近傍)を視認したかの判定を行うために、画像200の外縁から外側に予め設定された所定の幅の領域を、画像200の周辺として設定し、この画像200の周辺に後述する注視位置GZが入ると、自車両1の運転者4が所定の画像200を視認したと判定してもよい。なお、視認判定は、これらの手段に限定されない。
また、視認検出モジュール514は、運転者4が画像200以外の何を視認しているかを検出してもよい。例えば、視認検出モジュール514は、実オブジェクト関連情報検出モジュール502が検出した自車両1の前景300に存在する実オブジェクト310の位置と、視線方向検出部409から取得した運転者4の後述する注視位置GZと、を比較することで、注視している実オブジェクト310を特定し、視認された実オブジェクト310を特定する情報を、プロセッサ16に送信してもよい。
行動判定モジュール516は、後述する第1情報画像210が示す情報に対して適当ではない運転者4の行動を検出する。いくつかの第1情報画像210には、それぞれ適当ではない運転者4の行動が対応づけて記憶部18に記憶されている。行動判定モジュール516は、特に、視認性が低下した第1情報画像210に対応付けられた適当ではない運転者4の行動が検出されたか否かを判定する。例えば、第1情報画像210が、経路案内情報を含む場合、経路案内が示す方向とは異なる分岐路を運転者4が注視していた場合、適当ではない運転者4の行動が検出されたと判定してもよい。また、第1情報画像210が、交通規制情報を含む場合、この交通規制を違反しそうな行動がなされた場合、適当ではない運転者4の行動が検出されたと判定してもよい。行動判定モジュール516が、行動を判定するために収集する情報は、車両ECU401から入力する自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)、視線方向検出部409から入力する視線方向などであるが、これらに限定されない。
グラフィックモジュール518は、表示される画像200の、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、サイズ、表示位置、表示距離(運転者4から画像200までの距離)を変更するための様々な既知のソフトウェア構成要素を含む。グラフィックモジュール518は、画像種類決定モジュール506が設定した種類、画像位置決定モジュール508が設定した座標(運転者4が自車両1の運転席から表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズ決定モジュール510が設定した画像サイズで運転者4に視認されるように画像200を表示する。
グラフィックモジュール518は、自車両1の前景300の実オブジェクト310と所定の位置関係となるように配置される拡張現実画像(AR画像)である、第1情報画像210と、第2情報画像220と、を少なくとも表示する。第1情報画像210は、視認検出モジュール514により、視認されたと判定されると、視認性を低下させる(非表示も含む)。他方、第2情報画像220は、視認検出モジュール514により、視認されたと判定されると、第1情報画像210より視認性を低下させない(第1情報画像210の視認性の低下の度合いより小さく(少なく)視認性を低下させること、又は視認性を変化させないこと、又は視認性を上昇させることも含む)。
「視認性を低下させる」とは、輝度を低くする、透明度を高くする、彩度を低くする、コントラストを低くする、サイズを小さくする、画像の種類を少なくする、これらの組み合わせ、又はこれらと他の要素の組み合わせを含んでもよい。逆に、「視認性を上昇させる」とは、輝度を高くする、透明度を低くする、彩度を高くする、コントラストを高くする、サイズを大きくする、画像の種類を多くする、これらの組み合わせ、又はこれらと他の要素の組み合わせを含んでもよい。
第1情報画像210は、起こり得る自体の重大さの程度から導き出される危険度が比較的低い情報であり、例えば、路面に重ねて表示され経路を示す矢印画像(ナビゲーション情報の一例)、目的地のテキスト画像(ナビゲーション情報の一例)、次ターニング地点までの距離を示す画像(ナビゲーション情報の一例)、前景300に存在する店舗や施設などを指示するPOI(Point of Interest)画像(地物情報の一例)、道路標識(案内標識、警戒標識、規制標識、指示標識、補助標識)に関する画像、先行車に追従走行する際に設定される車間距離を路面に重ねて表示するACC(Adaptive Cruise Control)画像などである。
第2情報画像220は、起こり得る自体の重大さの程度から導き出される危険度が比較的高い情報であり、例えば、自車両1の前景300に存在する障害物の近傍に視認される前方衝突予測警報(FCW:Forward Collision Warning)の画像である。
図3は、いくつかの実施形態に係る、画像の視認性を低下させる処理のフロー図である。まず、自車両1の運転者4の視線方向(後述する注視位置GZ)を取得(ステップS11)し、表示されている画像200の位置を取得する(ステップS12)。
次に、プロセッサ16は、ステップS11で取得した視線方向と、ステップS12で取得した画像200の位置と、を比較して、運転者4が視認した対象を特定する(ステップS13)。具体的には、プロセッサ16は、第1情報画像210が視認されているか、第2情報画像220が視認されているか、又は第1情報画像210あるいは第2情報画像220が視認されていないか判定する。第1情報画像210が視認されていれば、第1情報画像210のどの画像が視認されているかを特定する。
プロセッサ16は、ステップS13で運転者4が第1情報画像210を視認したと判定した場合、視認された第1情報画像210の視認性を低下させる。この際、プロセッサ16は、第1情報画像210を非表示とさせてもよい。また、プロセッサ16は、ステップS13で運転者4が第2情報画像220を視認したと判定した場合、第2情報画像220の視認性を低下させない、又は第2情報画像220の視認性を第1情報画像210の視認性の低下の度合いより小さく(少なく)低下させる。
図4は、いくつかの実施形態に係る、第2情報画像の視認性を上昇させる処理のフロー図である。少なくとも1つの第1情報画像210が、ステップS14の処理により、視認性が低下している場合に、処理が開始される。
まず、プロセッサ16は、運転者4の行動を取得し(ステップS21)、ステップS14の処理により視認性が低下している第1情報画像210が示す情報に対して適当ではない運転者4の行動が検出されたかを判定し(ステップS22)、適当ではない運転者4の行動がなされたと判定された場合、視認性を低下させていた第2情報画像220の視認性を上昇させる(ステップS23)。
上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る一般的なハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。
車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図2で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。
図5A、図5Bは、第1情報画像210が視認されたと判定された場合の、車両用表示システム10が表示する画像200の変化を示す図である。図5Aでは、第1情報画像210は、路面311に重畳して視認され、案内経路を示すナビゲーション画像211と、建物314(実オブジェクト310)を指示する駐車場を示す「P」の表記を含むイラストであるPOI画像212と、を含む。第2情報画像220は、自車両1の前方を走行する先行車312の後方の路面311に線状(ライン状)に視認される第1FCW画像221と、自車両1の走行車線の対向車線側の歩道を歩行する歩行者313の周囲の路面311に円弧状に視認される第2FCW画像222と、を含む。この他に、自車両1の前景300の実オブジェクト310と所定の位置関係となるように配置される拡張現実画像(AR画像)ではない第3情報画像として、制限速度を示す「80」の表記を含むイラストである道路情報画像231と、自車両1の速度を示す「35km/h」と表記される速度画像232と、が表示される。表示領域100は、第1表示領域110と、自車両1の運転席から前方を視認した際に第1表示領域110より上下方向下側(Y軸負方向)に配置される第2表示領域120と、を含み、AR画像である第1情報画像210と第2情報画像220は、第1表示領域110に表示され、第3情報画像231,232は、第2表示領域120に表示される。
図5Aに示すように、注視位置GZが、第1情報画像210であるナビゲーション画像211にある場合、プロセッサ16は、図3のステップS14の命令を実行し、図5Bに示すように、視認されたナビゲーション画像211(第1情報画像210)を非表示にする(視認性低下の一例)。この際、表示される位置が実オブジェクト310の位置に関係する拡張現実画像(AR画像)であるナビゲーション画像211の代わりに、表示される位置が実オブジェクト310の位置に関係しない非AR画像である第1ナビゲーション画像213(関連画像の一例)と、第2ナビゲーション画像214(関連画像の一例)と、が第2表示領域120に表示される。第1ナビゲーション画像213は、次の分岐路のおおよその方向を示す簡略化された画像である。また、第2ナビゲーション画像214は、次の分岐路までの距離を示す「200m先」と表記されたテキストである。
なお、図5Bに示す第1情報画像210であるナビゲーション画像211の視認性が低下している状況で、注視位置GZが直近の交差点の分岐路にあった場合、運転者4が直近の交差点で曲がろうとしていると推測することができる。ナビゲーション画像211が提示する分岐路が直近の交差点の分岐路ではないとすると、直近の交差点で曲がろうと推測できる運転者4の行動(直近の交差点の分岐路を注視している行動)は適当ではない行動である。したがって、このように適当ではない行動が検出された場合、プロセッサ16は、視認性を低下させていた第1情報画像210であるナビゲーション画像211の視認性を上昇させる。つまり、図5Bに示す状態から図5Aに示す状態に変化させる。これにより、運転者4に、直近の交差点で曲がるべきでないことを認識させることができる。
図6は、いくつかの実施形態に係る、画像の視認性を低下させる処理のフロー図である。図6のフロー図は、図3のフロー図に対応しており、図6のステップS31,32,33は、図3のステップS11,S12,S13にそれぞれ対応している。ここでは、図3との変化点であるステップS34について説明する。
プロセッサ16は、ステップS13で運転者4が第1情報画像210を視認したと判定した場合、視認された第1情報画像210の視認性を低下させる。また、プロセッサ16は、ステップS33で運転者4が第2情報画像220を視認したと判定した場合、視認された第2情報画像220を静止画から動画に変える、又は視認された第2情報画像220及び近くの他の第2情報画像220を静止画から動画に変えてもよい。
いくつかの実施形態では、プロセッサ16は、視認された第2情報画像220及び近くの他の第2情報画像220の数を連続的に変化させてもよい。具体的には、注視位置GZが第2情報画像220である第1FCW画像221の近傍にある場合、プロセッサ16は、視認された第1FCW画像221及び近くの他の第2FCW画像222を、図7Aに示す画像の数が少ない状態と、図7Bに示す画像の数が多い状態とで連続的/又は断続的に変化させてもよい。動画については、特に定義しないが、連続的/又は断続的に、画像の形状が繰り返し変化すること、画像の数が繰り返し変化すること、画像の位置が繰り返し変化すること、繰り返し点滅すること、繰り返しサイズが変化すること、などを含んでいてもよい。
以上に説明したように、本実施形態の表示制御装置は、自車両1の運転者4から見て前景300に重なる領域に画像200を表示する画像表示部11(12)を制御する表示制御装置13であって、1つ又はそれ以上のI/Oインタフェース14と、1つ又はそれ以上のプロセッサ16と、メモリ18と、メモリ18に格納され、1つ又はそれ以上のプロセッサ16によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、1つ又はそれ以上のプロセッサ16は、1つ又はそれ以上のI/Oインタフェース14から、運転者4の視線方向を取得し、視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像210と、視認されたと判定されると第1情報画像210より視認性を低下させない第2情報画像220と、を表示させる、命令を実行する。これにより、画像の種類により、視認された後の視認性の変化が異なり、第1情報画像であれば、視認性が低下することで運転者4の視界前方の実景を見やすくすることができ、第2情報画像であれば、あまり視認性が低下しないので、視認したあとでも画像を見やすくすることができる。
また、いくつかの実施形態では、第2情報画像220が示す情報のリスクポテンシャルの大きさに応じて、視線が向けられた際の第2情報画像220の視認性の変化度合いを決めてもよい。プロセッサ16は、第2情報画像220が示す情報のリスクポテンシャルが高いほど、視線が向けられた際の視認性の低下度合いを小さくしてもよい。すなわち、リスクポテンシャルが低ければ、視線が向けられた際の第2情報画像220の視認性を大きく低下させる(低下度合いを大きくする)。なお、プロセッサ16は、第2情報画像220の種類によって予め定められたリスクポテンシャルに応じて、視認性の低下度合いを変化させてもよく、第2情報画像220が表示されている状況(I/Oインタフェース14から得られる情報)に応じて算出されたリスクポテンシャルに応じて変化させてもよい。
また、いくつかの実施形態では、第2情報画像220に視線が向いた後、又は第2情報画像220に視線が向いて視認性を低下させた後、第2情報画像220が示す情報のリスクポテンシャルが高まらない場合、第2情報画像220の視認性を低下させてもよい。プロセッサ16は、第2情報画像220に視線が向いた後、又は第2情報画像220に視線が向いて視認性を低下させた後、第2情報画像220が示す情報のリスクポテンシャルを所定の期間だけ監視し、リスクポテンシャルが、定められた閾値より高くならない、大きく上昇しない、又は低下している場合、視認性をそのまま維持しておく必要度は低いと判定し、第2情報画像220の視認性を低下させてもよい。
また、いくつかの実施形態では、視線が第2情報画像220に向くと、第2情報画像220を動画表示させてもよい。プロセッサ16は、通常、第2情報画像220を静止画で表示しておき、視線が向くと、一部又は全部の第2情報画像220を動画にする。第1情報画像210は、視認されると視認性が低下するが、第2情報画像220が視認されると動画となるため、第1情報画像210が示す情報とは異なる情報であることを認識させ、第2情報画像220へ注意を向けさせることができる。なお、第2情報画像220は、一定期間、動画表示された後、再び静止画に変化させてもよい。また、プロセッサ16は、第2情報画像220を動画表示させるのと同じタイミングで視認された第2情報画像220の視認性を低下させてもよく、又は、動画表示された後、視認性を低下させてもよい。
また、いくつかの実施形態では、第2情報画像220が複数表示されている際、視線が所定の第2情報画像220に向くと、所定の第2情報画像220、及び他の第2情報画像220を動画表示させてもよい。例えば、図5Aにおいて、歩行者313に対応して表示された第2FCW画像222を運転者4が視認した場合、第2FCW画像222、及び他の先行車312に対応して表示された第1FCW画像221を動画としてもよい。このように他の情報画像も同様に動画表示させることで、視認した画像だけではなく、同様の画像にも視覚的注意を向かせることができる。
また、いくつかの実施形態では、第2情報画像220が複数表示されている際、視線が所定の第2情報画像220に向くと、所定の第2情報画像220、及び所定の第2情報画像220の近くの他の第2情報画像220を動画表示させてもよい。
また、いくつかの実施形態では、第2情報画像220が複数表示されている際、視線が所定の第2情報画像220に向くと、所定の第2情報画像220、及び他の第2情報画像220を同じ周期で動画表示させてもよい。これにより、視野を向けた画像と同様の画像がどのあたりに表示されているか識別しやすくすることができる。
また、いくつかの実施形態では、第1情報画像210が示す情報に対して適当ではない行動に関する情報を取得し、第1情報画像210の視認性を低下させた後、第1情報画像210が示す情報に対して適当ではない行動を運転者4がすると判定できる場合、第1情報画像210の視認性を上昇させてもよい。
また、いくつかの実施形態では、第1情報画像210の視認性を低下させた後、第1情報画像210に関連する関連画像(213、214)を、第1情報画像210又は第2情報画像220が表示される第1表示領域101とは異なる第2表示領域102に表示させてもよい。すなわち、第1情報画像210と重なる前景300の領域を見やすくすることができ、かつ第1情報画像210が示す情報を他の第2表示領域102で確認することができる。なお、プロセッサ16は、1つの第1情報画像210の視認性を低下させ、新たに2つ又はそれ以上の関連画像を表示させてもよい。これにより、関連画像により多くの情報を認識させることができ、AR画像である第1情報画像210の視認性の低下による情報の認識性の低下を抑制することができる。
1…自車両、2…フロントウインドシールド、4…運転者、5…ダッシュボード、10…車両用表示システム、11…画像表示部、11a…表示光、13…表示制御装置、14…I/Oインタフェース、16…プロセッサ、18…記憶部、20…画像処理回路、22…メモリ、100…表示領域、110…第1表示領域、120…第2表示領域、200…画像、210…第1情報画像、211…ナビゲーション画像、212…POI画像、213…第1ナビゲーション画像、214…第2ナビゲーション画像、220…第2情報画像、221…第1FCW画像、222…第2FCW画像、231…道路情報画像(第3情報画像)、232…速度画像(第3情報画像)、300…前景、310…実オブジェクト、311…路面、311a…区画線、311b…区画線、312…先行車、313…歩行者、314…建物、320…車線、401…車両ECU、403…道路情報データベース、405…自車位置検出部、407…車外センサ、409…視線方向検出部、411…目位置検出部、413…携帯情報端末、420…車外通信接続機器、502…実オブジェクト関連情報検出モジュール、504…報知必要度検出モジュール、506…画像種類決定モジュール、508…画像位置決定モジュール、510…画像サイズ決定モジュール、512…目位置検出モジュール、514…視認検出モジュール、516…行動判定モジュール、518…グラフィックモジュール、GZ…注視位置

Claims (18)

  1. 車両(1)の運転者から見て前景(300)に重なる領域に画像(200)を表示する画像表示部(11、12)を制御する表示制御装置(13)において、
    1つ又はそれ以上のI/Oインタフェース(14)と、
    1つ又はそれ以上のプロセッサ(16)と、
    メモリ(18)と、
    前記メモリ(18)に格納され、前記1つ又はそれ以上のプロセッサ(16)によって実行されるように構成される1つ又はそれ以上のコンピュータ・プログラムと、を備え、
    前記1つ又はそれ以上のプロセッサ(16)は、
    前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得し、
    前記視線方向に基づき、視認されたと判定されると視認性を低下させる第1情報画像(210)と、視認されたと判定されると前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示させる、
    命令を実行する、表示制御装置。
  2. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第2情報画像(220)が示す情報のリスクポテンシャルの大きさに応じて、前記視線が向けられた際の前記第2情報画像(220)の前記視認性の変化度合いを決める、
    命令を実行する、請求項1に記載の表示制御装置。
  3. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第2情報画像(220)に視線が向いた後、又は前記第2情報画像(220)に視線が向いて視認性を低下させた後、前記第2情報画像(220)が示す情報のリスクポテンシャルが高まらない場合、前記第2情報画像(220)の視認性を低下させる、
    命令を実行する、請求項1に記載の表示制御装置。
  4. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記視線が前記第2情報画像(220)に向くと、前記第2情報画像(220)を動画表示させる、
    命令を実行する、請求項1に記載の表示制御装置。
  5. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び他の第2情報画像(222〜)を動画表示させる、
    命令を実行する、請求項1に記載の表示制御装置。
  6. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び前記所定の第2情報画像(221)の近くの他の第2情報画像(222〜)を動画表示させる、
    命令を実行する、請求項1に記載の表示制御装置。
  7. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び他の第2情報画像(222〜)を同じ周期で動画表示させる、
    命令を実行する、請求項1に記載の表示制御装置。
  8. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第1情報画像(210)が示す情報に対して適当ではない行動を前記運転者がすることを推測可能な推測情報を取得し、
    前記第1情報画像(210)の視認性を低下させた後、前記第1情報画像(210)が示す情報に対して適当ではない行動を前記運転者がすると判定できる場合、前記推測情報に対応する前記第1情報画像(210)の視認性を上昇させる、
    命令を実行する、請求項1に記載の表示制御装置。
  9. 前記1つ又はそれ以上のプロセッサ(16)は、
    前記第1情報画像(210)の視認性を低下させた後、前記第1情報画像(210)に関連する関連画像(213、214)を、前記第1情報画像(210)又は前記第2情報画像(220)が表示される第1表示領域(101)とは異なる第2表示領域(102)に表示させる、
    命令を実行する、請求項1に記載の表示制御装置。
  10. 前記第2情報画像(220)は、前記前景(300)に存在する障害物、歩行者、他車両のうち少なくとも1つを強調するように近傍に表示される画像である、
    請求項1に記載の表示制御装置。
  11. 車両(1)の運転者から見て前景(300)に重なる領域に画像(200)を表示する画像表示部(11、12)を制御する方法であって、
    前記1つ又はそれ以上のI/Oインタフェース(14)から、前記運転者の視線方向を取得することと、
    視認されたと判定されると視認性を低下させる第1情報画像(210)と、前記視線が向いても前記第1情報画像(210)より視認性を低下させない第2情報画像(220)と、を表示することと、
    を含む方法。
  12. 前記視線が前記第2情報画像(220)に向くと、前記第2情報画像(220)を動画表示させること、
    を含む、請求項11に記載の方法。
  13. 前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び他の第2情報画像(222〜)を動画表示させること、
    を含む、請求項11に記載の方法。
  14. 前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び前記所定の第2情報画像(221)の近くの他の第2情報画像(222〜)を動画表示させること、
    を含む、請求項11に記載の方法。
  15. 前記第2情報画像(220)が複数表示されている際、前記視線が所定の第2情報画像(221)に向くと、前記所定の第2情報画像(221)、及び他の第2情報画像(222〜)を同じ周期で動画表示させること、
    を含む、請求項11に記載の方法。
  16. 前記第1情報画像(210)が示す情報に対して適当ではない行動を前記運転者がすることを推測可能な推測情報を取得することと、
    前記第1情報画像(210)の視認性を低下させた後、前記第1情報画像(210)が示す情報に対して適当ではない行動を前記運転者がすると判定できる場合、前記推測情報に対応する前記第1情報画像(210)の視認性を上昇させること、
    を含む、請求項11に記載の方法。
  17. 前記第1情報画像(210)の視認性を低下させた後、前記第1情報画像(210)に関連する関連画像(213、214)を、前記第1情報画像(210)又は前記第2情報画像(220)が表示される第1表示領域(101)とは異なる第2表示領域(102)に表示させること、
    を含む、請求項11に記載の方法。
  18. 請求項11乃至17のいずれかに記載の方法を実行するための命令を含む、コンピュータ・プログラム。
JP2020557598A 2018-11-23 2019-11-20 表示制御装置、方法、及びコンピュータ・プログラム Active JP7255608B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018219802 2018-11-23
JP2018219802 2018-11-23
PCT/JP2019/045494 WO2020105685A1 (ja) 2018-11-23 2019-11-20 表示制御装置、方法、及びコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JPWO2020105685A1 true JPWO2020105685A1 (ja) 2021-11-04
JP7255608B2 JP7255608B2 (ja) 2023-04-11

Family

ID=70773132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020557598A Active JP7255608B2 (ja) 2018-11-23 2019-11-20 表示制御装置、方法、及びコンピュータ・プログラム

Country Status (4)

Country Link
JP (1) JP7255608B2 (ja)
CN (1) CN113165510B (ja)
DE (1) DE112019005849T5 (ja)
WO (1) WO2020105685A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434620A (zh) * 2021-06-25 2021-09-24 阿波罗智联(北京)科技有限公司 显示方法、装置、设备、存储介质以及计算机程序产品
EP4265463A1 (en) * 2022-04-19 2023-10-25 Volkswagen Ag Vehicle, head-up display, augmented reality device, apparatuses, methods and computer programs for controlling an augmented reality device and for controlling a visualization device
CN116572837A (zh) * 2023-04-27 2023-08-11 江苏泽景汽车电子股份有限公司 一种信息显示控制方法及装置、电子设备、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017039373A (ja) * 2015-08-19 2017-02-23 トヨタ自動車株式会社 車両用映像表示システム
JP2017226272A (ja) * 2016-06-21 2017-12-28 日本精機株式会社 車両用情報提供装置

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330812B2 (en) * 1995-05-30 2012-12-11 Simulated Percepts, Llc Method and apparatus for producing and storing, on a resultant non-transitory storage medium, computer generated (CG) video in correspondence with images acquired by an image acquisition device tracked in motion with respect to a 3D reference frame
JP3877127B2 (ja) * 2000-06-15 2007-02-07 マツダ株式会社 車両用表示装置
JP4698002B2 (ja) * 2000-07-11 2011-06-08 マツダ株式会社 車両の表示装置
JP3870409B2 (ja) * 2000-08-03 2007-01-17 マツダ株式会社 車両用表示装置
JP2002293162A (ja) * 2001-03-30 2002-10-09 Yazaki Corp 車両用表示装置
JP4026144B2 (ja) * 2004-01-20 2007-12-26 マツダ株式会社 車両用画像表示装置
JP2007045169A (ja) * 2005-08-05 2007-02-22 Aisin Aw Co Ltd 車両用情報処理装置
JP4715718B2 (ja) * 2006-10-24 2011-07-06 株式会社デンソー 車両用表示装置
JP2008282168A (ja) * 2007-05-09 2008-11-20 Toyota Motor Corp 意識状態検出装置
JP2009292409A (ja) * 2008-06-09 2009-12-17 Yazaki Corp ヘッドアップディスプレイ装置
JP5245930B2 (ja) * 2009-03-09 2013-07-24 株式会社デンソー 車載表示装置
JP5842419B2 (ja) * 2011-07-06 2016-01-13 日本精機株式会社 ヘッドアップディスプレイ装置
JP5406328B2 (ja) * 2012-03-27 2014-02-05 株式会社デンソーアイティーラボラトリ 車両用表示装置、その制御方法及びプログラム
JP6232691B2 (ja) * 2012-07-27 2017-11-22 株式会社Jvcケンウッド 車両用表示制御装置、車両用表示装置及び車両用表示制御方法
WO2014097404A1 (ja) * 2012-12-18 2014-06-26 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP6037923B2 (ja) * 2013-04-08 2016-12-07 三菱電機株式会社 表示情報生成装置および表示情報生成方法
JP6413207B2 (ja) * 2013-05-20 2018-10-31 日本精機株式会社 車両用表示装置
JP2015041969A (ja) * 2013-08-23 2015-03-02 ソニー株式会社 画像取得装置及び画像取得方法、並びに情報配信システム。
JP6225379B2 (ja) * 2013-12-23 2017-11-08 日本精機株式会社 車両情報投影システム
JP6253417B2 (ja) * 2014-01-16 2017-12-27 三菱電機株式会社 車両情報表示制御装置
JP6443716B2 (ja) * 2014-05-19 2018-12-26 株式会社リコー 画像表示装置、画像表示方法及び画像表示制御プログラム
JP6379779B2 (ja) * 2014-07-16 2018-08-29 日産自動車株式会社 車両用表示装置
JP6348791B2 (ja) * 2014-07-16 2018-06-27 クラリオン株式会社 表示制御装置および表示制御方法
JP2016031603A (ja) * 2014-07-28 2016-03-07 日本精機株式会社 車両用表示システム
JP2016055801A (ja) * 2014-09-11 2016-04-21 トヨタ自動車株式会社 車載表示装置
JP2016107947A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP6504431B2 (ja) * 2014-12-10 2019-04-24 株式会社リコー 画像表示装置、移動体、画像表示方法及びプログラム
US10232772B2 (en) * 2015-03-26 2019-03-19 Mitsubishi Electric Corporation Driver assistance system
JP2017097687A (ja) * 2015-11-26 2017-06-01 矢崎総業株式会社 車両用情報提示装置
US20180356641A1 (en) * 2015-12-01 2018-12-13 Nippon Seiki Co., Ltd. Head-up display
JP2017138350A (ja) * 2016-02-01 2017-08-10 アルプス電気株式会社 画像表示装置
JP6272375B2 (ja) * 2016-03-18 2018-01-31 株式会社Subaru 車両用表示制御装置
JP2017200786A (ja) * 2016-05-02 2017-11-09 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
JP2016193723A (ja) * 2016-06-24 2016-11-17 パイオニア株式会社 表示装置、プログラム、及び記憶媒体
JP2018022958A (ja) * 2016-08-01 2018-02-08 株式会社デンソー 車両用表示制御装置及び車両用モニタシステム
JP6643969B2 (ja) * 2016-11-01 2020-02-12 矢崎総業株式会社 車両用表示装置
JP2018120135A (ja) * 2017-01-26 2018-08-02 日本精機株式会社 ヘッドアップディスプレイ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017039373A (ja) * 2015-08-19 2017-02-23 トヨタ自動車株式会社 車両用映像表示システム
JP2017226272A (ja) * 2016-06-21 2017-12-28 日本精機株式会社 車両用情報提供装置

Also Published As

Publication number Publication date
CN113165510A (zh) 2021-07-23
WO2020105685A1 (ja) 2020-05-28
JP7255608B2 (ja) 2023-04-11
DE112019005849T5 (de) 2021-09-02
CN113165510B (zh) 2024-01-30

Similar Documents

Publication Publication Date Title
US9639990B2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US20160185219A1 (en) Vehicle-mounted display control device
US11525694B2 (en) Superimposed-image display device and computer program
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP7255608B2 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020032866A (ja) 車両用仮想現実提供装置、方法、及びコンピュータ・プログラム
US9836814B2 (en) Display control apparatus and method for stepwise deforming of presentation image radially by increasing display ratio
US20230135641A1 (en) Superimposed image display device
JP6186905B2 (ja) 車載表示装置およびプログラム
JP7459883B2 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
WO2022230995A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
WO2020158601A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
WO2021200914A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
JP2020086884A (ja) 区画線推定装置、表示制御装置、方法、及びコンピュータ・プログラム
JP2020117105A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020121607A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
JP2020121704A (ja) 表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
JP7434894B2 (ja) 車両用表示装置
JP2020154468A (ja) 運転支援装置、方法、及びコンピュータ・プログラム
US20210129751A1 (en) Side and rear reflection controller and side and rear reflection control method
WO2023145852A1 (ja) 表示制御装置、表示システム、及び表示制御方法
JP7255596B2 (ja) 表示制御装置、ヘッドアップディスプレイ装置
JP2020199883A (ja) 表示制御装置、ヘッドアップディスプレイ装置、方法、及びコンピュータ・プログラム
JP2019121140A (ja) 表示制御装置、ヘッドアップディスプレイ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7255608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150