KR20230032888A - 표시 제어 장치, 표시 시스템, 표시 방법 및 비일시적 기억 매체 - Google Patents

표시 제어 장치, 표시 시스템, 표시 방법 및 비일시적 기억 매체 Download PDF

Info

Publication number
KR20230032888A
KR20230032888A KR1020220093902A KR20220093902A KR20230032888A KR 20230032888 A KR20230032888 A KR 20230032888A KR 1020220093902 A KR1020220093902 A KR 1020220093902A KR 20220093902 A KR20220093902 A KR 20220093902A KR 20230032888 A KR20230032888 A KR 20230032888A
Authority
KR
South Korea
Prior art keywords
display
display unit
content
unit
control device
Prior art date
Application number
KR1020220093902A
Other languages
English (en)
Other versions
KR102633253B1 (ko
Inventor
도모히로 이나다
히토시 무라키
Original Assignee
도요타 지도샤(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 도요타 지도샤(주) filed Critical 도요타 지도샤(주)
Publication of KR20230032888A publication Critical patent/KR20230032888A/ko
Application granted granted Critical
Publication of KR102633253B1 publication Critical patent/KR102633253B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/04Contact lenses for the eyes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/001Arbitration of resources in a display system, e.g. control of access to frame buffer by video controller and/or main processor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/178Warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/182Distributing information between displays
    • B60K2370/152
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/028Improving the quality of display appearance by changing the viewing angle properties, e.g. widening the viewing angle, adapting the viewing angle to the view direction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Otolaryngology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)

Abstract

표시 제어 장치 (20) 는, 이동체 (12) 에 고정된 제 1 표시부 (24) 또는 인체에 장착되는 제 2 표시부 (14 ; 18) 에 있어서, 상기 제 1 표시부 (24) 또는 상기 제 2 표시부 (14 ; 18) 를 투과하여 시인되는 실상을 대상으로 하여, 상기 대상에게 중첩 표시되는 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 결정하고, 소정의 조건에 기초하여 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 상기 제 1 표시부 (24) 및 상기 제 2 표시부 (14 ; 18) 중 어느 것에 표시시킬지를 선택하고, 선택된 상기 제 1 표시부 (24) 또는 상기 제 2 표시부 (14 ; 18) 에 있어서 상기 대상에 맞추어 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 중첩 표시시키도록 구성되어 있는 프로세서 (20A) 를 포함한다.

Description

표시 제어 장치, 표시 시스템, 표시 방법 및 비일시적 기억 매체{DISPLAY CONTROL DEVICE, DISPLAY SYSTEM, DISPLAY METHOD, AND NON-TRANSITORY STORAGE MEDIUM}
본 개시는, 표시 제어 장치, 표시 시스템, 표시 방법 및 비일시적 기억 매체에 관한 것이다.
일본 공개특허공보 2019-138773 에는, 프론트 유리에 화상을 중첩하는 AR-HUD 가 개시되고, 미국 특허출원 공개 제2016/0097940 에는, 콘택트 렌즈에 표시부를 구비한 스마트 콘택트 렌즈가 개시되어 있다.
HUD 나 콘택트 렌즈를 AR 표시기로 하는 경우, HUD 는 시야각이 한정되어, 콘택트 렌즈는 표시의 정밀도가 얻어지지 않는다.
본 개시는, 상이한 표시부의 각각의 특징을 보완하여 사용자에게 있어서 시인하기 쉬운 표시를 제공하는 표시 제어 장치, 표시 시스템, 표시 방법 및 비일시적 기억 매체를 제공한다.
본 개시의 제 1 양태에 관련된 표시 제어 장치는, 이동체에 고정된 제 1 표시부 또는 인체에 장착되는 제 2 표시부에 있어서, 상기 제 1 표시부 또는 상기 제 2 표시부를 투과하여 시인되는 실상을 대상으로 하여, 상기 대상에게 중첩 표시되는 콘텐츠를 결정하고, 소정의 조건에 기초하여 상기 콘텐츠를 상기 제 1 표시부 및 상기 제 2 표시부 중 어느 것에 표시시킬지를 선택하고, 선택된 상기 제 1 표시부 또는 상기 제 2 표시부에 있어서 상기 대상에 맞추어 상기 콘텐츠를 중첩 표시시키도록 구성되어 있는 프로세서를 구비한다.
본 개시의 제 1 양태에 관련된 표시 제어 장치에서는, 프로세서가 제 1 표시부 또는 제 2 표시부에 대해 콘텐츠를 표시하도록 구성되어 있다. 여기서, 제 1 표시부는, 차량 등의 이동체에 고정되고, 제 2 표시부는 헤드부 또는 눈동자 등의 인체에 대해 장착되어 있어도 된다. 당해 표시 제어 장치에 있어서 프로세서는, 소정의 조건에 기초하여 콘텐츠를 표시시키는 표시부를 선택하고, 선택된 표시부에 있어서 투과하여 시인되는 실상을 대상으로 하여, 상기 대상에 대해 콘텐츠를 중첩 표시시킨다. 당해 표시 제어 장치에 의하면, 상이한 표시부의 각각의 특징을 보완하여 사용자에게 있어서 시인하기 쉬운 표시를 제공할 수 있다.
본 개시의 제 1 양태에 관련된 표시 제어 장치에 있어서, 상기 프로세서는, 상기 콘텐츠를 중첩 표시시키는 상기 대상, 상기 이동체로부터 상기 대상까지의 거리, 상기 제 1 표시부 및 상기 제 2 표시부의 각각의 시야각에 대한 상기 콘텐츠의 표시 위치에 관한 조건 중 적어도 어느 하나의 조건에 기초하여 상기 콘텐츠를 상기 제 1 표시부 및 상기 제 2 표시부 중 어느 것에 표시시킬지를 선택하도록 구성되어 있어도 된다.
본 개시의 제 1 양태에 관련된 표시 제어 장치에 의하면, 조건마다 적합한 표시부를 선택할 수 있다.
본 개시의 제 1 양태에 관련된 표시 제어 장치에 있어서, 상기 프로세서는, 상기 콘텐츠의 표시 위치가 상기 제 1 표시부의 표시 영역의 외측에 있는 경우, 상기 콘텐츠를 상기 제 2 표시부에 표시시키도록 구성되어 있어도 된다.
본 개시의 제 1 양태에 관련된 표시 제어 장치에 의하면, 제 1 표시부의 표시 영역 외의 콘텐츠의 표시를 제 2 표시부에 의해 보완할 수 있다.
본 개시의 제 1 양태에 관련된 표시 제어 장치에 있어서, 상기 프로세서는, 상기 이동체로부터 상기 대상까지의 거리가 소정값보다 큰 경우, 상기 콘텐츠를 상기 제 2 표시부에 표시시키도록 구성되어 있어도 된다.
본 개시의 제 1 양태에 관련된 표시 제어 장치에 의하면, 제 1 표시부에 있어서 먼 곳의 표시 대상에 대해 콘텐츠의 시점 거리가 어긋나는 경우라도, 제 2 표시부에 의해 콘텐츠의 표시를 보완할 수 있다.
본 개시의 제 2 양태에 관련된 표시 시스템은, 표시 제어 장치와, 상기 이동체인 차량에 탑재된 상기 제 1 표시부로서의 헤드업 디스플레이와, 상기 차량의 탑승자의 눈동자에 장착된 제 2 표시부에 포함되는 스마트 콘택트 렌즈를 구비하고 있어도 된다.
본 개시의 제 2 양태에 관련된 표시 시스템에 의하면, 차량에 있어서 특징이 상이한 표시부를 구분하여 사용함으로써, 탑승자에 대해 시인하기 쉬운 표시를 제공할 수 있다.
본 개시의 제 3 양태에 관련된 표시 방법은, 이동체에 고정된 제 1 표시부 또는 인체에 장착되는 제 2 표시부에 있어서, 상기 제 1 표시부 또는 상기 제 2 표시부를 투과하여 시인되는 실상을 대상으로 하여, 상기 대상에게 중첩 표시되는 콘텐츠를 결정하는 제 1 스텝, 소정의 조건에 기초하여 상기 콘텐츠를 상기 제 1 표시부 및 상기 제 2 표시부 중 어느 것에 표시시킬지를 선택하는 제 2 스텝, 선택된 상기 제 1 표시부 또는 상기 제 2 표시부에 있어서 상기 대상에 맞추어 상기 콘텐츠를 중첩 표시시키는 제 3 스텝을 구비하고, 상기 제 1 스텝, 상기 제 2 스텝 및 상기 제 3 스텝의 처리는 컴퓨터에 의해 실행된다.
본 개시의 제 3 양태에 관련된 표시 방법에서는, 컴퓨터가 제 1 표시부 또는 제 2 표시부에 대해 콘텐츠를 표시하도록 구성되어 있다. 여기서, 제 1 표시부 및 제 2 표시부의 양태에 대해서는 상기 서술한 바와 같다. 당해 표시 방법에 있어서 컴퓨터는, 소정의 조건에 기초하여 콘텐츠를 표시시키는 표시부를 선택하고, 선택된 표시부에 있어서 투과하여 시인되는 실상에 대해 콘텐츠를 중첩 표시시킨다. 당해 표시 방법에 의하면, 상이한 표시부의 각각의 특징을 보완하여 사용자에게 있어서 시인하기 쉬운 표시를 제공할 수 있다.
본 개시의 제 4 양태에 관련된 비일시적 기억 매체는, 1 개 또는 복수의 프로세서로 실행 가능한 명령이고, 또한, 상기 1 개 또는 복수의 프로세서에 이하의 기능을 실행시키는 명령을 격납하고 있고, 이동체에 고정된 제 1 표시부 또는 인체에 장착되는 제 2 표시부에 있어서, 상기 제 1 표시부 또는 상기 제 2 표시부를 투과하여 시인되는 실상을 대상으로 하여, 상기 대상에게 중첩 표시되는 콘텐츠를 결정하는 것, 소정의 조건에 기초하여 상기 콘텐츠를 상기 제 1 표시부 및 상기 제 2 표시부 중 어느 것에 표시시킬지를 선택하는 것, 선택된 상기 제 1 표시부 또는 상기 제 2 표시부에 있어서 상기 대상에 맞추어 상기 콘텐츠를 중첩 표시시키는 것을 구비한다.
본 개시의 제 4 양태에 관련된 비일시적 기억 매체는, 제 1 표시부 또는 제 2 표시부에 대해 콘텐츠를 표시하는 기능을 프로세서에 실행시키는 명령을 격납하고 있다. 여기서, 제 1 표시부 및 제 2 표시부의 양태에 대해서는 상기 서술한 바와 같다. 본 비일시적 기억 매체는, 소정의 조건에 기초하여 콘텐츠를 표시시키는 표시부를 선택하고, 선택된 표시부에 있어서 투과하여 시인되는 실상에 대해 콘텐츠를 중첩 표시시키는 기능을 프로세서에 실행시키는 명령을 격납하고 있다. 당해 비일시적 기억 매체에 의하면, 상이한 표시부의 각각의 특징을 보완하여 사용자에게 있어서 시인하기 쉬운 표시를 제공할 수 있다.
본 개시에 의하면, 상이한 표시부의 각각의 특징을 보완하여 사용자에게 있어서 시인하기 쉬운 표시를 제공할 수 있다.
본 발명의 예시적인 실시형태들의 특징들, 이점들, 및 기술적 및 산업적 중요성은 첨부하는 도면들을 참조하여 이하에 기술될 것이며, 동일한 부호는 동일한 엘리먼트들을 나타낸다.
도 1 은, 제 1 실시형태에 관련된 표시 시스템의 개략 구성을 나타내는 도면이다.
도 2 는, 제 1 실시형태의 차량의 하드웨어 구성을 나타내는 블록도이다.
도 3 은, 제 1 실시형태의 표시 제어 장치에 있어서의 ROM 의 구성을 나타내는 블록도이다.
도 4 는, 제 1 실시형태의 표시 제어 장치에 있어서의 CPU 의 기능 구성을 나타내는 블록도이다.
도 5 는, 제 1 실시형태에 관련된 스마트 콘택트 렌즈의 하드웨어 구성을 나타내는 도면이다.
도 6 은, 제 1 실시형태에 있어서의 표시 처리의 흐름을 나타내는 플로 차트이다.
도 7 은, 제 1 실시형태에 있어서의 선택 처리의 흐름을 나타내는 플로 차트이다.
도 8 은, 제 1 실시형태에 있어서, 헤드업 디스플레이에 의한 표시를 설명하는 도면이다.
도 9 는, 제 1 실시형태에 있어서, 스마트 콘택트 렌즈에 의한 표시를 설명하는 도면이다.
도 10 은, 제 2 실시형태에 관련된 표시 시스템의 개략 구성을 나타내는 도면이다.
도 11 은, 제 2 실시형태에 있어서의 선택 처리의 흐름을 나타내는 플로 차트이다.
이하, 도면을 사용하여 본 개시의 실시형태인 표시 시스템 (10) 에 대해 설명한다.
[제 1 실시형태]
(전체 구성)
도 1 에 나타내는 바와 같이, 제 1 실시형태의 표시 시스템 (10) 은, 표시 제어 장치 (20), 헤드업 디스플레이 (24), 스마트 콘택트 렌즈 (14) 및 스마트폰 (16) 을 포함하여 구성되어 있다. 헤드업 디스플레이 (24) 및 스마트 콘택트 렌즈 (14) 는, 차량 (12) 의 탑승자에 대해, 차량 (12) 의 각종 기능에 관련된 표시를 제공하는 표시부 (DS) 로서 제공되어 있다. 또, 본 실시형태의 헤드업 디스플레이 (24) 및 스마트 콘택트 렌즈 (14) 는, AR (AugmentedReality : 확장 현실) 기술을 사용하여, 화상이나 문자 등의 콘텐츠를 차 밖의 풍경에 중첩시켜 표시하는 것을 가능하게 하고 있다. 헤드업 디스플레이 (24) 는, 제 1 표시부의 일례이고, 스마트 콘택트 렌즈 (14) 는 제 2 표시부의 일례이다.
표시 제어 장치 (20) 및 헤드업 디스플레이 (24)는 그 주된 구성이 대시 보드 (12A) (도 8 및 도 9 참조) 의 내부에 수용되어 있다. 스마트 콘택트 렌즈 (14) 는 탑승자의 눈동자에 장착되어 있다. 스마트폰 (16) 은 탑승자가 소지하고 있다.
헤드업 디스플레이 (24) 는 표시 제어 장치 (20) 와 전기적으로 접속되어 있다. 또, 스마트 콘택트 렌즈 (14) 는, 스마트폰 (16) 을 통하여 표시 제어 장치 (20) 와 통신 가능하게 접속되어 있다. 그러나, 이 형태에 한정되지 않고, 스마트 콘택트 렌즈 (14) 는, 스마트폰 (16) 을 통하지 않고, 표시 제어 장치 (20) 와 직접 통신해도 된다.
(차량)
도 2 에 나타내는 바와 같이, 차량 (12) 은, 표시 제어 장치 (20), ECU (22) 및 헤드업 디스플레이 (24) 를 적어도 포함하여 구성되어 있다. 또, 차량 (12) 은, GPS 장치 (30), 외부 카메라 (34) 및 시선 카메라 (36) 가 탑재되어 있다.
ECU (22) 는, 카 내비게이션 ECU (22A), ADAS (Advanced Driver Assistance System)-ECU (22B), 및 보디 ECU (22C) 를 포함한다.
카 내비게이션 ECU (22A) 는, 카 내비게이션 시스템을 제어한다. 카 내비게이션 ECU (22A) 에는, GPS 장치 (30) 가 접속되어 있다. GPS 장치 (30) 는 차량 (12) 의 현재 위치를 측정하는 장치이다. GPS 장치 (30) 는, GPS 위성으로부터의 신호를 수신하는 도시되지 않은 안테나를 포함하고 있다. 또한, GPS 장치 (30) 는, 표시 제어 장치 (20) 에 대해 직접 접속되어 있어도 된다.
ADAS-ECU (22B) 는, 선진 운전 지원 시스템을 통괄 제어한다. ADAS-ECU (22B) 에는, 적어도 차량 (12) 의 전방을 촬상하는 외부 센서인 외부 카메라 (34) 가 접속되어 있다. ADAS-ECU (22B) 에는, 외부 카메라 (34) 외에, 차량 (12) 의 주변 환경의 검출에 사용되는 센서군으로서, 탐사파를 송신하여 반사파를 수신하는 밀리파 레이저, 및 차량 (12) 의 전방을 스캔하는 라이더 (Laser Imaging Detection and Ranging) 등이 접속되어 있다. 또, ADAS-ECU (22B) 에는, 브레이크 및 액셀의 각각을 구동시키는 도시되지 않은 액추에이터가 접속되어 있다. 또한, 외부 카메라 (34) 는, 표시 제어 장치 (20) 에 대해 직접 접속되어 있어도 된다.
보디 ECU (22C) 는, 와이퍼나 라이트류를 제어한다. 보디 ECU (22C) 에는, 예를 들어, 전조등, 윙커 등의 스위치가 접속되어 있다.
헤드업 디스플레이 (24) 는, 투영 장치 (26) 및 액추에이터 (28) 를 포함하여 구성되어 있다. 액추에이터 (28) 는, 투영 장치 (26) 로부터 투영된 화상을 반사하는 미러의 각도, 및 당해 미러와 투영 장치 (26) 의 거리를 조정하기 위한 구동 장치이다.
시선 카메라 (36) 는, 적어도 탑승자의 얼굴을 촬상하는 카메라로서, 탑승자의 시선을 검출한다. 시선 카메라 (36) 는, 후술하는 입출력 I/F (20F) 에 접속되어 있다.
헤드업 디스플레이 (24) 는, 프론트 윈도우 (12B) 에 소정의 영역의 투영면 (PA) 을 갖고 (도 8 및 도 9 참조), 투영 장치 (26) 로부터 투영된 화상이 표시된다. 이 투영면 (PA) 은, 헤드업 디스플레이 (24) 의 표시 영역으로 간주할 수 있다. 또한, 헤드업 디스플레이 (24) 의 투영면은, 프론트 윈도우 (12B) 에 한정되지 않고, 대시 보드 (12A) 에 형성된 컴바이너 (반사판) 가 투영면이어도 된다.
본 실시형태의 표시 제어 장치 (20) 는, 외부 카메라 (34) 의 촬상 화상을 기초로 헤드업 디스플레이 (24) 에 표시시키는 콘텐츠의 위치를 설정한다. 이 때, 시선 카메라 (36) 의 영상을 기초로 탑승자의 아이포인트의 삼차원 좌표를 취득하고, 취득한 삼차원 좌표에 기초하여 촬상 화상의 촬영 장소가 탑승자의 아이포인트에 보정된다. 이로써, 헤드업 디스플레이 (24) 에서는, 콘텐츠의 표시 대상이 되는 실상에 대해, 당해 대상에 맞추어 콘텐츠를 중첩 표시시킬 수 있다. 또한, 외부 카메라 (34) 의 촬상 화상에 기초하여 주행 중의 주행로, 다른 차량 및 보행자를 가상 공간 상에 배치함과 함께, 가상 공간에 있어서의 표시 대상에 대해 콘텐츠의 위치를 설정해도 된다. 이 경우에도 헤드업 디스플레이 (24) 에서는, 콘텐츠의 표시 대상이 되는 실상에 대해, 당해 대상에 맞추어 콘텐츠를 중첩 표시시킬 수 있다.
표시 제어 장치 (20) 는, CPU (Central Processing Unit) (20A), ROM (Read Only Memory) (20B), RAM (Random Access Memory) (20C), 무선 통신 I/F (Interface) (20D), 차내 통신 I/F (20E) 및 입출력 I/F (20F) 를 포함하여 구성되어 있다. CPU (20A), ROM (20B), RAM (20C), 무선 통신 I/F (20D), 차내 통신 I/F (20E) 및 입출력 I/F (20F) 는, 내부 버스 (20G) 를 통하여 서로 통신 가능하게 접속되어 있다.
CPU (20A) 는, 중앙 연산 처리 유닛이고, 각종 프로그램을 실행하거나, 각 부를 제어하거나 한다. 즉, CPU (20A) 는, ROM (20B) 으로부터 프로그램을 판독 출력하고, RAM (20C) 을 작업 영역으로 하여 프로그램을 실행한다. CPU (20A) 는, 본 개시의 프로세서로 간주할 수 있다.
ROM (20B) 은, 각종 프로그램 및 각종 데이터를 기억하고 있다. 도 3 에 나타내는 바와 같이, 본 실시형태의 ROM (20B) 은, 처리 프로그램 (100), 및 화상 데이터 (110) 를 기억하고 있다. 또한, 처리 프로그램 (100) 및 화상 데이터 (110) 는, HDD (Hard Disk Drive) 또는 SSD (Solid State Drive) 등의 스토리지에 기억되어 있어도 된다.
표시 프로그램으로서의 처리 프로그램 (100) 은, 후술하는 표시 처리 및 선택 처리를 실시하기 위한 프로그램이다. 화상 데이터 (110) 는, 헤드업 디스플레이 (24) 에 표시시키는 화상인 콘텐츠를 기억한 데이터이다.
도 2 에 나타내는 바와 같이, RAM (20C) 은, 작업 영역으로서 일시적으로 프로그램 또는 데이터를 기억한다.
무선 통신 I/F (20D) 는, 스마트폰 (16) 또는 후술하는 스마트 글라스 (18) 로 접속하기 위한 인터페이스이다. 무선 통신 I/F (20D) 에서는, Bluetooth (등록상표), Wi-Fi (등록상표) 등의 통신 규격이 사용된다.
차내 통신 I/F (20E) 는, 각 ECU (22) 와 접속하기 위한 인터페이스이다. 당해 인터페이스는, CAN (Controller Area Network) 프로토콜에 의한 통신 규격이 사용되고 있다. 차내 통신 I/F (20E) 는, 외부 버스 (20H) 를 통하여 각 ECU (22) 와 접속되어 있다.
입출력 I/F (20F) 는, 헤드업 디스플레이 (24) 를 구성하는 투영 장치 (26) 및 액추에이터 (28) 와 통신하기 위한 인터페이스이다.
도 4 에 나타내는 바와 같이 본 실시형태의 표시 제어 장치 (20) 에서는, CPU (20A) 가, 처리 프로그램 (100) 을 실행함으로써, 취득부 (200), 결정부 (210), 선택부 (220) 및 표시 제어부 (230) 로서 기능한다.
취득부 (200) 는, 차량 (12) 에 있어서의 촬상 화상, 및 차량 (12) 의 제어 등에 관련된 차량 정보를 취득하는 기능을 가지고 있다. 예를 들어, 취득부 (200) 는, 외부 카메라 (34) 및 시선 카메라 (36) 의 촬상 화상을 취득한다. 또 예를 들어, 취득부 (200) 는, 카 내비게이션 ECU (22A) 로부터 목적지까지의 진로를 취득한다. 또 예를 들어, 취득부 (200) 는, ADAS-ECU (22B) 로부터 차량 (12) 의 속도, 가속도, 요 레이트 등을 취득한다.
결정부 (210) 는, 헤드업 디스플레이 (24), 및 스마트 콘택트 렌즈 (14) 에 표시시키는 콘텐츠를 결정하는 기능을 가지고 있다. 예를 들어, 결정부 (210) 는, 화상 데이터 (110) 로부터 카 내비게이션에 사용하는 화살표 등의 화상을 콘텐츠로서 결정한다. 또 예를 들어, 결정부 (210) 는, 차속에 대응하는 숫자의 화상을 콘텐츠로서 결정한다.
선택부 (220) 는, 소정의 조건에 기초하여 결정부 (210) 가 결정한 콘텐츠를 헤드업 디스플레이 (24) 및 스마트 콘택트 렌즈 (14) 중 어느 표시부 (DS) 에 표시시키는지를 선택하는 기능을 가지고 있다. 선택부 (220) 는, 후술하는 선택 처리를 실행함으로써, 표시시키는 콘텐츠의 각각에 대해, 헤드업 디스플레이 (24) 및 스마트 콘택트 렌즈 (14) 중 어느 표시부 (DS) 에 표시시키는지를 선택한다.
표시 제어부 (230) 는, 콘텐츠를 선택부 (220) 에 의해 선택된 표시부 (DS) 에 표시시키는 기능을 가지고 있다.
(스마트 콘택트 렌즈)
스마트 콘택트 렌즈 (14) 는, 차량 (12) 의 탑승자의 눈동자에 장착되고, 눈동자에 대해 화상을 표시시키는 웨어러블 디바이스이다. 도 5 에 나타내는 바와 같이, 스마트 콘택트 렌즈 (14) 는, 제어 유닛 (40), 표시 유닛 (42), 카메라 유닛 (44), 전원 유닛 (46), 통신 유닛 (48) 및 센서 (49) 를 포함하여 구성되어 있다.
제어 유닛 (40) 은, 스마트 콘택트 렌즈 (14) 를 구성하는 표시 유닛 (42), 카메라 유닛 (44), 전원 유닛 (46), 통신 유닛 (48) 및 센서 (49) 의 각 부를 제어한다. 제어 유닛 (40) 은, CPU, ROM 및 RAM 을 갖는 마이크로 컴퓨터로서 구성되어 있다.
표시 유닛 (42) 은, 탑승자에 대해 제시하는 화상이나 문자 등의 콘텐츠를 표시하는 표시부로서 기능한다. 본 실시형태의 표시 유닛 (42) 은, 화상을 생성하는 복수의 발광 소자를 구비하고 있다. 또한, 표시 유닛 (42) 은, 예를 들어, 발광 소자로서의 LED 와 마이크로 렌즈를 조합하여 화상을 망막에 투영하는 방식, 발광 소자로서 홀로그래픽 광학 소자를 사용하는 방식이 채용되고, 시점 거리의 영향을 잘 받지 않는 디바이스로서 기능한다. 또, 본 실시형태의 표시 유닛 (42) 은, 탑승자의 안구 표면에서 반사한 광을 수광하는 시선 검출용의 복수의 수광 소자를 구비하고 있다.
카메라 유닛 (44) 은, 눈동자의 외부를 촬상하는 촬상부로서 기능한다. 카메라 유닛 (44) 은, 촬상 렌즈, 및 촬상 렌즈를 구동시키는 구동부를 포함하여 구성되어 있다.
전원 유닛 (46) 은, 제어 유닛 (40), 표시 유닛 (42), 카메라 유닛 (44), 통신 유닛 (48) 및 센서 (49) 를 구동시키는 구동원이다. 또한, 스마트 콘택트 렌즈 (14) 에서는, 전원 유닛 (46) 을 형성하지 않고 와이어리스 급전을 실시해도 된다.
통신 유닛 (48) 은, 외부의 스마트폰 (16) 또는 표시 제어 장치 (20) 와 통신을 실시하는 통신부로서 기능한다. 통신 유닛 (48) 에는, 예를 들어, Bluetooth (등록상표) 등의 근거리 무선 통신 규격이 적용된다. 통신 유닛 (48) 은, 표시 유닛 (42) 에 표시시키는 콘텐츠의 데이터를 수신한다. 또, 통신 유닛 (48) 은, 카메라 유닛 (44) 이 촬상한 촬상 화상의 데이터 및 후술하는 센서 (49) 가 취득한 데이터를 송신한다. 또한, 본 실시형태의 통신 유닛 (48) 은 스마트폰 (16) 을 통하여 표시 제어 장치 (20) 에 접속되어 있지만, 이것에 한정되지 않고, 통신 유닛 (48) 은 표시 제어 장치 (20) 에 대해 직접 접속되어 있어도 된다.
센서 (49) 는, 탑승자의 눈동자에 있어서의 누액 (淚液) 의 전기 저항을 측정한다. 누액의 전기 저항값을 측정함으로써, 표시 제어 장치 (20) 에서는 누액량을 측정할 수 있다.
본 실시형태의 스마트 콘택트 렌즈 (14) 는, 카메라 유닛 (44) 의 촬상 화상을 기초로 표시 유닛 (42) 에 표시시키는 콘텐츠의 위치를 설정한다. 이로써, 스마트 콘택트 렌즈 (14) 에서는, 콘텐츠의 표시 대상이 되는 실상에 대해, 당해 대상에 맞추어 콘텐츠를 중첩 표시시킬 수 있다.
(스마트폰)
스마트폰 (16) 은, 탑승자가 소지하는 통신 단말이다. 스마트폰 (16) 은, 스마트 콘택트 렌즈 (14) 및 표시 제어 장치 (20) 의 쌍방과 무선 통신에 의해 접속된다.
(제어의 흐름)
본 실시형태의 표시 제어 장치 (20) 에 있어서 실행되는 표시 방법으로서의 표시 처리 및 선택 처리의 흐름에 대해, 도 6 및 도 7 을 사용하여 설명한다. 표시 처리 및 선택 처리는, CPU (20A) 가, 취득부 (200), 결정부 (210), 선택부 (220) 및 표시 제어부 (230) 로서 기능함으로써 실행된다.
도 6 의 스텝 S100 에 있어서, CPU (20A) 는, 각 카메라로부터 촬상 화상을, 각 ECU (22) 로부터 차량 정보를 취득한다. 예를 들어, CPU (20A) 는, 차량 정보로서 차량 (12) 의 목적지까지의 진로, 차량 (12) 의 속도, 가속도, 요 레이트 등을 취득한다.
스텝 S101 에 있어서, CPU (20A) 는, 각 표시부 (DS) 에 표시시키는 콘텐츠와 그 표시 위치를 결정한다.
스텝 S102 에 있어서, CPU (20A) 는, 선택 처리를 실행한다. 선택 처리의 상세한 것에 대해서는 후술한다.
스텝 S103 에 있어서, CPU (20A) 는, 선택된 표시부 (DS) 에 대해 콘텐츠를 표시시킨다. 그리고, 스텝 S100 으로 되돌아간다.
구체적으로, 헤드업 디스플레이 (24) 에 콘텐츠를 표시시키는 경우, CPU (20A) 는, 콘텐츠의 화상 정보를 투영 장치 (26) 에 출력한다. 이로써, 투영면 (PA) 에서는, 탑승자의 시점에 있어서, 프론트 윈도우 (12B) 를 통한 실상에 대해 콘텐츠가 중첩 표시된다. 예를 들어, 도 8 에 나타내는 바와 같이, 표시의 대상인 전방의 차량에 대해, 선진 운전 지원 시스템이 검지하고 있는 것을 나타내는 콘텐츠인 바운딩 박스 (C1) 가 중첩 표시된다. 또 예를 들어, 표시의 대상인 주행로에 대해 차량 (12) 의 경로를 나타내는 콘텐츠인 라인 (C2) 이 중첩 표시된다.
또, 스마트 콘택트 렌즈 (14) 에 콘텐츠를 표시시키는 경우, CPU (20A) 는, 콘텐츠의 화상 정보 및 위치 정보를 스마트폰 (16) 경유로 스마트 콘택트 렌즈 (14) 에 출력한다. 이로써, 스마트 콘택트 렌즈 (14) 에서는, 제어 유닛 (40) 이 표시 유닛 (42) 을 제어하고, 당해 표시 유닛 (42) 을 통하여 시인되는 실상에 대해 콘텐츠가 중첩 표시된다. 예를 들어, 도 9 에 나타내는 바와 같이, 표시의 대상인 전방의 주행로에 대해, 앞으로의 진로를 나타내는 콘텐츠인 화살표 (C3) 가 중첩 표시된다. 또 예를 들어, 표시의 대상 영역 (대상) 인 차량 (12) 의 우측방에 있어서, 우측 후방으로부터 이륜차가 접근하고 있는 것을 나타내는 콘텐츠인 경고 표시 (C4) 가 중첩 표시된다.
다음으로, 스텝 S102 의 선택 처리에 대해, 도 7 을 사용하여 설명한다. 도 7 의 스텝 S200 에 있어서, CPU (20A) 는, S101 에서 표시가 결정된 콘텐츠를 취득한다.
스텝 S201 에 있어서, CPU (20A) 는, 투영면 (PA) 내, 즉 헤드업 디스플레이 (24) 의 표시 영역 내에 콘텐츠가 표시되는지 여부의 판정을 실시한다. 환언하면, CPU (20A) 는, 헤드업 디스플레이 (24) 의 시야각에 콘텐츠의 표시가 들어가는지 여부의 판정을 실시한다. CPU (20A) 는, 투영면 (PA) 내에 콘텐츠가 표시된다고 판정했을 경우 (스텝 S201 에서 YES 의 경우), 스텝 S202 로 진행된다. 한편, CPU (20A) 는, 투영면 (PA) 내에 콘텐츠가 표시되지 않는다고 판정했을 경우 (스텝 S201 에서 NO 의 경우), 스텝 S205 로 진행된다.
스텝 S202 에 있어서, CPU (20A) 는, 콘텐츠의 표시 위치가 차량 (12) 으로부터 소정 거리 이하인지 여부의 판정을 실시한다. 보충하면, 차량 (12) 으로부터의 거리란 콘텐츠의 허상이 표시되는 가상의 위치까지의 거리이다. 예를 들어, 도 8 에 있어서, 전방의 차량의 실상에 대해, 바운딩 박스 (C1) 가 투영면 (PA) 에서 중첩 표시되어 있다. 이 경우, 바운딩 박스 (C1) 의 허상이 표시되는 가상의 위치는, 전방의 차량의 위치이다. CPU (20A) 는, 콘텐츠의 표시 위치가 차량 (12) 으로부터 소정 거리 이하라고 판정했을 경우 (스텝 S202 에서 YES 의 경우), 스텝 S203 으로 진행된다. 한편, CPU (20A) 는, 콘텐츠의 표시 위치가 차량 (12) 으로부터 소정 거리 이하는 아닌, 즉 소정 거리를 초과한다고 판정했을 경우 (스텝 S202 에서 NO 의 경우), 스텝 S205 로 진행된다.
스텝 S203 에 있어서, CPU (20A) 는, 콘텐츠의 추종 대상이 있는지 여부의 판정을 실시한다. 여기서, 콘텐츠의 추종 대상이란, 콘텐츠를 추종시켜 중첩 표시시키는 대상이 되는 차량, 보행자, 주행로, 그 밖의 구조물이다. CPU (20A) 는, 콘텐츠의 추종 대상이 있다고 판정했을 경우 (스텝 S203 에서 YES 의 경우), 스텝 S204 로 진행된다. 한편, CPU (20A) 는, 콘텐츠의 추종 대상이 없다고 판정했을 경우 (스텝 S203 에서 NO 의 경우), 스텝 S205 로 진행된다.
스텝 S204 에 있어서, CPU (20A) 는, 콘텐츠를 헤드업 디스플레이 (24) 에 표시시키는 것을 선택한다. 그리고, 스텝 S206 으로 진행된다.
스텝 S205 에 있어서, CPU (20A) 는, 콘텐츠를 스마트 콘택트 렌즈 (14) 에 표시시키는 것을 선택한다. 그리고, 스텝 S206 으로 진행된다.
스텝 S206 에 있어서, CPU (20A) 는, 선택해야 할 다른 콘텐츠는 없는지 여부의 판정을 실시한다. CPU (20A) 는, 선택해야 할 다른 콘텐츠는 없다고 판정했을 경우 (스텝 S206 에서 YES 의 경우), 선택 처리를 종료시킨다. 한편, CPU (20A) 는, 선택해야 할 다른 콘텐츠가 있다고 판정했을 경우 (스텝 S206 에서 NO 의 경우), 스텝 S200 으로 되돌아간다.
(종합)
본 실시형태의 표시 제어 장치 (20) 에서는, CPU (20A) 가 제 1 표시부로서의 헤드업 디스플레이 (24), 및 제 2 표시부로서의 스마트 콘택트 렌즈 (14) 의 각각에 대해 콘텐츠를 표시하도록 구성되어 있다. 여기서, 헤드업 디스플레이 (24) 는, 차량 (12) 에 고정되고, 스마트 콘택트 렌즈 (14) 는 탑승자의 눈동자에 장착되어 있다. 본 실시형태에 있어서 CPU (20A) 는, 소정의 조건에 기초하여 콘텐츠를 표시시키는 표시부 (DS) 를 선택하고, 선택된 표시부 (DS) 에 있어서 투과하여 시인되는 실상에 대해 콘텐츠를 중첩 표시시킨다. 본 실시형태의 표시 제어 장치 (20) 에 의하면, 상이한 표시부 (DS) 의 각각의 특징을 보완하여 사용자에게 있어서 시인하기 쉬운 표시를 제공할 수 있다.
보충하면, 헤드업 디스플레이 (24) 는, 실상에 맞추어 콘텐츠를 중첩하는 경우의 표시 위치의 정밀도가 스마트 콘택트 렌즈 (14) 에 비해 우수하다. 한편, 본 실시형태의 스마트 콘택트 렌즈 (14) 는, 망막에 콘텐츠를 직접 투영하는 등을 함으로써, 헤드업 디스플레이 (24) 와 같이 콘텐츠의 시점 거리가 멀리 떨어진 경우의 위화감이 잘 발생하지 않는다. 본 실시형태에서는, CPU (20A) 가 콘텐츠를 중첩 표시시키는 대상, 차량 (12) 으로부터 표시 대상까지의 거리, 각 표시부 (DS) 의 시야각에 대한 콘텐츠의 표시 위치의 적어도 어느 하나의 조건에 기초하여, 어느 표시부 (DS) 에 콘텐츠를 표시시키는지를 선택한다.
특히, 본 실시형태의 표시 제어 장치 (20) 에서는, 콘텐츠를 중첩 표시시키는 대상이 차량, 보행자, 주행로, 그 밖의 구조물 등인 경우, 위치 결정 정밀도가 우위인 헤드업 디스플레이 (24) 가 선택된다.
또, 본 실시형태의 표시 제어 장치 (20) 에서는, 콘텐츠의 표시 위치가 헤드업 디스플레이 (24) 의 시야각, 요컨대 표시 영역을 초과하는 경우, 당해 콘텐츠를 시야각의 제한이 적은 스마트 콘택트 렌즈 (14) 에 표시시킨다. 그 때문에, 본 실시형태에 의하면, 헤드업 디스플레이 (24) 의 표시 영역 외의 콘텐츠의 표시를 스마트 콘택트 렌즈 (14) 에 의해 보완할 수 있다.
또, 본 실시형태의 표시 제어 장치 (20) 에서는, 차량 (12) 으로부터 표시 대상까지의 거리가 소정 거리보다 큰 경우, 콘텐츠를 시점 거리의 영향을 잘 받지 않는 스마트 콘택트 렌즈 (14) 에 표시시킨다. 그 때문에, 본 실시형태에 의하면, 헤드업 디스플레이 (24) 에 있어서 먼 곳의 표시 대상에 대해 콘텐츠의 시점 거리가 어긋나는 경우라도, 스마트 콘택트 렌즈 (14) 에 의해 콘텐츠의 표시를 보완할 수 있다.
[제 2 실시형태]
제 1 실시형태에서는, 표시부 (DS) 로서 헤드업 디스플레이 (24) 및 스마트 콘택트 렌즈 (14) 를 구비하고, 콘텐츠를 어느 표시부 (DS) 에 표시시키는지를 선택하고 있었다. 이에 대해, 제 2 실시형태에서는, 표시부 (DS) 로서, 헤드업 디스플레이 (24) 및 스마트 콘택트 렌즈 (14) 에 더하여 스마트 글라스 (18) 를 포함하고, 어느 표시부 (DS) 에 표시시키는지를 선택한다. 이하, 제 1 실시형태와의 상이점에 대해 설명한다. 또한, 동일한 구성에 대해서는 동일한 부호를 부여하고 있고, 상세한 설명은 생략한다.
도 10 에 나타내는 바와 같이, 본 실시형태의 표시 제어 장치 (20) 에는, 스마트폰 (16) 에 더하여, 스마트 글라스 (18) 가 통신 가능하게 접속되어 있다. 이 스마트 글라스 (18) 는 탑승자의 헤드부에 장착되어 있다. 스마트 글라스 (18) 는 제 2 표시부의 일례이다.
(스마트 글라스)
스마트 글라스 (18) 는, AR 기술을 사용하여, 화상이나 문자 등의 콘텐츠를 차 밖의 풍경에 중첩시켜 표시하는 헤드 마운트 디스플레이 방식의 웨어러블 디바이스이다. 이 스마트 글라스 (18) 는, 차량 (12) 의 탑승자가 장착하는 디바이스이다. 도시되지 않지만, 스마트 글라스 (18) 는, 차 실내외의 영상을 촬영하는 카메라와, 투과형의 디스플레이와, 표시 제어 장치 (20) 와 통신을 실시하기 위한 통신 장치를 적어도 포함하고 있다.
(제어의 흐름)
본 실시형태의 선택 처리에 대해, 도 11 을 사용하여 설명한다.
도 11 의 스텝 S250 에 있어서, CPU (20A) 는, S101 에서 표시가 결정된 콘텐츠를 취득한다.
스텝 S251 에 있어서, CPU (20A) 는, 투영면 (PA) 내에 콘텐츠가 표시되는지 여부의 판정을 실시한다. CPU (20A) 는, 투영면 (PA) 내에 콘텐츠가 표시된다고 판정했을 경우 (스텝 S251 에서 YES 인 경우), 스텝 S252 로 진행된다. 한편, CPU (20A) 는, 투영면 (PA) 내에 콘텐츠가 표시되지 않는다고 판정했을 경우 (스텝 S251 에서 NO 의 경우), 스텝 S255 로 진행된다.
스텝 S252 에 있어서, CPU (20A) 는, 콘텐츠의 표시 위치가 차량 (12) 으로부터 소정 거리 이하인지 여부의 판정을 실시한다. CPU (20A) 는, 콘텐츠의 표시 위치가 차량 (12) 으로부터 소정 거리 이하라고 판정했을 경우 (스텝 S252 에서 YES 의 경우), 스텝 S253 으로 진행된다. 한편, CPU (20A) 는, 콘텐츠의 표시 위치가 차량 (12) 으로부터 소정 거리 이하는 아닌, 즉 소정 거리를 초과한다고 판정했을 경우 (스텝 S252 에서 NO 의 경우), 스텝 S255 로 진행된다.
스텝 S253 에 있어서, CPU (20A) 는, 콘텐츠의 추종 대상이 있는지 여부의 판정을 실시한다. CPU (20A) 는, 콘텐츠의 추종 대상이 있다고 판정했을 경우 (스텝 S253 에서 YES 의 경우), 스텝 S254 로 진행된다. 한편, CPU (20A) 는, 콘텐츠의 추종 대상이 없다고 판정했을 경우 (스텝 S253 에서 NO 의 경우), 스텝 S256 으로 진행된다.
스텝 S254 에 있어서, CPU (20A) 는, 콘텐츠를 헤드업 디스플레이 (24) 에 표시시키는 것을 선택한다. 그리고, 스텝 S258 로 진행된다.
스텝 S255 에 있어서, CPU (20A) 는, 콘텐츠의 추종 대상이 있는지 여부의 판정을 실시한다. 당해 판정 내용은, 스텝 S253 과 동일하다. CPU (20A) 는, 콘텐츠의 추종 대상이 있다고 판정했을 경우 (스텝 S255 에서 YES 의 경우), 스텝 S257 로 진행된다. 한편, CPU (20A) 는, 콘텐츠의 추종 대상이 없다고 판정했을 경우 (스텝 S255 에서 NO 의 경우), 스텝 S256 으로 진행된다.
스텝 S256 에 있어서, CPU (20A) 는, 콘텐츠를 스마트 콘택트 렌즈 (14) 에 표시시키는 것을 선택한다. 그리고, 스텝 S258 로 진행된다.
스텝 S257 에 있어서, CPU (20A) 는, 콘텐츠를 스마트 글라스 (18) 에 표시시키는 것을 선택한다. 그리고, 스텝 S258 로 진행된다.
스텝 S258 에 있어서, CPU (20A) 는, 선택해야 할 다른 콘텐츠는 없는지 여부의 판정을 실시한다. CPU (20A) 는, 선택해야 할 다른 콘텐츠는 없다고 판정했을 경우 (스텝 S258 에서 YES 의 경우), 선택 처리를 종료시킨다. 한편, CPU (20A) 는, 선택해야 할 다른 콘텐츠가 있다고 판정했을 경우 (스텝 S258 에서 NO 의 경우), 스텝 S250 으로 되돌아간다.
제 2 실시형태에 있어서도, 제 1 실시형태와 동일한 효과를 얻을 수 있다. 특히, 헤드업 디스플레이 (24), 스마트 콘택트 렌즈 (14) 및 스마트 글라스 (18) 의 3 종류의 표시부 (DS) 를 사용하여 콘텐츠를 탑승자에게 표시시킴으로써, 각 표시부 (DS) 의 장점을 살린 최적인 표시를 탑승자에게 제공할 수 있다. 구체적으로 스마트 글라스 (18) 를 사용함으로써, 헤드업 디스플레이 (24) 보다 표시 영역의 제약을 잘 받지 않아, 스마트 콘택트 렌즈 (14) 보다 표시 위치의 정밀도를 확보할 수 있다.
[비고]
또한, 바운딩 박스 (C1), 라인 (C2), 화살표 (C3), 경고 표시 (C4) 는, 각각이 헤드업 디스플레이 (24), 스마트 콘택트 렌즈 (14), 스마트 글라스 (18) 중 어느 것에 표시되어도 된다. 또한, 상기 실시형태에서 CPU (20A) 가 소프트웨어 (프로그램) 를 판독하여 실행한 각종 처리를, CPU 이외의 각종 프로세서가 실행해도 된다. 이 경우의 프로세서로는, FPGA (Field-Programmable Gate Array) 등의 제조 후에 회로 구성을 변경 가능한 PLD (Programmable Logic Device), 및 ASIC (Application Specific Integrated Circuit) 등의 특정한 처리를 실행시키기 위해서 전용으로 설계된 회로 구성을 갖는 프로세서인 전용 전기 회로 등이 예시된다. 또, 상기 서술한 처리를, 이들 각종 프로세서 중 하나로 실행해도 되고, 동종 또는 이종의 2 개 이상의 프로세서의 조합 (예를 들어, 복수의 FPGA, 및 CPU 와 FPGA 의 조합 등) 으로 실행해도 된다. 또, 이들 각종 프로세서의 하드웨어적인 구조는, 보다 구체적으로는, 반도체 소자 등의 회로 소자를 조합한 전기 회로이다.
또, 상기 실시형태에 있어서, 각 프로그램은 컴퓨터가 판독 가능한 비일시적 기록 매체에 미리 기억 (인스톨) 되어 있는 양태로 설명하였다. 예를 들어, 표시 제어 장치 (20) 에 있어서의 처리 프로그램 (100) 은, ROM (20B) 에 미리 기억되어 있다. 그러나 이것에 한정되지 않고, 각 프로그램은, CD-ROM (CompactDiscReadOnlyMemory), DVD-ROM (DigitalVersatileDiscReadOnlyMemory), 및 USB (UniversalSerialBus) 메모리 등의 비일시적 기록 매체에 기록된 형태로 제공되어도 된다. 또, 프로그램은, 네트워크를 통하여 외부 장치로부터 다운로드되는 형태로 해도 된다.
상기 실시형태에서 설명한 처리의 흐름도 일례이고, 주지를 일탈하지 않는 범위 내에 있어서 불필요한 스텝을 삭제하거나, 새로운 스텝을 추가하거나, 처리 순서를 바꿔 넣거나 해도 된다.

Claims (8)

  1. 표시 제어 장치 (20) 로서,
    이동체 (12) 에 고정된 제 1 표시부 (24) 또는 인체에 장착되는 제 2 표시부 (14 ; 18) 에 있어서, 상기 제 1 표시부 (24) 또는 상기 제 2 표시부 (14 ; 18) 를 투과하여 시인되는 실상을 대상으로 하여, 상기 대상에게 중첩 표시되는 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 결정하고,
    소정의 조건에 기초하여 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 상기 제 1 표시부 (24) 및 상기 제 2 표시부 (14 ; 18) 중 어느 것에 표시시킬지를 선택하고,
    선택된 상기 제 1 표시부 (24) 또는 상기 제 2 표시부 (14 ; 18) 에 있어서 상기 대상에 맞추어 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 중첩 표시시키도록
    구성되어 있는 프로세서 (20A) 를 구비하는, 표시 제어 장치 (20).
  2. 제 1 항에 있어서,
    상기 프로세서 (20A) 는, 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 중첩 표시시키는 상기 대상, 상기 이동체 (12) 로부터 상기 대상까지의 거리, 상기 제 1 표시부 (24) 및 상기 제 2 표시부 (14 ; 18) 의 각각의 시야각에 대한 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 의 표시 위치에 관한 조건 중 적어도 어느 하나의 조건에 기초하여 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 상기 제 1 표시부 (24) 및 상기 제 2 표시부 (14 ; 18) 중 어느 것에 표시시킬지를 선택하도록 구성되어 있는, 표시 제어 장치 (20).
  3. 제 1 항에 있어서,
    상기 프로세서 (20A) 는, 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 의 표시 위치가 상기 제 1 표시부 (24) 의 표시 영역 (PA) 의 외측에 있는 경우, 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 상기 제 2 표시부 (14 ; 18) 에 표시시키도록 구성되어 있는, 표시 제어 장치 (20).
  4. 제 2 항에 있어서,
    상기 프로세서 (20A) 는, 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 의 상기 표시 위치가 상기 제 1 표시부 (24) 의 표시 영역 (PA) 의 외측에 있는 경우, 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 상기 제 2 표시부 (14 ; 18) 에 표시시키도록 구성되어 있는, 표시 제어 장치 (20).
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 프로세서 (20A) 는, 상기 이동체 (12) 로부터 상기 대상까지의 거리가 소정값보다 큰 경우, 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 상기 제 2 표시부 (14 ; 18) 에 표시시키도록 구성되어 있는, 표시 제어 장치 (20).
  6. 표시 시스템 (10) 으로서,
    제 1 항 내지 제 4 항 중 어느 한 항에 기재된 표시 제어 장치 (20) 와,
    상기 이동체 (12) 인 차량 (12) 에 탑재된 상기 제 1 표시부 (24) 로서의 헤드업 디스플레이 (24) 와,
    상기 차량 (12) 의 탑승자의 눈동자에 장착된 상기 제 2 표시부 (14 ; 18) 에 포함되는 스마트 콘택트 렌즈 (14)
    를 구비하는 표시 시스템 (10).
  7. 표시 방법으로서,
    이동체 (12) 에 고정된 제 1 표시부 (24) 또는 인체에 장착되는 제 2 표시부 (14 ; 18) 에 있어서, 상기 제 1 표시부 (24) 또는 상기 제 2 표시부 (14 ; 18) 를 투과하여 시인되는 실상을 대상으로 하여, 상기 대상에게 중첩 표시되는 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 결정하는 제 1 스텝,
    소정의 조건에 기초하여 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 상기 제 1 표시부 (24) 및 상기 제 2 표시부 (14 ; 18) 중 어느 것에 표시시킬지를 선택하는 제 2 스텝,
    선택된 상기 제 1 표시부 또는 상기 제 2 표시부에 있어서 상기 대상에 맞추어 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 중첩 표시시키는 제 3 스텝
    을 구비하고,
    상기 제 1 스텝, 상기 제 2 스텝 및 상기 제 3 스텝의 처리는 컴퓨터에 의해 실행되는, 표시 방법.
  8. 1 개 또는 복수의 프로세서로 실행 가능한 명령이고, 또한,
    상기 1 개 또는 복수의 프로세서에 이하의 기능을 실행시키는 명령을 격납하는 비일시적 기억 매체:
    이동체 (12) 에 고정된 제 1 표시부 (24) 또는 인체에 장착되는 제 2 표시부 (14 ; 18) 에 있어서, 상기 제 1 표시부 (24) 또는 상기 제 2 표시부 (14 ; 18) 를 투과하여 시인되는 실상을 대상으로 하여, 상기 대상에게 중첩 표시되는 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 결정하는 것,
    소정의 조건에 기초하여 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 상기 제 1 표시부 (24) 및 상기 제 2 표시부 (14 ; 18) 중 어느 것에 표시시킬지를 선택하는 것,
    선택된 상기 제 1 표시부 (24) 또는 상기 제 2 표시부 (14 ; 18) 에 있어서 상기 대상에 맞추어 상기 콘텐츠 (C1 ; C2 ; C3 ; C4) 를 중첩 표시시키는 것.
KR1020220093902A 2021-08-31 2022-07-28 표시 제어 장치, 표시 시스템, 표시 방법 및 비일시적 기억 매체 KR102633253B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2021-141710 2021-08-31
JP2021141710A JP7487714B2 (ja) 2021-08-31 2021-08-31 表示制御装置、表示システム、表示方法及び表示プログラム

Publications (2)

Publication Number Publication Date
KR20230032888A true KR20230032888A (ko) 2023-03-07
KR102633253B1 KR102633253B1 (ko) 2024-02-02

Family

ID=85174897

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220093902A KR102633253B1 (ko) 2021-08-31 2022-07-28 표시 제어 장치, 표시 시스템, 표시 방법 및 비일시적 기억 매체

Country Status (5)

Country Link
US (1) US11958360B2 (ko)
JP (1) JP7487714B2 (ko)
KR (1) KR102633253B1 (ko)
CN (1) CN115723568A (ko)
DE (1) DE102022119110A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101736991B1 (ko) * 2015-11-03 2017-05-17 현대자동차주식회사 스마트 안경의 화면과 차량 디스플레이 장치의 화면 중첩을 회피하는 방법 및 장치

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014178212A1 (ja) 2013-05-02 2014-11-06 ソニー株式会社 コンタクトレンズおよび記憶媒体
JP6176541B2 (ja) * 2014-03-28 2017-08-09 パナソニックIpマネジメント株式会社 情報表示装置、情報表示方法及びプログラム
US10181266B2 (en) * 2015-09-11 2019-01-15 Sony Corporation System and method to provide driving assistance
KR101916993B1 (ko) * 2015-12-24 2018-11-08 엘지전자 주식회사 차량용 디스플레이 장치 및 그 제어방법
KR20170089328A (ko) * 2016-01-26 2017-08-03 삼성전자주식회사 자동차 제어 시스템과 그의 운영 방법
KR101806892B1 (ko) * 2016-05-09 2018-01-10 엘지전자 주식회사 차량용 제어장치
US10332292B1 (en) * 2017-01-17 2019-06-25 Zoox, Inc. Vision augmentation for supplementing a person's view
US10257582B2 (en) * 2017-03-17 2019-04-09 Sony Corporation Display control system and method to generate a virtual environment in a vehicle
US10083547B1 (en) * 2017-05-23 2018-09-25 Toyota Jidosha Kabushiki Kaisha Traffic situation awareness for an autonomous vehicle
EP3456577B1 (en) * 2017-09-13 2022-01-26 LG Electronics Inc. User interface apparatus for vehicle
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM
JP7043845B2 (ja) 2018-01-17 2022-03-30 トヨタ自動車株式会社 車両用表示連携制御装置
JP6954850B2 (ja) 2018-02-09 2021-10-27 トヨタ自動車株式会社 表示装置
US11508255B2 (en) * 2018-04-27 2022-11-22 Red Six Aerospace Inc. Methods, systems, apparatuses and devices for facilitating provisioning of a virtual experience
US11887495B2 (en) * 2018-04-27 2024-01-30 Red Six Aerospace Inc. Augmented reality for vehicle operations
US11436932B2 (en) 2018-04-27 2022-09-06 Red Six Aerospace Inc. Methods and systems to allow real pilots in real aircraft using augmented and virtual reality to meet in a virtual piece of airspace
US10469769B1 (en) * 2018-07-30 2019-11-05 International Business Machines Corporation Augmented reality based driver assistance
US11639138B2 (en) * 2018-08-06 2023-05-02 Koito Manufacturing Co., Ltd. Vehicle display system and vehicle
US11584298B2 (en) * 2018-08-15 2023-02-21 Koito Manufacturing Co., Ltd. Vehicle display system and vehicle
US10768699B2 (en) 2018-09-10 2020-09-08 Lenovo (Singapore) Pte. Ltd. Presentation to user of indication of object at which another person is looking
US10970899B2 (en) * 2018-10-23 2021-04-06 International Business Machines Corporation Augmented reality display for a vehicle
US11595878B2 (en) * 2018-10-24 2023-02-28 Google Llc Systems, devices, and methods for controlling operation of wearable displays during vehicle operation
KR102589468B1 (ko) * 2018-11-16 2023-10-16 삼성전자주식회사 차량의 디스플레이 제어 방법 및 이를 위한 전자 장치
JP7163748B2 (ja) 2018-12-05 2022-11-01 トヨタ自動車株式会社 車両用表示制御装置
JP2020112698A (ja) 2019-01-11 2020-07-27 株式会社リコー 表示制御装置、表示装置、表示システム、移動体、プログラム、画像生成方法
JP2020117105A (ja) 2019-01-24 2020-08-06 日本精機株式会社 表示制御装置、方法、及びコンピュータ・プログラム
US11465626B2 (en) * 2019-02-06 2022-10-11 Toyota Jidosha Kabushiki Kaisha Virtualized driver assistance

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101736991B1 (ko) * 2015-11-03 2017-05-17 현대자동차주식회사 스마트 안경의 화면과 차량 디스플레이 장치의 화면 중첩을 회피하는 방법 및 장치

Also Published As

Publication number Publication date
CN115723568A (zh) 2023-03-03
US20230062934A1 (en) 2023-03-02
US11958360B2 (en) 2024-04-16
JP7487714B2 (ja) 2024-05-21
DE102022119110A1 (de) 2023-03-02
JP2023035095A (ja) 2023-03-13
KR102633253B1 (ko) 2024-02-02

Similar Documents

Publication Publication Date Title
JP6201690B2 (ja) 車両情報投影システム
JP5861072B2 (ja) 表示制御装置、表示装置および表示制御プログラム
JP5866545B1 (ja) 表示制御装置および表示制御プログラム
JP5327025B2 (ja) 車両用走行案内装置、車両用走行案内方法及びコンピュータプログラム
US11597316B2 (en) Vehicle display system and vehicle
US20210003414A1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP6969509B2 (ja) 車両用表示制御装置、車両用表示制御方法、及び制御プログラム
US20240227664A1 (en) Vehicle display system, vehicle system, and vehicle
JP2017105259A (ja) 車両用情報表示装置
US11274934B2 (en) Information output device, output control method, and storage medium
WO2019189393A1 (en) Image control apparatus, display apparatus, movable body, and image control method
WO2019239709A1 (ja) 移動体用表示制御装置、移動体用表示制御方法、及び制御プログラム
EP3776152B1 (en) Image control apparatus, display apparatus, movable body, and image control method
JP7400242B2 (ja) 車両用表示制御装置および車両用表示制御方法
CN110888432B (zh) 显示系统、显示控制方法及存储介质
KR102633253B1 (ko) 표시 제어 장치, 표시 시스템, 표시 방법 및 비일시적 기억 매체
US20220410711A1 (en) Display control device, display method, and storage medium storing display program
JP2019077340A (ja) ヘッドアップディスプレイ装置
WO2023145852A1 (ja) 表示制御装置、表示システム、及び表示制御方法
JP2019148935A (ja) 表示制御装置及びヘッドアップディスプレイ装置
JP2024119400A (ja) 運転支援装置
JP2023141162A (ja) 画像表示装置
CN118613382A (zh) 显示控制装置、显示系统及显示控制方法
JP2024107126A (ja) 車両用表示制御装置、表示方法及び表示プログラム
JP2024140293A (ja) 車線変更支援装置、車線変更支援方法及びプログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant