KR102089036B1 - 정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체 - Google Patents

정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체 Download PDF

Info

Publication number
KR102089036B1
KR102089036B1 KR1020187006290A KR20187006290A KR102089036B1 KR 102089036 B1 KR102089036 B1 KR 102089036B1 KR 1020187006290 A KR1020187006290 A KR 1020187006290A KR 20187006290 A KR20187006290 A KR 20187006290A KR 102089036 B1 KR102089036 B1 KR 102089036B1
Authority
KR
South Korea
Prior art keywords
information
virtual image
image
information display
display apparatus
Prior art date
Application number
KR1020187006290A
Other languages
English (en)
Other versions
KR20180035895A (ko
Inventor
유우키 스즈키
겐이치로 사이쇼
마사토 구사나기
다쿠로 야스다
가즈히로 후지타
Original Assignee
가부시키가이샤 리코
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 리코 filed Critical 가부시키가이샤 리코
Publication of KR20180035895A publication Critical patent/KR20180035895A/ko
Application granted granted Critical
Publication of KR102089036B1 publication Critical patent/KR102089036B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • G02B26/0858Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD the reflecting means being moved or deformed by piezoelectric means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/02Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
    • G09G3/025Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen with scanning or deflecting the beams in two directions or dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3433Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using light modulating elements actuated by an electric field and being other than liquid crystal devices and electrochromic devices
    • G09G3/346Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using light modulating elements actuated by an electric field and being other than liquid crystal devices and electrochromic devices based on modulation of the reflection angle, e.g. micromirrors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/349Adjustment of brightness
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0145Head-up displays characterised by optical features creating an intermediate image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/3413Details of control of colour illumination sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Mechanical Optical Scanning Systems (AREA)

Abstract

정보 디스플레이 장치는 투과 반사 부재에 이미지 형성 광 빔을 방출하고 투과 반사 부재를 통해 가상 이미지를 보이게 한다. 정보 디스플레이 장치는, 투과 반사 부재를 통해 가상 이미지를 볼 때의 수렴 각도와 투과 반사 부재를 통해 실제 물체를 볼 때의 수렴 각도 간의 차이가 1도 이하가 되게 가상 이미지를 디스플레이하도록 구성된다.

Description

정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체
본 개시는 정보 디스플레이 장치, 정보 제공 시스템, 이동체(moving object) 디바이스, 정보 디스플레이 방법 및 기록 매체에 관한 것이다.
최근 가상 이미지(virtual image)를 보이게 하는 장치의 개발이 활발하게 이루어지고 있다. 예를 들어, 아래에 열거된 특허문헌 1은, 이미지 시청자(image viewer)의 한쪽 눈에만 이미지 광 빔을 투사하고 가상 이미지를 보이게 하도록 구성된 장치를 개시한다.
일본 특허 출원 공보 제2010-076533호
하나의 양상에서, 본 개시는, 가상 이미지의 가시성(visibility) 저하를 막고 디바이스 구성의 복잡도를 막을 수 있는 정보 디스플레이 장치를 제공한다.
하나의 실시예에서, 본 개시는 투과 반사 부재에 이미지 형성 광 빔을 방출하고 반사 부재를 통해 가상 이미지를 보이게 하는 정보 디스플레이 장치를 제공하며, 정보 디스플레이 장치는, 반사 부재를 통해 가상 이미지를 볼 때의 수렴 각도(convergence angle)와 반사 부재를 통해 실제 물체를 볼 때의 수렴 각도 간의 차이가 1도 이하가 되게 가상 이미지를 디스플레이하도록 구성된다.
하나의 실시예에 따른 정보 디스플레이 장치는, 가상 이미지의 가시성 저하를 막고 디바이스 구성의 복잡도를 막을 수 있다.
청구항에 구체적으로 언급된 구성요소 및 조합에 의해 본 발명의 목적 및 이점을 실현하고 달성할 수 있을 것이다. 전술한 일반적인 설명과 다음의 상세한 설명은 전부 예시적인 것으로 설명을 위한 것이며 청구하는 본 발명을 제한하는 것이 아님을 이해하여야 한다.
도 1은 제1 실시예에 따른 정보 디스플레이 장치인 HUD 디바이스의 구성을 예시한 도면이다.
도 2는 HUD 디바이스의 하드웨어 구성을 예시한 블록도이다.
도 3은 HUD 디바이스의 기능적 구성을 예시한 블록도이다.
도 4는 광원부의 구성을 예시한 도면이다.
도 5는 광 편향기의 구성을 예시한 도면이다.
도 6은 2차원 주사시의 주사 라인의 궤적을 예시한 도면이다.
도 7은 시차 각도를 설명하기 위한 도면이다.
도 8은 배경 거리, 시점 위치로부터 가상 이미지의 이미징 위치까지의 거리(L), 및 시차 각도 간의 관계를 설명하기 위한 도면이다.
도 9는 가상 이미지에 의해 전방 장면에 존재하는 앞선 차량의 마킹의 예를 예시한 도면이다.
도 10은 앞선 차량 뒤의 도로 표면에 탐색 정보를 디스플레이하는 예를 예시한 도면이다.
도 11은 앞의 도로 표면에 속도 정보를 디스플레이하는 예를 예시한 도면이다.
도 12는 예 3의 정보 제공 시스템의 하드웨어 및 기능적 구성을 예시한 블록도이다.
도 13는 예 3의 정보 제공 시스템의 감지 유닛의 구성을 예시한 블록도이다.
도 14a는 예 3의 감지 유닛의 레이저 레이더의 구성을 예시한 도면이다.
도 14b는 예 3의 감지 유닛의 레이저 레이더의 구성을 예시한 도면이다.
도 14c는 예 3의 감지 유닛의 레이저 레이더의 구성을 예시한 도면이다.
도 15는 예 3의 정보 디스플레이 방법을 설명하기 위한 흐름도이다.
도 16는 예 4의 정보 제공 시스템의 하드웨어 및 기능적 구성을 예시한 블록도이다.
도 17은 예 4의 감지 유닛의 하드웨어 구성을 예시한 블록도이다.
도 18은 예 4의 정보 디스플레이 방법을 설명하기 위한 흐름도이다.
도 19는 예 5의 정보 제공 시스템의 하드웨어 및 기능적 구성을 예시한 블록도이다.
도 20은 예 5의 정보 디스플레이 방법을 설명하기 위한 흐름도이다.
도 21은 예 5의 정보 디스플레이 방법을 설명하기 위한 도면이다.
도 22는 제2 실시예에 따른 정보 디스플레이 방법을 설명하기 위한 흐름도이다.
도 23은 제2 실시예의 변형에 따른 정보 디스플레이 방법을 설명하기 위한 흐름도이다.
<제1 실시예>
제1 실시예에 따른 정보 디스플레이 장치인 HUD(heads-up display) 디바이스(100)가 기재될 것이다. 도 1은 제1 실시예에 따른 HUD 디바이스(100)의 구성을 예시한다.
HUD 디바이스의 투사 방법은 보통, 액정 패널, DMD(digital mirror device) 패널 또는 VFD(vacuum fluorescent display)와 같은 이미징 디바이스를 사용함으로써 중간 이미지를 형성하는 패널 방법, 및 2차원 주사 디바이스를 사용하여 레이저 광원으로부터 방출된 레이저 빔을 주사함으로써 중간 이미지를 형성하는 레이저 주사 방법으로 분류된다. 특히, 레이저 주사 방법은, 전체 스크린 발광의 부분 차광에 의해 이미지를 형성하는 패널 방법과는 달리, 픽셀 각각에 대하여 발광 및 비발광을 할당할 수 있으며 높은 콘트라스트의 이미지를 형성할 수 있다.
제1 실시예에 따르면 레이저 주사 방법이 HUD 디바이스(100)에 사용된다. 그러나, 본 개시의 정보 디스플레이 장치의 투사 방법으로서 패널 방법이 대신 사용될 수도 있다.
예로서, HUD 디바이스(100)는 차량, 항공기, 선박, 또는 산업용 로봇과 같은 이동체(moving object)에 탑재되며, 이동체의 동작에 필요한 탐색 정보(예컨대, 이동체의 속도, 이동체 앞의 물체(실제 물체)의 존재 또는 위치, 목적지까지의 거리, 이동 방향, 현 위치 명칭, 제한 속도와 같은 표시자, 혼잡 정보 등을 포함한 정보)를 이동체의 전방 유리창(windshield)(50)(도 1 참조)을 통해 보이게 하도록 구성된다. 이 경우에, 전방 유리창(50)은, 입사 광의 일부가 투과되며 나머지 광의 적어도 일부를 반사시키는 투과 반사 부재로도 기능한다. 다음에서는, HUD 디바이스(100)가 전방 유리창(50)을 포함한 차량에 탑재되는 경우가 기재될 것이다.
도 1에 예시된 바와 같이, HUD 디바이스(100)는 광학 주사 유닛(10), 스크린(30), 및 오목 미러(40)를 포함한다. HUD 디바이스(100)는 전방 유리창(50) 상에 이미지를 형성하기 위해 전방 유리창(50)에 광 빔(이미지 광 빔)을 방출하고 이미지 시청자 A(이 실시예에서는, 차량의 탑승자인 운전자임)의 시점 위치(시청자의 양쪽 눈의 중간점)로부터 가상 이미지 I의 시각적 확인(visual confirmation)을 가능하게 한다.
즉, 이미지 시청자는 전방 유리창(50)을 통해 가상 이미지 I로서 광학 주사 유닛(10)(도면)에 의해 스크린(30) 상에 형성된(또는 렌더링된) 이미지(중간 이미지)를 볼 수 있다. 이 중간 이미지는 운전자에게 정보를 제공하기 위한 정보 제공 이미지이다.
예로서, HUD 디바이스(100)는 차량의 대시보드 아래에 배치되고, 이미지 시청자 A의 시점 위치로부터 전방 유리창(50)까지의 거리는 수십 센티미터 내지 고작 1 미터 범위이다.
본 실시예에서, 오목 미러(40)는 가상 이미지 I의 이미징 위치를 원하는 위치에 일치시킬 수 있게 미리 정해진 집광 파워를 갖도록 기존의 광학 설계 시뮬레이션 소프트웨어를 사용함으로써 설계된다. 또한, 본 실시예에서 오목 미러는 주사 미러(scanning mirror)(20)로서 사용된다. 그러나, 볼록 미러 또는 평면 미러가 오목 미러 대신에 주사 미러(20)로서 사용될 수 있다.
본 실시예에서, 오목 미러(40)의 집광 파워는, 가상 이미지 I가 이미지 시청자 A의 시점 위치로부터 4 m 이상 그리고 10 m 이하(바람직하게는, 6 m 이하) 떨어진 위치(깊이 위치)에 디스플레이되도록 설정된다.
전방 유리창은 보통 평평한 표면이 아니라 다소 곡면인 표면으로 형성되며, 따라서 가상 이미지 I의 이미징 위치는 오목 미러(40) 및 전방 유리창(50)의 곡면 표면에 의해 결정된다는 것을 유의하자.
광학 주사 유닛(10)은 광원 유닛(11), 광 편향기(15), 및 주사 미러(20)를 포함한다. 광원 유닛(11)으로부터의 광빔은 광 편향기(15)에 의해 편향되고, 편향된 광빔은 스크린(30)의 광학 주사를 수행하도록 주사 미러(20)에 의해 반사된다. 오목 미러(40)와 주사 미러(20)의 적어도 하나는, 중간 이미지의 수평선이 전방 유리창(50)의 영향으로 인해 위로 또는 아래로 볼록한 선으로 변하는 광 왜곡 요소를 보정하도록 설계 및 배열되는 것이 바람직하다.
광원 유닛(11)에서, R, G, B의 3 색상의 레이저 빔이 합성된다. 3 색상의 광 빔이 합성되는 합성 광 빔은 광 편향기(15)의 반사 표면으로 유도된다. 광 편향기(15)는 반도체 제조 프로세스에 의해 생성된 MEMS(Micro Electro Mechanical Systems) 스캐너로 형성되고, MEMS 스캐너는 2개의 직교축 각각의 주위에 수직으로 스윙가능한(swingable) 단일 마이크로 미러를 포함한다. 광 편향기(15)는 하나의 축 주위에 스윙가능한 마이크로 미러를 각각 포함한 2개의 MEMS 스캐너를 조합함으로써 형성될 수 있다는 것을 유의하자. 대안으로서, MEMS 스캐너 대신에 갈바노(galvano) 스캐너 또는 폴리곤(polygon) 스캐너가 광 편향기에 포함된 스캐너로서 사용될 수 있다. 광원 유닛(11)의 상세한 구성이 나중에 기재될 것이다.
광 편향기(15)에 의해 편향된 광빔의 번들이 주사 미러(20)에 의해 반사되고, 1차원 또는 2차원 이미지(중간 이미지)가 스크린(30)의 표면(주사된 표면) 상에 렌더링된다. 레이저 빔 번들을 원하는 발산각으로 발산시키는 기능을 갖는 마이크로 렌즈 어레이 또는 마이크로 미러 어레이가 스크린(30)으로서 사용되는 것이 바람직하다. 대안으로서, 레이저 빔 번들을 확산시킬 확산판, 또는 평탄한 표면을 갖는 반사판 또는 투명판이 대신 사용될 수도 있다. 광 편향기(15)의 상세한 구성이 나중에 기재될 것이다.
스크린(30)으로부터의 레이저 빔 번들은 오목 미러(40)에 의해 반사되고, 반사된 레이저 빔 번들은 전방 유리창(50)에 입사된다. 전방 유리창(50)으로의 인입 번들의 일부는 전방 유리창(50)을 통해 통과되고, 나머지 레이저 빔 번들의 적어도 일부는 시점 위치를 향해 반사된다. 그 결과, 이미지 시청자는 전방 유리창(50)을 통해 중간 이미지를 확대함으로써 생성된 가상 이미지 I를 볼 수 있다. 즉, 이미지 시청자는 전방 유리창(50)을 통해 가상 이미지 I의 확대된 디스플레이를 볼 수 있다.
투과 반사 부재로서 결합기(combiner)가 전방 유리창(50)보다 시점 위치에 더 가까운 위치에 배치될 수 있고, 전방 유리창(50)이 단독으로 배치된 경우와 마찬가지 방식으로 이미지 디스플레이가 수행되도록 오목 미러(50)로부터의 레이저 빔 번들이 결합기로 유도될 수 있다는 것을 유의하자.
도 2는 HUD 디바이스(100)의 제어 시스템의 하드웨어 구성을 예시한다. 도 2에 예시된 바와 같이, HUD 디바이스(100)의 제어 시스템은, FPGA(field-programmable gate array)(600), CPU(central processing unit)(602), ROM(read-only memory)(604), 인터페이스(608), 버스 라인(610), 레이저 다이오드(LD; laser diode) 드라이버(6111), 및 MEMS 컨트롤러(615)를 포함한다.
FPGA(600)는 LD(111)(나중에 기재될 것임)를 동작시키게끔 LD 드라이버(6111)를 제어하도록 구성되고, 광 편향기(15)를 동작시키게끔 MEMS 컨트롤러(615)를 제어하도록 구성된다. CPU(602)는 HUD 디바이스(100)의 전반적인 동작을 제어하도록 구성된다. ROM(604)은 HUD 디바이스(100)의 전반적인 동작을 제어하기 위한 이미지 프로세싱 프로그램을 저장하도록 구성된다. RAM(606)은 CPU(602)의 작업 영역으로서 이용된다. 인터페이스(608)는 HUD 디바이스(100)가 외부 컨트롤러와 통신할 수 있게 해주도록 구성된다. 예를 들어, 인터페이스(608)는 차량의 CAN(controller area network)에 접속된다.
도 3는 HUD 디바이스(100)의 기능적 구성을 예시한다. 도 3에 예시된 바와 같이, HUD 디바이스(100)는 차량 정보 입력 유닛(800), 외부 정보 입력 유닛(802), 이미지 데이터 생성 유닛(804), 및 이미지 드로잉(drawing) 유닛(806)을 포함한다.
차량 정보 입력 유닛(800)은 CAN으로부터 차량 정보(차량 속도, 주행거리, 목표 물체까지의 거리, 외부 환경의 밝기 등을 포함한 정보임)를 수신하도록 구성된다. 외부 정보 입력 유닛(802)은 외부 네트워크로부터 차량 외부에 관한 정보(GPS 등으로부터의 탐색 정보임)를 수신하도록 구성된다. 이미지 데이터 생성 유닛(804)은, 차량 정보 입력 유닛(800)에 의해 수신된 차량 정보 및 외부 정보 입력 유닛(802)에 의해 수신된 정보에 기초하여, 렌더링될 이미지의 이미지 데이터를 생성하도록 구성된다. 이미지 드로잉 유닛(806)은 제어 유닛(8060)을 포함한다. 제어 유닛(8060)은 이미지 데이터에 따라 광학 주사 유닛(10)을 제어하도록 구성되고, 그리하여 이미지 드로잉 유닛(806)은 전방 유리창(50)에 이미지 광빔을 방출하도록 구성된다. 그 결과, 가상 이미지 I가 이미지 시청자 A의 시점 위치로부터 보이게 된다.
도 3에 예시된 상기의 유닛들은, ROM(604)에 저장된 프로그램에 기초하여 CPU(602)로부터의 명령어에 의해 활성화되는, 도 2에 예시된 HUD 디바이스(100)의 임의의 구성요소 및 디바이스에 의해 구성되는 기능 및 유닛을 나타낸다.
도 4는 광원 유닛(11)의 상세한 구성을 예시한다. 도 4에 예시된 바와 같이, 광원 유닛(11)은 각각이 하나 이상의 발광점을 갖는 복수의 발광 소자(111R, 111B, 및 111G)를 포함한다. 예로서, 발광 소자(111R, 111B, 및 111G)의 각각은 LD(레이저 다이오드)로 형성된다. 발광 소자(111R, 111B, 및 111G)는 각각 서로 다른 파장 λR, λG, 및 λB을 갖는 레이저 빔을 방출한다. 예를 들어, λR = 640 nm, λG = 530 nm, λB = 445 nm이다. LD 111R, LD 111G, 및 LD 111B로부터 방출된 파장 λR, λG, 및 λB의 레이저 빔 번들은 각각 대응하는 커플링 렌즈(112R, 112G, 및 112B)에 의해 후속 광학 시스템에 결합된다. 결합된 레이저 빔 번들은 대응하는 개구 부재(113R, 113G, 및 113B)에 의해 성형된다. 개구 부재(113R, 113G, 및 113B) 각각의 개구 형상은, 레이저 빔 번들의 발산 각도에 따라 원형, 타원형, 직사각형, 및 정사각형을 포함하는 임의의 다양한 형상으로 설정될 수 있다. 그 후에, 개구 부재에 의해 성형된 번들의 레이저 빔의 광 경로가 합성 소자(120)에 의해 같이 결합된다. 합성 소자(120)는, 번들의 레이저 빔을 그의 파장에 따라 반사 및 투과시키고 레이저 빔을 단일 광 경로로 결합하는 플레이트 형상 또는 프리즘 형상의 다이크로익(dichroic) 미러일 수 있다. 결합된 레이저 빔 번들은 렌즈(119)에 의해 광 편향기(15)의 반사 표면으로 유도된다. 렌즈(119)는 광 편향기(15)에 마주하는 오목 표면을 갖는 메니스커스(meniscus) 렌즈일 수 있다.
도 5는 광 편향기(15)의 상세한 구성을 예시한다. 광 편향기(150)는 반도체 제조 프로세스에 의해 생성된 MEMS 스캐너이다. 도 5에 예시된 바와 같이, 광 편향기(15)는 반사 표면을 갖는 미러(150), 및 서로 이격 형성되어 있는 한 쌍의 사행부(meandering parts)(152)를 포함한다. 사행부(152)의 각각은, 2개의 인접한 빔들이 지그재그 방식으로 폴드백(fold-back) 부분에 의해 이어지도록 X축 방향으로 배열된 복수의 빔을 포함한다. 사행부(152) 각각에 포함된 2개의 인접한 빔들은 프레임 부재(154)에 의해 지지되는 빔-A(152a) 및 빔-B(152b)를 포함한다. 복수의 압전 소자(156)(예를 들어, PZT)가 복수의 빔에 개별적으로 제공된다. 사행부 각각에 포함된 2개의 인접한 빔의 압전 소자에 상이한 전압을 인가함으로써, 2개의 인접한 빔이 상이한 방향으로 편향되고, 2개의 인접한 빔의 이러한 편향들이 축적되어, 미러(150)가 X축(=수직 방향)을 중심으로 비교적 큰 각도 회전된다.
이러한 구성에 의해, X축 중심의 수직 방향 광학 주사가 낮은 전압으로 구현된다. 반면에, Y축 중심의 수평 방향 광학 주사는 미러(150)에 연결된 토션 바 스프링을 사용하여 공진에 의해 구현된다.
상기 기재된 광 편향기(15)를 제어함으로써, 레이저 빔은 스크린(30)의 이미지 드로잉 영역(30)(도 6 참조)에 2차원 위치로 주사되고(예컨대, 래스터 주사), 레이저 빔의 주사 위치에 따라 LD의 발광 제어를 수행함으로써 픽셀마다의 이미지 렌더링 및 가상 이미지의 디스플레이가 구현될 수 있다. 도 6에서 “Ps”는 주사 라인 피치를 나타낸다.
HUD 디바이스(100)로부터 순간적으로 레이저 빔의 직경에 상당한 점 이미지만 투사되지만, 레이저 빔은 매우 높은 속도로 주사되며 하나의 프레임 이미지 내에 인간 눈에는 잔상이 충분히 남는다. 잔상 현상을 이용함으로써, 운전자가 디스플레이 영역에 투사된 이미지를 인지하게 하는 것이 가능하다. 실제로, 스크린(30) 상에 형성된 이미지는 오목 미러(40) 및 전방 유리창(50)에 의해 반사되고, 반사된 이미지는 디스플레이 영역에서 가상 이미지로서 운전자에 의해 인지된다. 따라서, 이미지가 디스플레이되지 않을 때에는, LD에 의한 레이저 빔의 발광이 중지된다. 가상 이미지가 디스플레이 영역에 디스플레이되는 부분이 아닌 다른 부분의 휘도를 0으로 설정하는 것이 가능하다.
즉, HUD 디바이스(100)에 의해 형성된 가상 이미지의 이미징 위치는, 가상 이미지가 형성될 수 있는 미리 정해진 디스플레이 영역 내의 임의의 위치로 설정될 수 있다. 미리 정해진 디스플레이 영역은 HUD 디바이스(100)의 설계 단계에서 사양에 의해 설정될 수 있다.
레이저 주사 방법을 이용함으로써, 가상 이미지가 디스플레이되는 부분이 아닌 다른 부분에 대하여 LD를 소등하거나 광량을 감소시키는 조치를 취하는 것이 가능하다.
반면에, 패널 방법이 중간 이미지에 이용되는 경우에는, 전체 패널을 조사하는 액정 패널 또는 DMD 패널과 같은 이미징 디바이스가 필요하며, 이미지가 디스플레이되지 않을 때에 가상 이미지가 디스플레이 영역에 디스플레이되는 부분이 아닌 다른 부분의 휘도를 0으로 설정하는 것이 어렵다.
인간의 오른쪽 눈과 왼쪽 눈은 상이한 위치에 존재한다. 시차(parallax)는 시청자의 양쪽 눈의 2개의 가시선(lines of sight)을 따라 보이는 물체의 외관 위치의 변위이며, 시청자의 각각의 눈의 가시선 간의 경사각에 의해 측정된다. 원근법적 왜곡(foreshortening)으로 인해, 상이한 위치에서 관찰할 때 가까이 있는 물체는 더 멀리 있는 물체보다 더 큰 시차를 가지며, 그리하여 시차는 거리를 결정하는데 사용될 수 있다. 인간의 뇌는 시청자의 눈에 반사된 물체의 투사들 간의 차이를 인식함으로써 깊이를 인지한다.
HUD 디바이스는 예를 들어, 차량의 운전자 앞에 가상 이미지로서 정보를 디스플레이하는 차량내 디스플레이 디바이스이다. 이러한 가상 이미지는 운전자가 보는 전방 장면(front scene)에 중첩되어 디스플레이된다. 가상 이미지 내의 디스플레이 정보의 기하학적 구성을 실제 공간과 일치하도록 조정함으로써, 운전자가 디스플레이 정보를 겉보기에 실제 공간 내의 임의의 위치에 존재하는 것으로서 인지하게 하는 것이 가능하다.
그러나, HUD 디바이스의 디스플레이 이미지(가상 이미지)는 설계 단계에서 결정되는 2차원 위치로 투사된다. 디스플레이 이미지가 실제 공간 내의 임의의 위치에(예를 들어, 운전자의 시점이 향하는 도로 표면 상에) 존재하는 것으로 보이도록 형상과 톤이 조정되더라도, 시차 또는 가상 이미지가 디스플레이되는 위치에 따른 투사의 차이가 운전자의 양쪽 눈의 망막에 일어날 것이다.
도 7에 예시된 바와 같이, θHUD는 HUD 디바이스(100)의 가상 이미지를 볼 때 운전자(이미지 시청자)의 앙쪽 눈의 가시선들 간의 경사각(수렴 각도)을 나타내며, 이는 이 경우의 시차를 나타내고, θscene는 운전자가 전방 장면에서 먼 지점을 볼 때에 운전자의 각각의 눈들의 가시선들 간의 경사각(수렴 각도)을 나타내며, 이는 이 경우의 시차를 나타낸다. 다음에서, |θHUD - θscene|는 시차 각도로 지칭된다. 물체를 볼 때 이미지 시청자의 양쪽 눈의 가시선들 간의 경사각이 일반적으로 수렴 각도로 불리는 것을 유의하자.
시차 각도가 1도를 넘으면 시청자가 이중 이미지, 피로 느낌, 및 불쾌감을 느낄 수 있다고 일반적으로 알려져 있다. 문제를 없애기 위해, 제1 실시예에 따른 HUD 디바이스(100)는 시차 각도가 1도 이하이도록 설계된다. 시점 위치로부터 가상 이미지 I의 이미징 위치까지의 거리 L이 4 m일 때, 시점 위치와 물체 사이의 거리는 2 m 이상이고 1000 m 이하이며 시차 각도가 1도 이하인 것으로 확인된다. 또한, 시점 위치로부터 가상 이미지 I의 이미징 위치까지의 거리 L이 6 m 이상일 때, 물체가 무한 거리에 놓여있다 해도 시차 각도가 1도보다 작은 것으로 확인된다. 거리 L이 짧을수록 디바이스에서의 광 경로 거리가 짧아지며, HUD 디바이스의 소형화를 달성하는 것이 가능하다.
제1 실시예에 따른 HUD 디바이스(100)가 차량에 탑재되는 정보 디스플레이 장치로서 이용된다는 사실을 고려하여, 거리 L이 4 m 내지 6 m 범위로 설정된다면, HUD 디바이스(100)는 적어도 차량의 1000 m 앞의 거리의 물체에 적용가능하며, 이는 실제 응용에 충분하고 HUD 디바이스의 소형화에도 유리한 것으로 보인다.
HUD 디바이스(100)가 시점 위치로부터 2 m 이상의 거리의 물체에 적용가능하다면, 실제 응용에 충분한 것으로 보인다. 즉, 시점 위치로부터 2 m 미만 부근의 물체를 가상 이미지로 마킹할 필요는 매우 낮다. 기능적 관점에서, HUD 디바이스(100)가 시점 위치로부터 y m(= 2 m 내지 5 m) 이상의 거리의 물체에 적용가능하다면, 만족스러운 것으로 보인다.
HUD 디바이스(100)가 항공기에 탑재되는 경우에는, 거리 L이 4 m 내지 6 m 범위(바람직하게는, 5 m 내지 6 m)로 설정된다면, HUD 디바이스(100)는 멀리 존재하는 물체에 적용 가능하고 HUD 디바이스의 소형화가 달성될 수 있다.
HUD 디바이스(100)가 임의의 종류의 이동체에 탑재될 때에도, 거리 L은 6m 이상인 것으로 설정될 수 있다. 그러나, HUD 디바이스의 확대를 막는 관점에서, 거리 L은 10 m 이하로 설정되는 것이 바람직하다.
HUD 디바이스(100)는, 시차 각도를 1도 이하가 되게 하도록 광학 주사 유닛(10) 및 오목 미러(40)에 의한 가상 이미지의 이미징 위치(적어도 깊이 위치)가 설정되도록 구성된다. 예를 들어, 가상 이미지의 이미징 위치는 주사 미러(20), 오목 미러(40), 및 투과 반사 부재(예컨대, 전방 유리창(50)) 각각의 곡률(파워)에 의해 설정될 수 있다.
도 8은 배경 거리, 시점 위치로부터 가상 이미지 I의 이미징 위치까지의 거리 L, 및 거리 L로부터 계산된 시차 각도 간의 관계를 설명하기 위한 도면이다. 도 8로부터 명백하듯이, 이중 이미지 또는 시차를 발생시키지 않고서 가상 이미지를 인식하기 위하여, 전방 장면의 임의의 응시점(gazing point)에 추가적으로, HUD 디바이스(100)에 의한 가상 이미지의 디스플레이 거리(시점 위치로부터 가상 이미지의 이미징 위치까지의 거리)가 4 m 이상일 필요가 있다.
제1 실시예에 따른 HUD 디바이스(100)에 있어서, 가상 이미지가 목표 물체보다 더 가까운 위치에서 생성될 때, 목표 물체와 목표 물체 부근에 중첩되어 디스플레이된 가상 이미지 간의 시차 각도는 1도 이하이고, 가상 이미지에 의한 정보를 명확하게 인식하면서 전방 장면에 존재하는 목표 물체를 보는 것이 가능하다. 그러나, 가상 이미지가 아닌 다른 디스플레이 영역 부분이 어두워지고 정보가 디스플레이되지 않는 영역이 다소 하이라이트될 때, 목표 물체 부근에 있는 가상 이미지를 보이게 하는 효과가 억제될 것으로 확인된다. 제1 실시예에 따른 HUD 디바이스(100)에서 레이저 주사 방법을 이용함으로써, 본 개시의 이로운 효과를 억제하지 않고서 확대된 현실감을 유지하는 것이 가능하다.
다음으로, 제1 실시예의 일부 예들이 기재될 것이다.
<예 1>
도 9에 예시된 바와 같이, 예 1에서, 차량의 100 m 앞의 앞선 차량을 가상 이미지로 마킹하기 위하여, HUD 디바이스(100)는 차량의 100 m 앞의 거리에 보이는 마크로서 2차원 가상 이미지를 운전자(이미지 시청자)의 시야 내에 디스플레이하도록 이용된다.
시야에, 100 m 앞 거리의 앞선 차량 및 앞선 차량 뒤의 도로 표면이 포함된다. 100 m 앞 거리의 앞선 차량은 운전자로부터 떨어진 곳에 존재하는 것으로 보이고, 앞선 차량 뒤의 도로 표면은 운전자에게 가까운 곳에 존재하는것으로 보인다. 이 예에서, 가상 이미지는 U 형상의 마크이고, 이 가상 이미지는 앞선 차량 뒤의 도로 표면 상에 중첩되어 디스플레이된다.
이 마크의 형상, 크기, 휘도, 컬러, 및 위치의 파라미터는 100 m 앞의 앞선 차량의 형상, 크기, 휘도, 컬러, 및 위치의 파라미터와 일치시키는 것이 바람직하다. 앞선 차량과 차량 사이의 차량 대 차량 거리에 따라 파라미터를 변경하는 것이 바람직하다. 파라미터를 그에 맞춤으로써, 마크가 차량의 100m 앞의 앞선 차량의 위치 부근에 존재하는 것처럼 보인다.
그러나, 가상 이미지(마크)가 존재하는(디스플레이되는) 위치는 이미지 시청자로부터 볼 때 x m의 거리에 있다. 이 때에 앞선 차량과 가상 이미지 간의 시차 각도가 1도를 초과하면, 가상 이미지는 이중 이미지로서 보일 수 있다. 이러한 가상 이미지가 시야에 디스플레이되면, 이미지 시청자가 가상 이미지를 인식하는 것이 어렵다. 이미지 시청자는 피로감과 불쾌감을 느낄 수 있다.
가상 이미지(마크)의 투사된 거리(또는 이미지 시청자의 시점 위치로부터 가상 이미지의 이미징 위치까지의 거리 L)가 6 m로 설정되면, θHUD는 0.62도이다. 가상 이미지의 배경측의 목표 물체는 앞선 차량 뒤의 도로 표면 상에 존재한다. 목표 물체에서 도로 표면까지의 거리가 99 m로 설정되면, θscene는 0.037도이다. 이 경우에, 시차 각도 |θHUD - θscene|는 1도보다 작고, 이중 이미지나 시차는 생기지 않는다. 이 경우 시차 각도의 계산은, 이미지 시청자의 양쪽 눈 사이의 거리가 65 mm라는 가정(이 값은 일본 사람들의 평균을 나타냄)에 기초하여 수행된다는 것을 유의하자.
상기 기재된 바와 같이, 시차 각도가 1도 이하로 설정되도록 구성되는 예 1의 HUD 디바이스(100)를 이용함으로써, 이중 이미지, 불쾌감과 피로감의 발생을 억제하는 것이 가능하고, 시야에 디스플레이되는 가상 이미지 및 시야에 포함된 앞선 차량은 동일한 위치에 존재하는 것으로 인식된다.
<예 2>
도 10에 예시된 바와 같이, 예 2에서, HUD 디바이스(100)는 이미지 시청자로부터 볼 때 가상 이미지가 시야에 포함된 도로 표면으로부터의 깊이 위치를 갖도록 기하학적 변환에 의해 달성된 가상 이미지를 디스플레이하도록 이용된다. 또한, 기하학적 변환 안한 가상 이미지(예컨대, 차량 속도를 포함한 탐색 정보)도 디스플레이된다. 이미지 데이터 생성 유닛(804)은 오리지널 이미지 데이터의 기하학적 변환을 수행함으로써 이미지 데이터를 발생시키고, 이미지 드로잉 유닛(806)은 기하학적 변환에 의해 획득된 이미지 데이터에 기초하여 가상 이미지를 렌더링한다.
예 2에서, 가상 이미지가 중첩되는 도로 표면의 일부가 시야에 포함된다. 구체적으로, 기하학적 변환에 의해 획득되어 디스플레이된 가상 이미지는, 탐색 정보에 의해 표시된 차선 변경을 수행하라고 운전자에게 프롬프트하는 화살표 패턴이며, 화살표 패턴의 상단은 운전자의 시점으로부터 먼 부분으로 보이고 화살표 패턴의 하단은 운전자의 시점으로부터 가까운 부분으로 보인다.
시야에 포함된 물체는 시점 위치로부터 깊이 위치(먼 곳 또는 가까운 곳)를 갖도록 보인다. 그러나, HUD 디바이스(100)에 의해 생성된 가상 이미지는 시점 위치로부터 볼 때 깊이 위치를 갖지 않는 2차원 이미지이다.
운전자의 양쪽 눈이 전방 장면에(먼 곳) 포커싱되고 전방 장면과 가상 이미지 간의 시차 각도가 1도를 넘을 때, 전방 장면을 보면서 탐색 정보로서 디스플레이된 가상 이미지를 인식하는 것은 어렵다. 운전자는 가상 이미지를 이중 이미지로서 인지할 수 있다. 시야에 가상 이미지가 디스플레이될 때 가상 이미지의 정보를 인식하기 위하여, 이미지 시청자는 시점을 가상 이미지로 이동시킬 필요가 있다.
이 경우에, HUD 디바이스(100)는 시차 각도가 1도 이하이도록 구성되고, 전방 장면을 보면서 탐색 정보를 정확하게 인식하는 것이 가능하다.
상기 예에서, 앞선 차량이 가상 이미지로 마킹되는 경우 그리고 가상 이미지가 도로 표면 상에 중첩되는 경우가 기재되었다. 또한, 보행자, 도로 표면 상의 흰색 선, 및 빌딩을 포함하는, 운전자 앞의 전방 장면의 임의의 물체가 가상 이미지로 마킹되고 가상 이미지가 이러한 물체에 중첩되는 것도 가정할 수 있다.
다음으로, HUD 디바이스(100)에 의해 이미지를 디스플레이하기 위한 정보 디스플레이 방법이 기재될 것이다. HUD 디바이스(100)에 의한 이미지 디스플레이에서, 디스플레이될 이미지는 운전자의 시점 위치, 가상 이미지 위치, 시점과 가상 이미지 간의 거리, 가상 이미지의 크기, 및 가상 이미지의 중첩이 수행되는 범위에 기초하여 결정된다.
가상 이미지가 도로 표면 상에 중첩될 때, 목표 위치 및 목표 거리가 결정되고, 디스플레이된 가상 이미지가 운전자의 시점에서 볼 때 목표 거리의 목표 위치에 존재하는 것으로서 보이도록 기하학적 변환에 의해 획득된 가상 이미지의 디스플레이가 수행되는 것이 바람직하다(도 11 참조).
도로 표면이 평평한 표면임을 가정함으로써 가상 이미지가 디스플레이될 때, 이미지 디스플레이는 오로지 기하학적 변환을 수행함으로써 수행될 수 있다. 그러나, 곡면이나 슬로프와 같은 도로 표면 형상이 디스플레이될 때 또는 흰색 선 상에 중첩된 가상 이미지가 디스플레이될 때, 도로 표면 상에 가상 이미지를 중첩시키기 위해 목표 위치의 좌표(위치 정보)를 획득하는 것이 필요하다. 또한, 가상 이미지가 보행자 또는 앞선 차량과 같은 물체 상에 중첩될 때, 물체의 위치 정보를 획득하는 것이 필요하다.
<예 3>
도 12는 물체의 위치 정보가 필요한 경우에 적절한 예 3의 정보 제공 시스템(300)의 하드웨어 및 기능적 구성을 예시한다.
도 12에 예시된 바와 같이, 이동체(예컨대, 차량)에 탑재되는 정보 제공 시스템(300)은 HUD 디바이스(100), 감지 유닛(310)(3차원 위치 정보 획득 유닛), 및 좌표 변환 유닛(801)을 포함한다. 감지 유닛(310)은 시야에 포함된 물체의 3차원 위치 정보를 획득하도록 구성된다. 좌표 변환 유닛(801)은, 감지 유닛(310)에 의해 획득되며 감지 유닛(310)의 좌표 시스템에 기초한 물체의 3차원 위치 정보를, HUD 디바이스(100)의 좌표 시스템(도 6 참조)에 기초한 좌표로 변환하도록 구성된다. 이 예에서, 좌표 변환 유닛(801)은 차량의 전자 제어 유닛(ECU; electronic control unit)(350)에서 제공된다. 그러나, 좌표 변환 유닛(801)은 ECU(350)과 별개로 제공될 수도 있다.
감지 유닛(310)은 레이저 레이더(310a) 및 물체 인식 유닛(310b)(3차원 위치 정보 계산 유닛)을 포함한다. 레이저 레이더는 LIDAR(Laser Imaging Detection and Ranging)라 불릴 수 있다.
다음으로, 감지 유닛(310)이 도 12 내지 도 14c를 참조하여 기재될 것이다. 도 13은 감지 유닛(310)의 구성을 예시하고 도 14a 내지 도 14c는 레이저 레이더(310a)의 구성을 예시한다.
도 13에 예시된 바와 같이, 레이저 레이더(310a)는 차량에 탑재된 주사 타입 레이저 레이더이다. 레이저 레이더(310a)는, 물체까지의 거리가 측정되도록 레이저 빔을 방출하여 물체(앞선 차량, 정지된 차량, 구조물, 보행자 등)로부터의 반사 레이저 빔(산란 광)을 수신하도록 구성된다. 예로서, 차량의 배터리(스토리지 배터리)로부터의 전기 전력이 레이저 레이더(310a)에 공급된다.
도 13에 예시된 바와 같이, 레이저 레이더(310a)는 광원으로서의 레이저 다이오드(LD), LD 드라이버(12), 투사 광학 시스템(21), 광 수신 광학 시스템(31), 검출 시스템(41), 동기(sync) 시스템(51), 및 측정 제어 유닛(46)을 포함한다.
예로서, LD는 에지 방출 레이저로 형성된다. LD는 레이저 빔을 방출하도록 LD 드라이버(12)에 의해 구동된다. LD 드라이버(12)는 측정 제어 유닛(46)으로부터 출력된 LD 구동 신호(직사각 펄스 신호)에 기초하여 레이저 빔(발광)을 방출하도록 LD를 턴온한다. 예로서, LD 드라이버(12)는 LD에 전류를 공급하도록 LD에 연결된 커패시터, 커패시터와 LD 사이의 전도를 온오프 전환하기 위한 트랜지스터, 및 커패시터를 충전하기 위한 충전 유닛을 포함한다. 측정 제어 유닛(46)은 차량의 ECU로부터 측정 제어 신호(측정 시작 신호 또는 측정 위험 신호)를 수신하는 것에 응답하여 측정을 시작하고 정지하도록 구성된다.
도 14a는 투사 광학 시스템(21) 및 동기 시스템(51)의 구성을 개략적으로 예시한다. 도 14b는 광 수신 광학 시스템(31)의 구성을 개략적으로 예시한다. 다음에서, 도 14a에 표시된 Z축 방향이 수직 방향인 것으로 가정되는 XYZ 3차원 직사각 좌표 시스템이 레이저 레이더(310a)의 기술에 사용된다.
도 14a에 예시된 바와 같이, 투사 광학 시스템(21)은 LD로부터의 레이저 빔의 광 경로에 배치된 커플링 렌즈(22), 커플링 렌즈(22)를 통해 통과하는 레이저 빔의 광 경로에 배치된 반사 미러(24), 및 반사 미러(24)에 의해 반사된 레이저 빔의 광 경로에 편향기로서 배치된 회전 미러(26)를 포함한다. 이 예에서, 디바이스의 소형화를 위해, 반사 미러(24)가 커플링 렌즈(22)와 회전 미러(26) 사이의 광 경로에 배치되고, 광 경로는 반사 미러(24)로부터 회전 미러(26)로 폴드백된다.
LD로부터 방출된 레이저 빔은 커플링 렌즈(22)에 의해 미리 정의된 빔 프로파일을 갖는 레이저 빔으로 성형되고, 성형된 레이저 빔은 반사 미러(24)에 의해 반사되고 회전 미러(26)에 의해 Z축 주변에서 편향된다.
회전 미러(26)에 의해 미리 정해진 편향 영역을 커버하도록 Z축 주변에서 편향된 레이저 빔은 투사 광학 시스템(21)으로부터 투사된 레이저 빔이 되며, 이는 레이저 레이더(310a)로부터 방출된 레이저 빔이다.
회전 미러(26)는 회전 축(Z축) 주변에 둘 이상의 반사 표면을 포함한다. 회전 미러(26)는 반사 미러(24)로부터의 레이저 빔을 반사(편향)시키면서 회전 축을 중심으로 레이저 빔을 회전시키며, 편향 영역에 대응하는 유효 주사 영역을 커버하도록 단축 수평 방향(Y축 방향)으로 레이저 빔의 1차원 주사를 수행한다. 편향 영역 및 유효 주사 영역은 레이저 레이더(310a)의 +X 측에 위치된다. 다음에서, 회전 미러(26)의 회전 방향은 미러 회전 방향으로 불린다.
도 14a 내지 도 14c에 예시된 바와 같이, 회전 미러(26)는 2개의 대향 반사 표면을 포함한다. 대안으로서, 회전 미러(26)는 단일 반사 표면을 포함할 수 있거나 3개의 반사 표면을 포함할 수 있다. 또한, 회전 미러(26)는 적어도 2개의 반사 표면을 포함할 수 있고, 반사 표면이 회전 미러의 회전 축에 상이한 각도로 배치되도록 배열될 수 있으며, 주사 및 검출 영역은 Z축 방향으로 변경된다.
광학 주사 시스템(200)(도 13 참조)은 LD, LD 드라이버(12) 및 투사 광학 시스템(21)을 포함하도록 구성될 수 있으며, 유효 주사 영역에서 레이저 빔의 주사를 수행한다.
도 14b에 예시된 바와 같이, 광 수신 광학 시스템(31)은, 투사 광학 시스템(21)에 의해 투사되어 유효 주사 영역에서의 물체에 의해 반사(분산)되는 레이저 빔을 반사시키는 회전 미러(26), 회전 미러(26)로부터의 레이저 빔을 반사시키는 반사 미러(24), 및 레이저 빔을 시간 측정 포토 다이오드(PD)(42)(나중에 기재될 것임)에 포커싱하도록 반사 미러(24)로부터의 레이저 빔의 광 경로에 배치되는 이미징 광학 시스템을 포함한다.
LD로부터 반사 미러(24)로의 광 경로 및 반사 미러(24)로부터 시간 측정 PD(42)로의 광 경로가 도 14c에 예시된다.
도 14c로부터 명백하듯이, 투사 광학 시스템(21) 및 광 수신 광학 시스템(31)은 Z축 방향으로 배치되어 오버랩되고, 회전 미러(26) 및 반사 미러(24)는 투사 광학 시스템(21) 및 광 수신 광학 시스템(31)에 의해 공유된다. LD에 의한 물체의 광 발광 범위와 시간 측정 PD(42)의 유효 광 수신 범위 간의 상대 위치 차이가 감소될 수 있고, 물체의 검출이 안정적으로 수행될 수 있다.
도 14b 및 도 13에 예시된 바와 같이, 검출 시스템(41)은, 투사 광학 시스템(21)으로부터 투사되며 광 수신 광학 시스템(31)을 통해 유효 주사 영역에서의 물체에 의해 반사(분산)되는 레이저 빔을 수신하는 시간 측정 PD(42), 시간 측정 PD(42)의 출력 전류(전류 신호)에 기초한 전압 신호인 광 수신 신호를 검출하는 PD 출력 검출기(44), 및 LD 구동 신호의 상승(rise) 타이밍과 PD 출력 검출기(44)에 의한 광 수신 신호의 검출 타이밍 간의 시간 차이를 측정하는 시간 측정 유닛(45)을 포함한다.
투사 광학 시스템(21)으로부터 투사되어 물체에 의해 반사(분산)된 레이저 빔은 회전 미러(26) 및 반사 미러(24)를 통해 이미징 광학 시스템으로 유도되고, 이미징 광학 시스템에 의해 시간 측정 PD(42)에 포커싱된다(도 14b 참조). 도 14b에서, 디바이스의 소형화를 위해, 반사 미러(24)가 회전 미러(26)와 이미징 광학 시스템 사이에 배치되고, 광 경로가 반사 미러(24)로부터 회전 미러(26)로 폴드백된다. 이 예에서, 이미징 광학 시스템은 2개의 렌즈(이미징 형성 렌즈)를 포함한다. 대안으로서, 이미징 광학 시스템은 단일 렌즈를 포함할 수 있거나 3개 이상의 렌즈를 포함할 수 있다. 미러 광학 시스템이 대신 사용될 수도 있다.
도 14a 및 도 13에 예시된 바와 같이, 동기 시스템(51)은, LD로부터 방출되고 커플링 렌즈(22)를 통해 반사 미러(24)에 의해 반사되며 회전 미러(26)에 의해 편향되고 반사 미러(24)에 의해 다시 반사되는 레이저 빔의 광 경로에 배치되는 동기 렌즈(52), 동기 렌즈(52)를 통한 레이저 빔의 광 경로에 배치되는 동기 검출 PD(54), 및 동기 검출 PD(54)의 출력 신호를 검출하는 PD 출력 검출기(56)를 포함한다.
구체적으로, 반사 미러(24)는 회전 미러(26)의 회전 방향으로 편향 영역의 상류측에 배치되고, 회전 미러(26)에 의해 편향 영역의 상류측으로 편향된 레이저 빔은 반사 미러(24)로 들어간다. 회전 미러(26)에 의해 편향되고 반사 미러(24)에 의해 반사된 레이저 빔은 동기 렌즈(52)를 통해 동기 검출 PD(54)로 들어간다.
반사 미러(24)는 회전 미러(26)의 회전 방향으로 편향 영역의 하류측에 배치될 수도 있다는 것을 유의하자. 동기 시스템(51)은 회전 미러(26)에 의해 편향되고 반사 미러(24)에 의해 반사되는 레이저 빔의 광 경로에 배치될 수 있다.
동기 검출 PD(54)는 회전 미러(26)의 회전 동안 회전 미러(26)의 반사 표면에 의해 반사된 레이저 빔이 동기 검출 PD(54)에 의해 수신될 때마다 신호를 출력한다. 즉, 동기 검출 PD(54)는 신호(동기 신호)를 주기적으로 출력한다.
이 방식에서, 회전 미러(26)로부터의 레이저 빔으로 동기 검출 PD(54)를 조사하도록 동기 발광(synchronous emission)이 수행되고, 회전 미러(26)의 회전 타이밍은 동기 검출 PD(54)의 레이저 빔 수신 타이밍에 기초하여 획득될 수 있다.
유효 주사 영역에서 레이저 빔의 광학 주사는, LD의 동기 발광이 수행된 후에 미리 정해진 시간이 경과되었을 때 LD의 펄스 발광을 수행함으로써 수행될 수 있다. 즉, 유효 주사 영역에서의 레이저 빔의 광학 주사는, 레이저 빔으로 동기 검출 PD(54)가 조사되는 타이밍으로부터 미리 정해진 시간의 종료시 LD의 펄스 발광을 수행함으로써 수행될 수 있다.
시간 측정 및 동기 검출을 위해 사용되는 광검출기의 예는, 상기 기재된 PD, APD(avalanche photo diode), Geiger 모드 APD인 SPAD(single photon avalanche diode)를 포함한다. APD 및 SPAD는 PD보다 더 높은 감도를 가지며, 검출 정확도 및 검출 거리를 증가시키는데 유리하다.
PD 출력 검출기의 동작은 2가지 동작, 즉 광 수신 신호(전압 신호)의 증폭 및 광 수신 신호의 타이밍 검출을 포함할 수 있다. 광 수신 신호의 증폭 동작에서, PD의 출력 전류가 신호 증폭기를 사용함으로써 전압 신호로 변환된 다음, 전압 신호가 증폭된다. 광 수신 신호의 타이밍 검출 동작에서, 미리 정해진 출력 레벨(문턱 레벨)을 넘는 광 수신 신호의 상승 파형 부분이 비교기를 사용함으로써 검출된다. 즉, PD 출력 검출기는 비교기를 사용함으로써 광 수신 신호로부터 이진 로직 신호를 출력하도록 구성된다.
PD 출력 검출기(56)는, 동기 검출 PD(54)의 광 수신 신호(상승 파형 부분)가 검출될 때 측정 제어 유닛(46)에 동기 신호(이진 로직 신호)를 출력하도록 구성된다.
출력 제어 유닛(46)은, PD 출력 검출기(56)로부터 수신된 동기 신호에 기초하여 LD 구동 신호를 발생시키고 LD 드라이버(12) 및 시간 측정 유닛(45)에 LD 구동 신호를 출력하도록 구성된다. 즉, LD 구동 신호는 동기 신호로부터 지연된 펄스형 광 신호(주기적 펄스 신호)이다.
PD 출력 검출기(44)는, 시간 측정 PD(42)의 광 수신 신호(상승 파형 부분)가 검출될 때 시간 측정 유닛(45)에 검출 신호(직사각 펄스 신호)를 출력하도록 구성된다.
시간 측정 유닛(45)은, 측정 제어 유닛(46)으로부터의 LD 구동 신호의 상승 타이밍과 PD 출력 검출기(44)로부터의 검출 신호의 상승 타이밍 간의 시간 차이를 결정하고, 시간 차이를 측정 제어 유닛(46)에 시간 측정 결과로서 출력하도록 구성된다.
측정 제어 유닛(46)은, 시간 측정 유닛(45)으로부터의 시간 측정 결과를 거리로 변환함으로써 물체까지의 왕복 거리를 계산하고 왕복 거리의 1/2를 나타내는 거리 데이터를 물체 인식 유닛(310b)에 출력하도록 구성된다.
또한, 측정 제어 유닛(46)은, LD 구동 신호의 상승 타이밍과 광 수신 신호의 검출 타이밍 사이의 미리 정해진 타이밍에 광학 주사 시스템(200)에 의해 레이저 빔의 주사 위치를 획득하고 주사 위치를 물체 인식 유닛(310b)에 물체 방향 데이터로서 출력하도록 구성된다.
물체 인식 유닛(310b)은, 측정 제어 유닛(46)으로부터 하나의 주사 라인에 대하여 또는 둘 이상의 주사 라인에 대하여 획득된 거리 데이터 및 방향 데이터의 둘 이상의 조각들에 기초하여 물체가 존재하는 곳을 인식하고, 물체의 3차원 위치 정보를 결정하고, 3차원 위치 정보를 측정 제어 유닛(46)에 물체 인식 결과로서 출력하도록 구성된다. 측정 제어 유닛(46)은 ECU(350)에 3차원 위치 정보를 전송하도록 구성된다.
ECU(350)는 수신된 3차원 위치 정보에 기초하여 차량의 스티어링 제어(예컨대, 자동 스티어링) 및 속도 제어(예컨대, 자동 브레이킹)를 수행하도록 구성된다.
ECU(350)의 좌표 변환 유닛(801)은, 레이저 레이더(310a)의 좌표 시스템에 기초하며 물체 인식 유닛(310b)에 의해 계산된 3차원 위치 정보를 HUD 디바이스(100)의 좌표 시스템에 기초한 좌표로 변환하고, CAN을 통해 HUD 디바이스(100)에의 변환 후에 좌표를 출력하도록 구성된다.
HUD 디바이스(100)는, 감지 유닛(310)에 의해 획득되는, 가상 이미지로 마킹될 물체의 3차원 위치 정보에 기초하여 가상 이미지를 발생시키고, 가상 이미지를 렌더링하며, 가상 이미지를 디스플레이하도록 구성된다. 마크의 이미지 데이터는 가상 이미지로서의 마크가 실시간으로 물체의 위치를 따르도록 발생되고, 필요할 경우 기하학적 변환이 수행되며, 그리하여 시점 위치에서 볼 때 마크의 크기가 물체의 외관 크기와 3차원적으로 일치하도록 변경되고, 가상 이미지는 이미지 데이터에 기초하여 렌더링된다.
다음으로, 예 3의 정보 제공 시스템(300)에 의해 수행되는 정보 디스플레이 방법이 도 15를 참조하여 기재될 것이다.
도 15에 예시된 바와 같이, 단계 S1에서, 물체 인식 유닛(310b)은 물체와 관련된 거리 및 방향을 레이저 레이더(310a)로부터 획득한다.
그 다음에, 단계 S2에서, 물체 인식 유닛(310b)은 물체와 관련된 거리 및 방향에 기초하여 물체의 3차원 위치 정보를 계산한다.
그 다음에, 단계 S3에서, ECU(350)는 물체의 3차원 위치 정보를 HUD 디바이스(100)의 좌표 시스템에 기초한 좌표로 변환한다.
그 다음에, 단계 S4에서, 이미지 데이터 생성 유닛(804)은 좌표 변환 후에 획득된 3차원 위치 정보에 기초하여 이미지 데이터를 생성한다.
그 다음에, 단계 S5에서, 이미지 드로잉 유닛(806)은 이미지 데이터에 따라 이미지를 렌더링한다.
<예 4>
도 16은 이동체(예컨대, 차량)에 탑재되는 예 4의 정보 제공 시스템(400)의 하드웨어 및 기능적 구성을 예시한다. 도 17은 정보 제공 시스템(400)의 감지 유닛(410)의 하드웨어 구성을 예시한다.
도 17에 예시된 바와 같이, 예 4의 감지 유닛(410)은, 이미징 영역으로서 차량의 전방 영역을 캡처하도록 구성된 이미징 유닛인 스테레오 카메라(410a) 및 스테레오 카메라(410a)에 의해 캡처된 이미지 데이터에 기초하여 이미징 영역에 존재하는 미리 정해진 인식 물체를 인식하기 위한 이미지 프로세싱을 수행하도록 구성된 물체 인식 유닛(410b)을 포함한다.
스테레오 카메라(410a)는, 서로 평행하게 정렬되어 있는 2개의 카메라 유닛, 즉 왼쪽 눈으로서의 역할을 하는 제1 카메라 유닛(110A) 및 오른쪽 눈으로서의 역할을 하는 제2 카메라 유닛(110B)을 포함한다. 카메라 유닛(110A 및 110B)의 각각은 렌즈(115), 이미지 센서(116), 및 센서 컨트롤러(117)를 포함한다. 예로서, 이미지 센서(116)는 CCD(charge-coupled device) 또는 CMOS(complementary metal-oxide semiconductor)로 제조된 이미지 센서를 채용할 수 있다. 센서 컨트롤러(117)는, 이미지 센서(116)의 노출 제어 및 이미지 판독출력 제어, 이미지 센서(116)의 외부 회로와의 통신, 및 이미지 데이터의 전송 제어를 수행하도록 구성된다. 스테레오 카메라(410a)는 차량의 전방 유리창(50)의 후방 뷰 미러 근처에 배치된다.
물체 인식 유닛(410b)은 데이터 버스 라인(121), 직렬 버스 라인(122), CPU(123), FPGA(124), ROM(125), RAM(126), 직렬 인터페이스(127), 및 데이터 인터페이스(128)를 포함한다.
스테레오 카메라(410a)는 데이터 버스 라인(121) 및 직렬 버스 라인(122)을 통해 물체 인식 유닛(410b)에 접속된다. CPU(123)는, 스테레오 카메라(410a)의 센서 컨트롤러(117)의 전반적인 동작을 제어하고 물체 인식 유닛(410b)의 이미지 프로세싱을 포함한 전반적인 동작을 제어하도록 구성된다.
카메라 유닛(110A 및 110B)의 이미지 센서(116)에 의해 캡처된 이미지의 휘도 이미지 데이터는 데이터 버스 라인(121)을 통해 물체 인식 유닛(410b)의 RAM(126)에 기록된다. CPU(123) 또는 FPGA(124)로부터의 센서 노출 값의 수정 제어 데이터, 이미지 판독출력 파라미터의 수정 제어 데이터, 및 다양한 설정 데이터가 직렬 버스 라인(122)을 통해 전송 및 수신된다.
FPGA(124)는, 감마 보정, 왜곡 보정(오른쪽 및 왼쪽 이미지의 병렬 프로세싱), 및 블록 매칭에 의한 시차 연산과 같은, RAM(126)에 저장된 이미지 데이터의 실시간 조작을 요하는 프로세싱을 수행하고, 시차 이미지를 생성하고, 시차 이미지 데이터를 RAM(18)에 기록하도록 구성된다. 차량 또는 보행자와 같은 솔리드 물체, 도로 표면 상의 흰색 선과 같은 차선, 및 도로 표면 측부에 존재하는 갓돌이나 중앙 분리대를 포함하는 미리 정해진 인식 물체를 인식하기 위한 인식 프로그램이 ROM(125)에 저장된다. 인식 프로그램은 이미지 프로세싱 프로그램의 예이다.
CPU(123)는 차량의 CAN을 통해 예시되지 않은 센서 디바이스로부터 차량 속도, 가속, 스티어링 각도, 요 레이트(yaw rate) 등을 포함한 CAN 정보를 데이터 인터페이스(128)를 통해 획득하도록 구성된다. ROM(125)에 저장된 인식 프로그램에 기초하여, CPU(123)는 RAM(126)에 저장된 휘도 이미지 및 시차 이미지를 사용하여 이미지 프로세싱을 실행하고 앞선 차량 및 차선과 같은 인식 물체를 인식한다. 이 예에서, CPU(123)는 인식 결과 데이터로서 상기 기재된 시차 이미지로부터 물체의 3차원 위치 정보를 획득한다.
인식 결과 데이터가 직렬 인터페이스(127)를 통해 ECU(350) 및 HUD 디바이스(100)에 공급된다.
ECU(350)는 인식 결과 데이터를 사용함으로써 차량의 브레이크 제어, 속도 제어, 및 스티어링 제어를 수행하도록 구성된다. 예를 들어, 미리 정해진 거리로 두 차량 사이의 거리를 유지하기 위해 차량이 앞선 차량을 자동으로 추적하게 하는 크루즈(cruise) 제어가 수행될 수 있고, 앞의 장애물과의 충돌을 막기 위한 자동 브레이크 제어가 수행될 수 있다.
HUD 디바이스(100)는 가상 이미지(인식 결과 데이터)로 마킹될 물체의 3차원 위치 정보에 기초하여 이미지 데이터를 생성하도록 구성되고, 이미지 데이터에 기초하여 가상 이미지를 렌더링하고, 가상 이미지를 디스플레이한다.
다음으로, 예 4의 정보 제공 시스템(400)에 의해 수행되는 정보 디스플레이 방법이 도 18을 참조하여 기재될 것이다.
도 18에 예시된 바와 같이, 단계 S11에서, 전방 장면(물체)이 스테레오 카메라(410a)로 캡처된다.
그 다음에, 단계 S12에서, 스테레오 카메라(410a)의 이미징 결과(오른쪽 및 왼쪽 캡처된 이미지)에 기초하여 시차 이미지가 생성된다.
그 다음에, 단계 S13에서, 물체 인식 유닛(410b)은 시차 이미지에 기초하여 물체의 3차원 위치 정보를 계산한다.
그 다음에, 단계 S14에서, ECU(350)는 물체의 3차원 위치 정보를 HUD 디바이스(100)의 좌표 시스템에 기초한 좌표로 변환한다.
그 다음에, 단계 S15에서, 이미지 데이터 생성 유닛(804)은 좌표 변환 후의 3차원 위치 정보에 기초하여 이미지 데이터를 생성한다.
그 다음에, 단계 S16에서, 이미지 드로잉 유닛(806)은 이미지 데이터에 따라 이미지를 렌더링한다.
<예 5>
이동체(예컨대, 차량)에 탑재되는 예 5의 정보 제공 시스템(500)에서, 도 19에 예시된 바와 같이 감지 유닛(510)은 레이저 레이더(510a), 한쪽눈 카메라(510b), 및 물체 인식 유닛(510c)을 포함한다. 예 5의 감지 유닛(510)은 예 3 또는 예 4의 상기 기재된 구성과 동일한 구성을 가질 수 있다는 것을 유의하자.
레이저 레이더(510a)는 예 3의 레이저 레이더(310a)와 유사한 주사 타입의 레이저 레이더이다. 레이저 레이더(510a)는 물체와 관련된 거리 데이터를 물체 인식 유닛(510c)에 전송하도록 구성된다.
한쪽눈 카메라(510b)는 전방 장면을 캡처하도록 배치되고, 캡처된 이미지를 물체 인식 유닛(510c)에 전송하도록 구성된다.
물체 인식 유닛(510c)은 한쪽눈 카메라(510b)로부터의 캡처된 이미지 및 레이저 레이더(510a)로부터의 거리 데이터에 기초하여 물체(예컨대, 앞선 차량)의 존재를 결정하도록 구성된다. 물체의 존재가 결정되면, 물체 인식 유닛(510c)은 레이저 레이더(510a)로부터 물체와 관련된 거리 데이터를 획득한다.
레이저 레이더는 높은 수준의 정확도로 짧은 거리에 있는 가까운 물체를 검출하도록 구성되고 낮밤의 영향에 끄떡없다는 것을 유의하자. 반면에, 한쪽눈 카메라는 먼 거리에 있는 먼 물체를 검출하도록 구성된다. 한쪽눈 카메라를 사용함으로써, 또다른 차량 뿐만 아니라 다가오는 차량의 램프나 흰색 선이 인식될 수 있다.
따라서, 감지 유닛(510)은 레이저 레이더(510a) 및 한쪽눈 카메라(510b) 둘 다를 사용함으로써 항상 높은 수준의 정확도로 물체 인식을 수행할 수 있다.
한쪽눈 카메라(510b)로부터 캡처된 이미지 내의 물체의 존재는 목표 영역과 캡처된 이미지의 그의 주변 영역 간의 텍스처 양의 차이에 기초하여 결정될 수 있다는 것을 유의하자. 또한, 한쪽눈 카메라의 좌표 시스템에 기초한 물체와 관련된 방향 데이터가 캡처된 이미지로부터 획득될 수 있다.
다음으로, 예 5의 정보 제공 시스템(500)에 의해 수행되는 정보 디스플레이 방법이 도 20을 참조하여 기재될 것이다.
도 20에 예시된 바와 같이, 단계 S21에서, 전방 장면이 한쪽눈 카메라(510a)로 캡처된다. 캡처된 이미지는 물체 인식 유닛(510c)으로 전송된다.
그 다음에, 단계 S22에서, 물체 인식이 수행된다. 구체적으로, 물체 인식 유닛(510c)은 물체의 존재를 결정하고, 물체가 있는 경우(결정 결과가 긍정인 경우), 물체 인식 유닛(510c)은 레이저 레이더(510a)로부터 물체와 관련된 거리 데이터를 획득한다.
그 다음에, 단계 S23에서, 둘 이상의 물체가 있는지 여부가 결정된다. 여기에서, 둘 이상의 물체는 도로 표면 상의 흰색 선, 정지한 또는 달리는 앞선 차량, 도로 측부의 갓돌, 가드레일, 벽 등을 포함할 수 있다. 결정 결과가 부정인 경우, 제어 프로세스는 단계 S24로 진행한다. 결정 결과가 긍정인 경우, 제어는 단계 S27로 진행한다.
단계 S24에서, 물체 인식 유닛(510c)은, 레이저 레이더(510a)로부터의 거리 데이터 및 한쪽눈 카메라(510b)로부터의 캡처된 이미지로부터 획득된 방향 데이터에 기초하여 물체의 3차원 위치 정보를 계산한다. 높은 수준의 정확도로 3차원 위치 정보를 획득하기 위하여, 레이저 레이더(510a)와 한쪽눈 카메라(510b)는 가능한 가까이 서로의 부근에 배치되는 것이 바람직하다. 또한, 한쪽눈 카메라(510b)의 좌표 시스템에 기초한 물체의 방향 데이터를 레이저 레이더(510a)의 좌표 시스템에 기초한 방향 데이터로 변환하는 것이 바람직하다. 방향 데이터는 한쪽눈 카메라(510b)에서뿐만 아니라 레이저 레이더(510a)에서도 획득될 수 있다는 것을 유의하자. 이 경우에, 한쪽눈 카메라(510b)로부터의 방향 데이터와 레이저 레이더(510a)로부터의 방향 데이터의 평균을 사용함으로써(둘 다의 방향 데이터는 동일 좌표 시스템에 기초하여야 함) 높은 수준의 정확도로 물체의 방향 데이터가 획득될 수 있다.
그 다음에, 단계 S25에서, ECU(350)는 물체의 3차원 위치 정보의 좌표 변환을 수행한다. 구체적으로, 레이저 레이더(510a)의 좌표 시스템에 기초한 물체의 좌표는 HUD 디바이스(100)의 좌표 시스템에 기초한 좌표로 변환된다.
그 다음에, 단계 S26에서, 이미지 데이터 생성 유닛(804)은 좌표 변환 후의 3차원 위치 정보에 기초하여 이미지 데이터를 생성한다. 단계 S26이 수행된 후에, 제어는 단계 S31로 진행한다.
단계 S27에서, 물체 인식 유닛(510c)은 레이저 레이더(510a)로부터의 거리 데이터 및 한쪽눈 카메라(510b)로부터의 캡처된 이미지로부터 획득된 방향 데이터에 기초하여 물체 각각의 3차원 위치 정보를 계산한다.
그 다음에, 단계 S28에서, ECU(350)는 물체 각각의 3차원 위치 정보의 좌표 변환을 수행한다. 구체적으로, 레이저 레이더(510a)의 좌표 시스템에 기초한 각각의 물체의 좌표는 HUD 디바이스(100)의 좌표 시스템에 기초한 좌표로 변환된다.
그 다음에, 단계 S29에서, ECU(350)는 시청자의 주의를 끌기 위한 물체들 각각의 우선순위를 설정한다. 물체들 중에 짧은 거리를 나타내는 거리 데이터를 갖는 물체에 대하여 높은 우선순위가 설정된다. 우선순위 설정은, 움직이는 물체에 높은 우선순위가 설정되고 정지된 물체에 낮은 우선순위가 설정되도록 수행될 수 있다. 각각의 물체의 3차원 위치 정보를 모니터함으로써, 물체가 정지된 물체인지 아니면 움직이는 물체인지 결정될 수 있다.
그 다음에, 단계 S30에서, 이미지 데이터 생성 유닛(804)은, 물체들 간의 우선순위 차이가 인식될 수 있도록 좌표 변환 후의 3차원 위치 정보에 기초하여 이미지 데이터를 생성한다. 예로서, 우선순위의 차이는, 물체들 간에 각각의 물체를 마킹할 가상 이미지의 컬러, 휘도, 형상, 크기, 및 위치 중의 임의의 것을 변경함으로써 인식될 수 있다. 예를 들어, 중앙선에 대하여 가장 높은 우선순위가 설정되는 경우, 중앙선은 빨간색 가상 이미지에 의해 마킹된다. 갓돌에 대하여 두번째 높은 우선순위가 설정되는 경우, 갓돌은 노란색 가상 이미지에 의해 마킹된다. 앞선 차량에 대하여 세번째 높은 우선순위가 설정되는 경우, 앞선 차량은 초록색 가상 이미지에 의해 마킹된다(도 21 참조). 즉, 높은 우선순위로 보여야 할 물체는 시청자의 주의를 끄는 특별한 컬러로 마킹된다.
그 다음에, 단계 S31에서, 이미지 드로잉 유닛(806)은 이미지 데이터에 따라 이미지를 렌더링한다.
상기 기재된 예 3 내지 예 5의 각각에서, 물체의 획득된 3차원 위치 정보는 차량 제어 및 가상 이미지 마킹 둘 다에 이용될 수 있다.
앞선 차량 또는 보행자가 마킹될 물체에 따라 가상 이미지에 의해 마킹될 때 상기 기재된 감지 유닛은 한쪽눈 카메라, 스테레오 카메라, 및 레이저 레이더 중의 임의의 것을 적합하게 선택하도록 구성되는 것이 바람직하다. 가상 이미지가 도로 표면 상에 중첩되는 경우, 그리고 가상 이미지가 탐색 정보에 따라 건널목에 디스플레이되는 경우, 이의 좌표가 필요하다. 이 목적을 위해, GPS를 사용함으로써 획득되는, 차량 위치, 건널목 등을 포함한 지도 정보가 필요하다.
차선 탈선 경고의 표시가 디스플레이되는 경우, 이러한 정보는 흰색 선에 중첩될 것으로 여겨진다. 이 경우에, 상기 기재된 감지 유닛을 사용함으로써 흰색 선의 위치를 획득하는 것이 필요하다. 마찬가지로, 상기 기재된 감지 유닛에 의해 곡면 또는 슬로프와 같은 도로 상태, 정보를 획득하는 것이 필요하다.
획득된 정보 항목은 상기 기재된 바와 같이 차량내 네트워크를 통해 HUD 디바이스(100)에 의해 수신된다. CAN(controller area network)은 차량내 네트워크의 예이다. 일반적으로, 상기 기재된 위치 정보에 더하여 차량 속도, 스티어링 각도, 및 브레이크 제어와 같은 차량 상태 정보가 CAN을 통해 전송 및 수신되고, 이러한 정보는 또한 중첩된 디스플레이에 대하여 이용될 수 있다. 이러한 정보가 획득된 후에 HUD 디바이스(100)에서, 이미지 데이터 생성 유닛(804)은 획득된 정보에 기초하여 드로잉될 이미지의 기하학적 변환을 수행하고, 이미지 드로잉 유닛(806)은 렌더링 프로세싱을 수행한다. 렌더링 프로세싱은 가상 이미지의 필드 각도 및 내림각, 및 거리에 기초하여 계산된다.
앞에서는, HUD 디바이스(100)에 의해 수행되는 정보 디스플레이 방법의 예가 기재되었다.
상기 기재된 예 3 내지 예 5에서, 마킹될 객체의 위치 정보를 획득하는 것은 감지 유닛에 의해 수행된다. 대안으로서, HUD 디바이스(100)는 HUD 디바이스(100)가 검출 프로세싱을 수행하도록 감지 유닛에 의해 획득된 이미지 정보 및 3차원 위치 정보를 수신하도록 구성될 수 있다. 또한, CAN이 아닌 다른 전용 통신선이 마련되어 이용되는 것도 고려할 수 있다.
상기에 기재된 제1 실시예에 따른 HUD 디바이스(100)는, 전방 유리창(50)에 이미지 형성 광 빔을 방출하며 전방 유리창을 통해 가상 이미지를 보이게 하는 정보 디스플레이 장치를 제공하며, 정보 디스플레이 장치는 가상 이미지를 디스플레이하기 위해 전방 유리창(50)을 통해 가상 이미지를 볼 때의 수렴 각도와 전방 유리창(50)을 통해 실제 물체를 볼 때의 수렴 각도 간의 차이가 1도 이하이도록 구성된다.
이 경우에, 상기 기재된 차이가 1도 이하이도록 가상 이미지의 이미징 위치를 설정하는 간단한 구성으로 가상 이미지를 이중 이미지로 변화시키는 것과 같은 가상 이미지의 가시성 저하를 막는 것이 가능하다. 즉, 가상 이미지의 가시성 저하를 막고 디바이스 구성의 복잡도를 막는 것이 가능하다.
상기 기재된 바와 같이, HUD 디바이스(100)는, 운전자가 보는 장면 및 디스플레이 이미지(가상 이미지)의 각각이 운전자의 오른쪽 눈과 왼쪽 눈의 망막에서 반사될 때, 장면과 디스플레이 이미지 간의 시차 각도가 1도 이하이도록 설계된다. HUD 디바이스(100)는 이중 이미지, 피로감, 및 불쾌감을 야기하지 않고서 현실 중첩 디스플레이를 수행할 수 있다. 즉, 현실 중첩 디스플레이가 HUD 디바이스(100)에 의해 수행될 때, 운전자는 이중 이미지, 피로감 및 불쾌감을 일으키지 않고서 전방 장면을 보면서 디스플레이 이미지(가상 이미지)를 인식할 수 있다.
반면에, 상기에 열거된 특허문헌 1은, 두 눈의 시차로 인한 HUD 디바이스의 이중 이미지를 상쇄하기 위하여 이미지 시청자의 한쪽 눈에만 이미지 형성 광 빔을 투사하는 차량내 디스플레이 시스템(중첩 디스플레이 기술)을 개시한다.
그러나, 특허문헌 1에 개시된 차량내 디스플레이 시스템에서는, 이미지 시청자의 한쪽 눈에만 이미지 형성 광 빔을 투사하기 위한 메커니즘이 추가적으로 필요하며, 이는 복잡한 구조를 요구한다.
즉, 특허문헌 1의 차량내 디스플레이 시스템에서, 가상 이미지의 가시성 저하를 막기 위한 개선 그리고 디바이스 구성의 복잡도를 막기 위한 개선이 요구되는 것이다.
제1 실시예의 HUD 디바이스(100)에서, 시점 위치로부터 가상 이미지의 이미징 위치까지의 거리가 4 m보다 크면, 가상 이미지의 가시성 저하를 확실히 막을 수 있다. 이 경우에, 1000 m 앞의 위치에 있는 물체가 마킹될 때에도 시차 각도가 1도 이하이고, 실제 응용에 충분한 정도로 운전자가 피로감 및 불쾌감을 느끼는 것을 막는다.
시점 위치로부터 가상 이미지의 이미징 위치까지의 거리가 10 m보다 작은 경우, HUD 디바이스의 확대를 막을 수 있다. 시점 위치로부터 이미징 위치까지의 거리를 증가시키기 위해서는, HUD 디바이스에서의 광 경로 거리를 증가시키는 것이 필요하며, HUD 디바이스의 확대가 불가피하다.
이동체의 탑승자로부터 보이는 이동체 주변에 존재하는 실제 물체와 3차원적으로 일치하는 가상 이미지가 디스플레이 영역에 디스플레이될 때, 가상 이미지의 가시성이 개선될 수 있다.
이동체의 탑승자로부터 볼 때 이동체 주변에 존재하는 실제 물체와 3차원적으로 일치하는 가상 이미지(깊이 이미지를 갖도록 기하학적 변환에 의해 획득되는 가상 이미지) 및 실제 물체와 3차원적으로 일치하지 않는 가상 이미지(기하학적 변환 없이 획득되는 가상 이미지) 둘 다가 디스플레이 영역에 디스플레이될 때, 실제 물체를 마킹하기 위한 가상 이미지와 같이 실제 물체에 따른 깊이 위치를 가질 것을 요하는 가상 이미지는 기하학적 변환에 의해 획득되어 디스플레이되며, 숫자, 문자 등을 나타내는 간단한 표시의 가상 이미지와 같은 가상 이미지(이동체의 속도 또는 이동체의 측정 데이터)는 기하학적 변환없이 디스플레이될 수 있다. 그 결과, 가상 이미지 타입에 관계없이 가상 이미지의 충분히 증가된 가시성을 제공하는 것이 가능하다. HUD 디바이스(100)에 의해 디스플레이된 가상 이미지는 2차원 가상 이미지 뿐만 아니라 1차원 및 3차원 가상 이미지도 포함할 수 있다. 가상 이미지의 깊이 위치는 투시도에 의해 표현될 수 있다.
HUD 디바이스(100)에 의해 디스플레이되는 가상 이미지의 타입은, 물체를 마킹하기 위한 가상 이미지와 같이 기하학적 변환에 의해 획득된 가상 이미지에 한정될 수 있거나, 또는 숫자 및 문자를 나타내는 간단한 표시와 같이 기하학적 변환을 요하지 않는 가상 이미지에 한정될 수 있다.
HUD 디바이스(100)는 물체와 관련되어 획득된 정보인 물체 정보(물체의 3차원 위치 정보)를 수신하도록 차량 정보 입력 유닛(800) 및 외부 정보 입력 유닛(802)(수신 유닛임)을 포함한다. 가상 이미지의 파라미터(가상 이미지의 크기, 형상, 컬러, 휘도, 및 이미징 위치 중의 적어도 하나)가 수신된 정보에 따라 조정될 때, 이미지 시청자로부터 볼 때 이동체(차량) 주변에 존재하는 물체와 3차원적으로 일치하는 가상 이미지가 디스플레이될 수 있고(적절한 깊이 위치로), 가상 이미지의 증가된 가시성을 제공하는 것이 가능하다. 물체의 위치, 형상 및 크기에 따른 깊이 인지가 일어나도록 상기 파라미터를 조정하는 것이 바람직하다.
구체적으로, HUD 디바이스(100)는 이미지 시청자의 시야에 있는 물체의 3차원 위치 정보를 획득하도록 수신 유닛으로 하여금 3차원 위치 정보 획득 유닛(물체 인식 유닛(310b) 및 물체 인식 유닛(410b))으로부터 3차원 위치 정보를 수신하게 한다. 디스플레이 영역에 디스플레이된 가상 이미지의 크기, 형상, 컬러, 휘도, 및 위치 중의 적어도 하나가 3차원 위치 정보에 기초하여 조정될 때, 가상 이미지의 증가된 가시성을 제공하는 것이 가능하다. 가상 이미지의 크기, 형상, 컬러, 휘도, 및 위치는. 이미지 데이터를 생성할 때 이미지 데이터에서 가상 이미지에 대응하는 크기, 형상, 컬러, 휘도 및 위치를 조정하도록 구성되는 이미지 데이터 생성 유닛(804)에 의해 조정될 수 있다.
3차원 위치 정보 획득 유닛은 물체와 관련된 거리 및 방향을 측정하도록 구성된 측정 유닛(예컨대, 레이저 레이더), 및 물체를 캡처하도록 구성된 이미징 유닛(예컨대, 스테레오 카메라 또는 한쪽눈 카메라)을 포함한다.
예를 들어, 디스플레이 영역 내의 가상 이미지의 크기, 형상, 컬러, 휘도 및 위치가 다음과 같이 조정될 수 있다. 이미지 드로잉 영역 내의 이미지 부분(가상 이미지에 대응하는 부분)의 크기, 형상, 컬러, 휘도 및 위치는, 렌더링될 이미지의 이미지 데이터가 이미지 데이터 생성 유닛(804)에 의해 생성될 때 조정되고, 조정된 파라미터에 따라 이미지 데이터가 생성되고, 생성된 이미지 데이터는 이미지 드로잉 유닛(806)에 보내지며, 그리하여 이미지 드로잉 유닛(806)은 수신된 이미지 데이터에 따라 이미지를 렌더링한다.
가상 이미지의 상기 파라미터를 조정하는 것은 반드시 필요한 것은 아니다. 파라미터가 조정되지 않을 경우, 물체와 관련된 정보를 획득하거나 수신하는 것이 필요하지 않다. 예를 들어, 물체를 마킹하기 위한 가상 이미지가 디스플레이되지 않고 가상 이미지의 상기 파라미터의 조정이 필요하지 않은 경우, 물체와 관련된 정보를 획득하거나 수신하는 것이 필요하지 않다.
물체와 관련된 정보가 물체의 크기, 형상, 컬러, 휘도, 및 위치 중의 적어도 하나를 포함하는 경우, 가상 이미지는 물체와 일치하도록 조정될 수 있다.
물체가 가상 이미지에 의해 마킹되면, 그 물체로 주의를 끌기가 증가될 수 있다. 가상 이미지에 의해 물체를 마킹하는 방법은, 물체의 적어도 일부를 따라 배치되는 가상 이미지를 디스플레이하는 것이다.
가상 이미지(마킹)가 물체를 따르도록 디스플레이될 때, 운전자가 실시간으로 물체의 위치를 인식하게끔 하는 것이 가능하다.
물체에 가상 이미지를 디스플레이할지 여부(물체를 가상 이미지에 의해 마킹할지 여부)가 물체와 관련된 획득된 정보에 기초하여 결정되는 경우, 물체의 위치, 크기 및 타입(물체가 정지된 물체인지 또는 움직이는 물체인지 나타냄)에 따라 가상 이미지를 디스플레이하는 것이 필요한 경우에만 가상 이미지가 디스플레이될 수 있다. 물체에 가상 이미지를 디스플레이하는 것이 필요하지 않은 경우(또는 물체를 마킹하는 것이 필요하지 않은 경우)는, 시차 각도가 1도를 넘는 경우, 물체가 시점 위치로부터 멀리 위치되어 있는 경우, 물체가 시점 위치로부터 아주 가까이에 위치되어 있는 경우, 및 물체가 운전자의 시야의 한계 근처에 위치되어 있는 경우를 포함할 수 있다.
HUD 디바이스(100)는, 수신 유닛이 이동체와 관련된 교통 정보(예컨대, 교통 혼잡 정보 및 교통 규칙) 및 날씨 정보를 수신하도록 구성될 수 있고, HUD 디바이스(100)는, 이동체의 탑승자로부터 보는 이동체 주변의 물체와 3차원적으로 일치하는 수신된 정보가 디스플레이되도록, 상기 기재된 물체 정보에 기초하여 디스플레이 영역에 가상 이미지를 디스플레이한다.
HUD 디바이스(100)는, 수신 유닛이 이동체의 위치 정보를 수신하도록 구성될 수 있고, HUD 디바이스(100)는, 가상 이미지가 이동체의 탑승자로부터 보는 물체와 3차원적으로 일치하도록, 위치 정보에 기초하여 디스플레이 영역에 가상 이미지를 디스플레이한다. 이동체의 위치 정보는 GPS 휴대 장치(예컨대, 차 네비게이션 시스템)로부터 수신될 수 있다. 도로 표면과 3차원적으로 일치하는 탐색 정보가 이동체의 위치 정보에 기초하여 디스플레이 영역에 디스플레이될 수 있다. 이동체와 3차원적으로 일치하는 마킹으로서의 가상 이미지가 이동체(다른 차량 및 보행자)의 위치 정보 및 물체 정보에 기초하여 디스플레이 영역에 디스플레이될 수 있다.
HUD 디바이스(100)는, 광 빔에 의해 이미지를 형성하도록 구성된 이미지 드로잉 유닛(806)(이미지 형성 유닛), 및 전방 유리창(50)(투과 반사 부재)에 이미지 형성 광 빔을 유도하도록 구성된 오목 미러(40)(광학 시스템)를 포함하도록 구성될 수 있다. 이 경우에, 범용 헤드업 디스플레이 디바이스를 사용함으로써 가상 이미지의 가시성 저하를 막을 수 있고, 디바이스 구성의 복잡도를 막을 수 있다.
이미지 드로잉 유닛(806)은, LD(광원) 및 LD로부터의 광 빔을 편향시키는 광 편향기(15)를 갖는 광학 주사 시스템(200), 및 광학 주사 시스템(200)에 의한 광 빔의 주사 위치에 따라 LD를 동작시키는 LD 드라이버(6111)를 포함하도록 구성될 수 있다. 이 경우에, 가상 이미지가 디스플레이되는 디스플레이 영역에서의 LD의 발광이 제어된다. 디스플레이 영역에서 가상 이미지와 주변 부분 간의 콘트라스트를 증가시킴으로써 가상 이미지의 증가된 가시성을 제공하는 것이 가능하다. 디스플레이 영역의 배경과 주변 부분 간의 콘트라스트를 낮춤으로써 디스플레이 영역의 아웃라인(포스트카드)의 디스플레이를 막는 것이 가능하다.
이동체 및 이동체에 탑재된 HUD 디바이스(100)를 포함하는 이동체 디바이스에서, 이동체의 운전자(이미지 시청자)에게 안전하고 안정적인 운영 환경을 제공하는 것이 가능하다.
제1 실시예에 따른 정보 디스플레이 방법은, 시야에 가상 이미지로서 정보를 디스플레이하는 정보 디스플레이 방법으로서, 시야에 있는 물체를 볼 때 각각의 눈의 가시선들 간의 경사각(수렴 각도)과 가상 이미지를 볼 때 각걱의 눈의 가시선들 간의 경사각(수렴 각도) 간의 차이가 1도 이하가 되게 가상 이미지를 디스플레이하도록 구성되는 방법이다.
이 경우에, 상기 차이가 1도 이하이도록 구성되는 단순한 정보 디스플레이 방법으로, 가상 이미지를 이중 이미지로 변화시키는 것과 같은 가상 이미지의 가시성 저하를 막는 것이 가능하다. 즉, 가상 이미지의 가시성 저하를 막을 수 있고, 디바이스 구성의 복잡도를 막을 수 있다.
제1 실시예에 따른 정보 디스플레이 방법은, 물체와 관련된 정보를 획득하는 단계 및 획득된 정보에 기초하여 가상 이미지의 크기, 형상, 컬러, 휘도 및 이미징 위치 중의 적어도 하나를 조정하는 단계를 더 포함할 수 있다. 이 경우에, 가상 이미지의 가시성을 더 증가시키는 것이 가능하다.
<제2 실시예>
다음으로, 제2 실시예에 따른 정보 디스플레이 방법이 도 22를 참조하여 기재될 것이다.
정보 디스플레이 방법은 제1 실시예의 예 4의 상기 기재된 정보 제공 시스템(400)에 의해 수행된다. 그러나, 상기 기재된 예 4와는 달리, 제2 실시예에 따른 HUD 디바이스에서의 가상 이미지의 이미징 위치는, 시점 위치로부터 500 m와 1000 m 사이 거리의 물체를 볼 때 시차 각도가 1도를 넘도록 설정된다. 구체적으로, 시점 위치로부터 가상 이미지의 이미징 위치까지의 거리 L은 1 m와 4 m 사이 범위에 있도록 설정된다(예컨대, 3.5 m, 도 8 참조). CPU를 포함하는 메인 컨트롤러는, 정보 제공 시스템(400)에 저장된 프로그램에 기초하여 정보 제공 시스템(400)의 전반적인 동작을 제어하도록 구성된다. 프로그램은 CPU(컴퓨터)에 의해 실행될 때 CPU가 제2 실시예에 따른 정보 디스플레이 방법을 실행하게끔 한다. 메인 컨트롤러는 ECU(350)의 일부로서 구현될 수 있거나 또는 ECU(350)와 별개로 제공될 수 있다.
도 22에 예시된 바와 같이, 단계 S41에서, 전방 장면이 스테레오 카메라(410a)로 캡처된다.
그 다음에, 단계 S42에서, 스테레오 카메라(410a)로부터의 이미징 결과(오른쪽 및 왼쪽 캡처된 이미지)에 기초하여 시차 이미지가 생성된다.
그 다음에, 단계 S43에서, 물체 인식 유닛(410b)은 시차 각도를 계산한다. 구체적으로, 물체 인식 유닛(410b)은, 전방 유리창을 통해 물체를 볼 때 이미지 시청자의 각 눈의 가시선들 간의 경사각(수렴 각도)과 물체의 3차원 위치에 기초하여 전방 유리창을 통해 가상 이미지를 볼 때 이미지 시청자의 각 눈의 가시선들 간의 경사각(수렴 각도) 간의 차이를 계산한다.
그 다음에, 단계 S44에서, 시차 각도가 1도보다 작은지 여부가 결정된다. 상기 기재된 메인 컨트롤러는 시차 각도가 1도보다 작은지 여부를 결정한다. 시점 위치로부터 물체까지의 거리가 500 m보다 작은 경우, 결정 결과는 긍정이다. 시점 위치로부터 물체까지의 거리가 500 m 이상인 경우, 결정 결과는 부정이다. 결정 결과가 긍정인 경우, 제어는 단계 S45로 진행한다. 결정 결과가 부정인 경우, 정보 디스플레이 방법은 종료된다.
그 다음에, 단계 S45에서, 물체 인식 유닛(410b)은 시차 이미지에 기초하여 물체의 3차원 위치 정보를 계산한다.
그 다음에, 단계 S46에서, ECU(350)는 물체의 3차원 위치 정보를 HUD 디바이스(100)의 좌표 시스템에 기초한 좌표로 변환한다.
그 다음에, 단계 S47에서, 이미지 데이터 생성 유닛(804)은 좌표 변환 후의 3차원 위치 정보에 기초하여 렌더링될 이미지의 이미지 데이터를 생성한다.
그 다음에, 단계 S48에서, 이미지 드로잉 유닛(806)은 이미지 데이터에 따라 이미지를 렌더링한다. 단계 S48이 수행된 후에, 정보 디스플레이 방법은 종료된다.
상기 기재된 제2 실시예에서, 예 3의 정보 제공 시스템(300) 또는 예 5의 정보 제공 시스템(500)이 이용될 수 있다. 예 3의 정보 제공 시스템(300)의 변형에 의해 수행되는 정보 디스플레이 방법이 도 23에 예시된다. 이 정보 디스플레이 방법이 도 23을 참조하여 기재될 것이다.
상기 기재된 예 3과는 달리, 변형에 따른 HUD 디바이스에서의 가상 이미지의 이미징 위치는, 시점 위치로부터 500 m와 1000 m 사이 거리의 물체를 볼 때 시차 각도가 1도를 넘도록 설정된다. 구체적으로, 시점 위치로부터 가상 이미지의 이미징 위치까지의 거리 L은 1 m와 4 m 사이 범위에 있도록 설정된다(예컨대, 3.5 m, 도 8 참조). CPU를 포함하는 메인 컨트롤러는, 정보 제공 시스템(300)에 저장된 프로그램에 기초하여 정보 제공 시스템(300)의 전반적인 동작을 제어하도록 구성된다. 프로그램은 CPU(컴퓨터)에 의해 실행될 때 CPU가 도 23에 예시된 정보 디스플레이 방법을 실행하게끔 한다. 프로그램은 CPU(컴퓨터)에 의해 실행될 때 CPU가 도 23에 예시된 변형에 따른 정보 디스플레이 방법을 실행하게끔 한다. 메인 컨트롤러는 ECU(350)의 일부로서 구현될 수 있거나 또는 ECU(350)와 별개로 제공될 수 있다.
도 23에 예시된 바와 같이, 단계 S51에서, 물체와 관련된 거리 및 방향이 레이저 레이더(310a)로 획득된다.
그 다음에, 단계 S52에서, 물체 인식 유닛(310b)은 물체와 관련된 거리 및 방향에 기초하여 물체의 3차원 위치 정보를 계산한다.
그 다음에, 단계 S53에서, 물체 인식 유닛(410b)은 시차 각도를 계산한다. 구체적으로, 물체 인식 유닛(410b)은, 전방 유리창을 통해 물체를 볼 때 이미지 시청자의 각 눈의 가시선들 간의 경사각(수렴 각도)과 물체의 3차원 위치에 기초하여 전방 유리창을 통해 가상 이미지를 볼 때 이미지 시청자의 각 눈의 가시선들 간의 경사각(수렴 각도) 간의 차이를 계산한다.
그 다음에, 단계 S54에서, 시차 각도가 1도보다 작은지 여부가 결정된다. 상기 기재된 메인 컨트롤러는 시차 각도가 1도보다 작은지 여부를 결정한다. 시점 위치로부터 물체까지의 거리가 500 m보다 작은 경우, 결정 결과는 긍정이다. 시점 위치로부터 물체까지의 거리가 500 m 이상인 경우, 결정 결과는 부정이다. 결정 결과가 긍정인 경우, 제어는 단계 S55로 진행한다. 결정 결과가 부정인 경우, 정보 디스플레이 방법은 종료된다.
그 다음에, 단계 S55에서, ECU(350)는 물체의 3차원 위치 정보를 HUD 디바이스(100)의 좌표 시스템에 기초한 좌표로 변환한다.
그 다음에, 단계 S56에서, 이미지 데이터 생성 유닛(804)은 좌표 변환 후의 3차원 위치 정보에 기초하여 렌더링될 이미지의 이미지 데이터를 생성한다.
그 다음에, 단계 S57에서, 이미지 드로잉 유닛(806)은 이미지 데이터에 따라 이미지를 렌더링한다. 단계 S57이 수행된 후에, 정보 디스플레이 방법은 종료된다.
상기 기재된 제2 실시예 및 변형에 따른 정보 디스플레이 방법은 시야에 가상 이미지로서 정보를 디스플레이하고, 시야에 있는 물체의 3차원 위치 정보를 포함하는 물체 정보를 획득하는 단계, 전방 유리창을 통해 가상 이미지를 볼 때 이미지 시청자의 양쪽 눈의 가시선들 간의 경사각(수렴 각도)과 가상 이미지의 이미징 위치 및 물체 정보에 기초하여 전방 유리창을 통해 물체를 볼 때 이미지 시청자의 각 눈의 가시선들 간의 경사각(수렴 각도) 간의 차이를 계산하는 단계, 차이가 1도 이하인지 여부를 결정하는 단계, 및 결정 결과가 긍정인 경우 가상 이미지를 디스플레이하는 단계를 포함한다. 물체의 3차원 위치 정보를 포함하는 정보는 3차원 위치 정보만 포함할 수 있고, 물체의 크기 및 형상과 관련된 정보를 더 포함할 수도 있다는 것을 유의하자.
이 정보 디스플레이 방법에서, 가상 이미지는 차이가 1도 이하인 경우에 디스플레이된다. 가상 이미지를 이중 이미지로 변화시키는 것과 같은 가상 이미지의 가시성 저하를 막는 것이 가능하다. 가상 이미지의 가시성 저하를 막을 수 있고, 디바이스 구성의 복잡도를 막을 수 있다.
또한, 제2 실시예 및 변형에 따른 비일시적 컴퓨터 판독가능한 기록 매체는, 컴퓨터에 의해 실행될 때 컴퓨터로 하여금 시야에 가상 이미지로서 정보를 디스플레이하기 위한 정보 디스플레이 방법을 실행하게 하는 프로그램을 저장하며, 이 정보 디스플레이 방법은, 시야에 있는 실제 물체의 위치 정보를 포함하는 정보를 획득하는 단계, 투과 반사 부재를 통해 가상 이미지를 볼 때의 수렴 각도와 가상 이미지의 이미징 위치 및 위치 정보에 기초하여 반사 부재를 통해 실제 물체를 볼 때의 수렴 각도 간의 차이를 계산하는 단계, 차이가 1도 이하인지 여부를 결정하는 단계, 및 결정 결과가 긍정인 경우에 가상 이미지를 디스플레이하는 단계를 포함한다.
이 경우, 차이가 1도 이하일 때 가상 이미지가 디스플레이되고, 이중 이미지의 발생과 같은 가상 이미지의 가시성 저하를 막는 것이 가능하다. 가상 이미지의 가시성 저하를 막을 수 있고, 디바이스 구성의 복잡도를 막을 수 있다.
상기 기재된 실시예에 따른 HUD 디바이스(100)에서, 광학 시스템은 오목 미러(40)를 포함한다. 대안으로서, 광학 시스템은 볼록 미러를 포함할 수 있고, 곡면 미러(오목 미러 또는 볼록 미러) 및 곡면 미러와 스크린(30) 사이에 배치된 폴드백 미러를 포함할 수 있다.
상기 기재된 실시예에 따른 HUD 디바이스(100)에서, 광학 주사 유닛은 주사 미러(20)를 포함한다. 그러나, 광학 주사 유닛은 주사 미러를 포함하지 않을 수도 있다.
제1 실시예의 상기 기재된 예 3 내지 예 5, 그리고 제2 실시예 및 그의 변형에서, 물체의 3차원 위치 정보가 획득된다. 대안으로서, 깊이 방향의 물체의 위치 정보(1차원 위치 정보)를 제외한 물체의 2차원 위치 정보(깊이 방향에 수직인 2차원 평평한 표면 상의 물체의 위치 정보)가 획득될 수 있다. 깊이 방향의 물체의 위치 정보를 제외한 2차원 위치 정보는 레이저 레이더 또는 카메라를 사용함으로써 획득될 수 있고, 2차원 위치 정보에 기초하여 가상 이미지가 디스플레이될 수 있다. 또한, 이 경우에, 물체의 마킹은 깊이 방향의 물체의 위치를 제외한 2차원 위치에 따라 디스플레이될 수 있다.
상기 기재된 실시예에서, LD(에지 발광 레이저)가 광원으로서 사용된다. 대안으로서, 표면 발광 레이저와 같은 또다른 레이저가 대신 사용될 수 있다.
상기 기재된 실시예에서, 정보 디스플레이 장치로서의 HUD 디바이스는 컬러 이미지를 형성하도록 구성된다. 대안으로서, 정보 디스플레이 장치로서의 HUD 디바이스는 단색 이미지를 형성하도록 구성될 수 있다.
투과 반사 부재는 상기 기재된 실시예에서 이동체의 전방 유리창에 한정되지 않는다. 대안으로서, 투과 반사 부재는 측방 유리장, 후방 유리창 등일 수 있다. 투과 반사 부재는, 이미지 시청자가 타고있는, 그리고 이미지 시청자가 이동체의 외부를 보면서 가상 이미지를 볼 수 있는, 이동체에 배치된 유리창인 것이 바람직하다.
상기 기재된 실시예에서, 정보 디스플레이 장치(HUD 디바이스)는 차량, 항공기, 선박, 산업용 로봇 등과 같은 이동체에 탑재된다. 대안으로서, 정보 디스플레이 장치(HUD 디바이스)는 물체에 탑재될 수 있다. 물체는, 이동체, 꾸준히 설치된 물체, 및 수송가능한 물체를 포함할 수 있다.
본 개시에 따른 정보 디스플레이 장치는, HUD 디바이스 뿐만 아니라, 사람의 시각에 의해 인지될 수 있는 필요한 정보를 디스플레이하도록 장면 또는 시야에 가상 이미지가 중첩되는 헤드 마운티드(head mounted) 디스플레이 디바이스, 프롬프터 디바이스 등에도 적용가능하다.
상기 기재된 실시예에 표시된 특정 수치의 값 및 형상은 예시적인 것이며 설명을 위한 것이고, 본 개시의 범위에서 벗어나지 않고서 이의 변형 및 수정이 적합하게 행해질 수 있다.
다음에서는, 상기 기재된 실시예를 발안하기에 이른 발명자의 사고 과정이 기재될 것이다.
시청자의 적은 시선 이동으로 정보 및 경보를 인식할 수 있는 디스플레이 디바이스로서 차량내 HUD 디바이스에 대한 기대가 높아지고 있어 기술 개발이 진행되고 있었다. HUD 디바이스에 의해 생성된 가상 이미지는 차량의 전방 장면에 중첩된다. HUD 디바이스의 가상 이미지 위치 및 운전자의 시점 위치에 기초하여 디스플레이된 이미지 정보의 형태는 기하학적으로 변환된다. 따라서, 당해 기술분야에 일반적으로 공지된 바와 같이, HUD 디바이스의 디스플레이 이미지(가상 이미지)는 실세계 이미지에 중첩될 수 있고, 이는 운전자에게 보이게 된다.
그러나, 관련 기술분야에 따른 HUD 디바이스의 경우, 운전자가 차량의 운전 동안 전방 장면을 볼 때, HUD 디바이스의 디스플레이 이미지가 운전자의 양쪽 눈에 의해 이중 이미지로서 인지될 수 있고, 운전자가 실세계 이미지 상에 중첩된 디스플레이 이미지를 인식하는 것이 어려울 수 있으며, 이는 운전자에게 피로감과 불쾌감을 주는 일이다.
상기 문제점을 고려하여, 운전자의 양쪽 눈에 입력되는 HUD 디바이스의 디스플레이 이미지(가상 이미지)의 시차와 물체의 시차 간의 차이가 최소화되도록(미리 정해진 값 아래로), 그리고 운전자가 전방 장면 및 그 때 전방 장면에 중첩된 디스플레이 이미지를 볼 때 이중 이미지, 피로감과 불쾌감을 인지하는 것을 막도록, 상기 기재된 실시예가 제안되었다.
본 출원은 2015년 9월 18일 제출된 일본 특허 출원 번호 제2015-185240호에 기초하여 이의 우선권을 주장하며, 이 출원의 내용은 그 전체가 참조에 의해 여기에 포함된다.
50 전방 유리창(투과 반사 부재)
100 HUD 디바이스(정보 디스플레이 장치)
300, 400, 500 정보 제공 시스템
310, 410, 510 감지 유닛(정보 획득 디바이스, 위치 정보 획득 디바이스)

Claims (22)

  1. 투과 반사 부재에 이미지 형성 광 빔을 방출하고 상기 투과 반사 부재를 통해 가상 이미지를 보이게 하는 정보 디스플레이 장치에 있어서,
    상기 정보 디스플레이 장치는, 상기 투과 반사 부재를 통해 상기 가상 이미지를 볼 때의 수렴 각도(convergence angle)와 상기 투과 반사 부재를 통해 실제 물체를 볼 때의 수렴 각도 간의 차이가 1도 이하가 되게 상기 가상 이미지를 디스플레이하도록 구성되고,
    탑승자로부터 볼 때 이동체 주변에 존재하는 상기 실제 물체와 3차원적으로 일치하는 가상 이미지와, 상기 탑승자로부터 볼 때 상기 실제 물체와 3차원적으로 일치하지 않는 가상 이미지가, 디스플레이 영역 내에 공존하는 것인, 정보 디스플레이 장치.
  2. 청구항 1에 있어서, 상기 가상 이미지의 이미징 위치는 상기 차이가 1도 이하가 되도록 설정되는 것인 정보 디스플레이 장치.
  3. 청구항 2에 있어서, 상기 이미징 위치는 상기 가상 이미지가 형성되는 미리 정해진 디스플레이 영역 내의 임의의 위치인 것인 정보 디스플레이 장치.
  4. 청구항 3에 있어서, 이동체의 탑승자의 양쪽 눈의 가시선들 간의 경사각이 상기 수렴 각도를 구성하고, 상기 이미지는 상기 탑승자에게 정보를 제공하기 위한 정보 제공 이미지인 것인 정보 디스플레이 장치.
  5. 삭제
  6. 삭제
  7. 청구항 4에 있어서, 상기 이동체 주변에 존재하는 상기 실제 물체와 관련된 물체 정보를 수신하도록 구성된 수신 유닛을 더 포함하는 정보 디스플레이 장치.
  8. 청구항 7에 있어서, 상기 물체 정보에 기초하여 상기 가상 이미지의 크기, 형상, 컬러, 휘도, 및 위치 중의 적어도 하나를 조정하도록 구성된 조정 유닛을 더 포함하는 정보 디스플레이 장치.
  9. 청구항 8에 있어서, 상기 물체 정보는 상기 실제 물체의 크기, 형상, 컬러, 휘도, 및 위치 중의 적어도 하나를 포함하는 것인 정보 디스플레이 장치.
  10. 청구항 7 내지 청구항 9 중 어느 한 항에 있어서, 상기 수신 유닛은 상기 이동체와 관련된 교통 정보를 더 수신하도록 구성되고, 상기 교통 정보는, 상기 탑승자로부터 볼 때 상기 교통 정보가 상기 실제 물체와 3차원적으로 일치하도록 상기 물체 정보에 기초하여 상기 디스플레이 영역 내에 상기 가상 이미지로서 디스플레이되는 것인 정보 디스플레이 장치.
  11. 청구항 7 내지 청구항 9 중 어느 한 항에 있어서, 상기 수신 유닛은 상기 이동체의 위치 정보를 더 수신하도록 구성되고, 상기 가상 이미지는, 상기 탑승자로부터 볼 때 상기 가상 이미지가 상기 실제 물체와 3차원적으로 일치하도록 상기 위치 정보에 기초하여 상기 디스플레이 영역 내에 디스플레이되는 것인 정보 디스플레이 장치.
  12. 청구항 2에 있어서, 시점(viewpoint) 위치로부터 상기 이미징 위치까지의 거리는 4 m 이상이고 10 m 이하인 것인 정보 디스플레이 장치.
  13. 청구항 12에 있어서, 상기 시점 위치로부터 상기 물체까지의 거리는 2 m 이상이고 1000 m 이하인 것인 정보 디스플레이 장치.
  14. 투과 반사 부재에 이미지 형성 광 빔을 방출하고 상기 투과 반사 부재를 통해 가상 이미지를 보이게 하는 정보 디스플레이 장치에 있어서,
    상기 정보 디스플레이 장치는, 실제 물체의 위치 정보 및 가상 이미지의 이미징 위치를 포함한 정보에 기초하여, 상기 투과 반사 부재를 통해 상기 가상 이미지를 볼 때의 수렴 각도와 상기 투과 반사 부재를 통해 상기 실제 물체를 볼 때의 수렴 각도 간의 차이를 계산하도록 구성되고, 상기 차이가 1도 이하인 경우에 상기 가상 이미지를 디스플레이하도록 구성되는 것인, 정보 디스플레이 장치.
  15. 청구항 14에 있어서, 시점 위치로부터 이미징 위치까지의 거리는 1 m 이상이고 4 m 미만인 것인 정보 디스플레이 장치.
  16. 정보 제공 시스템에 있어서,
    청구항 7에 따른 정보 디스플레이 장치; 및
    적어도 상기 물체 정보를 획득하고, 획득된 정보를 상기 정보 디스플레이 장치에 출력하도록 구성된 정보 획득 디바이스를 포함하는 정보 제공 시스템.
  17. 정보 제공 시스템에 있어서,
    청구항 14에 따른 정보 디스플레이 장치; 및
    상기 위치 정보를 포함한 정보를 획득하고, 획득된 정보를 상기 정보 디스플레이 장치에 출력하도록 구성된 정보 획득 디바이스를 포함하는 정보 제공 시스템.
  18. 이동체 디바이스에 있어서,
    이동체; 및
    상기 이동체에 탑재되는, 청구항 1 내지 청구항 4, 청구항 7 내지 청구항 9, 청구항 12 및 청구항 13 중 어느 한 항에 따른 정보 디스플레이 장치를 포함하는 이동체 디바이스.
  19. 이동체 디바이스에 있어서,
    이동체; 및
    상기 이동체에 탑재되는, 청구항 16 또는 청구항 17에 따른 정보 제공 시스템을 포함하는 이동체 디바이스.
  20. 시야 내에 정보를 가상 이미지로서 디스플레이하는 정보 디스플레이 방법에 있어서,
    상기 시야 내의 실제 물체의 위치 정보를 포함한 정보를 획득하는 단계;
    상기 위치 정보 및 상기 가상 이미지의 이미징 위치에 기초하여 투과 반사 부재를 통해 상기 가상 이미지를 볼 때의 수렴 각도와 상기 투과 반사 부재를 통해 상기 실제 물체를 볼 때의 수렴 각도 간의 차이를 계산하는 단계;
    상기 차이가 1도 이하인지 여부를 결정하는 단계; 및
    상기 결정의 결과가 긍정인 경우에 상기 가상 이미지를 디스플레이하는 단계를 포함하는 정보 디스플레이 방법.
  21. 청구항 20에 있어서,
    상기 정보에 기초하여 상기 가상 이미지의 크기, 형상, 컬러, 휘도, 및 이미징 위치 중의 적어도 하나를 조정하는 단계를 더 포함하는 정보 디스플레이 방법.
  22. 비일시적 컴퓨터 판독가능한 기록 매체에 있어서,
    컴퓨터에 의해 실행될 때 상기 컴퓨터로 하여금 청구항 20 또는 청구항 21에 따른 정보 디스플레이 방법을 실행하게 하는 프로그램을 저장한 비일시적 컴퓨터 판독가능한 기록 매체.
KR1020187006290A 2015-09-18 2016-09-13 정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체 KR102089036B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2015-185240 2015-09-18
JP2015185240 2015-09-18
PCT/JP2016/004167 WO2017047079A1 (en) 2015-09-18 2016-09-13 Information display apparatus, information provision system, moving object device, information display method, and recording medium

Publications (2)

Publication Number Publication Date
KR20180035895A KR20180035895A (ko) 2018-04-06
KR102089036B1 true KR102089036B1 (ko) 2020-03-13

Family

ID=58288427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187006290A KR102089036B1 (ko) 2015-09-18 2016-09-13 정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체

Country Status (6)

Country Link
US (1) US10549638B2 (ko)
EP (1) EP3350646B1 (ko)
JP (1) JP6703747B2 (ko)
KR (1) KR102089036B1 (ko)
CN (1) CN108027511B (ko)
WO (1) WO2017047079A1 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6703747B2 (ja) 2015-09-18 2020-06-03 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
CN111752046B (zh) * 2015-10-15 2023-06-02 麦克赛尔株式会社 平视显示装置
EP3415971A4 (en) * 2016-02-10 2019-03-20 Ricoh Company, Ltd. INFORMATION DISPLAY DEVICE
JP6834537B2 (ja) 2017-01-30 2021-02-24 株式会社リコー 表示装置、移動体装置、表示装置の製造方法及び表示方法。
JP6655732B2 (ja) * 2016-10-24 2020-02-26 マクセル株式会社 ヘッドアップディスプレイシステム
JP6620733B2 (ja) * 2016-12-13 2019-12-18 株式会社デンソー 認識装置
WO2018148146A1 (en) * 2017-02-10 2018-08-16 Gentex Corporation Vehicle display comprising projection system
US11508257B2 (en) * 2017-03-07 2022-11-22 8259402 Canada Inc. Method to control a virtual image in a display
KR101979276B1 (ko) * 2017-08-09 2019-05-16 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
JP2019049505A (ja) * 2017-09-12 2019-03-28 矢崎総業株式会社 車両用表示装置および表示制御方法
JP7005107B2 (ja) * 2017-10-20 2022-02-04 矢崎総業株式会社 車両用表示装置
CN109076201A (zh) * 2017-12-28 2018-12-21 深圳市大疆创新科技有限公司 调焦方法、装置及抬头显示设备
JP7126115B2 (ja) * 2018-01-31 2022-08-26 パナソニックIpマネジメント株式会社 表示システム、移動体、及び、設計方法
JP7140504B2 (ja) * 2018-02-14 2022-09-21 矢崎総業株式会社 投影表示装置
US11227366B2 (en) * 2018-06-22 2022-01-18 Volkswagen Ag Heads up display (HUD) content control system and methodologies
DE112019003192T5 (de) * 2018-06-27 2021-04-01 Nippon Seiki Co., Ltd. Head-up-Display-Vorrichtung
JP2020112698A (ja) 2019-01-11 2020-07-27 株式会社リコー 表示制御装置、表示装置、表示システム、移動体、プログラム、画像生成方法
EP3683613A1 (en) * 2019-01-15 2020-07-22 Ricoh Company, Ltd. Optical scanner, display system, mobile object, optical scanning control method, and carrier means
JP2020112772A (ja) * 2019-01-15 2020-07-27 株式会社リコー 光走査装置、表示システム、移動体、光走査制御方法およびプログラム
US11312416B2 (en) * 2019-01-30 2022-04-26 Toyota Motor Engineering & Manufacturing North America, Inc. Three-dimensional vehicle path guidelines
JP2020144326A (ja) * 2019-03-08 2020-09-10 株式会社リコー 光走査装置、表示システムおよび移動体
JP7222285B2 (ja) 2019-03-20 2023-02-15 株式会社リコー 表示制御装置、表示装置、表示システム、移動体、プログラム、画像生成方法
US11004400B2 (en) * 2019-05-17 2021-05-11 Samsung Display Co., Ltd. Display device compensating for horizontal crosstalk
JPWO2021153616A1 (ko) * 2020-01-31 2021-08-05
JP7402083B2 (ja) * 2020-02-28 2023-12-20 本田技研工業株式会社 表示方法、表示装置及び表示システム
JP7443891B2 (ja) * 2020-03-31 2024-03-06 セイコーエプソン株式会社 虚像表示装置及び光学ユニット
JP7447628B2 (ja) 2020-03-31 2024-03-12 セイコーエプソン株式会社 虚像表示装置及び光学ユニット
JP7463806B2 (ja) * 2020-03-31 2024-04-09 セイコーエプソン株式会社 虚像表示装置
JP7435169B2 (ja) 2020-03-31 2024-02-21 セイコーエプソン株式会社 虚像表示装置
US11698535B2 (en) 2020-08-14 2023-07-11 Hes Ip Holdings, Llc Systems and methods for superimposing virtual image on real-time image
KR20220022340A (ko) 2020-08-18 2022-02-25 삼성전자주식회사 컨텐츠를 시각화하는 장치 및 방법
CN114616511A (zh) 2020-09-03 2022-06-10 海思智财控股有限公司 改善双眼视觉的系统与方法
EP4196239A1 (en) * 2020-09-30 2023-06-21 HES IP Holdings, LLC Systems and methods for dynamic image processing
WO2022072565A1 (en) * 2020-09-30 2022-04-07 Hes Ip Holdings, Llc Virtual image display system for virtual reality and augmented reality devices
US11393368B2 (en) 2020-11-05 2022-07-19 Innolux Corporation Display method of image
US11753029B1 (en) * 2020-12-16 2023-09-12 Zoox, Inc. Off-screen object indications for a vehicle user interface
US11854318B1 (en) 2020-12-16 2023-12-26 Zoox, Inc. User interface for vehicle monitoring
JP2022184350A (ja) * 2021-06-01 2022-12-13 マツダ株式会社 ヘッドアップディスプレイ装置
US11953816B2 (en) 2021-08-06 2024-04-09 Ricoh Company, Ltd. Wavelength conversion plate, light source device, and image projection apparatus
WO2023199896A1 (ja) * 2022-04-11 2023-10-19 日本精機株式会社 表示装置
CN115166978B (zh) * 2022-07-21 2023-06-16 重庆长安汽车股份有限公司 抬头显示系统的显示镜片、系统、方法及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301144A (ja) * 2004-04-15 2005-10-27 Denso Corp 虚像表示装置およびプログラム
JP2010120501A (ja) * 2008-11-19 2010-06-03 Yazaki Corp 視線誘導支援装置及び車両用表示システム
JP2013098944A (ja) * 2011-11-07 2013-05-20 Sharp Corp 立体画像処理装置および立体画像処理方法

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0641132B1 (en) * 1993-08-26 1999-04-14 Matsushita Electric Industrial Co., Ltd. Stereoscopic image pickup apparatus
JP3717653B2 (ja) 1998-01-20 2005-11-16 株式会社リコー 頭部搭載型画像表示装置
DE602005023300D1 (de) * 2004-05-26 2010-10-14 Tibor Balogh Verfahren und vorrichtung zur erzeugung von 3d-bildern
JP2006309090A (ja) 2005-02-21 2006-11-09 Ricoh Co Ltd 走査光学系、光走査装置、画像形成装置およびカラー画像形成装置
JP4500738B2 (ja) 2005-06-20 2010-07-14 株式会社リコー 光走査装置・画像形成装置
US7876486B2 (en) 2006-03-08 2011-01-25 Ricoh Company, Limited Optical scanning apparatus, optical writing apparatus, and image forming apparatus
US7973990B2 (en) 2006-04-27 2011-07-05 Ricoh Company, Ltd. Optical scanning device, optical writing device, and image forming apparatus
JP2008052247A (ja) 2006-07-27 2008-03-06 Ricoh Co Ltd 光走査装置および画像形成装置
JP5024928B2 (ja) 2006-09-04 2012-09-12 株式会社リコー 光走査装置及び画像形成装置
US7688491B2 (en) 2006-09-15 2010-03-30 Ricoh Company, Ltd. Diffractive-optical element, scanning optical system, optical scanner, and image forming apparatus
JP4976092B2 (ja) 2006-09-19 2012-07-18 株式会社リコー 光走査装置、およびそれを用いた画像形成装置
US8045248B2 (en) 2007-03-09 2011-10-25 Ricoh Company, Ltd. Optical scanning device and image forming apparatus
JP2009053378A (ja) 2007-08-27 2009-03-12 Ricoh Co Ltd 光走査装置及び画像形成装置
JP2009053379A (ja) 2007-08-27 2009-03-12 Ricoh Co Ltd 光走査装置及び画像形成装置
JP2009251552A (ja) 2008-04-11 2009-10-29 Ricoh Co Ltd 画像形成装置
US20090278765A1 (en) 2008-05-09 2009-11-12 Gm Global Technology Operations, Inc. Image adjustment and processing for a head up display of a vehicle
JP4886751B2 (ja) 2008-09-25 2012-02-29 株式会社東芝 車載用表示システム及び表示方法
JP5169884B2 (ja) * 2009-02-02 2013-03-27 株式会社デンソー ヘッドアップディスプレイ装置
JP5381285B2 (ja) 2009-04-27 2014-01-08 株式会社リコー 画像形成装置、情報登録方法およびプログラム
JP2011013289A (ja) 2009-06-30 2011-01-20 Ricoh Co Ltd 光走査装置及び画像形成装置
US8531766B2 (en) 2009-07-02 2013-09-10 Ricoh Company, Limited Polarization-separation device, optical scanning apparatus, and image forming apparatus
JP5679175B2 (ja) 2010-03-24 2015-03-04 株式会社リコー 光走査装置及び画像形成装置
JP5691633B2 (ja) 2010-06-25 2015-04-01 株式会社リコー 光走査装置及び画像形成装置
JP5434848B2 (ja) * 2010-08-18 2014-03-05 ソニー株式会社 表示装置
JP5803184B2 (ja) 2010-11-19 2015-11-04 株式会社リコー 画像投影装置、メモリアクセス方法
JP2012141461A (ja) * 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
JP5801604B2 (ja) * 2011-05-13 2015-10-28 株式会社Nttドコモ 表示制御装置及び表示制御方法
JP2013061554A (ja) 2011-09-14 2013-04-04 Ricoh Co Ltd 画像形成装置、画像形成装置を搭載した車両
JP5817374B2 (ja) 2011-09-16 2015-11-18 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP5923934B2 (ja) 2011-11-08 2016-05-25 株式会社リコー 画像処理装置及びプログラム
JP5938893B2 (ja) 2011-12-22 2016-06-22 株式会社リコー 画像処理装置及びプログラム
JP2013196359A (ja) 2012-03-19 2013-09-30 Honda Motor Co Ltd 運転支援装置
JP5966510B2 (ja) 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
JP6047318B2 (ja) * 2012-07-06 2016-12-21 矢崎総業株式会社 ドライバ状態検出装置及びドライバ状態報知装置
US9030749B2 (en) * 2012-08-01 2015-05-12 Microvision, Inc. Bifocal head-up display system
JP6237123B2 (ja) 2012-12-21 2017-11-29 株式会社リコー 2次元画像表示装置および2次元画像表示装置用の光走査装置および被走査面素子および移動体
JP5682692B2 (ja) 2012-12-21 2015-03-11 株式会社リコー 画像表示装置
US9158124B2 (en) 2012-12-21 2015-10-13 Ricoh Company, Ltd. Image display device and vehicle incorporating the same
US20150367859A1 (en) * 2012-12-21 2015-12-24 Harman Becker Automotive Systems Gmbh Input device for a motor vehicle
JP6089828B2 (ja) 2013-03-15 2017-03-08 株式会社リコー 情報処理システムおよび情報処理方法
JP6225546B2 (ja) * 2013-08-02 2017-11-08 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、表示システムおよび表示装置の制御方法
JP6138634B2 (ja) * 2013-08-29 2017-05-31 アイシン・エィ・ダブリュ株式会社 ヘッドアップディスプレイ装置
JP6387589B2 (ja) 2013-08-30 2018-09-12 株式会社リコー 画像形成装置、車両、及び画像形成装置の制御方法
WO2015076118A1 (ja) 2013-11-22 2015-05-28 株式会社リコー 収納ケース
JP6608137B2 (ja) * 2014-01-03 2019-11-20 ハーマン インターナショナル インダストリーズ インコーポレイテッド ディスプレイ上の両眼転導検出
JP6340807B2 (ja) 2014-02-05 2018-06-13 株式会社リコー 画像表示装置及び移動体
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP2016001170A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
JP6221942B2 (ja) 2014-05-26 2017-11-01 株式会社デンソー ヘッドアップディスプレイ装置
JP2016048541A (ja) 2014-06-19 2016-04-07 株式会社リコー 情報処理システム、情報処理装置及びプログラム
JP6485732B2 (ja) 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
EP3693203B1 (en) 2014-12-10 2022-05-18 Ricoh Company, Ltd. Controller, display, method and carrier means for information provision
JP6707809B2 (ja) * 2015-03-27 2020-06-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
US10162412B2 (en) * 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program
EP3093194B1 (en) 2015-04-24 2021-09-22 Ricoh Company, Ltd. Information provision device
JP6703747B2 (ja) 2015-09-18 2020-06-03 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005301144A (ja) * 2004-04-15 2005-10-27 Denso Corp 虚像表示装置およびプログラム
JP2010120501A (ja) * 2008-11-19 2010-06-03 Yazaki Corp 視線誘導支援装置及び車両用表示システム
JP2013098944A (ja) * 2011-11-07 2013-05-20 Sharp Corp 立体画像処理装置および立体画像処理方法

Also Published As

Publication number Publication date
CN108027511A (zh) 2018-05-11
KR20180035895A (ko) 2018-04-06
EP3350646A4 (en) 2018-10-17
US10549638B2 (en) 2020-02-04
JP2017056933A (ja) 2017-03-23
WO2017047079A1 (en) 2017-03-23
CN108027511B (zh) 2021-03-19
JP6703747B2 (ja) 2020-06-03
EP3350646B1 (en) 2024-01-17
EP3350646A1 (en) 2018-07-25
US20190084419A1 (en) 2019-03-21

Similar Documents

Publication Publication Date Title
KR102089036B1 (ko) 정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체
KR102222091B1 (ko) 표시 장치, 이동체 장치, 표시 장치의 제조 방법, 및 표시 방법
US10546561B2 (en) Display device, mobile device, display method, and recording medium
US10890762B2 (en) Image display apparatus and image display method
CN108700744B (zh) 信息显示装置
JP6838559B2 (ja) ヘッドアップディスプレイ
US10621776B2 (en) Information display apparatus that changes a virtual image differently from a degree of the change depth
US20190329716A1 (en) Display device
JP2017211366A (ja) 移動体システム、情報表示装置
EP3357734A1 (en) Display device
US10845592B2 (en) Head-up display, vehicle apparatus, display method, and recording medium
US11320652B2 (en) Display device, object apparatus and display method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant