KR20190015552A - 표시 장치, 이동체 장치, 표시 장치의 제조 방법, 및 표시 방법 - Google Patents

표시 장치, 이동체 장치, 표시 장치의 제조 방법, 및 표시 방법 Download PDF

Info

Publication number
KR20190015552A
KR20190015552A KR1020197000631A KR20197000631A KR20190015552A KR 20190015552 A KR20190015552 A KR 20190015552A KR 1020197000631 A KR1020197000631 A KR 1020197000631A KR 20197000631 A KR20197000631 A KR 20197000631A KR 20190015552 A KR20190015552 A KR 20190015552A
Authority
KR
South Korea
Prior art keywords
display area
virtual image
range
display
display device
Prior art date
Application number
KR1020197000631A
Other languages
English (en)
Other versions
KR102222091B1 (ko
Inventor
유우키 스즈키
겐이치로 사이쇼
마사토 구사나기
다쿠로 야스다
가즈히로 후지타
게이타 가타기리
히로시 야마구치
Original Assignee
가부시키가이샤 리코
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016139286A external-priority patent/JP6703747B2/ja
Application filed by 가부시키가이샤 리코 filed Critical 가부시키가이샤 리코
Publication of KR20190015552A publication Critical patent/KR20190015552A/ko
Application granted granted Critical
Publication of KR102222091B1 publication Critical patent/KR102222091B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0229Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • B60K2360/178
    • B60K2360/179
    • B60K35/23
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • G02B2027/0114Head-up displays characterised by optical features comprising device for genereting colour display comprising dichroic elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0129Head-up displays characterised by optical features comprising devices for correcting parallax
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver

Abstract

HUD 장치는 화상을 형성하기 위한 광을 이동체에 설치된 투과 반사 부재에 조사하여 허상을 이동체 밖의 전방 풍경에 겹치게 표시하도록 구성된다. 이동체 내에 설정된 기준 시점으로부터의 전방 풍경에 있어서의 주어진 거리 범위가 표시 영역 내에 포함되고, 주어진 거리 범위 내에 존재하는 대상물(예컨대, 노면)에 대한 제1 주시각과, 표시 영역 내에 표시되는 허상에 대한 제2 주시각과의 차가 1도 이하이다.

Description

표시 장치, 이동체 장치, 표시 장치의 제조 방법, 및 표시 방법
본 발명은 표시 장치, 이동체 장치, 표시 장치의 제조 방법, 및 표시 방법에 관한 것이다.
종래, 허상(virtual image)을 이동체(movable body) 밖의 풍경에 겹치게 표시 영역 내에 표시하는 장치가 알려져 있다(예컨대, 특허문헌 1 참조).
일본 특허출원공개 2013-196359호
그러나, 특허문헌 1에 개시되어 있는 장치와 관련해서, 이동체 밖의 풍경에 존재하는 대상물과 허상의 동시 시인성(simultaneous visibility)의 개선의 여지가 있다.
일 실시형태에 있어서, 표시 장치는, 화상을 형성하기 위한 광을, 이동체 내에 설치된 투과 반사 부재에 조사하고, 허상을 이동체 밖의 풍경과 겹치게 해서 표시 영역 내에 표시하도록 구성된다. 이동체 내에 설정된 기준 시점으로부터 풍경과의 주어진 거리 범위가 표시 영역 내에 포함되고, 주어진 거리 범위에 존재하는 대상물(예컨대, 노면)에 대한 제1 주시각(convergence angle)과, 표시 영역 내에 표시되는 허상에 대한 제2 주시각과의 차는 1도 이하이다.
하나 이상의 실시형태에 있어서, 대상물과 허상의 동시 시인성을 향상시킬 수 있다.
도 1은 일 실시형태의 HUD 장치의 일반적 구성의 블록도이다.
도 2는 HUD 장치의 컨트롤 시스템의 하드웨어 구성의 블록도이다.
도 3은 HUD 장치의 기능적 구성의 블록도이다.
도 4는 HUD 장치 내의 광원 유닛의 구성을 설명하기 위한 도면이다.
도 5는 HUD 장치 내의 광 편향기의 구성을 설명하기 위한 도면이다.
도 6은 광 편향기의 미러와 주사 범위 간의 관계를 도시하는 도면이다.
도 7은 2차원 주사 시의 주사선 궤적의 일례를 도시하는 도면이다.
도 8a는 마이크로렌즈 어레이에 있어서 입사 광속 직경과 렌즈 직경 간의 크기차로 인한 작용차를 설명하기 위한 도면이다.
도 8b는 마이크로렌즈 어레이에 있어서 입사 광속 직경과 렌즈 직경 간의 크기차로 인한 작용차를 설명하기 위한 도면이다.
도 9는 허상을 노면에 들러붙은 것처럼 표시하는 방법을 설명하기 위한 도면이다.
도 10은 안내 표시를 노면에 들러붙은 것처럼 표시하는 방법을 설명하기 위한 도면이다.
도 11은 차간 거리 표시를 노면에 들러붙은 것처럼 표시하는 방법을 설명하기 위한 도면이다.
도 12는 인디케이터를 노면에 들러붙은 것처럼 표시하는 방법을 설명하기 위한 도면이다.
도 13은 주의 표시(caution mark)를 노면에 수직이 되게 표시하는 제1 예를 설명하기 위한 도면이다.
도 14는 주의 표시를 노면에 수직이 되게 표시하는 제2 예를 설명하기 위한 도면이다.
도 15는 차량과 선행 차량의 상대 속도와 차간 거리의 목표값 간의 관계를 도시하는 그래프이다.
도 16은 뷰어(viewer)가 대상물과 허상을 동시에 볼 때의 시차차(parallactic angle)을 설명하기 위한 도면이다.
도 17은 시점과 배경 사이의 거리와 시점과 허상 사이의 거리 간의 관계를 나타내는 표이다.
도 18은 허상이 중첩 표시되는 노면의 적정 거리 범위를 나타내는 도면이다.
도 19는 표시 영역의 위치를 설정하는 제1 방법을 설명하기 위한 도면이다.
도 20은 표시 영역의 위치를 설정하는 제2 방법을 설명하기 위한 도면이다.
도 21은 기준 시점을 설정하는 제1 방법을 설명하기 위한 도면이다.
도 22는 기준 시점을 설정하는 제2 방법을 설명하기 위한 도면이다.
도 23은 기준 시점을 설정하는 제3 방법을 설명하기 위한 도면이다.
도 24는 기준 시점을 설정하는 제4 방법을 설명하기 위한 도면이다.
도 25는 기준 시점을 설정하는 제5 방법을 설명하기 위한 도면이다.
도 26은 안내 표시를 표시하도록 구성된 HUD 장치의 구성예의 블록도이다.
도 27은 차간 거리를 표시하도록 구성된 HUD 장치의 구성예의 블록도이다.
도 28은 인디케이터를 표시하도록 구성된 HUD 장치의 구성예의 블록도이다.
도 29는 L_B(배경의 휘도)와 L_P(비허상 영역의 휘도) 간의 관계를 나타내는 도면이다.
<구성 개관>
이하에, 도면을 참조하여 일 실시형태의 HUD 장치(100)에 대하여 설명한다. "HUD"는 "Head Up Display"의 약칭이다.
도 1은 일 실시형태의 HUD 장치(100)의 일반적인 구성을 개략적으로 도시하고 있다.
<HUD 장치의 일반적 구성>
HUD 장치의 투사 방식은 대개 "패널 방식"과 "레이저 주사 방식"으로 분류되고 있다. 패널 방식의 경우, 액정 패널, DMD(digital mirror device) 패널, 또는 VFD(vacuum fluorescent display)와 같은 이미징 디바이스를 이용하여 중간상을 형성한다. 레이저 주사 방식의 경우, 레이저 광원으로부터 사출된 레이저빔을 2차원 주사 디바이스를 이용하여 주사함으로써 중간상을 형성한다. 특히, 레이저 주사 방식은, 전화면(full-screen) 발광을 부분적으로 차광하여 화상을 형성하는 패널 방식과는 달리, 각 화소마다 발광 및 비발광을 할당할 수 있기 때문에, 고콘트라스트의 화상을 형성할 수 있다.
이 때문에, HUD 장치(100)에는 투사 방식으로서 "레이저 주사 방식"이 채택되고 있지만, "패널 방식"이 채택될 수도 있다.
HUD 장치(100)는 예컨대 차량에 탑재되며, 차량의 프론트 윈드실드(50)(도 1 참조)를 통해 차량의 조종에 필요한 내비게이션 정보를 볼 수 있도록 구성되어 있다. 내비게이션 정보는, 예컨대 차량의 속도, 코스 정보, 목적지까지의 거리, 현재 위치명, 차량 전방의 물체(대상물)의 유무 및 그 물체의 위치, 제한 속도 등의 인디케이터, 정체 정보 등을 포함한다. 이 경우, 프론트 윈드실드(50)는 입사광의 일부를 투과시키고 잔여광의 적어도 일부를 반사시키는 투과 반사 부재로서도 기능한다. 이하에서는, 프론트 윈드실드(50)를 포함하는 차량인 자동차에 HUD 장치(100)가 탑재되는 예에 대해 구체적으로 설명한다.
도 1에 도시하는 바와 같이, HUD 장치(100)는 광 주사 유닛(10), 스크린(30), 및 요면 미러(40)를 포함한다. 광 주사 유닛(10)은 광원 유닛(11), 광 편향기(15), 및 주사 미러(20)를 포함한다. 프론트 윈드실드(50) 상에 화상을 형성하기 위한 광빔(즉, 화상 광빔)을 프론트 윈드실드(50)에 출사함으로써, HUD 장치(100)는 뷰어(A)(즉, 여기서는 자동차의 탑승자인 운전자)의 시점 위치에서 허상(I)을 볼 수 있게 한다. 말하지만, 뷰어(A)는 광 주사 유닛(10)에 의해 형성되는(또는 렌더링되는) 스크린(30) 상의 화상(중간상)을, 프론트 윈드실드(50) 상의 허상(I)으로서 볼 수 있다.
HUD 장치(100)는, 일례로서, 자동차의 대시보드 아래쪽에 배치되어 있다. 뷰어(A)의 시점 위치와 프론트 윈드실드(50) 사이의 거리는 수십 센티미터 내지 최대 1 미터의 범위를 갖는다.
본 실시형태에 있어서, 요면 미러(40)는 기존의 광학 설계 시뮬레이션 소프트웨어를 이용하여, 원하는 위치에 허상(I)을 형성하기 위하여 일정한 집광 파워(light-focusing power)를 얻도록 설계되어 있다.
HUD 장치(100)에서, 요면 미러(40)의 집광 파워는, 일 실시형태에 있어서 뷰어(A)의 시점 위치로부터 예컨대 1 m 이상 그리고 30 m 이하의 거리를 갖는 위치(깊이 위치)에 허상(I)을 표시할 수 있도록 설정된다. 다른 실시형태에서는 이 거리가 1 m 이상 그리고 10 m 이하일 수도 있다.
통상, 프론트 윈드실드는 평면이 아니라 약간 만곡된 면임을 알아야 한다. 이 때문에, 허상(I)의 결상 위치(imaging position)가 요면 미러(40)와 프론트 윈드실드(50)의 곡면에 의해 결정된다.
광원 유닛(11)에서는, 화상 데이터에 따라서 변조된 R, G, B의 3색의 레이저빔이 합성된다. 3색의 레이저빔이 합성된 합성 광빔은 광 편향기(15)의 반사면으로 유도된다. 편향기로서 기능하는 광 편향기(15)는 예컨대 반도체 제조 공정에 의해 제작된 MEMS(MicroElectro Mechanical Systems) 스캐너일 수 있다. MEMS 스캐너는 2개의 직교축을 중심으로 독립적으로 요동 가능한 단일의 마이크로 미러를 포함한다. 광원 유닛(11)과 광 편향기(15)의 상세내용은 후술할 것이다.
화상 데이터에 따라 광원 유닛(11)으로부터 출사된 광빔(합성 광빔)은 광 편향기(15)에 의해 편향된 다음, 주사 미러(20)에 의해 다시 반사되어 스크린(30) 상에 출사된다. 스크린(30) 상에서, 광이 주사되어 중간상이 형상된다. 즉, 광 주사 시스템은 광 편향기(15)와 주사 미러(20)를 포함한다. 요면 미러(40)는 프론트 윈드실드(50)의 영향 때문에 중간상의 수평선을 위로 또는 아래로 만곡된 볼록한 형상으로 형성하는 광학 왜곡 요소를 보정하도록 설계 및 배치될 수 있음을 알아야 한다.
스크린(30)을 통과한 광빔은 요면 미러(40)에 의해 프론트 윈드실드(50)를 향해 반사된다. 프론트 윈드실드(50)에 입사하는 광속의 일부는 프론트 윈드실드(50)를 투과하고, 잔여 광속의 적어도 일부는 뷰어(A)의 시점 위치 쪽으로 반사된다. 이에, 뷰어(A)는 프론트 윈드실드(50) 상에서, 중간상을 확대하여 생성된 허상(I)을 볼 수 있다. 즉, 뷰어(A)가 표시 영역을 볼 때에, 허상(I)이 확대되어 프론트 윈드실드(50)를 통해 표시된다.
투과 반사 부재로서 기능하는 컴바이너(combiner)가 프론트 윈드실드(50)의 뷰어(A)의 시점 위치측에 배치되어, 요면 미러(40)로부터의 광빔이 컴바이너 상에 출사될 수 있음을 알아야 한다. 이 구성으로 말미암아 허상(I)이 프론트 윈드실드(50) 상에 표시되는 경우와 마찬가지로 허상(I)을 표시할 수 있다.
<HUD 장치의 컨트롤 시스템의 하드웨어 구성>
도 2는 HUD 장치(100)의 컨트롤 시스템의 하드웨어 구성의 블록도이다. 도 2에 도시하는 바와 같이, HUD 장치(100)의 컨트롤 시스템은 FPGA(Field-Programmable Gate Array)(600), CPU(Central Processing Unit)(602), ROM(Read-Only Memory)(604), RAM(606), 인터페이스(I/F)(608), 버스 라인(610), 레이저 다이오드(LD) 드라이버(6111), 및 MEMS 컨트롤러(615)를 포함한다.
FPGA(600)는 화상 데이터에 따라서 LD 드라이버(6111)로 하여금 후술하는 레이저 다이오드(LD)를 동작시키고, MEMS 컨트롤러(615)로 하여금 광 편향기(15)를 동작시키도록 구성된다. CPU(602)는 HUD 장치(100)의 동작을 제어하도록 구성된다. ROM(604)는 HUD 장치(100)의 동작을 제어하기 위한 화상 처리용 프로그램을 저장하도록 구성된다. RAM(606)는 CPU(602)의 작업 영역으로서 사용된다. I/F(608)는 HUD 장치(100)가 외부 컨트롤러와 통신할 수 있게 하는 인터페이스이다. 예컨대, I/F(608)는 자동차의 CAN(Controller Are aNetwork)에 결합된다.
<HUD 장치의 기능적 블록>
도 3은 HUD 장치(100)의 기능적 구성의 블록도이다. 도 3에 도시하는 바와 같이, HUD 장치(100)는 차량 정보 입력 유닛(800), 외부 정보 입력 유닛(802), 화상 데이터 생성 유닛(804), 및 화상 렌더링 유닛(806)을 포함한다. 차량 정보 입력 유닛(800)은 예컨대 CAN으로부터 차량 정보(즉, 차량 속도, 주행 거리, 대상물의 위치, 외부 환경의 휘도 등을 포함하는 정보)를 수신하도록 구성된다. 외부 정보 입력 유닛(802)은 외부 네트워크로부터 차량 외부에 대한 정보(예컨대, 자동차에 탑재된 카 내비게이션으로부터의 내비게이션 정보 등)를 수신하도록 구성된다. 화상 데이터 생성 유닛(804)은 차량 정보 입력 유닛(800)으로부터 수신된 정보 또는 외부 정보 입력 유닛(802)으로부터 수신된 정보에 따라 따라 렌더링되어야 할 화상의 화상 데이터를 생성하도록 구성된다. 화상 렌더링 유닛(806)은 컨트롤 유닛(8060)을 포함하고, 수신된 화상 데이터에 기초하여 화상을 렌더링하도록 구성된다. 화상 데이터 생성 유닛(804) 및 컨트롤 유닛(8060)은 FPGA(600)에 의해서 실현된다. 화상 렌더링 유닛(806)은 FPGA(600), LD 드라이버(6111), MEMS 컨트롤러(615), 광 주사 유닛(10), 스크린(30), 및 요면 미러(40)에 의해 실현된다.
<광원 유닛의 구성>
도 4는 광원 유닛(11)의 구성을 도시한다. 도 4에 도시하는 바와 같이, 광원 유닛(11)은, 각각 하나 이상의 발광점을 갖는 복수(예컨대 3개)의 발광 소자(111R, 111B, 및 111G)를 포함한다. 각 발광 소자(111R, 111B, 및 111G)는 레이저 다이오드(LD)일 수 있다. 발광 소자(111R, 111B, 및 111G)는 각각 서로 다른 파장(λR, λG, λB)을 갖는 광빔을 출사한다. 예컨대 λR은 640 나노미터(nm)이고, λG는 530 nm이며, λB는 445 nm이다. 이하에서는, 발광 소자(111R, 111B, 및 111G)를 각각 LD(111R), LD(111G), 및 LD(111B)라고도 칭한다. LD(111R, 111B, 및 111G)로부터 출사된 파장 λR, λG, λB의 광속은 각각 대응하는 커플링 렌즈(112R, 112G, 및 112B)에 의해 후속의 광학 시스템에 커플링된다. 커플링된 광속은 대응하는 개구 부재(113R, 113G, 및 113B)에 의해 성형된다. 각 개구 부재(113R, 113G, 및 113B)의 개구 형상은 광속의 발산각에 따라, 원형, 타원형, 직사각형, 및 정사각형을 포함한 임의의 다양한 형상을 가질 수 있다. 그런 다음, 대응하는 개구 부재에 의해 성형된 광속은 합성 소자(115)에 의해 광로 합성된다. 구체적으로, 합성 소자(115)는 파장에 따라서 광속을 반사 또는 투과시키고, 단일 광로로 합성하도록 구성된 플레이트형 또는 프리즘형의 다이크로익 미러이다. 합성된 광속은 렌즈(119)에 의해 광 편향기(15)의 반사면으로 유도된다. 렌즈(119)는 요면이 광 편향기(15)측을 향하는 메니스커스 렌즈(meniscus lens)일 수 있다.
<광 편향기의 구성>
도 5는 광 편향기(15)의 구성을 도시한다. 광 편향기(15)는 반도체 제조 공정에 의해 제작된 2축 MEMS 스캐너일 수 있다. 도 5에 도시하는 바와 같이, 광학 편향기(15)는 반사면을 갖는 미러(150)와, 2개의 인접한 빔부(beam)가 전향점에서 사행하도록 커플링되는 α축으로 정렬된 복수의 빔부를 각각 포함하는 한 쌍의 사행 유닛(152)을 포함한다. 각각의 사행 유닛(152)에 포함되는 이러한 2개의 인접한 빔부는 빔부 A(152a)와 빔부 B(152b)를 포함한다. 사행 유닛(152)은 프레임 부재(154)에 의해 지지된다. 복수의 빔부 각각은 복수의 압전 부재(156)(예컨대, PZT)를 각각 포함한다. 각각의 사행 유닛(152)에 포함된 2개의 인접한 빔부의 압전 부재(156)에 상이한 전압을 인가함으로써, 2개의 인접한 빔부는 상이한 방향으로 편향되고, 2개의 인접한 빔부의 이러한 편향이 축적된다. 그런 다음, 미러(150)가 α축을 중심으로(즉, 수직 방향으로) 큰 각도로 회전한다. 이 구성으로 말미암아, α축을 중심으로 한 수직 방향으로의 광 주사가 저전압으로 가능해진다. 한편, β축을 중심으로 수평 방향으로의 광 주사에서는, 미러(150)에 결합된 토션바를 이용한 공진이 채택된다.
HUD 장치(100)가 순간적으로 레이저빔 직경에 해당하는 포인트 화상만을 투사하지만, HUD 장치(100)는 매우 고속으로 레이저빔을 주사한다. 그렇기 때문에, 인간의 눈에는 1 프레임 화상에서 충분히 잔상이 남게 된다. 이러한 잔상 현상을 이용함으로써, 뷰어가 "표시 영역" 상에 투사되는 화상을 지각하게 하는 것이 가능하다. 실제로, 요면 미러(40)와 프론트 윈드실드(50)는 스크린(30) 상에 표시되는 화상을 반사시켜, 뷰어가 반사된 화상을 "표시 영역" 내의 허상(I)으로서 지각하게 하도록 구성된다. 전술한 메커니즘에 의해, 허상(I)을 표시하지 않게 하려면 LD로부터의 발광이 정지될 수 도 있다. 다시 말해, "표시 영역"에 있어서, 허상이 표시되는 영역 이외의 영역에서는 휘도를 제로로 설정하는 것이 가능하다.
특히, HUD 장치(100)에 의해 형성되는 허상(I)의 결상 위치는 허상(I)을 형성할 수 있는 미리 정해진 "표시 영역" 내의 임의의 위치일 수 있다. 이러한 미리 정해진 "표시 영역"은 HUD 장치(100)의 설계 단계에서 설계 사양에 의해 결정될 수 있다.
전술한 바와 같이 "레이저 주사 방식"을 채용함으로써, 표시를 원하지 않는 영역에서는, 표시할 필요가 없을 때 LD를 소등하거나 광량을 저하시키거나 하는 등의 조치를 취할 수 있다.
반면, 예컨대 액정 패널 및 DMD 패널 등의 이미징 디바이스 상에 중간상을 형성하는 "패널 방식"의 경우, 패널 전체를 조명해야 할 필요가 있다. 그렇기 때문에, 화상 신호에 관하여, 화상을 표시하지 않는 블랙 디스플레이의 경우에도, 액정 패널이나 DMD 패널의 특성상, 화상 신호를 완전히 없애는 것은 어렵다. 이러한 이유로, 흑색 부분이 입체적으로 보일 수도 있다. 그러나, 레이저 주사 방식의 경우는 입체적으로 보이는 이러한 흑색 부분을 없애는 것이 가능하다.
FPGA(600)는 발광을 위한 광원 유닛(11) 내의 발광 소자(111R, 111B, 및 111G)의 발광 강도, 점등 타이밍, 및 광파 형태를 제어한다. 도 6에 도시하는 바와 같이, 발광 소자(111R, 111B, 및 111G)로부터 출사되어 광로 합성된 광속은 광 편향기(15)에 의해서 α축 및 β축을 중심으로 2차원적으로 편향된다. 그런 다음, 편향된 광속은 주사 미러(20)(도 1 참조)를 통해 주사빔으로서 스크린(30) 상에 조사된다. 즉, 주사광에 의해 스크린(30)이 2차원 주사된다. 도 6에는, 주사 미러(20)의 도시가 생략되어 있음을 알아야 한다.
주사빔은, 스크린(30)의 주사 범위를, 대략 20000 Hz 내지 40000 Hz의 고주파수에서 메인주사 방향으로 진동 주사(왕복 주사)하면서, 대략 수십 Hz의 저주파수에서 서브주사 방향으로 편도 주사한다. 즉, 래스터 주사(raster scanning)가 수행된다. 이 때, 주사 위치(주사빔의 위치)에 따라 발광 소자로부터의 발광을 제어함으로써 화소의 렌더링 및 허상의 표시가 가능해진다.
1 스크린 디스플레이를 렌더링하는 시간, 즉 1 프레임을 주사하는데 필요한 주사 시간(2차원 주사의 1 주기)은 전술한 바와 같이 서브주사 주파수가 수십 Hz이기 때문에, 수십 msec일 수 있다. 예컨대, 메인주사 주파수가 20000 Hz, 서브주사 주파수가 50 Hz라고 하면, 1 프레임을 주사하는데 필요한 주사 시간은 20 msec이다.
도 7에 도시하는 바와 같이, 스크린(30)은 화상이 렌더링되는(화상 데이터에 따라 변조된 광이 출사되는) 화상 영역(30a)(유효 주사 영역)과, 이 화상 영역(30a)을 둘러싸는 프레임 영역(30b)을 포함한다.
여기서, 광 편향기(15)에 의해서 주사될 수 있는 전체 영역을 "주사 범위"라고 한다. 주사 범위는 스크린(30)에 있어서의 화상 영역(30a)과 프레임 영역(30b)의 일부(화상 영역(30a)의 외측단 근방의 부분)를 포함한다. 도 7에는, 주사 범위 내의 주사선의 궤적이 지그재그선으로 표시되고 있다. 도 7에서, 도시하는 주사선의 수는 편의상 실제의 주사선의 수보다 적다.
스크린(30)의 화상 영역(30a)은 예컨대 마이크로렌즈 어레이 등의 광확산 효과를 가진 투과형 소자를 포함한다. 화상 영역(30a)은 직사각형이나 평면에 한정되지 않으며, 다각형이나 곡면일 수도 있다. 스크린(30)은 광확산 효과가 없는 평판이나 곡판일 수도 있다. 화상 영역(30a)은 디바이스 레이아웃에 따라, 예컨대 마이크로미러 어레이 등의 광확산 효과를 갖는 반사형 소자를 포함할 수도 있다.
이하에서는, 도 8a 및 도 8b를 참조하여, 스크린(30)의 화상 영역(30a)에 이용되는 마이크로렌즈 어레이의 확산 및 간섭성 노이즈의 발생에 관해서 설명한다.
도 8a는 마이크로렌즈 어레이(852)를 도시한다. 마이크로렌즈 어레이(852)는 미세 볼록 렌즈(851)가 배열되어 있는 미세 볼록 렌즈 구조를 갖는다. "화소 표시용 빔"(853)의 광속 직경(857)은 미세 볼록 렌즈(851)의 크기(856)보다 작다. 즉, 미세 볼록 렌즈(851)의 크기(856)는 광속 직경(857)보다 크다. 설명하고 있는 일 실시형태에 있어서, 화소 표시용 빔(853)은 광속 중심 주위에 가우스 분포형의 광강도 분포를 갖는 레이저 광속일 수 있음을 알아야 한다.
따라서, 광속 직경(857)은 광강도 분포에 있어서의 광강도가 "1/e2"로 저하하는 광속의 반경 방향의 거리일 수 있다.
도 8a에서는, 광속 직경(857)이 미세 볼록 렌즈(851)의 크기(856)와 거의 같은 크기를 갖는 것으로 도시되고 있다. 하지만, 광속 직경(857)이 "미세 볼록 렌즈(851)의 크기(856)"와 같은 크기를 가질 필요는 없다. 광속 직경(857)은 미세 볼록 렌즈(851)의 크기(856)보다 크지 않는 임의의 크기를 가질 수 있다.
도 8a에 있어서, 화소 표시용 빔(853)은 전체가 단일의 미세 볼록 렌즈(851)에 입사하여, 발산각(855)을 갖는 확산 광속(854)으로 변환된다. 이하에서는 "발산각"이 "확산각"으로도 칭해지는 것을 알아야 한다.
도 8a의 상태에서는, 단일의 확산 광속(854)이 도시되고 있다. 간섭하는 광속이 없기 때문에, 간섭성 노이즈는 발생하지 않는다. 발산각(855)의 크기는 미세 볼록 렌즈(851)의 형상에 따라 적절하게 설정될 수 있다.
도 8b에 있어서, 화소 표시용 빔(811)은 미세 볼록 렌즈(851)의 배열 피치(812)의 2배가 되는 광속 직경을 갖는다. 화소 표시용 빔(811)은 2개의 미세 볼록 렌즈(813 및 814)에 걸쳐 입사한다. 이 경우, 화소 표시용 빔(811)은 2개의 미세 볼록 렌즈(813 및 814)에 의해 2개의 발산 광속(815 및 816)으로 각각 확산된다. 2개의 발산 광속(815 및 816)은 영역(817)에서 서로 겹치고, 이 영역(817)에서 서로 간섭하여 간섭성 노이즈를 발생시킨다.
도 7로 되돌아가면, 주사 범위 내의 화상 영역(30a)의 주변 영역(프레임 영역(30b)의 일부)은 수광 디바이스를 포함하는 동기화 검출 시스템(60)을 포함한다. 도 7에는, 동기화 검출 시스템(60)이 화상 영역(30a) 내의 -X측에 그리고 +Y측의 코너에 배치되어 있다. 이하의 설명에서는, X 방향이 스크린(30)의 메인주사 방향을 표시하고, Y 방향이 서브주사 방향을 표시한다.
동기화 검출 시스템(60)은 광 편향기(15)의 동작을 검출하여, 주사 개시 타이밍이나 주사 종료 타이밍을 결정하기 위한 동기화 신호를 FPGA(600)에 출력하도록 구성된다.
<상세내용>
HUD 장치를 이용하여 정보를 허상으로서 현실 세계(예컨대 전방 풍경)에 기하학적으로 정합시켜 중첩 표시하는 증강 현실(AR) 표시 또는 혼합 현실(MR) 표시의 경우에, 그 표시 방법에 따라, 뷰어(예컨대 운전자)가 불쾌감 또는 피로감을 느낄 염려가 있다.
그래서, 본 개시내용의 발명자들은 뷰어에 어떤 불쾌감이나 피로감도 주지 않으면서 허상을 표시하는 기술을 도입하였다. 이하에, 이 기술을 자세하게 설명한다.
일반적으로, HUD 장치를 이용한 허상의 중첩 표시에 있어서, 허상을 현실 세계와 기하학적으로 정합시키는 방법은 크게 두 가지가 있다.
첫번째 방법의 경우, 도 9에 도시하는 바와 같이, 뷰어가 표시 영역을 볼 때에 HUD 장치가 탑재된 차량의 전방 풍경(예컨대, 전방 노면)에 허상이 들러붙은 것처럼 허상이 표시 영역 내에 표현된다. 첫번째 방법은 뷰어에 대하여 깊이 방향의 거리 정보를 쉽게 이해할 수 있는 방식으로 나타내는 목적으로 주로 사용된다. 첫 번째 방법으로 표시되기에 적합한 허상은 예컨대, 도 10에 도시하는 바와 같이 차량의 코스를 안내하기 위한 안내 표시, 도 11에 도시하는 바와 같이 차량과 선행 차량 사이의 차간 거리를 나타내는 차간 거리 표시, 및 도 12에 도시하는 바와 같이 또 다른 차량을 나타내는 인디케이터를 포함할 수 있다.
두번째 방법의 경우, 도 13과 도 14에 도시하는 바와 같이, 뷰어가 표시 영역을 볼 때에 HUD 장치가 탑재된 차량의 전방 풍경(예컨대, 전방 노면)에 허상이 수직으로 서 있는 것처럼 허상이 표시 영역 내에 표현된다. 두번째 방법은 허상을 이용하여 대상물의 존재를 알리는 목적으로 사용될 수도 있고, 허상이 노면에 들러붙은 것처럼 표시될 필요가 없을 때에 사용될 수도 있다. 두번째 방법으로 표시되기에 적합한 허상은, 예컨대 차량의 전방 노면 상에서의 사람(예컨대, 보행자, 교통 안내자, 작업자 등)의 존재, 차량의 전방 노면 상에 표시된 또는 설치된 도로 표지의 존재, 차량의 전방 노면 상에서의 장해물(예컨대, 통행 규제용 장벽, 고장 차량, 사고 차량 등)의 존재를 나타내기 위한 표시를 포함할 수 있다.
이러한 형태를 표시할 때에, 정보의 형상은, 중첩 표시되는 현실 세계에 이러한 형상의 정보가 존재하는 것처럼, 표시를 위해 기하학적으로 변형될 수 있다. 여기서, 정보를 중첩 표시하고 싶은 현실 세계의 위치는 표시되는 정보에 따라 다를 수 있다.
예컨대, 차간 거리, 선행 차량과의 충돌 위험도, 또는 차간 거리의 목표값은 운전자가 표시를 보고 나서 행동을 취할 시간적 여유를 고려한 타이밍에 표시될 수 있다.
이 타이밍과 관련하여, 미국 운수부 도로 교통 안전국(HNTSA: National Highway Traffic Safety Administration)은 충돌 안전 테스트(NCAP)의 평가 기준으로서 "TTC(Time To Collision)가 2초 내지 2.4초일 때 알람을 발생시킬 것"을 지정하고 있다.
"TTC"란 차량과 선행 차량 사이의 거리를 상대 속도로 나누어서 산출되는, 두 차량이 충돌하기까지의 시간이다. 도 15는 TTC가 2.4초가 되는 거리와 상대 속도 간의 관계를 나타내고 있다.
차량 주행 환경을 고려하여, 상대 속도가 20 km/h 이상으로 상정된다. 이 환경에서는, 도 15로부터, 허상을 중첩 표시하는 거리 범위의 하한이 차량의 프론트엔드를 기준으로 하여 13 m일 수 있다. 뷰어의 시점 위치와 차량의 프론트엔드 간의 위치 관계에 따라, 허상을 중첩 표시하는 거리 범위의 하한은 차량의 프론트엔드를 기준으로 한 거리(13 m)로부터 시점 위치를 기준으로 한 거리(약 13 m 내지 16 m 정도)로 환산될 수 있다.
예컨대 도로 표지나 보행자가 대상물 상에 허상으로 중첩 표시되는 경우는, 대상물의 정보가 ADAS(Advanced Driver Assistance System)로부터 취득된다. ADAS에는, 밀리미터파 레이더, 스테레오 카메라 또는 단안 카메라, LIDAR(Light Detection and Ranging 또는 Laser Imaging Detection and Ranging)이 복합적으로 이용된다. 그러나, 전술한 디바이스의 검출 가능한 거리는 제한이 있으며, 디바이스는 일반적으로 정밀도가 보증되는 범위에서 사용된다. 이 때문에, 허상을 중첩 표시하는 거리 범위의 상한은 ADAS의 최대 검출 거리(예컨대, 200 m)에 설정될 수 있다. (그러나, 상한은 후술하는 HUD 장치의 설계 조건에 관련하여, ADAS의 최대 검출 거리 이하로 설정될 수도 있다.)
사람의 좌우 눈은 서로 떨어진 위치에 존재한다. 이 때문에, 좌우 눈 사이의 거리에 따라, 좌우 눈의 망막 상에 각각 투영되는 이미지가 다르다. 이 차이는 대상물과 눈 사이의 거리가 길수록 작아지고, 대상물과 눈 사이의 거리가 짧을수록 커진다. 인간의 뇌는 이 좌우 눈에 투사되는 대상물의 이미지 간의 차이를 인식함으로써 깊이를 지각한다.
HUD 장치는 예컨대 운전자의 전방에 정보를 허상으로서 표시하도록 구성된 차량내 표시 장치이다. 이러한 정보는, 운전자의 전방 풍경에 겹치도록, 프론트 윈드실드나 컴바이너라고도 불리는 투과 반사 부재를 통해 허상으로서 보이게 표시된다. 허상으로서 표시되는 정보의 기하학적 형상을 현실 세계와 정합하도록 조정함으로써, 전술한 중첩 표시로 말미암아 운전자는 마치 현실 세계의 임의의 위치에 정보가 제시되는 것처럼 정보를 지각할 수 있다.
그러나, HUD 장치에 의해서 표시되는 허상(이하, "표시상"이라고도 함)은, HUD 장치의 설계 단계에 결정되는 표시 영역에 2차원적으로 투사된다. 그렇기 때문에 마치 표시상이 현실 세계의 주어진 위치, 예컨대 운전자의 시점이 향하는 노면 상에 제시된 것처럼 형상과 색조를 조정하더라도, 좌우 눈의 망막 상에는, 좌우 눈 사이의 허상과의 거리차로 인해 투사차, 즉 시차(parallax)가 있을 것이다.
도 16에 도시하는 바와 같이, θscene은 뷰어가 허상이 중첩되는 대상물인 현실 물체(즉, 현실 세계에 존재하는 물체)를 볼 때의 좌우의 눈의 시선이 이루는 주시각(convergence angle)을 나타내고, θHUD은 뷰어가 허상을 볼 때의 좌우의 눈의 시선이 이루는 각도인 주시각을 나타내며, θsceneHUD의의 절대값(|θsceneHUD|)은 시차각(θ: °)을 나타낸다. 주사각은 다음의 수학식 (1)을 이용하여 산출될 수 있다. 구체적으로, θscene은, x(m)이 양쪽 눈 사이의 거리이고, L(m)이 현실 물체와 눈 사이의 거리인 경우에, 이하의 수학식 (1)에서 산출될 수 있다. 또한, θHUD도, x(m)이 양쪽 눈 사이의 거리이고, L(m)이 허상과 눈 사이의 거리인 경우에, 이하의 수학식 (1)을 이용하여 산출될 수 있다.
[수학식 1]
Figure pct00001
이 시차각(θ)이 1도를 넘으면, 뷰어는 이중상을 지각하여, 불쾌감이나 피로감을 많이 느낀다고 간주될 수 있다.
도 17은 뷰어의 시점 위치와, 표시상이 중첩되는 현실 물체(전방 풍경에 있어서의 표시 영역의 배경 상에서 현실에 존재하는 대상물) 사이의 거리, 대 뷰어의 시점 위치와 표시상(허상) 사이의 거리를 이용하여 산출되는 시차각의 관계를 나타낸다. 있다. 도 17에 있어서의 시차각의 수치는, 양쪽 눈 사이의 거리 x를 인간의 평균치인 65 mm로서 설정해서 앞의 수학식 (1)을 이용하여 산출된다.
전술한 이유에 따라 결정되는, 표시상이 중첩되는 거리 범위의 상한 및 하한과, 시차각이 1도 이하인 조건을 이용하여, 표시상을 중첩시킬 때에, 표시상과 뷰어의 시점 위치 사이의 적정 거리 범위(이하, "적정 거리 범위"라고도 함)를 결정할 수 있다. 도 17로부터 알 수 있지만, 표시상이 중첩되는 현실 물체가 멀어질수록 시차각(θ)이 커지는 것을 알아야 한다. 그렇기 때문에, 적정 거리 범위의 상한은 ADAS의 최대 검출 거리 이하로 그리고 시차각(θ) 1° 이하로 설정될 수 있다.
또한, HUD 장치의 표시 영역(허상 표시 가능 범위)은 제한된다. 그래서, 뷰어의 시점 위치로부터 적정 거리 범위 내에 있는 노면이 표시 영역 내에 포함되도록 표시 영역의 위치가 결정될 수 있다. 이러한 표시 영역의 위치를 결정하는 방법은 허상이 노면에 들러붙은 것처럼 허상을 표시하는 경우(2차원으로 깊이감을 표현하는 경우)에 특히 바람직하다. 허상이 노면에 수직으로 서 있는 것처럼 허상을 표시하는 경우, 시차각(θ)이 1도 이하이면, 표시상의 크기를 변경함으로써 원근감을 표현할 수 있다.
전술한 바와 같이 구성된 HUD 장치로 말미암아 뷰어에게 불쾌감이나 피로감을 주지 않으면서 허상을 현실 물체에 중첩 표시할 수 있다.
다음으로, 표시 영역의 위치를 결정하는 방법에 대해서, 예를 들어 설명한다.
먼저, 도 18에 도시하는 바와 같이, 적정 거리 범위의 상한과 하한이 설정된다. 상한은 전술한 바와 같이 ADAS의 최대 검출 거리로 설정된다. 하한은 전술한 바와 같이 차량의 주행 환경을 고려하여 시스템 요구에 따라 결정된다.
다음으로, 도 19에 도시하는 바와 같이, 표시 영역의 위치는 적정 거리 범위 내에 허상을 표시하도록 결정된다. 여기서, 차량에 대한 표시 영역의 수직 방향의 위치와 전후 방향의 위치만이 결정되는 것을 알아야 한다. 차량에 대한 표시 영역의 좌우 방향의 위치는 다른 조건에서 결정되어야 한다. 예를 들어, 차량에 대한 표시 영역의 좌우 방향의 위치는 적정 거리 범위의 상한에 있어서 차량이 주행하는 차선의 폭을 포함하도록 결정될 수 있다. 또한, 표시 영역의 수평 방향이 차량의 좌우 방향에 해당한다.
마지막으로, 도 20에 도시하는 바와 같이, 시차각(θ)이 1° 이하가 되도록 거리 LHUD가 설정된다. 시차각(θ)은 적정 거리 범위 내의 하한 중앙(도 20에서 뷰어의 시점 위치로부터 거리 LReal의 위치)에 대한 주시각과, 표시 영역의 하단부 중앙(도 20에서 뷰어의 시점 위치로부터 거리 LHUD의 위치)에 대한 주시각과의 차이다. 여기서, 표시 영역의 하단부 중앙과, 적정 거리 범위의 하한 중앙 둘 다는 뷰어의 시점 위치부터의 거리를 이용하여 정의되지만, 도 20에서 L'HUD 및 L'Real과 같이 노면에 평행한 거리를 이용하여 정의될 수도 있다.
마찬가지로, 표시 영역의 상단부 중앙과 뷰어의 시점 위치 사이의 거리는 시차각(θ)이 1° 이하가 되도록 설정된다. 시차각(θ)은 적정 거리 범위 내의 상한 중앙에 대한 주시각과, 표시 영역의 상단부 중앙에 대한 주시각과의 차이이다. 여기서, 표시 영역의 상단부와, 적정 거리 범위의 상한 둘 다는 뷰어의 시점 위치로부터의 거리에 의해 정의되지만, 노면에 평행한 거리로 정의될 수도 있다.
허상의 결상 위치(표시 영역에서의 허상의 위치)는, 예컨대 주사 미러(20)나 요면 미러(40)나 투과 반사 부재(예컨대 프론트 윈드실드(50))의 곡률(파워)에 의해 설정될 수도 있음을 알아야 한다.
이상의 설명에서, 뷰어가 허상과 전방 풍경을 동시에 볼 때에, 시차각(θ)이 표시 영역의 하단부 중앙과 적정 거리 범위 내의 하한 중앙 간의 차이인 경우, 그리고 시차각(θ)이 표시 영역의 상단부 중앙과 적정 거리 범위 내의 상한 중앙 간의 차이인 경우의 양쪽 경우에서, 시차각(θ)이 1° 이하가 되도록 표시 영역의 위치가 설정된다. 그러나, 표시 영역의 위치는 전술한 시차각에 한정되지 않는다.
예를 들어, 표시 영역의 위치는, 시차각(θ)이, 표시 영역의 상단부 중앙(여기서, 표시 영역에 있어서의 뷰어의 시점 위치로부터의 거리가 가장 짧은 위치)과, 적정 거리 범위 내의 상한의 좌단과 우단 중 적어도 한쪽(적정 거리 범위에 있어서의 뷰어의 시점 위치로부터의 거리가 가장 긴 위치) 간의 차이인 경우에, 시차각(θ)이 1° 이하가 되도록 설정될 수 있다.
이상의 설명으로부터 알 수 있겠지만, "적정 거리 범위"는 시차각(θ)이 1° 이하가 되도록 설정된다. 뷰어의 시점 위치와 허상의 결상 위치 사이의 거리(D)가 예컨대 4 m인 경우에, 뷰어의 시점 위치와 대상물 사이의 거리가 2 m 이상 그리고 1000 m 이하이면 시차각(θ)이 1° 이하가 되는 것이 확인되었음을 알아야 한다. 또한, 뷰어의 시점 위치와 허상의 결상 위치 사이의 거리(D)가 예컨대 6 m 이상인 경우에, 대상물이 아주 먼 위치에 있더라도 시차각(θ)이 1° 이하인 것이 확인되었다. 거리(D)가 짧을수록 HUD 장치에서 광학 경로 길이가 짧아질 수 있다. 이에, HUD 장치의 크기를 줄일 수 있다.
HUD 장치(100)가 차량에 탑재되는 것을 고려하여, 거리(D)를 4 m 내지 6 m로 설정함으로써, 1OOO m 이상 차량 전방에 존재하는 대상물에 대응할 수 있다. 이 설정은 실제 사용에서 충분하며, HUD 장치(100)의 소형화에도 바람직하다. 거리(D)는 도 20의 LHUD 또는 L'HUD에 해당한다.
예컨대 뷰어의 시점 위치로부터 2 m 이상 떨어진 대상물에 대응할 수 있다면, HUD 장치(100)는 실제 사용에 바람직하다. 다시 말해, 뷰어의 시점 위치로부터 2 m 이하의 지근 거리에 허상을 표시할 필요성은 매우 낮다. 실제 사용에 있어서, 뷰어의 시점 위치로부터 y 미터 이상(예컨대 2 m 내지 5 m) 떨어진 대상물에 대응할 수 있다면 문제가 없을 것으로 보인다.
HUD 장치(100)가 탑재되는 차종에 관계없이, 거리(D)는 6 m 이상에 설정될 수 있다. 그러나, HUD 장치(100)의 대형화를 억제하기 위해서는 거리(D)는 1O m 이하로 설정될 수 있다.
이하의 설명에서는, HUD 장치(100)의 설계 시에 기준이 되는 뷰어의 시점 위치를 "기준 시점"이라고 한다.
차량의 설계 시에 기준이 되는 뷰어의 시점 위치는 지상 높이 H 미터(예컨대, 표준 사이즈의 승용차의 경우 약 l.2 m)로 설정된다.
그러나, 실제로는, 뷰어(예컨대, 운전자)의 체격차에 따라, 뷰어의 시점 위치의 높이는, 지상 높이 H(m)의 중간값과, 높이 H(m)로부터 운전석의 착좌면(seating face)으로 수직 아래로 연장되는 수선 길이 J(m)의 ±1O%을 포함한 높이 범위 내에서 변동한다. 이 경우에 있어서, J(m)는 운전자의 평균 앉은키를 나타낸다.
따라서, 기준 시점의 높이가 전술한 높이 범위 내에 설정되고, 기준 시점에서 허상을 볼 때에 허상이 적정 거리 범위와 겹치도록 표시 영역 내에 표시되더라도, 뷰어의 실제 시점 위치의 높이에 따라 또는 적정 거리 범위에서 허상이 중첩되는 위치에 따라, 허상의 적어도 일부는 볼 수 없을 수 있다.
따라서, 본 개시내용의 발명자들은, 도 21 내지 도 25에 도시하는 바와 같은, 기준 시점 및 표시 영역을 설정하는 방법을 발안하였다. 도 21 내지 도 25에서는, 표시 영역의 형상 및 크기를 동일하게 하며, 표시 영역이 노면에 수직으로 향하게 하고, 표시 영역의 상단부를 높이 범위의 하한보다 낮게 하는 것을 상정하고 있다. 표시 영역은 노면에 대하여 전방으로 기울어질 수도 있음을 알아야 한다.
먼저, 도 21의 예에서, 기준 시점(B)의 높이는 지상 높이 H(높이 범위 내의 중간값)에 설정된다. 표시 영역은, 기준 시점(B)에서 표시 영역을 볼 때에 전체 적정 거리가 표시 영역 내에 포함되도록, 높이 범위의 중간값에 대하여 수선 길이(J)의 10%만큼 위에 위치한 시점(P)(시점(P)은 높이 범위의 상한으로서, 지상 높이(H) + O.1J임)에서 표시 영역을 볼 때에 적정 거리 범위의 70% 이상인 제1 범위가 표시 영역에서 보이도록, 그리고 높이 범위의 중간값에 대하여 수선 길이(J)의 10%만큼 아래에 위치한 시점(Q)(시점(Q)은 높이 범위의 하한으로서, 지상 높이(H) - 0.1J임)에서 표시 영역을 볼 때에, 적정 거리 범위의 70% 이상인 제2 범위가 표시 영역 내에 포함되도록 설정된다. 이 경우에, 제1 범위 및 제2 범위의 중복 범위(예컨대, 적정 거리 범위의 60% 이상의 범위)에 겹치도록 표시 영역에 허상을 표시함으로써, 높이 범위 내의 임의의 주어진 높이의 시점에서 허상 전체를 볼 수 있다. 표시 영역의 위치는, 기준 시점(B)에서 표시 영역을 볼 때에 전체 적정 거리 범위가 표시 영역 내에 포함될 수 있도록 기준 시점(B)에서 표시 영역의 상단부를 내려다보는 각도(θ)를 결정함으로써 설정될 수 있음을 알아야 한다.
다음으로, 도 22의 예에서는, 기준 시점(B)의 높이가 지상 높이(H) + 0.05J로 설정된다. 표시 영역은, 기준 시점(B)에서 표시 영역을 볼 때에 전체 적정 거리 범위가 표시 영역 내에 포함되도록, 높이 범위의 중간값에 대하여 수선 길이(J)의 10%만큼 위에 위치한 시점(P)(시점(P)은 높이 범위의 상한으로서, 지상 높이(H) + 0.lJ임)에서 표시 영역을 볼 때에, 적정 거리 범위의 80% 이상인 제1 범위가 표시 영역 내에 포함되도록, 그리고, 높이 범위의 중간값에 대하여 수선 길이(J)의 10%만큼 아래에 위치한 시점(Q)(시점(Q)은 높이 범위의 하한으로서, 지상 높이(H) - 0.1J임)에서 표시 영역을 볼 때에, 적정 거리 범위의 80% 이상인 제2 범위가 표시 영역 내에 포함되도록 설정된다. 이 경우, 제1 범위 및 제2 범위의 중복 범위(예컨대 적정 거리 범위의 70% 이상의 범위)에 겹치도록 표시 영역에 허상을 표시함으로써, 높이 범위 내의 임의의 높이의 시점에서 허상 전체를 볼 수 있다.
다음으로, 도 23의 예에서는, 기준 시점(B)의 높이가 지상 높이(H)+ 0.1J에 설정된다(즉, 기준 시점(B)이 시점(P)에 일치함). 표시 영역은, 기준 시점(B)에서 표시 영역을 볼 때에, 전체 적정 거리 범위가 표시 영역 내에 포함되도록, 높이 범위의 중간값에 대하여 수선 길이(J)의 10%만큼 아래에 위치한 시점(Q)(시점(Q)는 높이 범위의 하한으로서, 지상 높이(H) - 0.1J임)에서 표시 영역을 볼 때에, 적정 거리 범위의 80% 이상인 주어진 범위가 표시 영역 내에 포함되도록 설정된다. 이 경우, 주어진 범위와 적정 거리 범위의 중복 범위(예컨대, 적정 거리 범위의 80% 이상의 범위)에 겹치도록 표시 영역에 허상을 표시함으로써, 높이 범위 내의 임의의 높이의 시점에서 전체 허상을 볼 수 있다.
다음으로, 도 24의 예에서는, 기준 시점(B)의 높이가 지상 높이(H) - 0.05J에 설정된다. 표시 영역은, 기준 시점(B)에서 표시 영역을 볼 때에, 전체 적정 거리 범위가 표시 영역 내에 포함되도록, 높이 범위의 중간값에 대하여 수선 길이(J)의 10%만큼 위에 위치한 시점(P)(시점(P)은 높이 범위의 상한으로서, 지상 높이(H) + 0.1J임)에서 표시 영역을 볼 때에, 적정 거리 범위의 60% 이상인 제1 범위가 표시 영역 내에 포함되도록, 그리고 높이 범위의 중간값에 대하여 수선 길이(J)의 10%만큼 아래에 위치한 시점(Q)(시점(Q)은 높이 범위의 하한으로서, 지상 높이(H) - 0.1J임)에서 표시 영역을 볼 때에, 적정 거리 범위의 60% 이상인 제2 범위가 표시 영역 내에 포함하도록 설정된다. 이 경우에, 제1 범위 및 제2 범위의 중복 범위(예컨대 적정 거리 범위의 50% 이상의 범위)에 겹치도록 표시 영역에 허상을 표시함으로써, 높이 범위 내의 임의의 높이의 시점에서 전체 허상을 볼 수 있다.
다음으로, 도 25의 예에서는, 기준 시점(B)의 높이가 지상 높이(H) - 0.1J에 설정된다(즉, 기준 시점(B)이 시점(Q)과 일치함). 표시 영역은, 기준 시점(B)에서 표시 영역을 볼 때에, 전체 적정 거리 범위가 표시 영역 내에 포함되도록, 그리고 높이 범위의 중간값에 대하여 수선 길이(J)의 1O%만큼 위에 위치한 시점(P)(시점(P)은 높이 범위의 상한으로서, 지상 높이(H) + 0.1J임)에서 표시 영역을 볼 때에, 적정 거리 범위의 40% 이상인 주어진 범위가 표시 영역 내에 포함되도록 설정된다. 이 경우, 주어진 범위와 적정 거리 범위의 중복 범위(예컨대, 적정 거리 범위의 40% 이상의 범위)에 겹치도록 표시 영역에 허상을 표시함으로써, 높이 범위 내의 임의의 높이의 시점에서 전체 허상을 볼 수 있다.
이상, 도 21 내지 도 25의 예에 대해서 설명하였다. 표시 영역의 형상 및 크기가 동일하다는 조건 하에서는, 기준 시점(B)의 높이 범위 내에서의 설정 레벨이 높아질수록 중복 범위가 넓어질 수 있다. 적정 거리 범위 내에서의 임의의 높이의 시점에서 전체 허상을 볼 수 있도록, 허상이 중첩될 수 있는 범위가 넓어질 수 있다.
특히, 기준 시점(B)의 높이 범위 내에서의 설정 레벨을 지상 높이(H)-0.05J 이상으로 설정함으로써, 적정 거리 범위의 50% 이상의 중복 범위(높이 범위 내의 임의의 높이의 시점에서 표시 영역을 볼 때에 전체 허상을 볼 수 있도록 허상을 중첩할 수 있는 범위)를 이용할 수 있도록 표시 영역의 위치를 설정할 수 있다.
또한, 기준 시점(B)의 높이 범위 내에서의 설정 레벨을 지상 높이(H)(높이 범위의 중간값의 높이) 이상으로 설정함으로써, 적정 거리 범위의 60% 이상의 중복 범위(높이 범위 내의 임의의 높이의 시점에서 표시 영역을 볼 때에 전체 허상을 볼 수 있도록 허상을 중첩할 수 있는 범위)를 이용할 수 있도록 표시 영역의 위치를 설정할 수 있다.
뿐만 아니라, 기준 시점(B)의 높이 범위 내에서의 설정 레벨을 지상 높이(H) + 0.05J 이상으로 설정함으로써, 적정 거리 범위의 70% 이상의 중복 범위(높이 범위 내의 임의의 높이의 시점에서 표시 영역을 볼 때에 전체 허상을 볼 수 있도록 허상을 중첩할 수 있는 범위)를 이용할 수 있도록 표시 영역의 위치를 설정할 수 있다.
표시 영역의 크기를 크게 하면, 적정 거리 범위 내에서의 중복 범위(높이 범위 내의 임의의 높이의 시점에서 전체 허상을 볼 수 있도록 허상을 중첩할 수 있는 범위)를 넓게 하는 것이 용이하다. 그러나, 표시 영역의 크기와 장치의 소형화는 트레이트오프 관계를 갖고 있다. 표시 영역의 크기의 증가는 장치의 대형화를 초래할 것이다. 그렇기 때문에, 표시 영역의 크기의 증대는 적절한 해법이 아니다.
그래서, 일 실시형태에서는, 전술한 바와 같이, 한정된 크기를 갖는 표시 영역과 관련하여, 발명자들이 기준 시점의 높이 및 표시 영역의 위치를 면밀하게 고려하였다. 따라서, 적정 거리 범위 내에서, 높이 범위 내의 임의의 높이의 시점에서 허상을 볼 때에 전체 허상을 볼 수 있도록 허상을 중첩할 수 있는 범위를 넓게 하는 것이 가능하다.
뷰어의 체격차에 따른 시점 위치의 높이의 변동에 대하여, 표시 영역의 위치를 조정함으로써, 적정 거리 범위 내에 중첩된 전체 허상도 볼 수 있다.
HUD 장치(100)는, 표시 영역의 위치를 수동으로 또는 자동으로 조정하도록 구성된 조정기를 포함할 수 있다. 조정기는, 예컨대, HUD 장치(100) 전체 또는 요면 미러(40)의 위치나 방향을 변경할 수 있는 메커니즘을 포함할 수 있다. 표시 영역의 위치를 수동으로 조정하기 위해, 사용자(즉, 뷰어)가 메커니즘을 조작하기 위한 조작 유닛이 제공된다. 표시 영역의 위치를 자동으로 조정하기 위해, 사용자(즉, 뷰어)의 시점 위치를 검출하도록 구성된 검출 유닛(예컨대, 카메라)이 제공된다.
표시 영역의 위치가 조정된 후에, 조정 후의 표시 영역의 위치와 시점 위치 간의 관계를 고려하여, 정보가 중첩 표시되는 현실 세계의 위치에 정보가 제시된 것처럼, 해당 정보의 표시상(허상)이 기하학적으로 변형될 수 있다.
일반적인 HUD 장치에 있어서, 표시 영역 내에서의 허상이 표시되지 않는 일부가 흑색화되는 것과, 정보가 표시될 것으로 예상되지 않은 영역이 희미하게 빛나는 것(소위 포스트카드(postcard)라고 하는 것이 보일 수 있음)이 알려져 있다. 이러한 현상은 뷰어가 차량의 전방에서 노면과 겹치는 허상을 감지하는 것을 훼손시킨다. 그래서, 하나 이상의 실시형태에서는 레이저 주사 방식을 채택함으로써 증강 현실의 효과를 유지할 수 있다.
<포스트카드가 인식되는 조건의 도출>
일반적으로, 휘도차 변별 임계치(즉, 인간이 휘도차를 인식할 수 있는 임계치)가 환경 내의 휘도에 따라 변하지만, 임계치 휘도/배경 휘도는 약 1/100 내지 1/1000라고 한다. 이하의 테스트 결과에서는, 이러한 값을 전제로 하여 배경 휘도에 대한 조건을 변경하였다.
포스트카드가 인식되는 휘도에 관해서 상세하게 조사하였다. 구체적으로, 스크린(30) 상에 렌더링되는 화상의 휘도를 변경함으로써, 휘도(L_P)(표시 영역 중 허상이 표시되지 않은 영역(비허상 영역)의 휘도)가 변하였고, 포스트카드가 인식되기 시작한 L_P의 값은 2차원 휘도계로 측정되었다. L_B와 L_P 간의 관계는 도 29에 나타낸다.
이 측정에서, L_B/L_P는, 뷰어(V)가 표시 영역을 볼 때에, 배경 휘도(L_B)에 대한 비허상 렌더링 영역의 휘도(L_P)의 콘트라스트로 정의된다. 배경 휘도(L_B)에 관련하여, 실험 환경이 설정될 수 있는 3타입이 조건으로 설정되었다. 이 3타입의 배경 휘도(L_B)는, 휘도가 낮은 순서로, 야간의 노면 휘도, 터널 조명 하의 노면 휘도, 흐린 날 대낮의 노면 휘도가 상정되었다. 각각의 L_B에 대하여 L_P가 변하였고, 포스트카드가 인식되지 않은 L_P 영역에 대해 각각의 L_B/L_P가 산출되었다. 표 1이 그 결과를 보여준다.
[표 1]
Figure pct00002
표 1에 나타낸 바와 같이, 포스트카드를 인식할 수 있었던 휘도(L_P)는 배경 휘도(L_B)에 따라 달랐다. 예컨대 야간의 노면에 해당하는 배경 휘도(L_B)의 경우, 콘트라스트(L_B/L_P)가 30 이상이면 포스트카드를 인식할 수 없음을 알았다. 또한, 표 1에서는, L_B 값이 46.2 cd/m2인 경우와 L_B 값이 213.0 cd/m2인 경우에 L_B/L_P 값이 비교적 서로 가까운 것을 보여준다. 표 1에 따르면, 배경 휘도(L_B)가 소정 레벨의 휘도(예컨대, 본 실험에서는 46.2 cd/m2) 이상인 경우에, 포스트카드를 인식하는 콘트라스트가 대체로 일정하다. 특히, L_B/L_P가 1O0 이상일 때에는, 배경 휘도(L_B)에 관계없이 포스트카드를 인식할 수 없다.
전술한 바와 같이, 휘도(L_P) 및 배경 휘도(L_B)에 관계없이, L_B/L_P가 대략 100 이상이면, 포스트카드를 인식할 수 없음을 확인하였다. 즉, HUD 장치(100)에서, 포스트카드를 인식할 수 없는(실질적으로 포스트카드가 발생하지 않는) 휘도(L_P) 값을 설정할 수 있음을 확인하였다. 그러나, 표 1에서 알 수 있는 바와 같이, 조건에 따라서는, 콘트라스트(L_B/L_P)를 100 이상으로 설정하지 않을 수도 있다.
HUD 장치(100)에서는, 표시되는 허상의 휘도가 높을수록 휘도(L_P)가 높아진다. 표시되는 허상의 휘도가 낮을수록 휘도(L_P)도 낮아진다. 따라서, HUD 장치(100)의 화상 데이터 생성 유닛(804)에 있어서, 콘트라스트(L_B/L_P)가 소정치 이상이 되도록, 표시되는 허상의 휘도를 조정함으로써, 포스트카드를 인식할 수 없는 상태를 달성할 수 있다. 여기서, 상기 L_B/L_P의 소정치는 예컨대 1OO일 수 있다. 화상 데이터 생성 유닛(804)뿐만 아니라, 임의의 광학적 설계 단계에서도, HUD 장치(100)를 이용할 때에, L_B/L_P가 100 이상일 수 있도록 HUD 장치(100)를 설계할 수 있다.
그러나, 패널 방식에서는, 콘트라스트(L_B/L_P)를 100 이상으로 설정하는 것이 어려운 반면, 레이저 주사 방식에서는, 콘트라스트(L_B/L_P)를 대략 1000 내지 10O00로 설정하는 것도 용이하다. 따라서, 포스트카드를 인식할 수 없는 상태를 달성하기 위해서는, 레이저 주사 방식을 채택할 수 있다.
레이저 주사 방식이 채택되더라도, 표시되고 있는 허상의 휘도가 높은 경우, 경우에 따라서는, 허상의 크기에 따라 포스트카드의 휘도가 높아진다. 허상의 크기와 포스트카드의 휘도를 측정하는 측정 실험을 수행하였다. 구체적으로, 배경 휘도(L_B)가 1OOOO cd/m2인 경우에, 표시상이 충분히 보이도록 레이저 광원으로부터 레이저빔이 출사된다. 이러한 상태에서, 허상의 크기(스크린(30)에 형성되는 중간상의 면적)를 달리하면서 포스트카드의 휘도(L_P)를 측정하였다. 그 측정 결과로서, 전체 표시 영역에 대한 허상의 면적 비율(면적률)이 45% 밑이면, 콘트라스트(L_B/L_P)가 100 이상인 것을 확인하였다.
따라서, 허상이 표시될 때에, 전체 표시 영역에 대해 동시에 표시되는 허상의 총면적은 소정의 면적률 이하(예컨대, 약 45% 이하)일 수 있다. 이러한 구성에 있어서, 표시되는 허상의 휘도의 상한을 어느 정도 높게 하더라도, 콘트라스트(L_B/L_P)가 1OO 이상에 설정될 수 있다.
HUD 장치(100)의 뷰어는 대부분의 경우 차량의 운전자이다. 그렇기 때문에, 뷰어의 시계(vision)를 방해하지 않는 것이 요구된다. 이러한 관점에서, 전체 표시 영역을 조명하지 않고서, 동시에 표시되고 있는 허상의 총면적이 전체 표시 영역에 대해 소정의 면적률 이하(예컨대, 약 45% 이하)로 설정될 수 있다.
다음으로, 도 26을 참조하여, 안내 표시(예컨대, 도 10 참조)를 표시하도록 구성된 HUD 장치(100)의 화상 데이터 생성 유닛(804)의 구성예에 대해 설명한다.
도 26에 도시하는 바와 같이, 화상 데이터 생성 유닛(804)은 안내 정보 취득 유닛(901)과, 안내 표시 데이터 생성 유닛(902)을 포함한다.
안내 정보 취득 유닛(901)은 카 내비게이션(200)으로부터 외부 정보 입력 유닛(802)을 통해 차량의 이동 예정 루트에 관한 정보(예컨대, 이동 예정 루트 상에 있는 다음의 좌측 전환점이나 우측 전환점, 또는 이동 예정 루트 상에 있는 부근 상점, 시설, 집 등에 관한 정보)를 취득하고, 취득된 정보를 안내 표시 데이터 생성 유닛(902)에 전송한다. "이동 예정 루트"는 카 내비게이션 시스템(200) 상에서 사용자에 의해 적절하게 설정되는 것을 알아야 한다.
안내 표시 데이터 생성 유닛(902)은 수신된 이동 예정 루트에 관한 정보 및 안내 표시 템플릿에 기초하여, 안내 표시 데이터를 생성하고, 안내 표시 데이터를 화상 렌더링 유닛(806)의 컨트롤 유닛(8060)에 전송한다.
컨트롤 유닛(8060)은 안내 표시 데이터 생성 유닛(902)으로부터 수신된 안내 표시 데이터에 따라, LD 드라이버(6111) 및 MEMS 컨트롤러(615)를 제어하고, 표시 영역 내에 안내 표시를 허상으로서 표시한다.
전술한 바와 같이, 차량의 이동 예정 루트에 관한 안내 표시를 차량의 전방 풍경과 겹치는 표시 영역 내에 표시함으로써, 운전자는 차량의 전방 풍경으로부터 시선을 빼앗기지 않고서 이동 예정 루트에 관한 정보를 인식할 수 있다.
다음으로, 도 27을 참조하여, 차간 거리 표시(예컨대, 도 11 참조)를 표시하도록 구성된 HUD 장치(100)의 구성예에 대해 설명한다.
여기서, 전술한 기본적인 구성뿐만 아니라, 도 27에 도시하는 바와 같이, HUD 장치(100)는 대상물의 위치를 검출하도록 구성된 검출 시스템으로서 기능하는 레이저 레이더(300)를 더 포함한다. 화상 데이터 생성 유닛(804)은 후술하는 기능 및 추가 구성을 포함한다.
"검출 시스템"은 "인디케이터" 전용으로 설치되지 않을 수도 있음을 알아야 한다. 예컨대 차량의 자동 제어(예컨대, 자동 브레이크 또는 자동 스티어링)에 이용되는 검출 디바이스를 사용할 수도 있다. 이러한 "검출 디바이스"가 사용되는 경우, HUD 장치(100)는 검출 시스템을 포함하지 않아도 된다.
요점은, "검출 시스템"나 "검출 디바이스"는 차량의 전방(경사 전방을 포함함)에 존재하는 대상물의 유무 및 대상물의 위치를 검출할 수 있는 임의의 시스템이나 디바이스일 수 있다는 것이다. 레이저 레이더(예컨대, 광원으로서 반도체 레이저를 포함하는 레이더) 대신에, LED를 광원으로서 사용하는 레이더, 밀리파 레이더, 적외선 레이더, 단안 카메라, 스테레오 카메라, 또는 이러한 레이더와 카메라의 임의의 조합을 이용할 수도 있다.
레이저 레이더(300)는 적어도 하나의 레이저 광원(예컨대, 반도체 레이저)을 포함하는 투광 시스템과, 투광 시스템으로부터 투광되어 대상물에서반사된 광을 수광하도록 구성된 적어도 하나의 수광 소자(예컨대, 포토다이오드)를 포함하는 수광 시스템과, 대상물까지의 거리를 연산하도록 구성된 처리 시스템을 포함한다. 레이저 레이더(300)의 투광 범위는 차량의 전방 범위 및 차량의 경사 전방 범위를 포함한 소정의 범위일 수 있다. 레이저 레이더(300)에 의한 거리 측정 방식은 직접 TOF(Time Of Flight) 방식 또는 간접 TOF 방식일 수 있다. 적접 TOF 방식의 경우, 레이저 광원의 발광 타이밍과 수광 소자의 수광 타이밍과의 시간차를 산출함으로써 대상물까지의 거리가 측정된다. 간접 TOF 방식의 경우, 수광 소자에 의해 수광된 수광 신호를 복수의 위상 신호로 분할하여 얻어진 복수의 위상 신호를 이용해서 시간차를 연산 산출함으로써 대상물까지의 거리가 측정된다. 또한, 투광 시스템은 주사형 또는 비주사형 중 하나일 수도 있다.
레이저 레이더(300)는, 예컨대 자동차의 프론트 범퍼, 백미러에 또는 그 부근에 장착된다. 대상물(여기서는 차량의 선행 차량)을 검출할 때에, 레이저 레이더(300)는 검출 결과인 3차원 위치 정보(거리 화상이라고도 함)를 차량 컨트롤러(400)에 전송한다.
차량 컨트롤러(400)는 차량 전체를 제어하도록 구성된 디바이스이다. 차량 컨트롤러(400)는 수신된, 선행 차량의 3차원 위치 정보 및 그 정보의 임의의 변화를 이용하여, 차량과 선행 차량 간의 현재의 차간 거리 및 상대 속도를 산출하고, 상대 속도에 기초하여 차간 거리의 목표값을 설정하여, 목표값과 현재의 차간 거리를 차량 정보 입력 유닛(800)을 통해 화상 데이터 생성 유닛(804)에 전송한다.
화상 데이터 생성 유닛(804)은 차간 거리 및 목표값 취득 유닛(903)과, 차간 거리 표시 및 목표값 데이터 생성 유닛(904)을 포함한다.
차간 거리 및 목표값 취득 유닛(903)은 차량 컨트롤러(400)로부터 현재의 차간 거리와 차간 거리의 목표값을 취득하고, 현재의 차간 거리와 차간 거리의 목표값을 차간 거리 표시 및 목표값 데이터 생성 유닛(904)에 전송한다.
차간 거리 표시 및 목표값 데이터 생성 유닛(904)은 수신된 현재의 차간 거리 및 차간 거리의 목표값과, 차간 거리 표시의 템플릿(차선의 폭방향으로 연장되어 차선의 길이 방향으로 정렬되는 복수의 구성단위를 포함하는 데이터)에 따라, 차간 거리 표시 및 목표값 데이터를 생성하도록 구성된다. 여기서, 차간 거리 표시 및 목표값 데이터는 차간 거리 표시의 화상 데이터 및 차간 거리의 목표값의 화상 데이터를 포함할 수 있다. 차간 거리 표시 및 목표값 데이터 생성 유닛(904)은 생성된 차간 거리 표시 및 목표값 데이터를 컨트롤 유닛(8060)에 전송한다.
컨트롤 유닛(8060)은 수신된 차간 거리 표시 및 목표값 데이터에 따라 LD 드라이버(6111) 및 MEMS 컨트롤러(615)를 제어하고, 차간 거리 표시 및 차간 거리의 목표값을 표시 영역 내에 허상으로서 표시한다.
전술한 바와 같이, 예컨대 도 11에 도시하는 바와 같이, 운전자가 표시 영역을 볼 때에, 차량과 선행 차량 사이의 노면(차선을 포함함)에 겹치는 표시 영역 내에 차간 거리 표시(예컨대, 인접한 구성단위 사이의 간격 1 눈금이 1O m) 및 차간 거리의 목표값이 표시된다. 이 구성으로 말미암아 운전자는 차량의 전방에서 시선을 빼앗기지 않고서 현재의 차간 거리 및 적정 차간 거리의 하한을 용이하게 인식할 수 있고, 또한 운전자는 이러한 적정 차간 거리에 맞게 차량을 감속할 수 있다. 도 11은 실제의 차간 거리가 예컨대 30 m, 차간 거리의 목표값이 예컨대 50 m인 경우를 나타내고 있음을 알아야 한다.
다음으로, 도 28을 참조하여, 인디케이터(예컨대, 도 12 참조)를 표시하도록 구성된 HUD 장치(100) 내의 화상 데이터 생성 유닛(804)의 구성예에 대해 설명한다.
전술한 기본적인 구성뿐만 아니라, HUD 장치(100)는 도 28에 도시하는 바와 같이, 대상물의 위치를 검출하도록 구성된 검출 시스템으로서 기능하는 레이저 레이더(300)를 더 포함한다. 화상 데이터 생성 유닛(804)은 후술하는 "인디케이터"를 표시하기 위한 기능 및 추가 구성을 포함한다.
화상 데이터 생성 유닛(804)은 표시 컨트롤 유닛(905)과, 인디케이터 데이터 생성 유닛(906)을 포함한다.
표시 컨트롤 유닛(905)은 레이저 레이더(300)의 검출 결과에 따라, 인디케이터의 지시 방향 및 표시 영역 내에서의 인디케이터의 표시 위치(이하, "인디케이터 위치"라고도 함)를 설정하고, 지시 방향 및 인디케이터 위치에 대한 설정 정보를 인디케이터 데이터 생성 유닛(906)에 전송한다. 인디케이터 위치는 표시 영역에서 대상물 근방의 위치에 설정될 수 있음을 알아야 한다.
인디케이터 데이터 생성 유닛(906)은 수신된 지시 방향 및 인디케이터 위치에 대한 설정 정보에 기초하여, 인디케이터의 화상 데이터를 생성하고, 생성된 화상 데이터를 컨트롤 유닛(8060)에 전송하도록 구성된다.
컨트롤 유닛(8060)은 수신된 인디케이터의 화상 데이터에 따라, LD 드라이버(6111) 및 MEMS 컨트롤러(615)를 제어하여, 인디케이터를 표시 영역 내에 허상으로서 표시한다.
전술하였지만, 예컨대 도 12에 도시하는 바와 같이 차량의 전방 풍경과 겹치는 표시 영역 내에 대상물(예컨대, 선행 차량)을 나타내는 인디케이터가 표시된다. 이러한 구성으로 말미암아 운전자는 대상물의 위치를 적절하게 인식(파악)할 수 있다.
인디케이터는, 예컨대 도 12에 도시하는 바와 같이 화살표나 문자 V로 임의의 방향을 지시하는 표시일 수 있다. 여기서, 인디케이터가 가리키는 방향은 "지시 방향"이라고도 한다. 인디케이터는 표시 영역 내에 표시될 수 있다면 임의의 크기일 수 있다. 도 12에 있어서, 예컨대 인디케이터는 차량의 진행 방향에 수직인 면내에서의 대상물의 2차원 위치를 나타내는 2차원 형상인 것으로만 도시되고 있다. 그러나, 실제로, 인디케이터는, 차량의 진행 방향에 수직인 면내에서의 2차원 위치 및 차량의 진행방향으로의 1차원 위치를 나타내는 3차원 형상을 갖는다. 이러한 형상은 운전자에게 인디케이터가 대상물의 3차원 위치를 가리키는 것으로 보인다. 인디케이터를 일례로 설명하였다. 그러나, 요점은 대상물의 존재를 나타내기 위한 임의의 표시가 채택될 수 있다는 것이다. 예컨대, 선형이나 반달형의 표시가 대상물의 하측 근방에 제시될 수도 있다.
전술한 바와 같이, 하나 이상의 실시형태에 있어서의 HUD 장치(100)는, 화상을 형성하기 위한 광을 차량(이동체) 내에 설치된 프론트 윈드실드(50)(투과 반사 부재) 상에 조사하고, 허상을 이동체 밖의 전방 풍경과 겹치게 해서 표시 영역 내에 표시하도록 구성된 표시 장치이다. HUD 장치(100)는 광 편향기(15), 주사 미러(20), 및 스크린(30)을 포함하는 화상 형성 유닛과, 화상을 형성하기 위한 광을 프론트 윈드실드(50)에 투광하도록 구성된 요면 미러(40)(투광 유닛)를 포함한다. 이동체 내에 설정된 기준 시점에서 표시 영역을 볼 때에, 기준 시점으로부터의 주어진 거리 범위(적정 거리 범위)의 풍경이 표시 영역에서 보이고, 주어진 거리 범위 내에 존재하는 대상물(예컨대, 전방 노면, 선행 차량, 사람, 장해물 등)과 기준 시점과의 제1 주시각과, 표시 영역 내에 표시되는 허상과 기준 시점과의 제2 주시각의 차는 1도 이하이다.
전술한 구성에서, 주어진 범위 내에 존재하는 대상물에 대한 주시각과 표시 영역 내에 표시되는 허상에 대한 주시각과의 차가 매우 작다. 따라서, 뷰어가 대상물과 허상을 동시에 볼 때에, 임의의 불쾌감이나 피로감을 억제할 수 있다. 즉, HUD 장치(100)에 따르면, 대상물과 허상의 동시 시인성을 높일 수 있다.
반면, 특허문헌 1에 개시된 기술의 경우, 시점 위치와 대상물 사이의 거리와 시점 위치와 허상 사이의 거리차에 의존하여, 뷰어가 대상물과 허상을 동시에 볼 때에, 좌우 망막에 투영되는 허상이 크게 어긋나게 된다. 이에, 허상이 이중상으로서 보일 수 있고, 뷰어가 불쾌감이나 피로감을 느낄 우려가 있다.
표시 영역 내의 임의의 점과 기준 시점 사이의 거리는 4 m 이상 그리고 10 m 이하일 수 있다. 이 경우, 주어진 거리 범위 내에 존재하는 대상물에 대한 주시각과 표시 영역 내에 표시되는 허상에 대한 주시각과의 차를 확실하게 1° 이하로 할 수 있다(도 17 참조). 이에 HUD 장치(100)의 대형화를 억제할 수 있다. 표시 영역이 기준 시점으로부터 10 m 이상만큼 떨어진 위치로 설정될 경우, 광학 시스템의 크기가 증대할 것이고 나아가서는 HUD 장치(100)가 대형화될 것이다.
하나 이상의 실시형태에 있어서, 표시 영역 내의 임의의 점에 대한 주시각과, 주어진 거리 범위 내의 상한점에 대한 주시각과의 차는 1° 이하이다. 이 경우, 표시 영역 내의 주어진 점과 주어진 거리 범위 내의 주어진 점의 동시 시인성을 향상시킬 수 있다.
표시 영역의 상단부는 기준 시점보다 낮은 위치에 위치할 수 있다. 이 경우, 기준 시점에서 표시 영역을 볼 때에, 차량의 전방 노면이 표시 영역 내에 포함될 수 있다. 표시 영역의 상단부는 기준 시점보다 높은 위치에 위치할 수도 있음을 알아야 한다.
기준 시점은 차량의 운전석의 착좌면보다 높게 설정될 수 있다. 기준 시점의 높이는, 높이(H: 미터)의 중간값과, 차량의 설계 단계에서 운전자(뷰어)의 시점과 운전석의 착좌면(주어진 면) 사이에 수직으로 연장되는 수선 길이(J)의 ±10%를 포함한 높이 범위 내에 설정될 수 있다. 이 경우, 뷰어의 실제 시점을 포함하는 것이 실질적으로 가능하다.
높이 범위의 상한에서 표시 영역을 볼 때에, 주어진 거리 범위의 60% 이상인 제1 범위가 표시 영역 내에 포함될 수 있고, 높이 범위의 하한에서 표시 영역을 볼 때에, 주어진 거리 범위의 60% 이상인 제2 범위가 표시 영역 내에 포함될 수 있다. 이러한 경우에, 예컨대 표시 영역의 위치를 조정할 수 없더라도, 뷰어 간의 체격차에 의한 시점 위치의 변화에 대응하는 것이 실질적으로 가능하다.
기준 시점의 높이는 높이 범위의 중간값 높이 이상으로 설정될 수 있다. 이 경우, 예컨대 표시 영역의 위치를 조정할 수 없더라도, 뷰어 간의 체격차에 의한 시점 위치의 변화에 대응하는 것이 실질적으로 가능하다.
허상은 제1 범위 및 제2 범위가 중복되는 범위(중복 범위)와 겹치도록 표시 영역 내에 표시될 수 있다. 이 경우, 높이 범위 내의 임의의 높이의 시점에서 표시 영역을 볼 때에, 전체 허상을 볼 수 있다.
주어진 거리 범위의 하한은, 예컨대 13 m 내지 16 m일 수 있다. 이 경우, 뷰어가 허상을 보고 나서 뷰어가 조치를 취하기까지의 시간을 고려하여 설정된 위치에 허상이 겹치도록 표시될 수 있다.
주어진 거리 범위의 상한은, 예컨대 차량으로부터 대상물까지의 거리를 검출하도록 구성된 디바이스의 최대 검출 거리 이하일 수 있다. 이것은 대상물(예컨대, 선행 차량, 사람, 자전거, 장해물 등)을 검출할 수 없는 위치에는 허상을 중첩 표시할 필요가 없기 때문이다.
주어진 거리 범위의 상한은, 예컨대 200 m일 수 있다. 현재, 최대 검출 거리가 200 m인 검출 디바이스가 많이 사용되고 있다.
표시 영역의 위치는 수동 또는 자동으로 조정될 수 있다. 어느 경우라도, 뷰어가 전체 허상을 볼 수 있도록 표시 영역의 위치를 조정할 수 있다. 따라서, 뷰어 간의 체격차에 의한 시점 위치의 변화에 충분히 대응할 수 있고, 기준 시점의 높이를 엄격하게 설정할 필요가 없다.
허상은 대상물과 3차원적으로 정합하는 표시(sign)(예컨대 노면에 들러붙은 표시)를 포함할 수 있다. 이 경우, 허상과 대상물의 동시 시인성을 향상시키는 것이 곤란하기 때문에, HUD 장치(100)가 특히 바람직하다.
전술한 대상물과 3차원적으로 정합하는 표시는, 예컨대 차량과 대상물인 선행 차량(선행 물체) 사이의 차간 거리를 나타내는 차간 거리 표시일 수 있다.
전술한 대상물과 3차원적으로 정합하는 표시는, 예컨대 대상물의 존재를 나타내는 표시(예컨대, 인디케이터)일 수 있다.
전술한 대상물과 3차원적으로 정합하는 표시는, 예컨대 차량의 이동 예정 루트에 관한 안내 표시일 수 있다.
허상은 대상물과 3차원적으로 정합하지 않는 표시를 포함할 수 있다. 이 경우, 예컨대 허상의 크기를 변경함으로써 허상과 대상물의 동시 시인성을 높일 수 있다. 그러나, 허상의 크기를 변경하지 않더라도, HUD 장치(100)에 의해 동시 시인성을 향상시킬 수 있다.
3차원적으로 정합하지 않는 표시는, 예컨대 대상물(예컨대, 선행 차량, 사람, 자전거, 및 장해물 등)의 표시, 차량에 관한 정보(예컨대 차량의 속도, 연료 레벨)를 나타내는 표시, 및 차량의 이동 예정 루트에 관한 표시(예컨대, 이동 예정 루트 상에 있는 다음 전환점, 부근 상점, 시설 또는 집에 대한 안내 표시 등) 중 적어도 하나를 포함할 수 있다.
HUD 장치(100)와, HUD 장치(100)가 탑재되는 차량(이동체)를 포함하는 차량 장치(이동체 장치)에 따르면, 뷰어(예컨대 운전자)가 불쾌감이나 피로감을 느끼는 것을 억제하면서 유용한 정보를 통지할 수 있다. 따라서, 탁월한 운전 지원이 가능하다.
하나 이상의 실시형태에 따른 HUD 장치(100)의 제조 방법에 따르면, 허상을 차량의 전방 풍경(예컨대, 이동체 밖의 풍경)과 겹치도록 표시 영역 내에 표시하기 위한 것이다. 본 제조 방법은, 이동체 내에 기준 시점을 설정하는 단계와, 기준 시점에서 표시 영역을 볼 때에, 전방 풍경에 있어서의 기준 시점으로부터의 주어진 거리 범위를 포함하도록 표시 영역의 위치를 설정하는 단계를 포함한다. 주어진 거리 범위 내에 존재하는 대상물에 대한 제1 주시각과, 표시 영역 내에 표시되는 허상에 대한 제2 주시각과의 차는 1도 이하이다. 이 경우에, 대상물과 허상의 동시 시인성을 높일 수 있는 HUD 장치(100)를 제조하는 것이 가능하다.
하나 이상의 실시형태에 있어서의 표시 방법에 따르면, 허상을 이동체 밖의 풍경과 겹치도록 표시 영역 내에 표시하기 위한 것이다. 표시 방법은, 이동체 내에 기준 시점을 설정하는 단계와, 기준 시점에서 표시 영역을 볼 때에, 전방 풍경에 있어서의 기준 시점으로부터의 주어진 거리 범위를 포함하도록 표시 영역의 위치를 설정하는 단계와, 기준 시점에서 표시 영역을 볼 때에, 허상을 주어진 거리 범위와 겹치도록 표시 영역 내에 표시하는 단계를 포함한다. 주어진 거리 범위 내에 존재하는 대상물에 대한 제1 주시각과, 표시 영역 내에 표시되는 허상에 대한 제2 주시각과의 차는 1도 이하이다. 이 경우에, 대상물과 허상의 동시 시인성을 높일 수 있다.
하나 이상의 실시형태에 따른 HUD 장치에 있어서, 화상 광 형성 유닛 내의 스크린(30)의 후단에 배치된 투광 유닛은 요면 미러(40)(요면 미러)를 포함할 수 있다. 그러나, 투광 유닛은 철면 미러(convex mirror)를 포함할 수도 또는 곡면 미러(예컨대, 요면 미러 또는 철면 미러)와 스크린(30) 사이에 배치된 반사 미러를 포함할 수도 있다.
전술한 실시형태에 있어서, 광 주사 유닛은 주사 미러(20)를 포함하지만, 주사 미러(20)를 반드시 포함해야 하는 것은 아니다.
전술한 실시형태에서는, LD(단부면 발광 레이저)가 이용될 수 있다. 그러나, 면발광 레이저 등의 기타 레이저가 사용될 수도 있다.
전술한 실시형태에서, HUD 장치는 컬러 화상을 표시하도록 구성된다. 그러나, HUD 장치는 단색 화상을 표시하도록 구성될 수도 있다.
투과 반사 부재는 차량의 프론트 윈드실드에 한정되지 않는다. 예컨대, 투과 반사 부재는 사이드 윈드실드 또는 백 윈드실드일 수도 있다. 요점은, 투과 반사 부재는 뷰어가 허상을 보는 차량에 설치될 수 있다는 것이고, 뷰어가 차량의 외부를 볼 수 있는 창부재(윈드실드)일 수 있다는 것이다.
전술한 실시형태에 있어서, HUD 장치는, 예컨대 자동차에 탑재되는 것을 일례로서 설명하였다. 그러나, HUD 장치는 차량, 항공기, 선박 등의 어떠한 이동체에도 탑재될 수 있다. 예컨대, 일 실시형태에 따른 차량 장치에 이용되는 차량으로서는, 사륜 차량뿐만 아니라, 자동 이륜차, 자동 삼륜차도 이용 가능하다. 이 경우에, 윈드실드 또는 컴바이너를 투과 반사 부재로서 장착할 수 있다. 또한, 차량의 동력원으로서는, 예컨대 엔진, 모터, 및 엔진과 모터의 조합을 들 수 있다.
전술한 실시형태에서는, 수선이 이동체의 설계 시의 시점과 운전석의 착좌면일 수 있는 "주어진 면" 사이에 수직으로 연장될 수 있다. 그러나, 예컨대, 뷰어가 서 있는 상태에서 허상을 보는 경우에, 뷰어가 서 있는 바닥면이 "주어진 면"일 수도 있다.
전술한 실시형태에서는 구체적인 수치 및 형상이 일례이며, 본 발명의 취지를 일탈하지 않는 범위에서 적절하게 변경될 수 있다.
이하에서는, 전술한 실시형태를 실현한 발명자들의 사고 과정을 설명한다.
운전자로 하여금 적은 시선 이동만으로 정보 및 경보를 인지할 수 있게 하는 표시 장치로서, HUD(head up display)의 시장 기대가 높아지고 있고, 이에 대한 기술 개발도 진행되고 있다. 표시상(허상)은 차량의 전방 풍경과 겹치도록 표시된다. 그렇기 때문에, 증강 현실 또는 혼합 현실을 가능하게 하는 HUD가 제안되고 있다. HUD는 허상의 표시 위치와 운전자의 시점 위치에 기초하여 표시상의 형상을 기하학적으로 변형시킴으로써 현실 세계에 허상으로서 정보를 중첩할 수 있다.
증강 현실 또는 혼합 현실을 가능하게 하는 기존의 HUD의 경우, 허상이 중첩되는 현실 설계의 범위와 허상의 표시 위치 간의 관계를 고려하지 않았다.
이 때문에, 허상이 중첩되는 현실 세계의 범위(예컨대, 위치)를 주시할 때에, 허상이 중첩되는 현실 설계의 범위(예컨대, 위치)와 허상의 표시 위치 간의 관계에 의존하여, 좌우 망막에 투영되는 허상이 크게 어긋나게 된다. 이에, 허상이 이중상으로서 보일 수 있고, 운전자가 불쾌감이나 피로감을 느낄 우려가 있다. 즉, 허상이 번거로운 표시가 될 우려가 있다.
예컨대, 특허문헌 1은 HUD(Heads-Up Display)가 운전 지원 디바이스로서 장착되는 차량을 개시하고 있는데, 이 HUD는 외부로 주의를 환기시킬 목적으로 허상을 주의 환기 대상에 중첩되게 표시한다.
그러나, 특허문헌 1은 이러한 주의 환기 대상의 위치와 허상의 위치 간의 어떤 관계에 대해서는 개시하고 있지 않다. 허상의 표시 위치에 따라, 허상이 번거로워질 우려가 있다.
따라서, 본 발명자들은 허상을 현실 물체 상에 중첩하여 증강 현실 또는 혼합 현실을 가능하게 할 때에, 운전자를 성가시게 하지 않고서 현실 물체와 허상을 동시에 보이게 할 수 있는 목적으로, 전술한 실시형태를 실현하였다.
본 출원은 여기에 전체 내용이 참조로 포함되는, 2016년 7월 14일에 출원한 일본 우선권 출원 2016-139286과 2017년 1월 30일에 출원한 일본 우선권 출원 2017-014181에 기초하며 이들에 대해 우선권을 주장한다.
15: 광 편향기(화상 광 생성기의 일부)
20: 주사 미러(화상 광 생성기의 일부)
30: 스크린(화상 광 생성기의 일부)
40: 요면 미러(화상 광 생성기의 일부)
50: 프론트 윈드실드(투과 반사 부재)
100: HUD 장치(표시 장치)
111R, 111G, 111B: 반도체 레이저(광원)

Claims (20)

  1. 화상을 형성하기 위한 광을 이동체(movable body)에 설치된 투과 반사 부재에 조사하여, 허상(virtual image)을 상기 이동체 밖의 풍경과 겹치게 해서 표시 영역 내에 표시하도록 구성된 표시 장치에 있어서,
    상기 이동체 내에 설정된 기준 시점으로부터의 상기 풍경에 있어서의 주어진 거리 범위가 상기 표시 영역 내에 포함되고,
    상기 주어진 거리 범위 내에 존재하는 대상물에 대한 제1 주시각(convergence angle)과, 상기 표시 영역 내에 표시되는 상기 허상에 대한 제2 주시각과의 차는 1도 이하인 것인 표시 장치.
  2. 제1항에 있어서, 상기 표시 영역 내의 주어진 점과 상기 기준 시점 사이의 거리는 4 미터 이상 그리고 10 미터 이하인 것인 표시 장치.
  3. 제1항 또는 제2항에 있어서, 상기 대상물이 상기 주어진 거리 범위 내의 주어진 상한점에 존재하고, 상기 허상이 상기 표시 영역 내의 주어진 점에 표시될 때에, 상기 제1 주시각과 상기 제2 주시각과의 차는 1도 이하인 것인 표시 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 표시 영역의 상단부는 상기 기준 시점보다 낮은 위치에 위치하는 것인 표시 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 기준 시점의 높이는, 상기 이동체의 설계 시의 시점의 높이인 중간값과, 주어진 면과 상기 이동체의 설계 시의 시점의 높이 사이에서 수직으로 연장되는 수선 길이의 ±10%를 포함한 높이 범위 내에 설정되는 것인 표시 장치.
  6. 제5항에 있어서, 상기 높이 범위의 상한의 경우에 있어서 상기 주어진 거리 범위의 적어도 60%인 제1 범위가 상기 표시 영역 내에 포함되고, 상기 높이 범위의 하한의 경우에 있어서 상기 주어진 거리 범위의 적어도 60%인 제2 범위가 상기 표시 영역 내에 포함되는 것인 표시 장치.
  7. 제6항에 있어서, 상기 허상은 상기 제1 범위와 상기 제2 범위의 중복 범위와 겹치도록 상기 표시 영역 내에 표시되는 것인 표시 장치.
  8. 제5항 내지 제7항 중 어느 한 항에 있어서, 상기 기준 시점의 높이는 상기 높이 범위 내의 중간값의 높이보다 높게 설정되는 것인 표시 장치.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 주어진 거리 범위의 하한은 13 미터 내지 16 미터인 것인 표시 장치.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서, 상기 주어진 거리 범위의 상한은 상기 이동체와 상기 대상물 사이의 거리를 검출하도록 구성된 검출기의 최대 검출 거리 이하인 것인 표시 장치.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서, 상기 표시 영역의 위치를 조정하도록 구성된 조정기를 더 포함하는 표시 장치.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서, 상기 허상은 상기 대상물과 3차원적으로 정합하는 인디케이터를 포함하는 것인 표시 장치.
  13. 제12항에 있어서, 상기 대상물과 3차원적으로 정합하는 인디케이터는 상기 이동체와 상기 대상물인 선행 물체 사이의 거리를 나타내는 것인 표시 장치.
  14. 제12항에 있어서, 상기 대상물과 3차원적으로 정합하는 인디케이터는 상기 대상물의 존재를 알리는 것인 표시 장치.
  15. 제12항에 있어서, 상기 대상물과 3차원적으로 정합하는 인디케이터는 상기 이동체의 이동 예정 루트에 관한 정보를 나타내는 것인 표시 장치.
  16. 제1항 내지 제15항 중 어느 한 항에 있어서, 상기 대상물과 3차원적으로 정합하지 않는 또 다른 인디케이터를 더 포함하는 표시 장치.
  17. 제16항에 있어서, 상기 대상물과 3차원적으로 정합하지 않는 또 다른 인디케이터는, 상기 대상물을 나타내는 인디케이터, 상기 이동체에 관한 정보를 나타내는 인디케이터, 및 상기 이동체의 이동 예정 루트에 관한 인디케이터 중 적어도 하나를 포함하는 것인 표시 장치.
  18. 이동체 장치에 있어서,
    제1항 내지 제17항 중 어느 한 항에 기재된 표시 장치와,
    상기 표시 장치가 탑재되는 이동체
    를 포함하는 이동체 장치.
  19. 허상을 이동체 밖의 풍경과 겹치도록 표시 영역 내에 표시하는 표시 장치의 제조 방법에 있어서,
    상기 이동체 내에 기준 시점을 설정하는 단계와,
    상기 풍경에 있어서의 상기 기준 시점으로부터의 주어진 거리 범위를 포함하도록 상기 표시 영역의 위치를 설정하는 단계
    를 포함하고,
    상기 주어진 거리 범위 내에 존재하는 대상물에 대한 제1 주시각과, 상기 표시 영역 내에 표시되는 상기 허상에 대한 제2 주시각과의 차는 1도 이하인 것인 표시 장치의 제조 방법.
  20. 허상을 이동체 밖의 풍경과 겹치도록 표시 영역 내에 표시하는 표시 방법에 있어서,
    상기 이동체 내에 기준 시점을 설정하는 단계와,
    상기 풍경에 있어서의 상기 기준 시점으로부터의 주어진 거리 범위를 포함하도록 상기 표시 영역의 위치를 설정하는 단계와,
    상기 허상을 상기 기준 시점으로부터의 상기 주어진 거리 범위와 겹치도록 상기 표시 영역 내에 표시하는 단계
    를 포함하고,
    상기 주어진 거리 범위에 존재하는 대상물에 대한 제1 주시각과, 상기 표시 영역 내에 표시되는 상기 허상에 대한 제2 주시각과의 차는 1도 이하인 것인 표시 방법.
KR1020197000631A 2016-07-14 2017-03-10 표시 장치, 이동체 장치, 표시 장치의 제조 방법, 및 표시 방법 KR102222091B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016139286A JP6703747B2 (ja) 2015-09-18 2016-07-14 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
JPJP-P-2016-139286 2016-07-14
JPJP-P-2017-014181 2017-01-30
JP2017014181A JP6834537B2 (ja) 2017-01-30 2017-01-30 表示装置、移動体装置、表示装置の製造方法及び表示方法。
PCT/JP2017/009689 WO2018012031A1 (en) 2016-07-14 2017-03-10 Display apparatus, movable body apparatus, producing method of the display apparatus, and display method

Publications (2)

Publication Number Publication Date
KR20190015552A true KR20190015552A (ko) 2019-02-13
KR102222091B1 KR102222091B1 (ko) 2021-03-04

Family

ID=60951994

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197000631A KR102222091B1 (ko) 2016-07-14 2017-03-10 표시 장치, 이동체 장치, 표시 장치의 제조 방법, 및 표시 방법

Country Status (6)

Country Link
US (1) US10884243B2 (ko)
EP (1) EP3485317A1 (ko)
JP (1) JP6834537B2 (ko)
KR (1) KR102222091B1 (ko)
CN (1) CN109477969B (ko)
WO (1) WO2018012031A1 (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108700744B (zh) * 2016-02-10 2021-02-26 株式会社理光 信息显示装置
JP7140504B2 (ja) * 2018-02-14 2022-09-21 矢崎総業株式会社 投影表示装置
DE102018203462A1 (de) * 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
JP7026325B2 (ja) * 2018-06-21 2022-02-28 パナソニックIpマネジメント株式会社 映像表示システム、映像表示方法、プログラム、及び移動体
JP7191595B2 (ja) 2018-08-30 2022-12-19 株式会社 商船三井 映像生成装置及び映像生成方法
CN109364478B (zh) * 2018-09-07 2022-08-23 深圳市腾讯信息技术有限公司 信息同步方法、装置及存储介质
US10884249B2 (en) * 2018-10-23 2021-01-05 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Combiner head up display with separate infrared function
EP3683613A1 (en) * 2019-01-15 2020-07-22 Ricoh Company, Ltd. Optical scanner, display system, mobile object, optical scanning control method, and carrier means
JP7222285B2 (ja) 2019-03-20 2023-02-15 株式会社リコー 表示制御装置、表示装置、表示システム、移動体、プログラム、画像生成方法
TWI705910B (zh) * 2019-05-16 2020-10-01 怡利電子工業股份有限公司 標靶反射式擴散片抬頭顯示裝置
US11594036B2 (en) * 2019-08-21 2023-02-28 Micron Technology, Inc. Advanced driver-assistance system (ADAS) operation utilizing algorithmic skyline detection
JP7284053B2 (ja) * 2019-09-25 2023-05-30 京セラ株式会社 ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、移動体及びヘッドアップディスプレイの設計方法
CN113109941B (zh) * 2020-01-10 2023-02-10 未来(北京)黑科技有限公司 一种分层成像的抬头显示系统
JPWO2021186853A1 (ko) * 2020-03-19 2021-09-23
CN113119975B (zh) * 2021-04-29 2023-03-24 东风汽车集团股份有限公司 距离标识显示方法、装置、设备及可读存储介质
US11953816B2 (en) 2021-08-06 2024-04-09 Ricoh Company, Ltd. Wavelength conversion plate, light source device, and image projection apparatus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196359A (ja) 2012-03-19 2013-09-30 Honda Motor Co Ltd 運転支援装置
US20140036374A1 (en) * 2012-08-01 2014-02-06 Microvision Inc. Bifocal Head-up Display System
WO2015145933A1 (ja) * 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム及び乗物
JP2015178297A (ja) * 2014-03-19 2015-10-08 アイシン・エィ・ダブリュ株式会社 ヘッドアップディスプレイ装置
JP2016107947A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0888017A2 (en) 1993-08-26 1998-12-30 Matsushita Electric Industrial Co., Ltd. Stereoscopic image display apparatus and related system
JP3717653B2 (ja) 1998-01-20 2005-11-16 株式会社リコー 頭部搭載型画像表示装置
JP4367212B2 (ja) 2004-04-15 2009-11-18 株式会社デンソー 虚像表示装置およびプログラム
ATE480105T1 (de) 2004-05-26 2010-09-15 Tibor Balogh Verfahren und vorrichtung zur erzeugung von 3d- bildern
JP2006309090A (ja) 2005-02-21 2006-11-09 Ricoh Co Ltd 走査光学系、光走査装置、画像形成装置およびカラー画像形成装置
JP4500738B2 (ja) 2005-06-20 2010-07-14 株式会社リコー 光走査装置・画像形成装置
JP2007129494A (ja) * 2005-11-02 2007-05-24 Epson Imaging Devices Corp ディスプレイ装置
US7876486B2 (en) 2006-03-08 2011-01-25 Ricoh Company, Limited Optical scanning apparatus, optical writing apparatus, and image forming apparatus
US7973990B2 (en) 2006-04-27 2011-07-05 Ricoh Company, Ltd. Optical scanning device, optical writing device, and image forming apparatus
JP2008052247A (ja) 2006-07-27 2008-03-06 Ricoh Co Ltd 光走査装置および画像形成装置
JP5024928B2 (ja) 2006-09-04 2012-09-12 株式会社リコー 光走査装置及び画像形成装置
US7688491B2 (en) 2006-09-15 2010-03-30 Ricoh Company, Ltd. Diffractive-optical element, scanning optical system, optical scanner, and image forming apparatus
JP4976092B2 (ja) 2006-09-19 2012-07-18 株式会社リコー 光走査装置、およびそれを用いた画像形成装置
US8045248B2 (en) 2007-03-09 2011-10-25 Ricoh Company, Ltd. Optical scanning device and image forming apparatus
JP2009053378A (ja) 2007-08-27 2009-03-12 Ricoh Co Ltd 光走査装置及び画像形成装置
JP2009053379A (ja) 2007-08-27 2009-03-12 Ricoh Co Ltd 光走査装置及び画像形成装置
JP2009251552A (ja) 2008-04-11 2009-10-29 Ricoh Co Ltd 画像形成装置
US20090278765A1 (en) 2008-05-09 2009-11-12 Gm Global Technology Operations, Inc. Image adjustment and processing for a head up display of a vehicle
JP4886751B2 (ja) 2008-09-25 2012-02-29 株式会社東芝 車載用表示システム及び表示方法
JP2010120501A (ja) 2008-11-19 2010-06-03 Yazaki Corp 視線誘導支援装置及び車両用表示システム
JP5169884B2 (ja) * 2009-02-02 2013-03-27 株式会社デンソー ヘッドアップディスプレイ装置
JP5381285B2 (ja) 2009-04-27 2014-01-08 株式会社リコー 画像形成装置、情報登録方法およびプログラム
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
JP2011013289A (ja) 2009-06-30 2011-01-20 Ricoh Co Ltd 光走査装置及び画像形成装置
US8531766B2 (en) 2009-07-02 2013-09-10 Ricoh Company, Limited Polarization-separation device, optical scanning apparatus, and image forming apparatus
JP2011090217A (ja) * 2009-10-23 2011-05-06 Denso Corp 照明装置
JP5679175B2 (ja) 2010-03-24 2015-03-04 株式会社リコー 光走査装置及び画像形成装置
JP5691633B2 (ja) 2010-06-25 2015-04-01 株式会社リコー 光走査装置及び画像形成装置
JP5723123B2 (ja) * 2010-09-13 2015-05-27 矢崎総業株式会社 ヘッドアップディスプレイ
JP5803184B2 (ja) 2010-11-19 2015-11-04 株式会社リコー 画像投影装置、メモリアクセス方法
JP5801604B2 (ja) 2011-05-13 2015-10-28 株式会社Nttドコモ 表示制御装置及び表示制御方法
JP2013061554A (ja) 2011-09-14 2013-04-04 Ricoh Co Ltd 画像形成装置、画像形成装置を搭載した車両
JP5817374B2 (ja) 2011-09-16 2015-11-18 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP5323165B2 (ja) 2011-11-07 2013-10-23 シャープ株式会社 立体画像処理装置および立体画像処理方法
JP5923934B2 (ja) 2011-11-08 2016-05-25 株式会社リコー 画像処理装置及びプログラム
JP5938893B2 (ja) 2011-12-22 2016-06-22 株式会社リコー 画像処理装置及びプログラム
JP5966510B2 (ja) 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
JP2014010418A (ja) * 2012-07-03 2014-01-20 Yazaki Corp 立体表示装置及び立体表示方法
JP6047318B2 (ja) 2012-07-06 2016-12-21 矢崎総業株式会社 ドライバ状態検出装置及びドライバ状態報知装置
US9158124B2 (en) 2012-12-21 2015-10-13 Ricoh Company, Ltd. Image display device and vehicle incorporating the same
EP2936283A1 (en) 2012-12-21 2015-10-28 Harman Becker Automotive Systems GmbH Input device for a motor vehicle
JP6237123B2 (ja) 2012-12-21 2017-11-29 株式会社リコー 2次元画像表示装置および2次元画像表示装置用の光走査装置および被走査面素子および移動体
JP5682692B2 (ja) 2012-12-21 2015-03-11 株式会社リコー 画像表示装置
JP6089828B2 (ja) 2013-03-15 2017-03-08 株式会社リコー 情報処理システムおよび情報処理方法
JP6138634B2 (ja) 2013-08-29 2017-05-31 アイシン・エィ・ダブリュ株式会社 ヘッドアップディスプレイ装置
JP6387589B2 (ja) 2013-08-30 2018-09-12 株式会社リコー 画像形成装置、車両、及び画像形成装置の制御方法
JP6237787B2 (ja) 2013-11-22 2017-11-29 株式会社リコー 収納ケース
JP6608137B2 (ja) 2014-01-03 2019-11-20 ハーマン インターナショナル インダストリーズ インコーポレイテッド ディスプレイ上の両眼転導検出
JP6340807B2 (ja) 2014-02-05 2018-06-13 株式会社リコー 画像表示装置及び移動体
JP2016001170A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6221942B2 (ja) * 2014-05-26 2017-11-01 株式会社デンソー ヘッドアップディスプレイ装置
JP2016048541A (ja) 2014-06-19 2016-04-07 株式会社リコー 情報処理システム、情報処理装置及びプログラム
EP3300941B1 (en) 2014-12-10 2020-05-13 Ricoh Company, Ltd. Information provision device, and information provision method
JP6504431B2 (ja) * 2014-12-10 2019-04-24 株式会社リコー 画像表示装置、移動体、画像表示方法及びプログラム
JP6485732B2 (ja) 2014-12-10 2019-03-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム
US10162412B2 (en) 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program
EP3093194B1 (en) 2015-04-24 2021-09-22 Ricoh Company, Ltd. Information provision device
JP6703747B2 (ja) 2015-09-18 2020-06-03 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
KR20180016027A (ko) * 2016-08-05 2018-02-14 삼성전자주식회사 차량용 디스플레이 장치 및 이의 제어 방법
JP7065383B2 (ja) * 2017-06-30 2022-05-12 パナソニックIpマネジメント株式会社 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196359A (ja) 2012-03-19 2013-09-30 Honda Motor Co Ltd 運転支援装置
US20140036374A1 (en) * 2012-08-01 2014-02-06 Microvision Inc. Bifocal Head-up Display System
JP2015178297A (ja) * 2014-03-19 2015-10-08 アイシン・エィ・ダブリュ株式会社 ヘッドアップディスプレイ装置
WO2015145933A1 (ja) * 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム及び乗物
JP2016107947A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Also Published As

Publication number Publication date
CN109477969B (zh) 2022-03-08
JP6834537B2 (ja) 2021-02-24
US20200183157A1 (en) 2020-06-11
KR102222091B1 (ko) 2021-03-04
WO2018012031A1 (en) 2018-01-18
US10884243B2 (en) 2021-01-05
JP2018122619A (ja) 2018-08-09
CN109477969A (zh) 2019-03-15
EP3485317A1 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
KR102222091B1 (ko) 표시 장치, 이동체 장치, 표시 장치의 제조 방법, 및 표시 방법
KR102089036B1 (ko) 정보 디스플레이 장치, 정보 제공 시스템, 이동체 디바이스, 정보 디스플레이 방법 및 기록 매체
US10546561B2 (en) Display device, mobile device, display method, and recording medium
JP7276383B2 (ja) Hud装置、車両装置、情報表示方法。
US10551619B2 (en) Information processing system and information display apparatus
JP6699675B2 (ja) 情報提供装置
JP6806097B2 (ja) 画像表示装置及び画像表示方法
US20180339591A1 (en) Information display apparatus
US10621776B2 (en) Information display apparatus that changes a virtual image differently from a degree of the change depth
US11320652B2 (en) Display device, object apparatus and display method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant