KR20190012630A - 이미지 처리 방법 및 이미지 처리 장치 - Google Patents

이미지 처리 방법 및 이미지 처리 장치 Download PDF

Info

Publication number
KR20190012630A
KR20190012630A KR1020170095912A KR20170095912A KR20190012630A KR 20190012630 A KR20190012630 A KR 20190012630A KR 1020170095912 A KR1020170095912 A KR 1020170095912A KR 20170095912 A KR20170095912 A KR 20170095912A KR 20190012630 A KR20190012630 A KR 20190012630A
Authority
KR
South Korea
Prior art keywords
image
information
user
driver
controller
Prior art date
Application number
KR1020170095912A
Other languages
English (en)
Other versions
KR102397089B1 (ko
Inventor
이진호
남동경
박주용
조양호
최규환
최윤선
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170095912A priority Critical patent/KR102397089B1/ko
Priority to US15/840,382 priority patent/US11634028B2/en
Priority to EP18181404.7A priority patent/EP3444139B1/en
Priority to CN201810777341.8A priority patent/CN109309828B/zh
Priority to JP2018133933A priority patent/JP7098452B2/ja
Publication of KR20190012630A publication Critical patent/KR20190012630A/ko
Application granted granted Critical
Publication of KR102397089B1 publication Critical patent/KR102397089B1/ko
Priority to US18/305,867 priority patent/US20230256824A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/211
    • B60K35/23
    • B60K35/28
    • B60K35/29
    • B60K35/60
    • B60K35/654
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/2214
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/08Mirrors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • B60K2360/149
    • B60K2360/177
    • B60K2360/178
    • B60K2360/179
    • B60K2360/191
    • B60K2360/21
    • B60K2360/334
    • B60K2360/785
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

이미지 처리 방법 및 이미지 처리 장치가 개시된다. 일 실시예에 따른 이미지 처리 방법은 사용자의 시점 정보에 기초하여 이미지를 생성하는 단계와, 전방에 대한 정보에 기초하여 상기 이미지를 렌더링하는 단계와, 광학 소자를 사용하여 렌더링된 이미지를 출력하는 단계를 포함한다.

Description

이미지 처리 방법 및 이미지 처리 장치{METHOD OF PROCESSING IMAGES AND APPARATUS THEREOF}
아래 실시예들은 이미지 처리 방법 및 이미지 처리 장치에 관한 것이다.
이동 수단(예를 들어, 자동차, 모터사이클, 스마트 모빌리티, 선박, 비행기 등)을 운전하는 운전자는 네비게이션을 통해 이동 수단의 운행과 관련된 정보를 획득할 수 있다. 이때, 네비게이션은 자동차의 컨트롤 패널 부분에 있는 센터페시아(Center Fascia)에 매립되거나, 또는 전면 유리창인 윈드쉴드(Windshield)에 부착될 수 있다.
운전자는 운전 중에 전면, 후면, 측면 등의 장애물에 신경을 기울여야 한다. 하지만, 네비게이션이 시야각의 외각에 있거나, 벗어나 있기 때문에 운전자는 네비게이션에 신경을 쓰기가 쉽지 않고, 안전 운전이 어려울 수 있다. 특히, 초보 운전자의 경우에는 사고의 위험성이 더 증가할 수 있다.
이에, 운전자는 운전을 보조하는 헤드-업 디스플레이(Head-Up Display(HUD)) 장치를 사용할 수 있다. HUD 장치는 이동 수단의 운행과 관련된 정보(예를 들어, 계기판 정보, 네비게이션 정보 등)를 윈드쉴드에 투사할 수 있다. 즉, 운전자는 운전 중 시선이나 응시점의 이동 없이 운행과 관련된 정보를 파악할 수 있기 때문에 안전하게 운전을 수행할 수 있다.
한편, 계기판 정보(예를 들어, 속도, 주유 잔량, 엔진 RPM(revolution per minute) 등) 표시, 네비게이션 정보 표시 이외에도 시계가 좋지 않은 경우에 도움을 주기 위한 차선 정보 표시, 전방 위험 상황 정보 표시(예를 들어, 공사 중 표시, 교통사고 표시, 행인에 대한 대상 경고 표시 등) 등을 증강 현실(Augmented Reality(AR)) 형태로 HUD 장치를 이용하여 표현하려는 시도가 이루어지고 있다.
실시예들은 사용자의 시점 정보에 기초하여 이미지를 생성하는 기술을 제공할 수 있다.
또한, 실시예들은 전방에 대한 정보에 기초하여 이미지를 렌더링하는 기술을 제공할 수 있다.
또한, 실시예들은 라이트 필드 렌더링을 사용하여 사용자에게 3D 이미지를 출력하는 HUD 기술을 제공할 수 있다.
일 실시예에 따른 이미지 처리 방법은 사용자의 시점 정보에 기초하여 이미지를 생성하는 단계와, 전방에 대한 정보에 기초하여 상기 이미지를 렌더링하는 단계와, 광학 소자를 사용하여 렌더링된 이미지를 출력하는 단계를 포함한다.
상기 렌더링하는 단계는, 센서를 사용하여 상기 전방의 물체의 형상, 위치, 및 깊이 중에서 적어도 하나를 획득하는 단계를 포함할 수 있다.
상기 이미지를 생성하는 단계는, 이미지 카메라(image camera) 또는 적외선 카메라(infrared camera)를 사용하여 상기 시점 정보를 획득하는 단계를 포함할 수 있다.
상기 적어도 하나를 획득하는 단계는, 상기 이미지 카메라 또는 상기 적외선 카메라를 사용하여 상기 사용자의 눈을 직접 검출하거나, 또는 차량의 윈드쉴드(windshield)에 반사된 상기 사용자의 눈에 기초하여 상기 시점 정보를 획득하는 단계를 포함할 수 있다.
상기 이미지를 생성하는 단계는, 상기 시점 정보에 기초하여 상기 사용자의 눈의 위치를 결정하는 단계와, 상기 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 이미지를 할당하는 단계를 포함할 수 있다.
상기 이미지를 할당하는 단계는, 상기 사용자의 좌측 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 상기 좌측 눈으로 입력될 이미지를 할당하는 단계와, 상기 사용자의 우측 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 상기 우측 눈으로 입력될 이미지를 할당하는 단계를 포함할 수 있다.
상기 이미지를 생성하는 단계는, 상기 시점 정보 및 광학적 변환(optical transform)에 기초하여 상기 이미지를 생성하는 단계를 포함할 수 있다.
상기 광학 소자는 렌티큘러 렌즈(lenticular lens) 또는 패럴렉스 배리어(parallax barrier)로 구현될 수 있다.
상기 출력하는 단계는, 확대 광학계(zooming optical system)를 사용하여 상기 렌더링된 이미지를 확대하는 단계를 포함할 수 있다.
상기 확대 광학계는 비구면 거울(aspherical mirror) 및 평면 거울(plane mirror) 중에서 적어도 하나를 포함할 수 있다.
상기 렌더링하는 단계는, 상기 이미지의 표현 깊이가 허상 거리보다 깊도록 렌더링하는 단계를 포함할 수 있다.
일 실시예에 따른 이미지 처리 장치는 사용자의 시점 정보에 기초하여 이미지를 생성하고, 전방에 대한 정보에 기초하여 상기 이미지를 렌더링하는 컨트롤러와, 렌더링된 이미지를 출력하는 광학 소자를 포함한다.
상기 컨트롤러는, 센서로부터 상기 전방의 물체의 형상, 위치, 및 깊이 중에서 적어도 하나를 획득할 수 있다.
상기 컨트롤러는, 이미지 카메라(image camera) 또는 적외선 카메라(infrared camera)로부터 상기 시점 정보를 획득할 수 있다.
상기 이미지 카메라 또는 상기 적외선 카메라는, 직접 검출된 상기 사용자의 눈 또는 차량의 윈드쉴드(windshield)에 반사된 상기 사용자의 눈에 기초하여 상기 시점 정보를 획득할 수 있다.
상기 컨트롤러는, 상기 시점 정보에 기초하여 상기 사용자의 눈의 위치를 결정하고, 상기 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 이미지를 할당할 수 있다.
상기 컨트롤러는, 상기 사용자의 좌측 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 상기 좌측 눈으로 입력될 이미지를 할당하고, 상기 사용자의 우측 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 상기 우측 눈으로 입력될 이미지를 할당할 수 있다.
상기 컨트롤러는, 상기 시점 정보 및 광학적 변환(optical transform)에 기초하여 상기 이미지를 생성할 수 있다.
상기 광학 소자는 렌티큘러 렌즈(lenticular lens) 또는 패럴렉스 배리어(parallax barrier)로 구현될 수 있다.
상기 광학 소자에서 출력된 상기 이미지를 확대하는 확대 광학계(zooming optical system)를 더 포함할 수 있다.
상기 확대 광학계는 비구면 거울(aspherical mirror) 및 평면 거울(plane mirror) 중에서 적어도 하나를 포함할 수 있다.
상기 컨트롤러는, 상기 이미지의 표현 깊이가 허상 거리보다 깊도록 렌더링할 수 있다.
도 1은 일 실시예에 따른 이미지 처리 시스템의 블록도를 나타낸다.
도 2는 도 1에 도시된 이미지 처리 장치의 블록도의 일 예를 나타낸다.
도 3은 도 2에 도시된 디스플레이의 블록도의 일 예를 나타낸다.
도 4는 도 3에 도시된 광학 소자의 동작을 설명하기 위한 도면이다.
도 5는 도 2에 도시된 컨트롤러의 동작을 설명하기 위한 도면이다.
도 6은 도 2에 도시된 디스플레이의 블록도의 다른 예를 나타낸다.
도 7a는 도 2에 도시된 디스플레이의 모아레 현상을 설명하기 위한 도면의 일 예이다.
도 7b는 도 2에 도시된 디스플레이의 모아레 현상을 설명하기 위한 도면의 다른 예이다.
도 8은 운전자의 시청 피로를 측정한 그래프의 일 예이다.
도 9는 이미지 처리 장치가 도 8에 도시된 시청 피로를 고려하여 동작하는 일 예를 나타낸다.
도 10은 도 1에 도시된 이미지 처리 시스템이 자동차에 구현된 일 예를 나타낸다.
도 11은 일 실시예에 따른 이미지 처리 방법이 순서도를 나타낸다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 이미지 처리 시스템의 블록도를 나타낸다.
도 1을 참조하면, 이미지 처리 시스템(image processing system; 10)은 카메라(camera; 100), 센서(sensor; 200), 및 이미지 처리 장치(image processing device; 300)를 포함한다.
이미지 처리 시스템(10)은 사용자에게 운행과 관련된 정보를 제공할 수 있다. 사용자는 이동 수단을 운전하는 운전자일 수 있다. 예를 들어, 이미지 처리 시스템(10)은 운전자에게 계기판 정보, 네비게이션 정보, 차선 정보, 또는 전방 위험 상황 정보 등을 제공할 수 있다. 계기판 정보는 이동 수단의 속도, 주유 잔량, 또는 엔진 RPM 등을 포함할 수 있다. 전방 위험 상황 정보는 공사 중 표시, 교통사고 표시, 또는 물체(예를 들어, 동물, 사람, 자전거, 자동차 등)에 대한 경고 표시 등을 포함할 수 있다.
이미지 처리 시스템(10)은 운행과 관련된 정보를 증강 현실(Augmented Reality(AR)) 형태로 출력할 수 있다. 이미지 처리 시스템(10)은 윈드쉴드(windshield)를 통해 운전자의 전방에 이미지를 출력할 수 있다. 예를 들어, 이미지 처리 시스템(10)은 광학적 상(optical image) 또는 허상(virtual image)을 출력할 수 있다.
이미지 처리 시스템(10)은 광학적 상 또는 허상의 위치와 깊이(depth)를 조절하여 출력할 수 있다. 즉, 이미지 처리 시스템(10)은 이미지가 표현되는 거리와 깊이를 조절할 수 있다. 이미지 처리 시스템(10)이 거리 및 깊이를 조절하는 동작은 도 7a 내지 도 9를 참고하여 후술하도록 한다. 운전자는 윈드쉴드를 통해 반사된 광학적 상 또는 허상을 참고하여 운전을 수행할 수 있다.
이미지 처리 시스템(10)은 이동 수단에 구현될 수 있다. 예를 들어, 이미지 처리 시스템(10)은 자동차, 모터사이클(motorcycle 또는 auto bicycle), 스마트 모빌리티(smart mobility), 선박, 비행기 등에 구현될 수 있다. 이하에서는, 설명의 편의를 위해 이미지 처리 시스템(10)이 자동차에 구현되는 것으로 설명하지만, 반드시 이에 한정되는 것은 아니다.
카메라(100)는 운전자의 시점 정보를 추적할 수 있다. 시점 정보는 운전자의 눈(eye)의 위치 및/또는 시점(viewpoint)을 포함할 수 있다. 예를 들어, 카메라(100)는 운전자의 좌측 눈 및 우측 눈의 위치에 대한 정보를 획득할 수 있다. 또한, 카메라(100)는 운전자가 어느 방향을 응시하고 있는지에 대한 정보 등을 획득할 수 있다. 카메라(100)는 좌측 눈 및 우측 눈에 각각 대응하는 광선 정보를 획득할 수 있다.
카메라(100)는 운전자의 전방에 구현될 수 있다. 카메라(100)는 윈드쉴드의 상단 또는 하단에 구현되어 운전자의 전방에서 눈의 위치 및/또는 시점을 추적할 수 있다. 또한, 카메라(100)는 이미지 처리 장치(300)에 구현될 수도 있다.
예를 들어, 카메라(100)가 윈드쉴드의 상단에 구현되는 경우, 카메라(100)는 리어 뷰 미러(rear view mirror)에 구현될 수 있다. 카메라(100)가 윈드쉴드의 하단에 구현되는 경우, 카메라(100)는 대시보드(Dashboard)에 구현될 수 있다.
카메라(100)는 운전자를 향해 설치되거나, 또는 윈드쉴드를 향해 설치될 수 있다. 카메라(100)가 윈드쉴드를 향해 설치되는 경우, 카메라(100)는 윈드쉴드에 반사된 운전자를 통해 눈의 위치 및/또는 시점을 추적할 수 있다.
카메라(100)가 눈의 위치 및/또는 시점을 추적하는 동작은 실시간으로 이루어질 수 있다. 예를 들어, 운전자가 운전석의 위치에서 전방을 응시하다가 조수석의 위치에서 몸을 기울여 전방을 응시하는 경우, 카메라(100)는 운전자의 눈의 위치가 운전석의 위치에서 조수석의 위치로 이동했다는 정보를 획득할 수 있다. 또한, 운전자가 전방을 응시하다가 우회전을 하기 위해 우측을 응시하는 경우, 카메라(100)는 운전자의 시점이 전방에서 우측으로 이동했다는 정보를 획득할 수 있다.
카메라(100)는 이미지 카메라(Image camera) 및/또는 적외선 카메라(Infrared camera)로 구현될 수 있다. 예를 들어, 빛(광량)이 충분한 경우(또는 주간) 이미지 카메라가 운전자의 시점을 추적하고, 빛(광량)이 부족한 경우(또는 야간) 적외선 카메라가 운전자의 시점을 추적할 수 있다.
카메라(100)는 시간을 측정하는 시계(Clock)를 포함할 수 있다. 예를 들어, 미리 설정한 시간까지는 빛(광량)이 충분한 경우(또는 주간)로 이미지 카메라가 동작하고, 미리 설정한 시간이 경과하면 빛(광량)이 부족한 경우(또는 야간)로 적외선 카메라가 동작할 수 있다.
또한, 카메라(100)는 빛의 양을 감지(측정)하는 광 센서(Optical sensor 또는 Photodetector)를 포함할 수 있다. 광 센서가 측정한 빛의 양이 기준값 이상이면 이미지 카메라가 동작하고, 광 센서가 측정한 빛의 양이 기준값 미만이면 적외선 카메라가 동작할 수 있다. 광 센서는 반드시 카메라(100)에 포함되는 것으로 한정되지 않으며, 센서(200)로 구현될 수도 있다.
카메라(100)는 추적된 눈의 위치 및/또는 시점에 대한 정보를 이미지 처리 장치(300)로 출력할 수 있다.
센서(200)는 자동차의 전방에 대한 정보를 획득할 수 있다. 예를 들어, 센서(200)는 자동차의 전방의 배경에 대한 정보, 물체에 대한 정보 등을 획득할 수 있다. 센서(200)는 레이더(radar), 라이더(lidar), 초음파 센서, 적외선 센서, 열 센서, 광 센서, 또는 GPS 모듈 등으로 구현될 수 있다.
배경에 대한 정보는 도로 정보, 차선 정보, 과속 방지턱 정보, 신호등 정보, 또는 과속 카메라 정보 등을 포함할 수 있다.
물체에 대한 정보는 물체의 형상 정보, 위치 정보, 또는 깊이 정보 등을 포함할 수 있다.
센서(200)는 자동차의 전방에 대한 정보를 이미지 처리 장치(300)로 출력할 수 있다.
이미지 처리 장치(300)는 카메라(100)로부터 추적된 운전자의 눈의 위치 및/또는 시점에 대한 정보를 획득하고, 센서(200)로부터 자동차의 전방에 대한 정보를 획득할 수 있다.
이미지 처리 장치(300)는 추적된 운전자의 눈의 위치 및/또는 시점에 대한 정보에 기초하여 이미지를 생성할 수 있다. 이미지 처리 장치(300)는 추적된 운전자의 눈의 위치 및/또는 시점에 대한 정보에 기초하여 운전자의 눈의 위치를 결정하고, 눈의 위치에 대응하는 화소들(pixels)에 이미지를 할당할 수 있다. 즉, 이미지 처리 장치(300)는 디스플레이(display)를 포함할 수 있다.
화소는 복수의 부화소들(sub-pixels)을 포함할 수 있다. 이미지 처리 장치(300)는 출력하고자 하는 이미지에 대응하는 부화소 값들을 부화소들에 할당함으로써, 이미지를 출력할 수 있다.
예를 들어, 이미지 처리 장치(300)는 좌측 눈의 위치에 대응하는 복수의 부화소에 좌측 눈으로 입력될 이미지를 할당하고, 우측 눈의 위치에 대응하는 복수의 부화소에 우측 눈으로 입력될 이미지를 할당할 수 있다.
이미지 처리 장치(300)는 센서(200)로부터 자동차의 전방에 대한 정보를 획득할 수 있다. 이미지 처리 장치(300)는 자동차의 전방에 대한 정보에 기초하여 생성된 이미지를 렌더링할 수 있다. 이미지 처리 장치(300)는 렌더링된 이미지를 운전자에게 출력할 수 있다.
이미지 처리 장치(300)는 자동차의 대시보드 하단에 구현되어 윈드쉴드에 복수의 광선들을 출력할 수 있다. 운전자는 윈드쉴드를 통해 반사된 복수의 광선들을 시청할 수 있다. 이미지 처리 장치(300)는 헤드-업 디스플레이(HUD) 장치를 의미할 수 있다.
이미지 처리 장치(300)는 무안경 방식 3D 디스플레이(Glasses-free(Glassless) 3D displays 또는 Auto-stereoscopic 3D screens)를 포함할 수 있다. 예를 들어, 이미지 처리 장치(300)는 렌더링된 이미지와 관련된 복수의 광선들을 균일하게 출력(출광)할 수 있다. 즉, 이미지 처리 장치(300)는 렌더링된 이미지를 AR 형태로 출력할 수 있다. 이에, 운전자는 3D 안경(3D glasses), 입체 안경(Stereoscopic glasses), 또는 스마트 안경(Smart glasses)를 착용하지 않고도 3D 이미지를 시청할 수 있다. 운전자는 운행과 관련된 정보가 정합(matching)된 3D 이미지를 참조함으로써 보다 안전하게 운전할 수 있다.
도 2는 도 1에 도시된 이미지 처리 장치의 블록도의 일 예를 나타내고, 도 3은 도 2에 도시된 디스플레이의 블록도의 일 예를 나타내고, 도 4는 도 3에 도시된 광학 소자의 동작을 설명하기 위한 도면이다.
도 2 내지 도 4를 참조하면, 이미지 처리 장치(300)는 컨트롤러(controller; 310), 디스플레이(display; 320), 및 확대 광학계(zooming optical system; 330)를 포함한다.
컨트롤러(310)는 카메라(100)로부터 추적된 운전자의 눈의 위치 및/또는 시점에 대한 정보를 획득하고, 센서(200)로부터 자동차의 전방에 대한 정보를 획득할 수 있다.
컨트롤러(310)는 카메라(100)로부터 획득한 운전자의 눈의 위치 및/또는 시점에 대한 정보에 기초하여 3D 이미지 렌더링 동작을 수행할 수 있다. 3D 이미지 렌더링 동작은 운전자가 3D 이미지를 시청하도록 이미지에 렌더링 동작을 수행하는 것을 의미할 수 있다. 컨트롤러(310)는 운전자의 우측 눈 및 좌측 눈에 대하여 라이트 필드(light field) 렌더링 동작을 수행할 수 있다.
컨트롤러(310)는 운전자의 눈의 위치 및/또는 시점에 대한 정보에 기초하여 출력할 이미지에 대응하는 화소 값들을 디스플레이(320)의 복수의 화소들에 할당할 수 있다. 화소는 복수의 부화소들을 포함할 수 있다. 예를 들어, 컨트롤러(310)는 출력할 이미지에 대응하는 부화소 값들을 복수의 부화소들에 할당할 수 있다.
구체적으로, 컨트롤러(310)는 제1 화소(제1 부화소들)에는 제1 시점에 대응하는 화소 값(부화소 값들)을 할당하고, 제2 화소(제2 부화소들)에는 제2 시점에 대응하는 화소 값(부화소 값들)을 할당할 수 있다. 이때, 화소 값 할당의 대상이 되는 제1 시점 및 제2 시점은 후보 시점들로 지칭될 수 있다. 후보 시점들은 단일 사용자를 위한 좌측 시점 및 우측 시점을 포함하거나, 혹은 멀티 뷰를 위한 미리 정해진 수의 시점들을 포함할 수 있다. 예를 들어, 제1 시점은 운전자의 우측 눈에 대한 시점이고, 제2 시점은 운전자의 좌측 눈에 대한 시점일 수 있다.
컨트롤러(310)는 실시간으로 3D 이미지 렌더링 동작을 수행할 수 있다. 예를 들어, 운전자의 위치가 변하거나 또는 운전자의 시점이 변한 경우, 컨트롤러(310)는 카메라(100)로부터 변화된 운전자의 눈의 위치 및/또는 시점에 대한 정보를 획득하고, 변화된 정보에 기초하여 실시간으로 3D 이미지 렌더링 동작을 수행할 수 있다. 이에, 운전자는 실제와 유사한 환경의 현실감 있는 이미지를 시청함으로써 시청 피로가 줄 수 있다. 또한, 컨트롤러(310)가 실시간으로 3D 이미지 렌더링 동작을 수행함으로써 대화면, 고심도, 및 연속적인 시차(continuous parallax) 표현에 유리할 수 있다.
컨트롤러(310)는 추적된 운전자의 눈의 위치 및/또는 시점에 광학적 변환 또는 광학적 역변환을 수행할 수 있다. 정교한 3D 이미지를 구현하기 위해서는, 이미지 처리 장치(300)가 출력하는 복수의 광선들이 정확하고 균일하게 운전자의 우측 눈 및 좌측 눈으로 입사되어야 하기 때문에, 컨트롤러(310)는 광학적 변환 또는 광학적 역변환을 통해 3D 이미지 렌더링 동작을 수행할 수 있다. 컨트롤러(310)의 광학적 변환 또는 광학적 역변환 동작에 대해서는 도 5를 참조하여 후술하도록 한다.
또한, 컨트롤러(310)는 센서(200)로부터 획득한 자동차의 전방에 대한 정보에 기초하여 AR 객체 렌더링 동작을 수행할 수 있다. AR 객체 렌더링 동작은 출력할 이미지에 포함된 객체를 대상으로 실제와 같은 환경을 구현하기 위한 렌더링 동작을 의미할 수 있다.
예를 들어, 컨트롤러(310)는 자동차의 전방의 배경에 대한 정보, 물체에 대한 정보 등에 기초하여 출력할 이미지의 AR 객체를 생성하고, AR 객체에 렌더링 동작을 수행할 수 있다. AR 객체는 AR 콘텐츠를 의미할 수 있다.
컨트롤러(310)는 출력할 이미지에 깊이 정보를 적용할 수 있다. 예를 들어, 컨트롤러(310)는 출력할 이미지에 포함된 AR 객체의 표현 깊이를 각각 조절할 수 있다. 컨트롤러(310)는 0~100m로 AR 객체의 표현 깊이를 조절할 수 있다.
컨트롤러(310)는 네비게이션, 지도 정보, 또는 GIS(Geographic Information System) 등을 사용하여 AR 객체 렌더링 동작을 수행할 수 있다. 예를 들어, 컨트롤러(310)는 네비게이션, 지도 정보, 또는 GIS 등을 사용하여 지도 상에서 운전자의 정확한 위치, 운행 정보 등을 출력할 수 있다.
컨트롤러(310)는 운전자의 눈의 위치 및/또는 시점에 대한 정보에 기초하여 AR 객체 렌더링 동작을 수행할 수 있다. 예를 들어, 운전자의 위치가 변하거나 또는 운전자의 시점이 변한 경우 컨트롤러(310)는 적응적으로(adaptively) 이에 대응하는 이미지를 출력하도록 디스플레이(320)가 출력하는 복수의 광선들을 제어할 수 있다. 이에, 실제 물체와 이미지의 AR 객체의 표현 깊이 차이에 의한 이질감이 해소되어, 운전자는 실제와 유사한 환경의 현실감 있는 이미지를 시청함으로써 시청 피로가 줄 수 있다.
디스플레이(320)는 라이트 필드 방식을 사용하는 3D 디스플레이로 구현될 수 있다. 예를 들어, 디스플레이(320)는 라이트 필드 디스플레이일 수 있다.
디스플레이(320)는 광원(light source; 321), 패널(panel; 323), 및 광학 소자(optical element; 325)를 포함한다. 디스플레이(320)는 복수의 광선들(327)을 출력할 수 있다.
광원(321)은 최후면에 위치한 백라이트 유닛(backlight unit)으로 구현되거나, 또는 광학 레이어의 일 예인 방향성 백라이트 유닛(directional back light unit)으로 구현될 수 있다. 방향성 백라이트 유닛은 패널(323)에 제한된 방향의 복수의 광선들을 제공할 수 있다.
광원(321)은 백색 LED(Light Emitting diode), 적녹청(RGB)색 LED, 또는 적녹청색 레이저(laser)를 포함할 수 있다. 광원(321)은 이미지를 생성하기 위한 복수의 광선들을 출력(출광)할 수 있다.
광원(321)에서 출력된 복수의 광선들은 패널(323) 및 광학 소자(325) 중에서 적어도 하나를 통과할 수 있다.
패널(323)은 복수의 화소들을 포함하는 LCD(Liquid Crystal Display) 패널로 구현될 수 있다. 패널(323)은 컨트롤러(310)에 의해 할당된 화소 값들(부화소 값들)에 기초하여 이미지를 출력할 수 있다. 즉, 광원(321)으로부터 출력된 복수의 광선들이 패널(323)의 복수의 화소들(복수의 부화소들)을 통과함으로써, 복수의 화소들(복수의 부화소들)의 각각의 화소 값(부화소 값)에 대응하는 이미지가 운전자에게 보여질 수 있다.
예를 들어, 패널(323)에서 제1 시점에 따른 화소 값이 할당된 화소에는 제1 시점 방향의 광선이 제공될 수 있고, 제2 시점에 따른 화소 값이 할당된 화소에는 제2 시점 방향의 광선이 제공될 수 있다. 이에, 운전자는 제1 시점을 통해 제1 시점에 대응하는 이미지를 시청하고, 제2 시점을 통해 제2 시점에 대응하는 이미지를 시청할 수 있다. 제1 시점이 우측 눈에 대응하고, 제2 시점이 좌측 눈에 대응할 수 있다. 운전자는 우측 눈 및 좌측 눈을 통해 서로 다른 이미지를 시청함으로써 입체감을 느낄 수 있다. 즉, 운전자는 3D 이미지를 시청하여 운행과 관련된 정보를 획득할 수 있다.
광학 소자(325)는 렌티큘러 렌즈(lenticular lens) 또는 패럴렉스 배리어(parallax barrier)로 구현될 수 있다. 구체적으로, 패럴렉스 배리어는 일정한 간격의 슬릿(slit)또는 개구부를 통해 복수의 광선들(327)을 제한된 방향으로 출력할 수 있다. 렌티큘러 렌즈는 렌즈의 굴곡을 통해 복수의 광선들(327)을 제한된 방향으로 출력할 수 있다. 광학 소자(325)는 복수의 광선들(327)을 운전자의 눈의 위치로 균일하게 출력할 수 있다.
광학 소자(325)가 복수의 광선들(327)을 제한된 방향으로 출력하는 동작은 도 4에 도시된 바와 같을 수 있다. 도 4를 참조하면, 컨트롤러(310)는 패널(323)의 제1 화소(323-1)에는 제1 시점에 대응하는 화소 값을 할당하고, 제2 화소(323-2)에는 제2 시점에 대응하는 화소 값을 할당할 수 있다. 패널(323)을 통과한 복수의 광선들은 광학 소자(325)를 통과하면서 제한된 방향으로 진행할 수 있다. 이에, 운전자의 좌측 눈(341) 및 우측 눈(343)에는 서로 다른 복수의 광선들(327)이 입사할 수 있다. 좌측 눈(341) 및 우측 눈(343)으로 입사하는 서로 다른 복수의 광선들(327)은 시차가 존재하는 두 개의 이미지를 형성할 수 있다. 운전자는 시차가 존재하는 두 개의 이미지에 기초하여 3D 이미지를 시청할 수 있다.
확대 광학계(330)는 복수의 광선들(327)를 확대함으로써 윈드쉴드의 전면에 3D 이미지를 형성할 수 있다. 예를 들어, 확대 광학계(330)는 운전자에게 출력되는 3D 이미지의 배율을 조절할 수 있다. 즉, 확대 광학계(330)는 3D 이미지를 확대하거나 또는 축소할 수 있다.
확대 광학계(330)는 반사 굴절 광학계(catadioptric system)을 의미할 수 있다. 확대 광학계(330)는 반사 광학계에 해당하는 거울, 또는 굴절 광학계에 해당하는 렌즈를 포함할 수 있다. 예를 들어, 반사 광학계에 해당하는 거울은 오목 거울(concave mirror), 비구면 거울(aspherical mirror), 또는 평면 거울(plane mirror)이 있을 수 있다. 굴절 광학계에 해당하는 렌즈는 오목 렌즈(concave lens) 또는 볼록 렌즈(convex lens)가 있을 수 있다.
확대 광학계(330)는 폴딩 미러(folding mirror)를 포함할 수 있다. 폴딩 미러는 확대 광학계(300)의 광 경로를 단축시킬 수 있다. 이에, 확대 광학계(330)가 차지하는 공간은 줄어들고, 이에 확대 광학계(330)는 소형화될 수 있다.
도 5는 도 2에 도시된 컨트롤러의 동작을 설명하기 위한 도면이다.
도 2 및 도 5를 참조하면, 컨트롤러(310)는 디스플레이(320)의 복수의 화소들에 화소 값들을 할당할 수 있다. 컨트롤러(310)는 복수의 화소들 각각을 지나는 광선의 경로를 파악할 수 있다. 예를 들어, 제1 화소를 지나는 광선이 제1 시점에 제공되는 경우, 컨트롤러(310)는 제1 시점에 대응하는 화소 값을 제1 화소에 할당할 수 있다.
컨트롤러(310)는 복수의 광선들에 대한 확대 광학계(330)의 영향을 고려하여 화소 값을 할당할 수 있다. 디스플레이(320)에서 출력된 복수의 광선들의 경로는 확대 광학계(330)에 의해 변경될 수 있기 때문이다. 예를 들어, 확대 광학계(330)는 이미지를 확대 또는 축소하는 방향으로 복수의 광선들의 경로를 변경시킬 수 있다.
이에, 컨트롤러(310)가 복수의 화소들 각각을 지나는 광선의 경로를 파악하는 동작은 정밀한 연산이 요구된다.
컨트롤러(310)는 추적된 운전자의 눈의 위치 및/또는 시점에 광학적 변환 또는 광학적 역변환을 수행할 수 있다. 컨트롤러(310)는 초점(f) 및 굴곡 등을 포함하는 거울(330-1)의 광학적 특성에 기초하여 광학적 변환 또는 광학적 역변환을 수행할 수 있다. 도 5에서는 설명의 편의를 위해 하나의 거울이 도시되어 있으나, 반드시 이에 한정되는 것은 아니고, 하나의 거울 대신 해당 거울과 유사한 광학적 효과를 발생시키는 다양한 광학계들이 이용될 수 있다.
컨트롤러(310)는 운전자 눈의 실제 위치(x 1 , z 1 )와 확대 광학계(330)를 구성하는 거울(330-1) 반대면의 허상(D 1 )을 결정하고, 실제 위치(x 1 , z 1 )와 허상(D 1 )에 광학적 변환 또는 광학적 역변환을 수행할 수 있다. 이에, 컨트롤러(310)는 역변환된 운전자 눈의 위치(x 2 , z 2 )와 거울(330-1) 안쪽면의 허상 대응 영상(D 2 )을 획득할 수 있다.
컨트롤러(310)는 운전자가 (x 2 , z 2 )의 위치에서 허상 대응 영상(D 2 )을 시청하는 것으로 변환 또는 역변환함으로써 연산의 정밀성을 향상시킬 수 있다.
컨트롤러(310)는 역변환된 운전자 눈의 위치(x 2 , z 2 )와 허상 대응 영상(D 2 ) 사이의 위치 관계를 이용하여 복수의 화소들에 화소 값들을 할당할 수 있다. 예를 들어, 컨트롤러(310)는 운전자의 우측 눈 및 좌측 눈의 시점에 대한 광학적 상을 결정하고, 각각의 광학적 상과 디스플레이(320) 사이의 위치 관계를 이용하여 복수의 화소들에 화소 값들을 할당할 수 있다. 컨트롤러(310)는 광학적 변환 또는 광학적 역변환에 기초하여 운전자의 시점에 대응하는 광학적 상을 결정할 수 있다.
컨트롤러(310)는 제1 시점에 대한 광학적 상과 디스플레이(320) 사이의 위치 관계를 이용하여 제1 화소에 화소 값을 할당하고, 마찬가지로, 컨트롤러(310)는 제2 시점에 대한 광학적 상과 디스플레이(320) 사이의 위치 관계를 이용하여 제2 화소에 화소 값을 할당할 수 있다. 이를 통해, 비교적 적은 연산량으로 복수의 광선들에 대한 확대 광학계(330)의 영향이 반영될 수 있다.
도 6은 도 2에 도시된 디스플레이의 블록도의 다른 예를 나타낸다.
도 6을 참조하면, 디스플레이(320)는 프로젝터 엔진(projector engine; 400), 산란 필름(diffuser film(또는 scattering film); 500), 및 광학 소자(600)을 포함한다. 디스플레이(320)는 복수의 광선들(700)을 출력할 수 있다.
도 6에 도시된 광학 소자(600), 복수의 광선들(700)은 도 3에 도시된 광학 소자(325), 복수의 광선들(325)과 구성 및 동작이 실질적으로 동일할 수 있다.
프로젝터 엔진(400)은 공간 광 변조기(Spatial Light Modulator(SLM); 410)를 포함할 수 있다. 프로젝터 엔진(400)은 출력할 이미지에 대응하는 복수의 광선들을 출력(출광)할 수 있다. 프로젝터 엔진(400)을 통과한 복수의 광선들은 산란 필름(500) 및 광학 소자(600) 중에서 적어도 하나를 통과할 수 있다.
이때, 산란 필름(500)은 프로젝터 엔진(400)이 출력하는 이미지의 결상면의 위치에 배치될 수 있다. 즉, 프로젝터 엔진(400)은 산란 필름(500)에 이미지를 출력할 수 있다.
광학 소자(600)는 렌티큘러 렌즈 또는 패럴렉스 배리어로 구현될 수 있다. 광원 소자(600)는 복수의 광선들(700)을 운전자의 눈의 위치로 균일하게 출력할 수 있다.
도 7a는 도 2에 도시된 디스플레이의 모아레 현상을 설명하기 위한 도면의 일 예이고, 도 7b는 도 2에 도시된 디스플레이의 모아레 현상을 설명하기 위한 도면의 다른 예이고, 도 8은 운전자의 시청 피로를 측정한 그래프의 일 예이고, 도 9는 이미지 처리 장치가 도 8에 도시된 시청 피로를 고려하여 동작하는 일 예를 나타낸다.
도 1 내지 도 9를 참조하면, 디스플레이(320)가 출력한 복수의 광선들(327 또는 700)는 확대 광학계(330)로 입사할 수 있다. 확대 광학계(330)는 복수의 광선들(327 또는 700)를 확대함으로써 윈드쉴드의 전면에 3D 이미지를 형성할 수 있다. 확대 광학계(330)가 3D 이미지를 형성하는 경우, 확대 광학계(330)는 광학계의 배율을 조절하거나 또는 확대 광학계(330)를 구성하는 거울 간의 간격을 조절하여 3D 이미지의 허상 거리(virtual image distance)를 조절할 수 있다.
확대 광학계(330)는 모아레(Moire) 현상을 고려하여 3D 이미지의 허상 거리를 조절할 수 있다. 모아레 현상은 주기적인 패턴을 가진 층(layer) 사이의 간섭에 의해 발생할 수 있다. 디스플레이(320)에 포함된 구성들의 주기적인 패턴 사이의 간섭에 의해 모아레 현상이 발생할 수 있다. 예를 들어, 패널(323)의 주기적인 픽셀 패턴과 광학 소자(325)의 주기적인 패턴에 의해 모아레 현상이 발생할 수 있다.
확대 광학계(330)가 광학계의 배율을 크게 조절하여 3D 이미지를 출력하는 경우는 도 7a에 도시된 바와 같을 수 있다.
패널(323)의 주기적인 픽셀 패턴에 의한 선 패턴(710)과 광학 소자(325)의 주기적인 패턴에 의한 선 패턴(720)에 의해 모아레 패턴(730)이 생성될 수 있다.
패널(323)의 주기적인 픽셀 패턴에 의한 선 패턴(710)을 주파수 영역으로 변환하면 주파수(711)와 같이 표현될 수 있다. 광학 소자(325)의 주기적인 패턴에 의한 선 패턴(720)을 주파수 영역으로 변환하면 주파수(721)와 같이 표현될 수 있다.
이때, 주파수(711)와 주파수(721) 사이의 간섭(또는 중첩(convolution))에 의해 발생한 주파수(731)는 모아레 패턴(730)에 대응할 수 있다.
또한, 확대 광학계(330)가 광학계의 배율을 작게 조절하여 3D 이미지를 출력하는 경우는 도 7b에 도시된 바와 같을 수 있다.
패널(323)의 주기적인 픽셀 패턴에 의한 선 패턴(740)과 광학 소자(325)의 주기적인 패턴에 의한 선 패턴(750)에 의해 모아레 패턴(760)이 생성될 수 있다.
패널(323)의 주기적인 픽셀 패턴에 의한 선 패턴(740)을 주파수 영역으로 변환하면 주파수(741)와 같이 표현될 수 있다. 광학 소자(325)의 주기적인 패턴에 의한 선 패턴(750)을 주파수 영역으로 변환하면 주파수(751)와 같이 표현될 수 있다.
이때, 주파수(741)와 주파수(751) 사이의 간섭(또는 중첩)에 의해 발생한 주파수(761)는 모아레 패턴(760)에 대응할 수 있다.
확대 광학계(330)는 모아레 현상이 최소화 되도록 3D 이미지의 허상 거리를 조절할 수 있다. 즉, 확대 광학계(330)는 모아레 패턴(730 또는 760)을 최소화 하기 위하여 3D 이미지의 허상 거리를 조절할 수 있다.
인지 주파수 영역(733 도는 763)에 포함되는 주파수의 개수가 적을수록 모아레 패턴(730 또는 760)은 잘 보이지 않게 된다. 이에, 확대 광학계(330)는 인지 주파수 영역(733 도는 763)에 포함되는 주파수의 개수가 적어지도록, 광학계의 배율을 작게 조절하거나 또는 확대 광학계(330)를 구성하는 거울 간의 간격을 조절하여 3D 이미지의 허상 거리를 짧게 조절할 수 있다.
이미지 처리 장치(300)가 출력한 3D 이미지의 허상 거리 및 표현 깊이에 따른 운전자의 시청 피로는 도 8에 도시된 바와 같을 수 있다. 여기서, x축은 3D 이미지의 표현 깊이를 나타내고, y축은 운전자의 시청 피로를 나타내고, 각각 다른 패턴의 선들은 3D 이미지의 허상 거리를 나타낼 수 있다. 도 8에서는 각각의 허상 거리에서 3D 이미지의 표현 깊이를 3~70m 이하로 변화시키면서 운전자의 시청 피로를 1점 내지 5점으로 측정하였다. 각각의 허상 거리는 2~7m 이하로 1m 단위로 변화시키면서 운전자의 시청 피로를 측정하였다. 운전자의 시청 피로는 상대적인 값을 의미할 수 있다.
이미지 처리 장치(300)가 출력하는 3D 이미지의 허상 거리가 2~3m이면서 근거리(표현 깊이가 깊지 않음)를 표현한 경우, 운전자의 피로도가 증가하지 않는 것을 확인했다. 이미지 처리 장치(300)가 출력하는 3D 이미지의 허상 거리가 4~7m이면서 근거리(표현 깊이가 깊지 않음)를 표현한 경우, 운전자의 피로도가 증가할 수 있음을 확인했다. 즉, 이미지 처리 장치(300)가 3D 이미지를 허상 거리보다 근거리(표현 깊이가 깊지 않음)로 표현하는 경우, 운전자의 피로도가 증가할 수 있다.
이미지 처리 장치(300)가 출력하는 3D 이미지의 허상 거리가 2~3m이면서 원거리(표현 깊이가 깊음)를 표현한 경우, 운전자의 피로도가 크게 변화하지 않는 것을 확인했다. 이미지 처리 장치(300)가 출력하는 3D 이미지의 허상 거리가 4~7m이면서 원거리(표현 깊이가 깊음)를 표현한 경우 또한, 운전자의 피로도가 크게 변화하지 않는 것을 확인했다. 즉, 이미지 처리 장치(300)가 3D 이미지를 원거리(표현 깊이가 깊음)로 표현하는 경우, 3D 이미지의 허상 거리는 크게 영향을 미치지 않을 수 있다.
이에, 이미지 처리 장치(300)는 운전자의 피로도를 증가시키지 않도록 3D 이미지를 출력할 수 있다. 예를 들어, 이미지 처리 장치(300)는 3D 이미지의 표현 깊이를 허상 거리보다 깊게 출력할 수 있다.
3D 이미지의 허상 거리를 2~3m에 배치하는 경우, 이미지 처리 장치(300)는 표현 깊이를 근거리 또는 원거리로 표현할 수 있다. 즉, 이미지 처리 장치(300)는 3D 이미지의 표현 깊이를 2~100m로 조절하여 근거리 또는 원거리를 표현할 수 있다. 이미지 처리 장치(300)가 3D 이미지를 2~3m의 허상 거리에 배치하는 경우, 3D 이미지는 자동차 보닛(bonnet)의 앞 부분에 형성될 수 있다.
3D 이미지의 허상 거리를 4~7m에 배치하는 경우, 이미지 처리 장치(300)는 표현 깊이를 원거리로 표현할 수 있다. 이때, 이미지 처리 장치(300)는 허상 거리보다 깊게 3D 이미지의 표현 깊이를 조절할 수 있다.
이미지 처리 장치(300)가 운전자에게 허상 거리 및/또는 표현 깊이를 조절하여 3D 이미지를 출력하는 동작은 도 9에 도시된 바와 같을 수 있다.
도 10은 도 1에 도시된 이미지 처리 시스템이 자동차에 구현된 일 예를 나타낸다.
도 10을 참조하면, 이미지 처리 시스템(10)은 자동차(800)에 구현될 수 있다.
이미지 처리 장치(300)는 카메라(100)로부터 추적된 운전자(900)의 눈의 위치 및/또는 시점에 대한 정보를 획득하고, 센서(200)로부터 자동차(800)의 전방에 대한 정보를 획득할 수 있다. 이미지 처리 장치(300)는 카메라(100) 및/또는 센서(200)로부터 실시간으로 정보를 획득할 수 있다. 이에, 운전자(900)의 위치가 변하거나 또는 운전자(900)의 시점이 변한 경우에도, 운전자(900)는 실제와 유사한 환경의 현실감 있는 이미지를 시청할 수 있다.
이미지 처리 장치(300)는 운전자(900)의 눈의 위치에 대한 정보, 시점에 대한 정보, 및 자동차(800)의 전방에 대한 정보 중에서 적어도 하나에 기초하여 이미지를 생성할 수 있다. 예를 들어, 이미지 처리 장치(300)는 윈드쉴드(810)를 통해 운전자(900)의 전방에 광학적 상 또는 허상을 출력할 수 있다.
이미지 처리 장치(300)는 3D 이미지(1000)를 출력할 수 있다. 예를 들어, 이미지 처리 장치(300)는 라이트 필드 렌더링 동작을 수행하여 3D 이미지(1000)를 출력할 수 있다. 이미지 처리 장치(300)는 3D 이미지의 허상 거리 및 표현 깊이 중에서 적어도 하나를 조절하여 운전자(900)의 시청 피로를 최소화할 수 있다.
상술한 바와 같이, 이미지 처리 시스템(10)은 자동차(800)에 구현되는 것으로 반드시 한정되는 것은 아니고, 모터사이클, 스마트 모빌리티, 선박, 비행기 등에 구현될 수 있다.
도 11은 일 실시예에 따른 이미지 처리 방법이 순서도를 나타낸다.
도 1 및 도 11을 참조하면, 이미지 처리 장치(300)는 사용자의 시점 정보에 기초하여 이미지를 생성할 수 있다(1110). 이미지 처리 장치(300)는 카메라(100)로부터 사용자의 시점 정보를 획득할 수 있다. 사용자는 이동 수단을 운전하는 운전자일 수 있다. 시점 정보는 운전자의 눈의 위치 및/또는 시점을 포함할 수 있다.
이미지 처리 장치(300)는 실시간으로 운전자의 시점 정보를 획득할 수 있다. 이에, 운전자의 위치가 변하거나 또는 운전자의 시점이 변한 경우에도, 운전자는 실제와 유사한 환경의 현실감 있는 이미지를 시청할 수 있다.
이미지 처리 장치(300)는 전방에 대한 정보에 기초하여 이미지를 렌더링할 수 있다(1120). 이미지 처리 장치(300)는 센서(200)로부터 전방에 대한 정보를 획득할 수 있다. 전방에 대한 정보는 자동차의 전방의 배경에 대한 정보, 자동차의 전방의 물체에 대한 정보 등을 포함할 수 있다. 배경에 대한 정보는 도로 정보, 차선 정보, 과속 방지턱 정보, 신호등 정보, 또는 과속 카메라 정보 등을 포함할 수 있다. 물체에 대한 정보는 물체의 형상 정보, 위치 정보, 또는 깊이 정보 등을 포함할 수 있다.
이미지 처리 장치(300)는 전방에 대한 정보에 기초하여 출력할 이미지의 AR 객체를 생성할 수 있다. AR 객체는 AR 콘텐츠를 의미할 수 있다. 이미지 처리 장치(300)는 출력할 이미지에 포함된 AR 객체의 표현 깊이를 각각 조절할 수 있다. 이미지 처리 장치(300)는 네비게이션, 지도 정보, 또는 GIS 등을 사용하여 AR 객체를 렌더링 할 수 있다.
이미지 처리 장치(300)는 광학 소자를 사용하여 이미지를 출력할 수 있다(1130). 광학 소자는 렌티큘러 렌즈 또는 패럴렉스 배리어로 구현될 수 있다. 즉, 이미지 처리 장치(300)는 제한된 방향을 갖는 복수의 광선들을 운전자에게 균일하게 출력할 수 있다. 이에, 운전자는 3D 이미지를 시청할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 사용자의 시점 정보에 기초하여 이미지를 생성하는 단계;
    전방에 대한 정보에 기초하여 상기 이미지를 렌더링하는 단계; 및
    광학 소자를 사용하여 렌더링된 이미지를 출력하는 단계
    를 포함하는 이미지 처리 방법.
  2. 제1항에 있어서,
    상기 렌더링하는 단계는,
    센서를 사용하여 상기 전방의 물체의 형상, 위치, 및 깊이 중에서 적어도 하나를 획득하는 단계
    를 포함하는 이미지 처리 방법.
  3. 제1항에 있어서,
    상기 이미지를 생성하는 단계는,
    이미지 카메라(image camera) 또는 적외선 카메라(infrared camera)를 사용하여, 상기 사용자의 눈을 직접 검출하거나, 또는 차량의 윈드쉴드(windshield)에 반사된 상기 사용자의 눈을 검출하여 상기 시점 정보를 획득하는 단계
    를 포함하는 이미지 처리 방법.
  4. 제1항에 있어서,
    상기 이미지를 생성하는 단계는,
    상기 시점 정보에 기초하여 상기 사용자의 눈의 위치를 결정하는 단계; 및
    상기 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 이미지를 할당하는 단계
    를 포함하는 이미지 처리 방법.
  5. 제4항에 있어서,
    상기 이미지를 할당하는 단계는,
    상기 사용자의 좌측 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 상기 좌측 눈으로 입력될 이미지를 할당하는 단계; 및
    상기 사용자의 우측 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 상기 우측 눈으로 입력될 이미지를 할당하는 단계
    를 포함하는 이미지 처리 방법.
  6. 제1항에 있어서,
    상기 이미지를 생성하는 단계는,
    상기 시점 정보 및 광학적 변환(optical transform)에 기초하여 상기 이미지를 생성하는 단계
    를 포함하는 이미지 처리 방법.
  7. 제1항에 있어서,
    상기 광학 소자는 렌티큘러 렌즈(lenticular lens) 또는 패럴렉스 배리어(parallax barrier)로 구현되는 이미지 처리 방법.
  8. 제1항에 있어서,
    상기 출력하는 단계는,
    확대 광학계(zooming optical system)를 사용하여 상기 렌더링된 이미지를 확대하는 단계
    를 포함하는 이미지 처리 방법.
  9. 제8항에 있어서,
    상기 확대 광학계는 비구면 거울(aspherical mirror) 및 평면 거울(plane mirror) 중에서 적어도 하나를 포함하는 이미지 처리 방법.
  10. 제1항에 있어서,
    상기 렌더링하는 단계는,
    상기 이미지의 표현 깊이가 허상 거리보다 깊도록 렌더링하는 단계
    를 포함하는 이미지 처리 방법.
  11. 사용자의 시점 정보에 기초하여 이미지를 생성하고, 전방에 대한 정보에 기초하여 상기 이미지를 렌더링하는 컨트롤러; 및
    렌더링된 이미지를 출력하는 광학 소자
    를 포함하는 이미지 처리 장치.
  12. 제11항에 있어서,
    상기 컨트롤러는,
    센서로부터 상기 전방의 물체의 형상, 위치, 및 깊이 중에서 적어도 하나를 획득하는 이미지 처리 장치.
  13. 제11항에 있어서,
    상기 컨트롤러는,
    이미지 카메라(image camera) 또는 적외선 카메라(infrared camera)로부터 상기 시점 정보를 획득하고,
    상기 이미지 카메라 또는 상기 적외선 카메라는,
    직접 검출된 상기 사용자의 눈 또는 차량의 윈드쉴드(windshield)에 반사된 상기 사용자의 눈에 기초하여 상기 시점 정보를 획득하는 이미지 처리 장치.
  14. 제11항에 있어서,
    상기 컨트롤러는,
    상기 시점 정보에 기초하여 상기 사용자의 눈의 위치를 결정하고, 상기 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 이미지를 할당하는 이미지 처리 장치.
  15. 제14항에 있어서,
    상기 컨트롤러는,
    상기 사용자의 좌측 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 상기 좌측 눈으로 입력될 이미지를 할당하고, 상기 사용자의 우측 눈의 위치에 대응하는 복수의 부화소(sub-pixel)에 상기 우측 눈으로 입력될 이미지를 할당하는 이미지 처리 장치.
  16. 제11항에 있어서,
    상기 컨트롤러는,
    상기 시점 정보 및 광학적 변환(optical transform)에 기초하여 상기 이미지를 생성하는 이미지 처리 장치.
  17. 제11항에 있어서,
    상기 광학 소자는 렌티큘러 렌즈(lenticular lens) 또는 패럴렉스 배리어(parallax barrier)로 구현되는 이미지 처리 장치.
  18. 제11항에 있어서,
    상기 광학 소자에서 출력된 상기 이미지를 확대하는 확대 광학계(zooming optical system)
    를 더 포함하는 이미지 처리 장치.
  19. 제18항에 있어서,
    상기 확대 광학계는 비구면 거울(aspherical mirror) 및 평면 거울(plane mirror) 중에서 적어도 하나를 포함하는 이미지 처리 장치.
  20. 제11항에 있어서,
    상기 컨트롤러는,
    상기 이미지의 표현 깊이가 허상 거리보다 깊도록 렌더링하는
    이미지 처리 장치.
KR1020170095912A 2017-07-28 2017-07-28 이미지 처리 방법 및 이미지 처리 장치 KR102397089B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020170095912A KR102397089B1 (ko) 2017-07-28 2017-07-28 이미지 처리 방법 및 이미지 처리 장치
US15/840,382 US11634028B2 (en) 2017-07-28 2017-12-13 Image processing method of generating an image based on a user viewpoint and image processing device
EP18181404.7A EP3444139B1 (en) 2017-07-28 2018-07-03 Image processing method and image processing device
CN201810777341.8A CN109309828B (zh) 2017-07-28 2018-07-16 图像处理方法和图像处理装置
JP2018133933A JP7098452B2 (ja) 2017-07-28 2018-07-17 イメージ処理方法、イメージ処理装置、コンピュータ・プログラム及び記録媒体
US18/305,867 US20230256824A1 (en) 2017-07-28 2023-04-24 Image processing method of generating an image based on a user viewpoint and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170095912A KR102397089B1 (ko) 2017-07-28 2017-07-28 이미지 처리 방법 및 이미지 처리 장치

Publications (2)

Publication Number Publication Date
KR20190012630A true KR20190012630A (ko) 2019-02-11
KR102397089B1 KR102397089B1 (ko) 2022-05-12

Family

ID=62874580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170095912A KR102397089B1 (ko) 2017-07-28 2017-07-28 이미지 처리 방법 및 이미지 처리 장치

Country Status (5)

Country Link
US (2) US11634028B2 (ko)
EP (1) EP3444139B1 (ko)
JP (1) JP7098452B2 (ko)
KR (1) KR102397089B1 (ko)
CN (1) CN109309828B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11733539B2 (en) 2018-12-12 2023-08-22 Samsung Electronics Co., Ltd. Apparatus and method for displaying three-dimensional image

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6726674B2 (ja) * 2015-10-15 2020-07-22 マクセル株式会社 情報表示装置
KR102565277B1 (ko) 2017-11-24 2023-08-09 삼성전자주식회사 영상 복원 장치 및 방법
US11619826B2 (en) 2018-04-17 2023-04-04 Samsung Electronics Co., Ltd. Augmented reality (AR) display apparatus and method
KR20200072641A (ko) 2018-12-12 2020-06-23 삼성전자주식회사 3차원 증강 현실을 제공하는 헤드 업 디스플레이 장치
CN114080582B (zh) 2019-07-02 2024-03-08 交互数字Vc控股公司 用于稀疏分布式渲染的系统和方法
JP7284053B2 (ja) * 2019-09-25 2023-05-30 京セラ株式会社 ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、移動体及びヘッドアップディスプレイの設計方法
US11525695B2 (en) 2019-10-23 2022-12-13 Ahmad Suleiman Ahmad Almousa Smart glass for vehicles
CN111260299B (zh) * 2020-02-18 2023-07-18 中国联合网络通信集团有限公司 货品盘点及管理方法、装置、电子设备及存储介质
KR20210131129A (ko) * 2020-04-23 2021-11-02 현대자동차주식회사 이동 수단용 ui 생성 장치 및 ui 생성 방법
JP7456290B2 (ja) 2020-05-28 2024-03-27 日本精機株式会社 ヘッドアップディスプレイ装置
CN115840546A (zh) * 2021-09-18 2023-03-24 华为技术有限公司 一种在显示屏上显示图像的方法、电子设备与装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150304A (ja) * 2013-01-31 2014-08-21 Nippon Seiki Co Ltd 表示装置及びその表示方法
WO2015145935A1 (ja) * 2014-03-27 2015-10-01 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム、及び乗物
JP2015194709A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 画像表示装置
JP2015231828A (ja) * 2014-05-16 2015-12-24 株式会社リコー 表示装置、移動体
US20160082840A1 (en) * 2013-09-13 2016-03-24 Hitachi Maxell, Ltd. Information display system and information display device

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222026A (ja) 2004-01-08 2005-08-18 雅貴 ▲吉▼良 立体視装置
JP2009015128A (ja) 2007-07-06 2009-01-22 Alpine Electronics Inc 立体画像表示装置
JP2009229552A (ja) 2008-03-19 2009-10-08 Fujinon Corp 投影光学系及びヘッドアップディスプレイ装置
JP2011073496A (ja) 2009-09-29 2011-04-14 Nippon Seiki Co Ltd 車載立体表示装置、及び車載立体表示方法
KR101629479B1 (ko) 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
JP2011133508A (ja) 2009-12-22 2011-07-07 Topcon Corp 走査型表示装置光学系、立体表示装置及びヘッドアップディスプレイ装置
WO2012176445A1 (ja) 2011-06-20 2012-12-27 パナソニック株式会社 映像表示装置
JP2014010418A (ja) 2012-07-03 2014-01-20 Yazaki Corp 立体表示装置及び立体表示方法
KR102028757B1 (ko) 2012-12-18 2019-10-04 두산인프라코어 주식회사 헤드업 디스플레이를 이용한 차량의 디스플레이 방법 및 장치
US10081370B2 (en) 2012-12-21 2018-09-25 Harman Becker Automotive Systems Gmbh System for a vehicle
WO2014109398A1 (ja) 2013-01-10 2014-07-17 株式会社ニコン 表示装置及びプログラム
US20140232746A1 (en) 2013-02-21 2014-08-21 Hyundai Motor Company Three dimensional augmented reality display apparatus and method using eye tracking
WO2014136144A1 (ja) 2013-03-07 2014-09-12 パナソニック株式会社 映像表示装置および映像表示方法
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
JP6094399B2 (ja) * 2013-06-24 2017-03-15 株式会社デンソー ヘッドアップディスプレイ、及びプログラム
DE102013218085A1 (de) 2013-09-10 2015-03-12 Continental Automotive Gmbh Head-up-Display
KR102071693B1 (ko) 2014-02-07 2020-01-30 엘지전자 주식회사 헤드 업 디스플레이 장치
DE102014205519A1 (de) 2014-03-25 2015-10-01 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anpassen einer Anzeige eines autostereoskopischen Displays für ein Fahrzeug
WO2015145933A1 (ja) * 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム及び乗物
JP6105531B2 (ja) 2014-09-04 2017-03-29 矢崎総業株式会社 車両用投影表示装置
US20160073098A1 (en) 2014-09-10 2016-03-10 Continental Automotive Systems, Inc. Head-up display system using auto-stereoscopy 3d transparent electronic display
US10247941B2 (en) 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
KR101714185B1 (ko) 2015-08-05 2017-03-22 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
CN105116546B (zh) 2015-09-11 2017-12-01 京东方科技集团股份有限公司 一种车载平视显示装置及显示方法
WO2017134865A1 (ja) * 2016-02-05 2017-08-10 日立マクセル株式会社 ヘッドアップディスプレイ装置
CN106218409A (zh) 2016-07-20 2016-12-14 长安大学 一种可人眼跟踪的裸眼3d汽车仪表显示方法及装置
KR102564478B1 (ko) 2016-11-22 2023-08-07 삼성전자주식회사 3d 영상 렌더링 방법 및 장치
JP6644265B2 (ja) * 2017-06-30 2020-02-12 株式会社Jvcケンウッド 虚像表示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014150304A (ja) * 2013-01-31 2014-08-21 Nippon Seiki Co Ltd 表示装置及びその表示方法
US20160082840A1 (en) * 2013-09-13 2016-03-24 Hitachi Maxell, Ltd. Information display system and information display device
WO2015145935A1 (ja) * 2014-03-27 2015-10-01 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム、及び乗物
JP2015194709A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 画像表示装置
JP2015231828A (ja) * 2014-05-16 2015-12-24 株式会社リコー 表示装置、移動体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11733539B2 (en) 2018-12-12 2023-08-22 Samsung Electronics Co., Ltd. Apparatus and method for displaying three-dimensional image

Also Published As

Publication number Publication date
KR102397089B1 (ko) 2022-05-12
JP7098452B2 (ja) 2022-07-11
US20230256824A1 (en) 2023-08-17
JP2019030004A (ja) 2019-02-21
CN109309828B (zh) 2022-03-22
US20190034731A1 (en) 2019-01-31
EP3444139A1 (en) 2019-02-20
US11634028B2 (en) 2023-04-25
EP3444139B1 (en) 2021-09-08
CN109309828A (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
KR102397089B1 (ko) 이미지 처리 방법 및 이미지 처리 장치
EP2905649B1 (en) Head-up display apparatus
US7952808B2 (en) Display system for vehicle and display method
JP7065383B2 (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
EP2919057B1 (en) Navigation display method and system
US20140036374A1 (en) Bifocal Head-up Display System
WO2011036788A1 (ja) 表示装置及び表示方法
CN108700744A (zh) 信息显示装置
US11945306B2 (en) Method for operating a visual field display device for a motor vehicle
US11711502B2 (en) Method of outputting three-dimensional image and electronic device performing the method
WO2019004244A1 (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
KR20130059650A (ko) 헤드업 디스플레이의 컨텐츠 초점 제어 장치 및 방법
CN114609782A (zh) 裸眼3d抬头显示装置及裸眼3d抬头显示方法
KR20200072641A (ko) 3차원 증강 현실을 제공하는 헤드 업 디스플레이 장치
US11106045B2 (en) Display system, movable object, and design method
JP7358909B2 (ja) 立体表示装置及びヘッドアップディスプレイ装置
KR20180046567A (ko) 차량용 헤드 업 디스플레이 제어 장치 및 방법
KR20180048049A (ko) 차량용 가변 헤드 업 디스플레이 제어 장치 및 방법
JP7167918B2 (ja) 車両用表示装置
KR102650332B1 (ko) 3차원 영상을 표시하는 장치 및 방법
JP7354846B2 (ja) ヘッドアップディスプレイ装置
US20220348080A1 (en) Control of a display of an augmented reality head-up display apparatus for a motor vehicle
CN114007902A (zh) 抬头显示装置和抬头显示方法
JP2021056358A (ja) ヘッドアップディスプレイ装置
JP2020158014A (ja) ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant