KR20180132922A - 차량용 디스플레이 장치 및 차량 - Google Patents

차량용 디스플레이 장치 및 차량 Download PDF

Info

Publication number
KR20180132922A
KR20180132922A KR1020187033730A KR20187033730A KR20180132922A KR 20180132922 A KR20180132922 A KR 20180132922A KR 1020187033730 A KR1020187033730 A KR 1020187033730A KR 20187033730 A KR20187033730 A KR 20187033730A KR 20180132922 A KR20180132922 A KR 20180132922A
Authority
KR
South Korea
Prior art keywords
vehicle
information
processor
unit
display
Prior art date
Application number
KR1020187033730A
Other languages
English (en)
Other versions
KR102201290B1 (ko
Inventor
최성환
이재호
김일완
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20180132922A publication Critical patent/KR20180132922A/ko
Application granted granted Critical
Publication of KR102201290B1 publication Critical patent/KR102201290B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/178Warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/188Displaying information using colour changes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2754/00Output or target parameters relating to objects
    • B60W2754/10Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)

Abstract

본 발명은 디스플레이부; 인터페이스부; 및 상기 인터페이스부를 통해, 차량 외부에 위치하는 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보를 수신하고, 차량과 상기 제1 오브젝트 사이에, 상기 제2 오브젝트가 위치하는 경우, 상기 제1 오브젝트에 대응되는 그래픽 객체가, 상기 디스플레이부에 표시되도록 제어하는 프로세서;를 포함하는 차량용 디스플레이 장치에 관한 것이다.

Description

차량용 디스플레이 장치 및 차량
본 발명은 차량에 구비되는 디스플레이 장치 및 차량에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위해 차량 운전자 보조 시스템(ADAS : Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어지고 있다. 나아가, 자율 주행 자동차(Autonomous Vehicle)에 대한 개발이 활발하게 이루어 지고 있다.
차량 주변에 위치하는 오브젝트들 중에서, 운전자의 시야에 가려지는 오브젝트들이 있다. 도로의 형태, 도로 주변에 위치하는 구조물, 지형물, 타 차량 등으로 인해, 선행하는 차량, 보행자 등이 가려지기도 한다. 오브젝트들이 다른 물체 또는 지형에 가려진 상태에서, 고속 주행 중일 때, 이러한 오브젝트들이 순간적으로 나타나는 경우, 사고가 발생될 확률이 매우 높다.
따라서, 운전자에게 이러한 오브젝트들에 대한 알리는 장치들에 대한 개발이 필요하다.
본 발명의 실시예는 상기한 문제점을 해결하기 위하여, 가려지는 오브젝트에 대응되는 그래픽 객체를 표시하는 차량용 디스플레이 장치를 제공하는데 목적이 있다.
또한, 본 발명의 실시예는 상기 장치를 포함하는 차량을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 장치는, 디스플레이부; 인터페이스부; 및 상기 인터페이스부를 통해, 차량 외부에 위치하는 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보를 수신하고, 차량과 상기 제1 오브젝트 사이에, 상기 제2 오브젝트가 위치하는 경우, 상기 제1 오브젝트에 대응되는 그래픽 객체가, 상기 디스플레이부에 표시되도록 제어하는 프로세서;를 를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 운전자의 눈에 보이지 않는 오브젝트에 대응되는 그래픽 객체를 디스플레이 장치에 표시함으로써, 운전자가 상기 오브젝트를 인지하게 하는 효과가 있다.
둘째, 그래픽 객체를 증강현실로 표시함으로써, 운전자가 직관적으로 오브젝트를 인지할 수 있게 하는 효과가 있다.
셋째, 주행 상황에 적절하게 오브젝트에 대응되는 그래픽 객체를 표시하여, 사고를 예방하는 효과가 있다.
넷째, 주행 상황에 적절하게 차량 구동부를 제어하여 사고를 예방하는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1a는 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다. 도 1b는 본 발명의 실시예에 따른 차량의 내부를 예시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 3a는 본 발명의 실시예에 따른 차량용 카메라의 사시도이다. 도 3b는 본 발명의 실시예에 따른 차량용 카메라의 분해 사시도이다. 도 3c는 본 발명의 실시예에 따라, 도 3a의 A-B를 절개한 차량용 카메라의 절개 측면도이다.
도 4a 내지 도 4b는 도 3a 내지 도 3f의 프로세서의 내부 블록도의 다양한 예를 예시하고, 도 5a 내지 도 5d는 도 4a 내지 도 4b의 프로세서의 동작 설명에 참조되는 도면이다.
도 6은 본 발명의 실시예에 따른 차량용 디스플레이 장치를 설명하는데 참조되는 블럭도이다.
도 7은 본 발명의 실시예에 따른, 프로세서의 내부 구성을 설명하는데 참조되는 도면이다.
도 8 내지 도 9는 본 발명의 실시예에 따라 차량이 경사 진입 전에, 선행하는 타 차량이 도로 경사에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 10a 내지 도 10d는 본 발명의 실시예에 따라, 도 8 내지 도 9의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 11은 본 발명의 실시예에 따라 교차로 진입 전에, 타 차량이 건물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 12는 본 발명의 실시예에 따라, 도 11의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 13은 본 발명의 실시예에 따라, 주행시 보행자가 타 차량에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 14는, 본 발명의 실시예에 따라, 도 13의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 15는 본 발명의 실시예에 따라, 차량이 코너 진입 전에, 선행하는 타 차량이 도로 주변 지형물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 16은 본 발명의 실시예에 따라, 도 15의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 17은 본 발명의 실시예에 따른 다양한 그래픽 객체를 설명하는데 참조되는 도면이다.
도 18은 본 발명의 실시예에 따른 3D 도면을 설명하는데 참조되는 도면이다.
도 19는 본 발명의 일 실시예에 따라, 차량용 디스플레이 장치(600)가 윈드 쉴드(10)를 통해 증강현실 이미지를 구현하는 동작을 설명하기 위한 개념도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
도 1a는 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다. 도 1b는 본 발명의 실시예에 따른 차량의 내부를 예시한 도면이다.
도면을 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치를 구비할 수 있다.
실시예에 따라, 차량(100)은 자율 주행 차량일 수 있다. 자율 주행 차량의 경우, 사용자 입력에 따라 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 메뉴얼 모드로 전환되는 경우, 자율 주행 차량(100)은 조향 입력 장치를 통해 조향 입력을 수신할 수 있다.
차량(100)은, 차량 운전 보조 장치(400)를 포함할 수 있다. 차량 운전 보조 장치(400)는, 다양한 센서에서 획득되는 정보를 기초로, 운전자를 보조하는 장치이다. 이러한 차량 운전 보조 장치(400)는, ADAS(Advanced Driver Assistance System)로 명명될 수 있다.
한편, 차량(100)은, 내부 센싱부(125) 및 외부 센싱부(126)를 포함할 수 있다. 특히, 외부 센싱부(126)는, 차량(100) 외부에 위치하는 오브젝트를 감지할 수 있다. 실시예에 따라, 외부 센싱부(126)는, 차량 운전 보조 장치(400)의 하위 구성 요소로 분류될 수도 있다.
본 명세서에서, 차량 운전 보조 장치(400)에 이용되는 센서로 차량용 카메라(200)를 중심으로 설명하나, 이에 한정되지 않는다. 실시예에 따라, 센서는 차량용 카메라(200)외에, 레이다(Radar)(201), 라이다(LiDar)(202), 초음파 센서(203)등이 이용될 수 있다.
도면에서, 차량 운전 보조 장치(400)에 이용되는 차량용 카메라(200)가 차량 전방을 촬영할 수 있도록 프런트 윈드 쉴드(10)에 장착되는 것으로 예시되나, 차량용 카메라(200)는, 차량 전방, 후방, 우측방, 좌측방 어디든 촬영할 수 있다. 그에 따라, 차량용 카메라(200)는, 차량의 외부 또는 내부의 적절한 위치에 배치될 수 있다.
차량(100)은, 차량용 디스플레이 장치(600)를 포함할 수 있다. 차량용 디스플레이 장치(600)는, 다양한 정보, 다양한 컨텐츠 등을 출력할 수 있다. 차량용 디스플레이 장치(600)는, 그래픽 객체를 디스플레이부(651)에 표시할 수 있다.
차량용 디스플레이 장치(600)에 포함되는 디스플레이부(651)는, 프런트 윈드 쉴드(10), 사이드 윈도우 또는 리어 글라스 상에 구현될 수 있다.
예를 들면, 차량용 디스플레이 장치(600)는, HUD(Head up display)로 구현되어, 프런트 윈드 쉴드(10), 사이드 윈도우 또는 리어 글라스에 영상을 투사하여 정보 또는 컨텐츠를 출력할 수 있다. 이경우, 프런트 윈드 쉴드(10), 사이드 윈도우 또는 리어 글라스는 스크린으로 기능할 수 있다. 스크린으로 기능하기 위해, 프런트 윈스 쉴드(10), 사이드 윈도우 또는 리어 글라스 상에 소정의 필름이 부착될 수 있다.
예를 들면, 차량용 디스플레이 장치(600)는, 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는, 프런트 윈드 쉴드(10), 사이드 윈도우 또는 리어 글라스에 근접하게 배치될 수 있다. 차량용 디스플레이 장치(600)는, 투명 디스플레이를 통해, 정보 또는 컨턴츠를 출력할 수 있다.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전고 측정의 기준이 되는 방향을 의미할 수 있다.
도 2는 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 2를 참조하면, 차량(100)은, 입력부(120), 내부 센싱부(125), 외부 센싱부(126), 메모리(130), 출력부(140), 차량 구동부(150), 제어부(170), 인터페이스부(180), 전원 공급부(190), 차량 운전 보조 장치(400), 차량용 디스플레이 장치(600) 및 내비게이션 장치(300)를 포함할 수 있다.
입력부(120)는, 운전 조작 장치(121), 마이크로 폰(123) 및 사용자 입력부(124)를 포함할 수 있다.
운전 조작 장치(121)는, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작부(121)는 조향 입력 장치, 쉬프트 입력 장치, 가속 입력 장치, 브레이크 입력 장치를 포함할 수 있다.
조향 입력 장치는, 사용자로부터 차량(100)의 진행 방향 입력을 수신한다. 조향 입력 장치는 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
쉬프트 입력 장치는, 사용자로부터 차량(100)의 주차(P), 전진(D), 중립(N), 후진(R)의 입력을 수신한다. 쉬프트 입력 장치는 레버 형태로 형성되는 것이 바람직하다. 실시예에 따라, 쉬프트 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
가속 입력 장치는, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 장치는, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다. 가속 입력 장치 및 브레이크 입력 장치는 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 장치 또는 브레이크 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
마이크로 폰(123)은, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(100)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(123)은 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 제어부(170)에 전달될 수 있다.
한편, 실시예에 따라, 카메라(122) 또는 마이크로폰(123)는 입력부(120)에 포함되는 구성요소가 아닌, 센싱부(125)에 포함되는 구성요소일 수도 있다.
사용자 입력부(124)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(124)를 통해, 정보가 입력되면, 제어부(170)는 입력된 정보에 대응되도록 차량(100)의 동작을 제어할 수 있다. 사용자 입력부(124)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(124)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(124)를 조작할 수 있다.
내부 센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다.
센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(125)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
외부 센싱부(126)는, 차량의 외부 상황을 센싱할 수 있다. 외부 센싱부(126)는, 차량 외부에 위치하는 오브젝트를 센싱할 수 있다.
외부 센싱부(126)는, 카메라(200), 레이더(201), 라이더(202), 초음파 센서(203) 및 적외선 센서(204)를 포함할 수 있다.
카메라(200)는, 차량용 카메라 장치로 명명될 수 있다. 카메라(200)는, 도 3a 내지 도 3c의 모노 카메라(200a) 및 도 3d 내지 도 3f의 스테레오 카메라(200b)를 포함할 수 있다.
레이더(201)는, 전자파 송신부, 수신부 및 프로세서를 포함할 수 있다. 레이더(201)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 또한, 레이더(201)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다.
레이더(201)는 송신된 전자파를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
레이더(201)은 획득된 오브젝트 정보를 제어부(170), 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)에 제공할 수 있다. 여기서, 오브젝트 정보는 오브젝트와의 거리 정보를 포함할 수 있다.
라이더(202)는, 레이저 송신부, 수신부, 프로세서를 포함할 수 있다. 라이더 (202)는, TOF(Time of Flight) 방식 또는 페이즈쉬프트(phase-shift) 방식으로 구현될 수 있다.
TOF 방식의 라이더(202)는, 레이저 펄스 신호를 방출하고, 오브젝트에 반사되는 반사 펄스 신호를 수신한다. 라이더(202)는, 레이저 펄스 신호가 방출되고 반사 펄스 신호가 수신된 시간을 기초로 오브젝트와의 거리를 측정할 수 있다. 또한, 시간에 따른 거리의 변화를 기초로 오브젝트와의 상대 속도를 측정할 수 있다.
한편, 페이즈쉬프트 방식의 라이더(202)는, 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고, 오브젝트에 반사되어 돌아오는 신호의 위상 변화량을 기초로 시간 및 오브젝트와의 거리를 측정할 수 있다. 또한, 시간에 따른 거리의 변화를 기초로 오브젝트와의 상대 속도를 측정할 수 있다.
라이더(202)는, 송신된 레이저를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
라이더(202)는, 획득된 오브젝트 정보를 제어부(170), 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)에 제공할 수 있다. 여기서, 오브젝트 정보는 오브젝트와의 거리 정보를 포함할 수 있다.
초음파 센서(203)는, 초음파 송신부, 수신부, 프로세서를 포함할 수 있다. 초음파 센서(203)은, 송신된 초음파를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
초음파 센서(203)은 획득된 오브젝트 정보를 제어부(170), 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)에 제공할 수 있다. 여기서, 오브젝트 정보는 오브젝트와의 거리 정보를 포함할 수 있다.
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 음향 출력부(142) 및 햅틱 출력부(143)를 포함할 수 있다. 실시예에 따라, 차량용 디스플레이 장치(600)는, 출력부(140)의 하위 구성 요소로 분류될 수도 있다.
음향 출력부(142)는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(142)는 스피커 등을 구비할 수 있다. 음향 출력부(142)는, 사용자 입력부(724) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
햅틱 출력부(143)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(143)는, 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부(151), 조향 구동부(152), 브레이크 구동부(153), 램프 구동부(154), 공조 구동부(155), 윈도우 구동부(156), 에어백 구동부(157), 썬루프 구동부(158) 및 서스펜션 구동부(159)를 포함할 수 있다.
동력원 구동부(151)는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(151)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(151)가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 주행 속도를 제한할 수 있다.
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(151)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.
조향 구동부(152)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(153)는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
램프 구동부(154)는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
공조 구동부(155)는, 차량(100) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(156)는, 차량(100) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(157)는, 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.
썬루프 구동부(158)는, 차량(100) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(159)는, 차량(100) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다.
한편, 실시예에 따라, 차량 구동부(150)는 샤시 구동부를 포함할 수 있다. 여기서, 샤시 구동부는 조향 구동부(152), 브레이크 구동부(153) 및 서스펜션 구동부(159)를 포함하는 개념일 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다.
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기와 연결할 수 있다. 이경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.
한편, 인터페이스부(180)는 연결된 이동 단말기에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기가 인터페이스부(180)에 전기적으로 연결되는 경우, 제어부(170)의 제어에 따라, 인터페이스부(180)는 전원부(190)에서 공급되는 전기 에너지를 이동 단말기에 제공할 수 있다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
차량 운전 보조 장치(400)는, 운전자에 의한 차량의 주행을 보조할 수 있다.
차량 운전 보조 장치(400)는, 자동 비상 제동 시스템(이하, AEB : Autonomous Emergency Braking), 적응 순향 제어 시스템 (이하, ACC : Adaptive Cruise Control), 측방 접근차량 경고 시스템 (이하, CTA : Cross Traffic Alert), 차선 변경 보조 시스템 (이하, LCA : Lane Change Assistant), 전방 충돌 회피 시스템 (이하, FCW : Foward Collision Warning), 차선 이탈 경고 시스템 (이하, LDW : Lane Departure Warning), 차선 유지 보조 시스템 (이하, LKA : Lane Keeping Assist), 속도 지원 시스템 시스템 (이하, SAS : Speed Assist System), 교통 신호 검출 시스템 (TSR : Traffic Sign Recognition), 적응형 상향등 제어 시스템 (이하, HBA : High Beam Assist), 사각 지대 감시 시스템 (이하, BSD : Blind Spot Detection), 자동 비상 조향 시스템 (이하, AES : Autonomous Emergency Steering), 커브 속도 경고 시스템 시스템 (이하, CSWS : Curve Speed Warning System), 스마트 주차 시스템 시스템 (이하, SPAS : Smart Parking Assist System), 교통 정체 지원 시스템 (이하, TJA : Traffic Jam Assist) 및 어라운드 뷰 모니터 시스템 (이하, AVM : Around View Monitor)을 제공할 수 있다.
차량용 디스플레이 장치(600)는, 다양한 정보 또는 다양한 컨텐츠를 표시할 수 있다.
예를 들면, 차량용 디스플레이 장치(600)는, 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
한편, 디스플레이 장치(600)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다.
한편, 실시예에 따라, 디스플레이 장치(600)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이 장치(600)가 HUD로 구현되는 경우, 디스플레이 장치(600)는 투사 모듈을 구비하여 프런트 윈드 쉴드(10)에 투사되는 이미지를 통해 정보를 출력할 수 있다.
한편, 실시예에 따라, 디스플레이 장치(600)는, 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 프런트 윈드 쉴드(10)에 부착될 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.
내비게이션 장치(300)는, 차량용 디스플레이 장치(600)에 내비게이션 정보를 제공할 수 있다. 실시예에 따라, 내비게이션 장치(300)는, 차량용 디스플레이 장치(600)와 일체형으로 형성될 수 있다.
내비게이션 정보는 설정된 목적지 정보, 상기 목적지 설정 따른 경로 정보, 차량 주행과 관련한, 맵(map) 정보, 차량의 현재 위치 정보를 포함할 수 있다. 한편, 내비게이션 정보는 도로상에서 차량의 위치 정보를 포함할 수 있다.
도 3a는 본 발명의 실시예에 따른 차량용 카메라의 사시도이다. 도 3b는 본 발명의 실시예에 따른 차량용 카메라의 분해 사시도이다. 도 3c는 본 발명의 실시예에 따라, 도 3a의 A-B를 절개한 차량용 카메라의 절개 측면도이다.
도 3a 내지 도 3c를 참조하여 설명하는 차량용 카메라(200)는, 싱글 카메라(200a)이다.
차량용 카메라(200a)는, 렌즈(211), 이미지 센서(214) 및 프로세서(470)를 포함할 수 있다.
실시예에 따라, 차량용 카메라(200a)는, 프로세싱 보드(220), 라이트 쉴드(230), 방열 부재(240), 하우징(250)을 개별적으로 더 포함하거나, 조합하여 더 포함할 수 있다.
한편, 하우징(250)은, 제1 하우징(251), 제2 하우징(252), 제3 하우징(253)을 포함할 수 있다.
렌즈(211)는, 렌즈 하우징(217)에 수용된 상태로, 너트(212)를 통해, 제1 하우징(251)의 일 부분에 형성된 홀(219)에 안착되도록 체결될 수 있다.
이미지 센서(214)는, 광신호를 전기적 신호로 변환할 수 있는 광전 변환 소자를 적어도 하나 포함할 수 있다. 예를 들면, 이미지 센서(214)는 CCD(charge-coupled device) 또는 CMOS(complimentary metal-oxide semiconductor)일 수 있다.
이미지 센서(214)는, 차량 외부 영상 또는 차량 내부 영상을 획득하기 위해, 차량의 외부 또는 차량의 내부의 적절한 곳에 위치할 수 있다.
예를 들면, 이미지 센서(214)는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드(10)에 근접하게 배치될 수 있다. 또는, 이미지 센서(214)는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다.
예를 들면, 이미지 센서(214)는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 또는, 이미지 센서(214)는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다.
예를 들면, 이미지 센서(214)는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 이미지 센서(214)는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
이미지 센서(214)는, 렌즈(211)를 통해 유입되는 광을 기초로 이미지를 획득할 수 있도록, 렌즈(211)의 후단에 배치될 수 있다. 예를 들면, 이미지 센서(214)는, 렌즈(211)와 소정 거리만큼 이격된 상태로 지면을 기준으로 수직하게 배치될 수 있다.
프로세서(470)는, 이미지 센서(214)와 전기적으로 연결될 수 있다. 프로세서(470)는, 이미지 센서(214)를 통해 획득되는 영상을 컴퓨터 처리할 수 있다. 프로세서(470)는, 이미지 센서(214)를 제어할 수 있다.
프로세서(470)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(470)는, 프로세싱 보드(220) 상에 실장될 수 있다.
프로세싱 보드(220)는, 프로세서(270) 및 메모리(440)를 실장할 수 있다.
프로세싱 보드(220)는, 전장 방향으로 경사지게 배치될 수 있다. 예를 들면, 프로세싱 보드(220)는, 전면 또는 배면이 프런트 윈드 쉴드(10)와 마주보도록 배치될 수 있다. 예를 들면, 프로세싱 보드(220)는, 프런트 윈드 쉴드(10)와 평행하게 배치될 수 있다.
차량(100)에 구비되는 프런트 윈드 쉴드(10)는 일반적으로 차량(100)의 보닛(bonnet)에서부터 루프까지 지면과 소정의 각도를 가지면서 경사지게 형성된다. 이경우, 프로세싱 보드(220)가 전장 방향으로 경사지게 배치됨으로써, 차량용 카메라(200a)는, 프로세싱 보드(220)가 수직 또는 수평되게 배치되는 경우보다 작게 형성될 수 있다. 차량용 카메라(200a)가 작게 형성됨으로써, 줄어드는 부피만큼 차량(100)내에서 공간이 더 확보될 수 있는 장점이 있다.
프로세싱 보드(220)에는 복수의 소자 또는 전자 부품들이 실장될 수 있다. 이때, 프로세싱 보드(220)에 포함되는 복수의 소자 또는 부품들로 인해 열이 발생될 수 있다.
프로세싱 보드(220)는, 이미지 센서(241)와 이격되게 배치될 수 있다. 프로세싱 보드(220)가 이미지 센서(241)와 이격되게 배치됨으로써, 프로세싱 보드(220)에서 발생되는 열이 이미지 센서(241)의 성능에 문제를 발생시키지 않도록 할 수 있다.
프로세싱 보드(220)는, 프로세싱 보드(220)에서 발생한 열이 이미지 센서(241)에 영향을 미치지 않도록 최적의 위치에 배치될 수 있다. 구체적으로, 프로세싱 보드(220)는, 이미지 센서(241)의 하단에 배치될 수 있다. 또는, 프로세싱 보드(220)는, 이미지 센서(241)의 전단에 배치될 수 있다.
프로세싱 보드(220)에는 하나 이상의 메모리(440)가 실장될 수 있다. 메모리(440)는, 이미지 센서(241)를 통해 획득되는 영상, 각종 어플리케이션 데이터, 프로세서(470) 제어를 위한 데이터 또는 프로세서(470)에서 처리되는 데이터를 저장할 수 있다. 메모리(440)는, 프로세서(470)와 마찬가지로 주요 열 발생 소자 중의 하나이다. 프로세서(470)가 프로세싱 보드(220) 중심에 배치된 상태에서, 메모리(440)는, 프로세서(470) 주변에 배치될 수 있다. 예를 들면, 하나 이상의 메모리(440)는, 프로세서(470)를 중심에 두고, 프로세서(470)를 둘러싸는 형상으로 배치될 수 있다. 이경우, 열 발생 소자인 프로세서(470) 및 메모리(440)는 이미지 센서(241)에서 가장 먼 위치에 배치될 수 있다.
프로세서(470)는, 제어부(170)에 전기적으로 연결될 수 있다. 프로세서(470)는, 제어부(170)의 제어를 받을 수 있다.
라이트 쉴드(230)는, 렌즈(211) 전단에 배치될 수 있다. 라이트 쉴드(230)는, 영상 획득에 불필요한 빛이 렌즈(211)에 유입되지 않도록 차단할 수 있다. 예를 들면, 라이트 쉴드(230)는, 윈드 쉴드(10) 또는 차량의 대쉬 보드 등에서 반사되는 빛을 차단할 수 있다. 또한, 라이트 쉴드(230)는, 불필요한 광원으로부터 생성되는 빛을 차단할 수 있다.
라이트 쉴드(230)는, 가림막 구조를 가질 수 있다. 예를 들면, 라이트 쉴드(230)는, 하부 가림막 구조를 가질 수 있다.
한편, 차종에 따라 라이트 쉴드(230)의 형상은 가변될 수 있다. 예를 들면, 차종에 따라, 윈드 쉴드의 곡률, 윈드 쉴드와 지면이 형성하는 각도가 다를 수 있으므로, 라이트 쉴드(230)는 차량용 카메라(200a)가 장착되는 차종에 대응하는 형상을 가질 수 있다. 이를 위해, 라이트 쉴드(230)는, 착탈식 구조를 가질 수 있다.
방열 부재(240)는, 이미지 센서(214) 후단에 배치될 수 있다. 방열 부재(240)는, 이미지 센서(214) 또는 이미지 센서(214)가 실장되는 이미지 센서 보드와 접촉될 수 있다. 방열 부재(240)는, 이미지 센서(214)의 열을 처리할 수 있다.
상술한 바와 같이, 이미지 센서(241)는 열에 민감하다. 방열 부재(240)는, 이미지 센서(214) 및 제3 하우징(253) 사이에 배치될 수 있다. 방열 부재(240)는, 이미지 센서(214) 및 제3 하우징(253)가 접촉되게 배치될 수 있다. 이경우, 방열 부재(240)는, 열을 제3 하우징(253)을 통해 방출할 수 있다.
예를 들면, 방열 부재(240)는, 써멀 패드 및 써멀 구리스 중 어느 하날 수 있다.
하우징(250)은, 렌즈 하우징(217) 제1 하우징(251), 제2 하우징(252) 및 제3 하우징(253)을 포함할 수 있다.
렌즈 하우징(217)은, 적어도 하나의 렌즈(211)를 수용하고, 렌즈(211)를 외부의 충격에서 보호할 수 있다.
제1 하우징(251)은, 이미지 센서(241)를 감싸도록 형성될 수 있다. 제1 하우징(251)은 홀(219)을 포함할 수 있다. 렌즈(211)는, 렌즈 하우징에 수용된 상태로 홀(219)에 안착된 상태에서, 이미지 센서(214)와 연결될 수 있다.
제1 하우징(251)은, 이미지 센서(214)에 근접할 수록 두껍게 형성될 수 있다. 예를 들면, 제1 하우징(251)은 다이 캐스팅 방식으로 형성될 수 있다. 이경우, 열에 의한 이미지 센서(214)의 성능 저하 방지를 위해, 제1 하우징(251)은, 이미지 센서(214)에 근접한 부분이 다른 부분보다 두껍게 형성될 수 있다.
제1 하우징(251)은, 제3 하우징(253)보다 두꺼운 두께를 가지도록 형성될 수 있다. 하우징의 두께가 두꺼우면 열전달이 천천히 이루어진다. 따라서, 제1 하우징(251)의 두께가 제3 하우징(253)의 두께보다 두껍게 형성되는 경우, 차량용 카메라(200a) 내부에서 발생되는 열은 프런트 윈드 쉴드(10)에 근접하게 배치되어 열방출이 어려운 제1 하우징(251)보다 제3 하우징(253)을 통해 외부로 방출되는 효과가 있다.
한편, 실시예에 따라, 렌즈 하우징(217) 및 제1 하우징(251)은 일체형으로 형성될 수 있다.
제2 하우징(252)은, 프로세싱 보드(220) 전단에 위치할 수 있다. 제2 하우징(252)은, 제1 하우징(251) 및 제3 하우징(253)과 소정의 체결 수단을 통해 체결될 수 있다.
제2 하우징(252)은, 라이트 쉴드(230)가 부착될 수 있는 부착 수단을 구비할 수 있다. 라이트 쉴드(230)는 상기 부착 수단을 통해 제2 하우징(252)에 부착될 수 있다.
제1 및 제2 하우징(252, 253)은, 합성 수지 재질로 형성될 수 있다.
제3 하우징(253)은, 제1 하우징(251) 및 제2 하우징(252)와 소정의 체결 수단을 통해 체결될 수 있다. 실시예에 따라, 제1 내지 제3 하우징(251, 252, 253)은 일체형으로 형성될 수 있다.
제3 하우징(253)은, 프로세싱 보드(220)를 감싸도록 형성될 수 있다. 제3 하우징(253)은, 프로세싱 보드(220)의 후단 또는 하단에 위치할 수 있다. 제3 하우징(253)은, 열전도성 재질로 형성될 수 있다. 예를 들면, 제3 하우징(253)은 알루미늄과 같은 금속으로 형성될 수 있다. 제3 하우징(253)이 열전도성 재질로 형성됨으로써 효율적인 열방출이 이루어질 수 있다.
제1 및 제2 하우징(251, 252)이 합성 수질 재질로 형성되고, 제3 하우징(253)이 열전도성 재질로 형성되는 경우, 차량용 카메라 내부의 열은, 제1 및 제2 하우징(251, 252) 보다 제3 하우징(253)으로 방출될 수 있다. 즉, 차량용 카메라(200a)가 윈드 쉴드에 장착되는 경우, 제1 및 제2 하우징(251, 252)은, 윈드 쉴드에 근접하게 위치하므로, 제1 및 제2 하우징(251, 252)을 통해 열이 방출될 수 없다. 이경우, 제3 하우징(253)을 통해 열이 효율적으로 방출될 수 있다.
한편, 제3 하우징(253)이 알루미늄으로 구성되는 경우, EMC(electro-magnetic compatibility) 및 ESC(electrostatic discharge)로부터 내부에 위치하는 부품들(예를 들면, 이미지 센서(241) 및 프로세서(470))을 보호하는데 유리할 수 있다.
제3 하우징(253)은 프로세싱 보드(220)와 접촉될 수 있다. 이경우, 제3 하우징(253)은, 프로세싱 보드(220)와 접촉되는 부분을 통해 열을 전달여, 외부로 효율적으로 열을 방출할 수 있다.
제3 하우징(253)은 방열부(291)를 더 포함할 수 있다. 예를 들면, 방열부(291)는 히트 싱크, 방열핀, 써멀 패드 및 써멀 구리스 중 적어도 어느 하나를 포함할 수 있다.
방열부(291)는, 차량용 카메라(200a) 내부에서 생성되는 열을 외부로 방출할 수 있다. 예를 들면, 방열부(291)는, 프로세싱 보드(220) 및 제3 하우징(253) 사이에 위치할 수 있다. 방열부(291)는, 프로세싱 보드(220) 및 제3 하우징(253)과 접촉하여, 프로세싱 보드(220)에서 생성되는 열을 외부로 방출할 수 있다.
제3 하우징(253)은, 공기 배출홀을 더 포함할 수 있다. 공기 배출홀은, 차량용 카메라(200a) 내부의 고온의 공기를 차량용 카메라(200a) 외부로 배출하기 위한 홀이다. 차량용 카메라(200a) 내부에 공기 배출홀과 연결된 공기 유동부가 포함될 수 있다. 공기 유동부는, 차량용 카메라(200a) 내부의 고온의 공기를 공기 배출홀로 유도할 수 있다.
차량용 카메라(200a)는, 방습부를 더 포함할 수 있다. 방습부는, 패치(patch) 형태로 형성되어, 공기 배출부에 부착될 수 있다. 방습부는, 고어텍스 재질을 방습 부재일 수 있다. 방습부는, 차량용 카메라(200a) 내부의 습기는 외부로 유출시킬 수 있다. 또한, 방습부는, 차량용 카메라(200a) 외부의 습기의 내부 유입을 방지할 수 있다.
도 3d은 본 발명의 실시예에 따른 차량용 카메라의 사시도이다. 도 3e는 본 발명의 실시예에 따른 차량용 카메라의 분해 사시도이다. 도 3f는 본 발명의 실시예에 따라, 도 3d의 C-D를 절개한 차량용 카메라의 절개 측면도이다.
도 3d 내지 도 3f를 참조하여 설명하는 차량용 카메라(200)는, 스테레오 카메라(200b)이다.
스테레오 카메라(200b)는 도 3a 내지 도 3c를 참조하여 설명한 싱글 카메라(200a)에 대한 설명이 모두 적용될 수 있다. 즉, 스테레오 카메라(200b)에 포함되는 제1 및 제2 카메라 각각은 도 3a 내지 도 3c를 참조하여 설명한 카메라일 수 있다.
스테레오 카메라(200b)는, 제1 렌즈(211a), 제2 렌즈(211b), 제1 이미지 센서(214a), 제2 이미지 센서(214b) 및 프로세서(470a)를 포함할 수 있다.
실시예에 따라, 차량용 카메라(200b)는, 프로세싱 보드(220a), 제1 라이트 쉴드(230a), 제2 라이트 쉴드(230b), 하우징(250a)을 개별적으로 더 포함하거나, 조합하여 더 포함할 수 있다.
한편, 하우징은, 제1 렌즈 하우징(217a), 제2 렌즈 하우징(217b), 제1 하우징(251a), 제2 하우징(252a), 제3 하우징(253a)을 포함할 수 있다.
제1 렌즈(211a) 및 제2 렌즈(211b)는, 도 3a 내지 도 3c의 렌즈(211)에 대한 설명이 적용될 수 있다.
제1 이미지 센서(214a) 및 제2 이미지 센서(214b)는, 도 3a 내지 도 3c의 이미지 센서(214)에 대한 설명이 적용될 수 있다.
한편, 제1 렌즈(211a), 제1 이미지 센서(214a)를 포함하는 모듈은 제1 이미지 획득 모듈로 명명될 수 있다. 또한, 제2 렌즈(211b), 제2 이미지 센서(214b)를 포함하는 모듈은 제2 이미지 획득 모듈로 명명될 수 있다.
프로세서(470a)는, 제1 이미지 센서(214a), 제2 이미지 센서(214b)와 전기적으로 연결될 수 있다. 프로세서(470)는, 제1 이미지 센서(214a) 및 제2 이미지 센서(214b)를 통해 획득되는 영상을 컴퓨터 처리할 수 있다. 이때, 프로세서(470)는, 제1 이미지 센서(214a) 및 제2 이미지 센서(214b)를 통해 획득되는 영상에 기초하여 디스패리티(disparity) 맵을 형성하거나, 디스패리티 연산을 수행할 수 있다.
프로세서(470a)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(470a)는, 프로세싱 보드(220a) 상에 실장될 수 있다.
프로세싱 보드(220a)는, 도 3a 내지 도 3c의 프로세싱 보드(220)에 대한 설명이 적용될 수 있다.
제1 라이트 쉴드(230a) 및 제2 라이트 쉴드(230b)는, 도 3 내지 도 5의 라이트 쉴드(230)에 대한 설명이 적용될 수 있다.
제1 렌즈 하우징(217a) 및 제2 렌즈 하우징(217b)은 도 3 내지 도 5의 렌즈 하우징(217)에 대한 설명이 적용될 수 있다.
제1 하우징(251a)은, 도 3a 내지 도 3c의 제1 하우징(251)에 대한 설명이 적용될 수 있다.
제2 하우징(252a)은, 도 3a 내지 도 3c의 제2 하우징(252)에 대한 설명이 적용될 수 있다.
제3 하우징(253a)은, 도 3a 내지 도 3c의 제3 하우징(253)에 대한 설명이 적용될 수 있다.
도 4a 내지 도 4b는 도 3a 내지 도 3f의 프로세서의 내부 블록도의 다양한 예를 예시하고, 도 5a 내지 도 5d는 도 4a 내지 도 4b의 프로세서의 동작 설명에 참조되는 도면이다.
도 4a를 참조하면, 프로세서(470)는, 영상 전처리부(501), 디스패러티 연산부(502), 오브젝트 검출부(504), 오브젝트 트래킹부(506), 및 어플리케이션부(507)를 포함할 수 있다.
영상 전처리부(image preprocessor)(501)는, 카메라(200)로부터의 이미지를 수신하여, 전처리(preprocessing)를 수행할 수 있다.
구체적으로, 영상 전처리부(501)는, 이미지에 대한, 노이즈 리덕션(noise reduction), 렉티피케이션(rectification), 캘리브레이션(calibration), 색상 강화(color enhancement), 색상 공간 변환(color space conversion;CSC), 인터폴레이션(interpolation), 카메라 게인 컨트롤(camera gain control) 등을 수행할 수 있다. 이에 따라, 카메라(200)에서 촬영된 스테레오 이미지 보다 선명한 이미지를 획득할 수 있다.
디스패러티 연산부(disparity calculator)(502)는, 영상 전처리부(501)에서 신호 처리된, 이미지를 수신하고, 수신된 이미지들에 대한 스테레오 매칭(stereo matching)을 수행하며, 스테레오 매칭에 따른, 디스패러티 맵(dispartiy map)을 획득할 수 있다. 즉, 차량 전방에 대한, 스테레오 이미지에 대한 디스패러티 정보를 획득할 수 있다.
이때, 스테레오 매칭은, 스테레오 이미지들의 픽셀 단위로 또는 소정 블록 단위로 수행될 수 있다. 한편, 디스패러티 맵은, 스테레오 이미지, 즉 좌,우 이미지의 시차(時差) 정보(binocular parallax information)를 수치로 나타낸 맵을 의미할 수 있다.
세그멘테이션부(segmentation unit)(503)는, 디스패러티 연산부(502)로부터의 디스페러티 정보에 기초하여, 이미지 중 적어도 하나에 대해, 세그먼트(segment) 및 클러스터링(clustering)을 수행할 수 있다.
구체적으로, 세그멘테이션부(503)는, 디스페러티 정보에 기초하여, 스테레오 이미지 중 적어도 하나에 대해, 배경(background)과 전경(foreground)을 분리할 수 있다.
예를 들면, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이하인 영역을, 배경으로 연산하고, 해당 부분을 제외시킬 수 있다. 이에 의해, 상대적으로 전경이 분리될 수 있다.
다른 예로, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이상인 영역을, 전경으로 연산하고, 해당 부분을 추출할 수 있다. 이에 의해, 전경이 분리될 수 있다.
이와 같이, 스테레오 이미지에 기반하여 추출된 디스페러티 정보 정보에 기초하여, 전경과 배경을 분리함으로써, 이후의, 오브젝트 검출시, 신호 처리 속도, 신호 처리 양 등을 단축할 수 있게 된다.
다음, 오브젝트 검출부(object detector)(504)는, 세그멘테이션부(503)로부터의 이미지 세그먼트에 기초하여, 오브젝트를 검출할 수 있다.
즉, 오브젝트 검출부(504)는, 디스페러티 정보 정보에 기초하여, 이미지 중 적어도 하나에 대해, 오브젝트를 검출할 수 있다.
구체적으로, 오브젝트 검출부(504)는, 이미지 중 적어도 하나에 대해, 오브젝트를 검출할 수 있다. 예를 들면, 이미지 세그먼트에 의해 분리된 전경으로부터 오브젝트를 검출할 수 있다.
다음, 오브젝트 확인부(object verification unit)(505)는, 분리된 오브젝트를 분류하고(classify), 확인할 수 있다(verify).
이를 위해, 오브젝트 확인부(505)는, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용할 수 있다.
한편, 오브젝트 확인부(505)는, 메모리(440)에 저장된 오브젝트들과, 검출된 오브젝트를 비교하여, 오브젝트를 확인할 수 있다.
예를 들면, 오브젝트 확인부(505)는, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 터널 등을 확인할 수 있다.
오브젝트 트래킹부(object tracking unit)(506)는, 확인된 오브젝트에 대한 트래킹을 수행할 수 있다. 예를 들면, 순차적으로, 획득되는 스테레오 이미지들에 내의, 오브젝트를 확인하고, 확인된 오브젝트의 움직임 또는 움직임 벡터를 연산하며, 연산된 움직임 또는 움직임 벡터에 기초하여, 해당 오브젝트의 이동 등을 트래킹할 수 있다. 이에 따라, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 터널 등을 트래킹할 수 있게 된다.
다음, 어플리케이션부(507)는, 차량 주변에, 위치하는 다양한 오브젝트들, 예를 들면, 다른 차량, 차선, 도로면, 표지판 등에 기초하여, 차량(100)의 위험도 등을 연산할 수 있다. 또한, 앞차와의 추돌 가능성, 차량의 슬립 여부 등을 연산할 수 있다.
그리고, 어플리케이션부(507)는, 연산된 위험도, 추돌 가능성, 또는 슬립 여부 등에 기초하여, 사용자에게, 이러한 정보를 알려주기 위한, 메시지 등을, 차량 운전 보조 정보로서, 출력할 수 있다. 또는, 차량(100)의 자세 제어 또는 주행 제어를 위한 제어 신호를, 차량 제어 정보로서, 생성할 수도 있다.
한편, 실시예에 따라, 프로세서(470)는 영상 전처리부(501), 디스페러티 연산부(502), 세그먼테이션부(503), 오브젝트 검출부(504), 오브젝트 확인부(505), 오브젝트 트래킹부(506) 및 어플리케이션부(507) 중 일부만을 포함할 수 있다. 가령, 카메라(200)가 모노 카메라로 구성되는 경우, 디스패러티 연산부(502)는 제외될 수 있다. 또한, 실시예에 따라, 세그먼테이션부(503)는 제외될 수도 있다.
도 4b는 프로세서의 내부 블록도의 다른 예이다.
도면을 참조하면, 도 4b의 프로세서(470)는, 도 4a의 프로세서(470)와 내부 구성 유닛이 동일하나, 신호 처리 순서가 다른 것에 그 차이가 있다. 이하에서는 그 차이만을 기술한다.
오브젝트 검출부(504)는, 스테레오 이미지를 수신하고, 스테레오 이미지 중 적어도 하나에 대해, 오브젝트를 검출할 수 있다. 도 4a와 달리, 디스패러티 정보에 기초하여, 세그먼트된 이미지에 대해, 오브젝트를 검출하는 것이 아닌, 스테레오 이미지로부터 바로 오브젝트를 검출할 수 있다.
다음, 오브젝트 확인부(object verification unit)(505)는, 세그멘테이션부(503)로부터의 이미지 세그먼트, 및 오브젝트 검출부(504)에서 검출된 오브젝트에 기초하여, 검출 및 분리된 오브젝트를 분류하고(classify), 확인한다(verify).
이를 위해, 오브젝트 확인부(505)는, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용할 수 있다.
도 5a와 도 5b는, 제1 및 제2 프레임 구간에서 각각 획득된 스테레오 이미지를 기반으로 하는 프로세서(470)의 동작 방법 설명을 위해 참조되는 도면이다.
먼저, 도 5a를 참조하면, 제1 프레임 구간 동안, 스테레오 카메라(200b)는, 스테레오 이미지를 획득한다.
프로세서(470) 내의 디스패러티 연산부(502)는, 영상 전처리부(501)에서 신호 처리된, 스테레오 이미지(FR1a,FR1b)를 수신하고, 수신된 스테레오 이미지(FR1a,FR1b)에 대한 스테레오 매칭을 수행하여, 디스패러티 맵(dispartiy map)(520)을 획득한다.
디스패러티 맵(dispartiy map)(520)은, 스테레오 이미지(FR1a,FR1b) 사이의 시차를 레벨화한 것으로서, 디스패러티 레벨이 클수록, 차량과의 거리가 가깝고, 디스패러티 레벨이 작을수록, 차량과의 거리가 먼 것으로 연산할 수 있다.
한편, 이러한 디스패러티 맵을 디스플레이 하는 경우, 디스패러티 레벨이 클수록, 높은 휘도를 가지고, 디스패러티 레벨이 작을수록 낮은 휘도를 가지도록 표시할 수도 있다.
도면에서는, 디스패러티 맵(520) 내에, 제1 선(line) 내지 제4 선(line) (528a,528b,528c,528d) 등이 각각 해당하는 디스패러티 레벨을 가지며, 공사 지역(522), 제1 전방 차량(524), 제2 전방 차량(526)이 각각 해당하는 디스패러티 레벨을 가지는 것을 예시한다.
세그멘테이션부(503)와, 오브젝트 검출부(504), 오브젝트 확인부(505)는, 디스패러티 맵(520)에 기초하여, 스테레오 이미지(FR1a,FR1b) 중 적어도 하나에 대한, 세그먼트, 오브젝트 검출, 및 오브젝트 확인을 수행한다.
도면에서는, 디스패러티 맵(520)을 사용하여, 제2 스테레오 이미지(FR1b)에 대한, 오브젝트 검출, 및 확인이 수행되는 것을 예시한다.
즉, 이미지(530) 내에, 제1 선 내지 제4 선(538a,538b,538c,538d), 공사 지역(532), 제1 전방 차량(534), 제2 전방 차량(536)이, 오브젝트 검출 및 확인이 수행될 수 있다.
다음, 도 5b를 참조하면, 제2 프레임 구간 동안, 스테레오 카메라(200b)는, 스테레오 이미지를 획득한다.
프로세서(470) 내의 디스패러티 연산부(502)는, 영상 전처리부(501)에서 신호 처리된, 스테레오 이미지(FR2a,FR2b)를 수신하고, 수신된 스테레오 이미지(FR2a,FR2b)에 대한 스테레오 매칭을 수행하여, 디스패러티 맵(dispartiy map)(540)을 획득한다.
도면에서는, 디스패러티 맵(540) 내에, 제1 차선 내지 제4 차선(548a,548b,548c,548d) 등이 각각 해당하는 디스패러티 레벨을 가지며, 공사 지역(542), 제1 전방 차량(544), 제2 전방 차량(546)이 각각 해당하는 디스패러티 레벨을 가지는 것을 예시한다.
세그멘테이션부(503)와, 오브젝트 검출부(504), 오브젝트 확인부(505)는, 디스패러티 맵(540)에 기초하여, 스테레오 이미지(FR2a,FR2b) 중 적어도 하나에 대한, 세그먼트, 오브젝트 검출, 및 오브젝트 확인을 수행한다.
도면에서는, 디스패러티 맵(540)을 사용하여, 제2 스테레오 이미지(FR2b)에 대한, 오브젝트 검출, 및 확인이 수행되는 것을 예시한다.
즉, 이미지(550) 내에, 제1 선 내지 제4 선(558a,558b,558c,558d), 공사 지역(552), 제1 전방 차량(554), 제2 전방 차량(556)이, 오브젝트 검출 및 확인이 수행될 수 있다.
한편, 오브젝트 트래킹부(506)는, 도 5a와 도 5b를 비교하여, 확인된 오브젝트에 대한 트래킹을 수행할 수 있다.
구체적으로, 오브젝트 트래킹부(506)는, 도 5a와 도 5b에서 확인된, 각 오브젝트들의 움직임 또는 움직임 벡터에 기초하여, 해당 오브젝트의 이동 등을 트래킹할 수 있다. 이에 따라, 차량 주변에 위치하는, 차선, 공사 지역, 제1 전방 차량, 제2 전방 차량 등에 대한 트래킹을 수행할 수 있게 된다.
도 5c 내지 도 5d는 차량용 카메라의 동작 설명에 참조되는 도면이다.
먼저, 도 5c는, 차량 내부에 구비되는 스테레오 카메라(200b)에서 촬영되는 차량 전방 상황을 예시한 도면이다. 특히, 차량 전방 상황을 버드 아이 뷰(bird eye view)로 표시한다.
도면을 참조하면, 왼쪽에서 오른쪽으로, 제1 차선(642a), 제2 차선(644a), 제3 차선(646a), 제4 차선(648a)이 위치하며, 제1 차선(642a)과 제2 차선(644a) 사이에 공사 지역(610a)이 위치하며, 제2 차선(644a)과 제3 차선(646a) 사이에 제1 전방 차량(620a)가 위치하며, 제3 차선(646a)과 제4 차선(648a) 사이에, 제2 전방 차량(630a)이 배치되는 것을 알 수 있다.
다음, 도 5d는 차량 운전 보조 장치에 의해 파악되는 차량 전방 상황을 각종 정보와 함께 표시하는 것을 예시한다. 특히, 도 5d와 같은 이미지는, 차량용 디스플레이 장치(600)에서 표시될 수도 있다.
도 5d는, 도 5c와 달리, 스테레오 카메라(200)에서 촬영되는 이미지를 기반으로하여 정보 표시가 되는 것을 예시한다.
도면을 참조하면, 왼쪽에서 오른쪽으로, 제1 차선(642b), 제2 차선(644b), 제3 차선(646b), 제4 차선(648b)이 위치하며, 제1 차선(642b)과 제2 차선(644b) 사이에 공사 지역(610b)이 위치하며, 제2 차선(644b)과 제3 차선(646b) 사이에 제1 전방 차량(620b)가 위치하며, 제3 차선(646b)과 제4 차선(648b) 사이에, 제2 전방 차량(630b)이 배치되는 것을 알 수 있다.
차량용 카메라(200)는, 스테레오 카메라(200b)에서 촬영되는 스테레오 이미지를 기반으로 하여, 신호 처리하여, 공사 지역(610b), 제1 전방 차량(620b), 제2 전방 차량(630b)에 대한 오브젝트를 확인할 수 있다. 또한, 제1 차선(642b), 제2 차선(644b), 제3 차선(646b), 제4 차선(648b)을 확인할 수 있다.
한편, 도면에서는 공사 지역(610b), 제1 전방 차량(620b), 제2 전방 차량(630b)에 대한 오브젝트 확인을 나타내기 위해, 각각 테두리로 하이라이트되는 것을 예시한다.
한편, 차량용 카메라(200)는, 스테레오 카메라(200b)에서 촬영되는 스테레오 이미지를 기반으로 하여, 공사 지역(610b), 제1 전방 차량(620b), 제2 전방 차량(630b)에 대한 거리 정보를 연산할 수 있다.
도면에서는, 공사 지역(610b), 제1 전방 차량(620b), 제2 전방 차량(630b) 각각에 대응하는, 연산된 제1 거리 정보(611b), 제2 거리 정보(621b), 제3 거리 정보(631b)가 표시되는 것을 예시한다.
한편, 차량용 카메라(200)는, 제어부(170) 또는 내부 센싱부(125)로부터 차량에 대한 센서 정보를 수신할 수 있다. 특히, 차량 속도 정보, 기어 정보, 차량의 회전각(요각)이 변하는 속도를 나타내는 요 레이트 정보(yaw rate), 차량의 각도 정보를 수신할 수 있으며, 이러한 정보들을 표시할 수 있다.
도면에서는, 차량 전방 이미지 상부(670)에, 차량 속도 정보(672), 기어 정보(671), 요 레이트 정보(673)가 표시되는 것을 예시하며, 차량 전방 이미지 하부(680)에, 차량의 각도 정보(682)가 표시되는 것을 예시하나 다양한 예가 가능하다. 그 외, 차량의 폭 정보(683), 도로의 곡률 정보(681)가, 차량의 각도 정보(682)와 함께 표시될 수 있다.
도 6은 본 발명의 실시예에 따른 차량용 디스플레이 장치를 설명하는데 참조되는 블럭도이다.
도 6을 참조하면, 차량용 디스플레이 장치(600)는, 통신부(610), 입력부(620), 인터페이스부(630), 메모리(640), 출력부(650), 프로세서(670) 및 전원 공급부(690)를 포함할 수 있다.
통신부(610)는, 차량용 디스플레이 장치(600)과 이동 단말기 사이, 차량용 디스플레이 장치(600)과 외부 서버 사이 또는 차량용 디스플레이 장치(600)와 타차량과의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(610)는 차량용 디스플레이 장치(600)를 하나 이상의 망(network)에 연결하는 하나 이상의 모듈을 포함할 수 있다.
통신부(610)는, 방송 수신부(611), 무선 인터넷부(612), 근거리 통신부(613), 위치 정보부(614) 및 V2X 통신부(615)를 포함할 수 있다.
방송 수신부(611)는, 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 또는 TV 방송을 포함한다.
무선 인터넷부(612)는, 무선 인터넷 접속을 위한 모듈이다. 무선 인터넷부(612)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들면, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷부(612)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 예를 들면, 무선 인터넷부(612)는 외부 서버와 무선으로 데이터를 교환할 수 있다. 무선 인터넷부(612)는 외부 서버로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))정보를 수신할 수 있다.
근거리 통신부(613)는, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
근거리 통신부(613)는, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량용 디스플레이 장치(600)와 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신부(613)는 이동 단말기와 무선으로 데이터를 교환할 수 있다. 근거리 통신부(613)는 이동 단말기로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 예를 들면, 사용자가 차량(100)에 탑승한 경우, 사용자의 이동 단말기와 차량용 디스플레이 장치(600)는 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
위치 정보부(614)는, 차량(100)의 위치 정보를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치 정보를 획득할 수 있다.
V2X 통신부(615)는, 외부 서버 또는 타 차량과의 무선 통신 수행을 위한 모듈이다. V2X 모듈(615)은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함한다. 차량용 디스플레이 장치(600)는 V2X 통신 모듈(615)을 통해, 외부 서버 및 타 차량과 무선 통신을 수행할 수 있다.
V2X 통신 모듈(615)은, 제1 오브젝트로부터, 제1 오브젝트의 위치 정보를 수신할 수 있다. 여기서, 제1 오브젝트는, 타 차량 또는 이동 단말기일 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 지속적으로 제1 오브젝트를 검출하고 트래킹할 수 있다. 제1 오브젝트가 트래킹되는 상태에서, 제2 오브젝트에 가려지는 경우, V2X 통신 모듈(615)은, 제1 오브젝트의 위치 정보를 획득할 수 있다. 이경우, 제1 오브젝트에 대한 트래킹은 지속적으로 이루어질 수 있다.
입력부(620)는, 사용자 입력부(621), 음향 입력부(622), 제스쳐 감지부(623) 및 내부 카메라(624)를 포함할 수 있다.
사용자 입력부(621)는, 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(621)를 통해, 정보가 입력되면, 프로세서(670)는 입력된 정보에 대응되도록 차량용 디스플레이 장치(600)의 동작을 제어할 수 있다. 사용자 입력부는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다.
음향 입력부(622)는, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량용 디스플레이 장치(600)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 음향 입력부(622)는, 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 프로세서(670)에 전달될 수 있다.
제스쳐 감지부(623)는, 사용자의 제스쳐를 감지할 수 있다. 제스쳐 감지부(623)는, 사용자의 제스쳐를 감지할 수 있다. 제스쳐 감지부(623)는, 2차원 제스쳐를 감지할 수 있다.
예를 들면, 제스쳐 감지부는, 광출력부 및 광수신부를 포함할 수 있다. 광출력부는, 적외선 광을 출력할 수 있다. 광수신부는, 광출력부에서 출적된 적외선 광이 사용자의 손에 반사되어 형성되는 반사광을 수신할 수 있다.
프로세서(670)는, 제스쳐 감지부(623)에서 제공되는 정보를 기초로, 입력 신호를 생성할 수 있다.
프로세서(670)는, 반사광을 기초로 사용자의 제스쳐를 감지할 수 있다.
내부 카메라(624)는, 차량 내부 영상을 획득할 수 있다. 내부 카메라(624)는, 촬영된 차량 내부 영상에서, 사용자를 검출할 수 있다.
예를 들면, 내부 카메라(624)는, 운전자, 운전자의 손 또는 운전자의 손가락을 검출할 수 있다. 또는, 카메라(624)는, 보조석에 앉은 탑승객, 탑승객의 손 또는 탑승객의 손가락을 검출할 수 있다.
프로세서(670)는, 내부 카메라(624)에서 제공되는 정보를 기초로 입력 신호를 생성할 수 있다.
프로세서(670)는, 제스쳐 감지부(623)에서 제공되는 정보 및 내부 카메라(624)에서 제공되는 정보에 기초하여, 입력 신호를 생성할 수 있다.
인터페이스부(630)는, 데이터, 정보, 신호를 수신하거나, 프로세서(670)에서 처리 또는 생성된 데이터, 정보, 신호를 외부로 전송할 수 있다. 이를 위해, 인터페이스부(630)는, 유선 통신 또는 무선 통신 방식에 의해, 차량 내부의 제어부(170), 내부 센싱부(125), 외부 센싱부(126), 차량 구동부(150) 등과 데이터 통신을 수행할 수 있다.
한편, 인터페이스부(630)는, 제어부(170) 또는 내부 센싱부(125)로부터, 차량내부 센싱 정보를 수신할 수 있다.
여기서, 센싱 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보, 차량 외부 조도 정보 중 적어도 하나를 포함할 수 있다.
이러한 센싱 정보는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 외부 온도 센서, 차량 내부 습도 센서, 조도 센서 등으로부터 획득될 수 있다. 한편, 포지션 모듈은, GPS 정보 수신을 위한 GPS 모듈을 포함할 수 있다.
인터페이스부(630)는, 외부 센싱부(126)로부터 오브젝트 정보를 수신할 수 있다.
예를 들면, 외부 센싱부(126) 중 카메라(200)는 획득되는 영상을 기초로 차선 검출(Lane Detection, LD), 주변 차량 검출(Vehicle Detection, VD), 보행자 검출(Pedestrian Detection, PD), 불빛 검출(Brightspot Detection, BD), 교통 신호 검출(Traffic Sign Recognition, TSR), 도로면 검출을 수행할 수 있다. 카메라(200)는 검출된 오브젝트와의 거리 정보를 생성할 수 있다.
메모리(640)는, 프로세서(670)와 전기적으로 연결된다. 메모리(640)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(640)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(640)는 프로세서(670)의 처리 또는 제어를 위한 프로그램 등, 차량용 디스플레이 장치(600) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
메모리(640)는, 내비게이션 기능 구현을 위한 맵 데이터를 저장할 수 있다. 여기서 맵 데이터는, 차량 출고시 디폴트로 저장될 수 있다. 또는, 맵 데이터는, 통신부(610) 또는 인터페이스부(630)를 통해 외부 디바이스로부터 수신될 수 있다.
한편, 실시예에 따라, 메모리(640)는, 프로세서(670)와 일체화되어 형성될 수 있다.
메모리(640)는, 운전자에 대응되는 아이 박스(eye box)의 좌표값 정보를 저장할 수 있다. 복수의 운전자가 차량(100)을 운행하는 경우, 각 운전자에 대응하여 아이 박스 좌표값 정보가 메모리(640)에 저장될 수 있다. 예를 들면, 아이 박스 좌표값 정보는, 각 운전자의 앉은키에 대응하여 메모리(640)에 저장될 수 있다.
아이 박스는 3차원의 부피를 가지는 차량(100) 실내의 공간일 수 있다. 아이 박스 좌표값 정보는, 아이 박스의 경계를 정의하는 좌표값들일 수 있다.
출력부(650)는, 디스플레이부(651) 및 음향 출력부(652)를 포함할 수 있다.
디스플레이부(651)는 프로세서(670)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(651)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
디스플레이부(651)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(651)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량용 디스플레이 장치(600)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 차량용 디스플레이 장치(600)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(651)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(651)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이경우, 디스플레이부(651)는 터치 입력을 수신할 수 있다.
디스플레이부(651)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 프로세서(670)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 디스플레이부(651)는 윈드 쉴드의 일 영역에 화면이 표시되도록 구현될 수 있다.
디스플레이부(651)는 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 윈드 쉴드에 부착될 수 있다. 이경우, 차량용 디스플레이 장치(600)는, 투명 디스플레이를 통해, 정보를 출력할 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다.
한편, 투명 디스플레이의 투명도는 프로세서(670)의 제어에 따라 조절될 수 있다.
차량용 디스플레이 장치(600)는, HUD(Head up display)로 구현될 수 있다. 이경우, 디스플레이부(651)는 투사 모듈을 포함할 수 있다. 이경우, 디스플레이 장치(600)는, 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.
투사 모듈은 윈드 쉴드 또는 차량내 구비된 스크린을 향해 빔(beam)을 투사한다. 투사 모듈은, 광원 및 투사 렌즈를 포함할 수 있다. 투사 모듈은 프로세서(670)에서 처리되는 정보에 대응하는 영상을 구현할 수 있다. 즉, 투사 모듈은 광원에서 발생한 광을 이용하여 영상을 구현하고, 구현된 영상을 윈드 쉴드에 투사할 수 있다. 이때, 광원은 LED, 레이저 등을 이용하는 것이 바람직하다.
프로세서(670)는, 차량용 디스플레이 장치(600) 내의 각 유닛과 전기적으로 연결되어, 각 유닛의 전반적인 동작을 제어한다.
프로세서(670)는, 통신부(610), 입력부(620) 또는 인터페이스부(630)를 통해 수신된 정보 또는 데이터가 출력되도록 출력부(650)를 제어할 수 있다. 프로세서(670)는, 메모리(640)에 저장된 정보 또는 데이터가 출력되도록 출력부(650)를 제어할 수 있다. 프로세서(670)는, 수신된 정보 또는 데이터를 직접 출력하거나, 가공하여 출력할 수 있다. 프로세서(670)는 정보 또는 데이터를 디스플레이(651)를 통해 시각적으로 출력할 수 있다. 프로세서(670)는 정보 또는 데이터를 음향출력부(652)를 통해 청각적으로 출력할 수 있다.
한편, 프로세서(670)는, 인터페이스부(630)를 통해 수신된 정보 또는 데이터를 기초로, 새로운 정보를 생성할 수 있다. 프로세서(670)는, 생성된 정보 또는 생성된 정보에 대응하는 화면이 표시되도록 디스플레이(651)를 제어할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량 외부에 위치하는 오브젝트 정보를 수신할 수 있다. 예를 들면, 프로세서(670)는, 인터페이스부(630)를 통해, 외부 센싱부(126) 또는 차량 운전 보조 장치(400)로부터 차량 외부에 위치하는 오브젝트 정보를 수신할 수 있다.
오브젝트는, 차선, 타 차량, 보행자, 빛, 교통 신호, 도로, 구조물, 지형물, 과속 방지턱, 동물 등을 포함할 수 있다.
차선(Lane)은, 주행 차선, 주행 차선의 옆 차선일 수 있다. 차선(Lane)은, 차선(Lane)을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.
타 차량은, 차량(100)의 주변에서 주행 중인 차량일 수 있다. 타 차량은, 차량(100)으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 타 차량은, 차량(100)보다 선행 또는 후행하는 차량일 수 있다. 타 차량은, 주행 차선의 옆 차선에서 주행 하는 차량일 수 있다. 타 차량은, 교차로에서 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 차량일 수 있다.
보행자는, 인도 또는 차도상에 위치하는 사람일 수 있다.
빛은, 타 차량에 구비된 램프에서 생성된 빛일 수 있다. 빛은, 가로등에서 생성된 빛을 수 있다. 빛은 태양광일 수 있다.
교통 신호는, 교통 신호등, 교통 표지판, 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.
도로는, 도로면, 커브, 오르막, 내리막 등의 경사 등을 포함할 수 있다.
구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등을 포함할 수 있다.
지형물은, 산, 언덕 등을 포함할 수 있다.
한편, 오브젝트는, 이동 오브젝트와 고정 오브젝트로 분류될 수 있다. 예를 들면, 이동 오브젝트는, 타 차량, 보행자를 포함하는 개념일 수 있다. 예를 들면, 고정 오브젝트는, 교통 신호, 도로, 구조물을 포함하는 개념일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량 외부에 위치하는 제1 오브젝트에 대한 정보를 수신할 수 있다.
제1 오브젝트는, 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)가 트래킹 중인 오브젝트일 수 있다. 예를 들면, 제1 오브젝트는, 타 차량, 보행자, 과속 방지턱, 동물 및 교통 신호 중 어느 하나일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량 외부에 위치하는 제2 오브젝트에 대한 정보를 수신할 수 있다.
제2 오브젝트는, 제1 오브젝트 트래킹에 방해되는 오브젝트일 수 있다. 예를 들면, 제2 오브젝트는, 타 차량, 도로 및 구조물 중 어느 하나일 수 있다.
프로세서(670)는, 차량(100)과 제1 오브젝트 사이에 제2 오브젝트가 위치하는지 판단할 수 있다.
프로세서(670)는, 카메라(200)의 시야에서, 제1 오브젝트가 제2 오브젝트에 가리는지 판단할 수 있다. 제1 오브젝트가 트래킹되는 중에 제2 오브젝트에 가려지는 경우, 프로세서(670)는, 차량(100)과, 제2 오브젝트 사이에 제1 오브젝트가 위치한다고 판단할 수 있다.
차량(100)과 제1 오브젝트 사이에, 제2 오브젝트가 위치하는 경우, 프로세서(670)는, 제1 오브젝트에 대응되는 그래픽 객체를 생성할 수 있다. 프로세서(670)는, 그래픽 객체가 디스플레이부(651)에 표시되도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, 제1 오브젝트에 대응되는 형상을 그래픽 객체로 생성하여, 그래픽 객체가 디스플레이부(651)에 표시되도록 제어할 수 있다. 여기서, 그래픽 객체는, 텍스트일 수 있다. 또는, 그래픽 객체는 도형 또는 입체 도형일 수 있다. 예를 들면, 그래픽 객체는, 다각형, 타원, 원 등의 평면 도형일 수 있다. 또는, 그래픽 객체는, 다면체, 구, 원기둥, 다각기둥 등 입체 도형일 수 있다. 또는, 그래픽 객체는, 제1 오브젝트와 비슷한 형상일 수 있다.
예를 들면, 제1 오브젝트가 타 차량인 경우, 프로세서(670)는 차량 이미지를 생성하여 디스플레이부(651)에 표시되도록 제어할 수 있다.
예를 들면, 제1 오브젝트가 보행자인 경우, 프로세서(670)는, 사람 이미지를 생성하여 디스플레이부(651)에 표시되도록 제어할 수 있다.
한편, 그래픽 객체는, 차량(100)의 프런트 윈드 쉴드 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체가 증강현실(Augmented Reality)로 표시되도록 제어할 수 있다.
운전자의 시선은, 프런트 윈드 쉴드를 거쳐, 차량(100) 외부에 위치하는 오브젝트를 향한다. 이때, 프런트 윈드 쉴드 상에 그래픽 객체를 표시함으로써, 운전자는, 그래픽 객체와, 차량(100) 외부에 위치하는 오브젝트를 함께 볼 수 있다. 즉, 프로세서(670)는, 운전자가 그래픽 객체와 차량(100) 외부에 위치하는 오브젝트를 함께 볼 수 있게 할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드 상에서, 제2 오브젝트에 대응되는 영역에 그래픽 객체를 표시하도록 제어할 수 있다 . 예를 들면, 프로세서(670)는, 프런트 윈드 쉴드 상에 그래픽 객체를 제2 오브젝트와 겹쳐지게 보이도록 표시할 수 있다.
프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려진 상태에서, 프런트 윈드 쉴드 중, 운전자가 제2 오브젝트를 확인하기 위해 바라보는 영역에 증강 현실로 그래픽 객체를 표시하도록 제어할 수 있다.
이와 같이 제어 함으로써, 운전자가, 제1 오브젝트가 제2 오브젝트에 가려진 상태임을 인지할 수 있게하는 효과가 있다.
프로세서(670)는, 제1 오브젝트를 트래킹할 수 있다. 프로세서(670)는, 프런트 윈드 쉴드 상에서, 트래킹되는 제1 오브젝트의 위치에 대응되는 영역에 그래픽 객체를 표시하도록 제어할 수 있다.
제1 오브젝트는, 이동 오브젝트 또는 고정 오브젝트일 수 있다.
제1 오브젝트가 이동 오브젝트인 경우, 차량(100)과 제1 오브젝트의 움직임에 따라, 차량(100) 관점에서, 제1 오브젝트는 상대적으로 움직일 수 있다. 이경우, 차량 운전 보조 장치(400) 또는 외부 센싱부(126)는, 제1 오브젝트를 트래킹할 수 있다.
제1 오브젝트가 고정 오브젝트인 경우, 차량(100)의 움직임에 따라, 차량(100) 관점에서, 제1 오브젝트는 상대적으로 움직일 수 있다. 이경우, 차량 운전 보조 장치(400) 또는 외부 센싱부(126)는, 제1 오브젝트를 트래킹할 수 있다.
제1 오브젝트가 움직임에 따라, 프런트 윈드 쉴드 상에서, 제1 오브젝트에 대응되는 영역도 지속적으로 변할 수 있다. 프로세서(670)는, 제1 오브젝트의 움직임에 따라, 그래픽 객체가 표시되는 영역이 변경되도록 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 제1 오브젝트와 데이터를 교환할 수 있다. 예를 들면, 제1 오브젝트가 타 차량인 경우, 프로세서(670)는, V2X 통신부(615)를 통해, 타 차량의 위치 정보를 수신할 수 있다. 예를 들면, 제1 오브젝트가 보행자가 소지한 이동 단말기인 경우, 프로세서(670)는, V2X 통신부(615)를 통해, 이동 단말기의 위치 정보를 수신할 수 있다. 이경우, 이동 단말기의 위치 정보는, 보행자의 위치 정보일 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 제1 오브젝트의 위치 정보를 수신할 수 있다. 프로세서(670)는, 수신된 위치 정보를 기초로, 제1 오브젝트를 트래킹할 수 있다.
차량(100)의 외부 센싱부(126)는, 제1 오브젝트를 검출하고 지속적으로 트래킹할 수 있다. 프로세서(670)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 제1 오브젝트의 검출 정보 및 트래킹 정보를 수신할 수 있다. 제1 오브젝트가 제2 오브젝트에 가려지는 경우, 프로세서(670)는, V2X 통신부(615)를 통해, 제1 오브젝트의 위치 정보를 수신할 수 있다. 프로세서(670)는, 수신된 제1 오브젝트의 위치 정보를 기초로, 제1 오브젝트의 트래킹을 지속할 수 있다.
프로세서(670)는, 차량(100)과 제1 오브젝트와의 거리 또는 상대 속도에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 크기의 변화 또는 색의 변화를 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해 획득되는 제1 오브젝트의 위치 정보 및 차량(100)의 위치 정보를 기초로, 제1 오브젝트와의 거리 정보를 획득할 수 있다.
프로세서(670)는, 시간에 따른 제1 오브젝트의 위치 변화 정보를 기초로, 제1 오브젝트의 속도 정보를 획득할 수 있다. 프로세서(670)는, 제1 오브젝트의 속도 정보 및 차량(100)의 속도 정보를 기초로, 제1 오브젝트와의 상대 속도 정보를 획득할 수 있다.
예를 들면, 차량(100)과 제1 오브젝트와의 거리가 점점 가까워질수록, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체가 점점 커지도록 제어할 수 있다.
예를 들면, 차량(100)과 제1 오브젝트와의 상대 속도가 점점 감소할수록, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체가 점점 커지도록 제어할 수 있다.
예를 들면, 차량(100)과 제1 오브젝트와의 거리가 점점 멀어질수록, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체가 점점 작아지도록 제어할 수 있다.
예를 들면, 차량(100)과 제1 오브젝트와의 상대 속도가 점점 증가할수록, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체가 점점 작아지도록 제어할 수 있다.
복수의 구간 중, 차량(100)과 제1 오브젝트와의 거리에 해당되는 구간에 따라, 그래픽 객체가 기 설정된 색으로 표시되도록 제어할 수 있다. 예를 들면, 차량(100)과 제1 오브젝트와의 거리가 제1 범위 이내인 경우, 프로세서(670)는, 그래픽 객체가 제1 색으로 표시되도록 제어할 수 있다.
복수의 구간 중, 차량(100)과 제1 오브젝트와의 상대 속도에 해당되는 구간에 따라, 그래픽 객체가 기 설정된 색으로 표시되도록 제어할 수 있다. 예를 들면, 차량(100)과 제1 오브젝트와의 상대 속도가 제1 범위 이내인 경우, 프로세서(670)는, 그래픽 객체가 제1 색으로 표시되도록 제어할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다. 즉, 프로세서(670)는, 운전자가 제2 오브젝트에 가려져서 제1 오브젝트를 볼 수 없는지 판단할 수 있다.
만약, 운전자의 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는 경우, 프로세서(670)는, 프런트 윈드 쉴드 상에서, 제2 오브젝트에 대응되는 영역 중, 제1 오브젝트의 위치에 대응되는 영역에, 증강 현실로, 그래픽 객체를 표시할 수 있다.
프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려진 상태에서, 프런트 윈드 쉴드 중, 운전자가 제2 오브젝트를 확인하기 위해 바라보는 영역 중, 제1 오브젝트의 위치에 대응되는 영역에, 증강 현실로 그래픽 객체를 표시하도록 제어할 수 있다.
프로세서(670)는, 제1 오브젝트의 일부가, 제2 오브젝트에 가려지는 경우, 디스플레이부(651)에, 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가 표시되도록 제어할 수 있다.
예를 들면, 프로세서(670)는, 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가, 제1 오브젝트 중 가려지지 않은 부분에 연장된 상태로 증강 현실로 표시되도록 제어할 수 있다.
이와 같이, 그래픽 객체는, 제1 오브젝트의 실물과 연장되도록 표시되어, 사용자가 느끼는 그래픽 객체의 이질감을 최소화하는 효과가 있다. 또한, 사용자에게 제1 오브젝트의 존재를 더욱 명확하게 인식시키는 효과가 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자의 눈의 위치 정보를 획득할 수 있다. 프로세서(670)는, 거리 검출 알고리즘을 통해, 내부 카메라(624)의 운전자의 눈의 위치 정보를 획득할 수 있다.
획득된 눈의 위치가 메모리(640)에 저장된 아이 박스 밖으로 벗어난 경우, 프로세서(670)는, 그래픽 객체의 표시 영역이 변경되도록 디스플레이부(651)를 제어할 수 있다.
허상을 통해 증강현실 이미지가 구현되는 경우, 운전자가 증강현실 이미지를 인지하기 위해서는, 운전자의 눈의 위치가 아이 박스 내에 위치해야 한다. 만약, 운전자의 눈이 아이 박스 밖으로 벗어나는 경우, 증강현실 이미지의 일부분만 보이거나, 증강현실 이미지가 전부 보이지 않을 수 있다. 운전자의 눈의 위치가 아이 박스 밖으로 벗어난 경우, 그래픽 객체의 표시 영역이 변경되도록 제어함으로써, 운전자가 증강 현실 이미지를 지속적으로 인지하게 하는 효과가 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량의 상태 정보를 수신할 수 있다. 차량의 상태 정보는, 내부 센싱부(125)에서 센싱된 데이터를 기초로 생성된 정보일 수 있다. 예를 들면, 차량의 상태 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보, 차량 외부 조도 정보 중 적어도 하나를 포함할 수 있다.
프로세서(670)는, 상태 정보에 기초하여 디스플레이부(651)에 표시되는 그래픽 객체의 모양, 크기, 위치, 색 및 투명도 중 어느 하나를 제어할 수 있다.
예를 들면, 차량의 상태 정보는, 차량의 자세 정보를 포함할 수 있다. 프로세서(670)는, 차량의 자세 정보를 수신할 수 있다. 프로세서(670)는, 차량의 자세 정보에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 위치를 변경할 수 있다. 구체적으로, 차량(100) 주행시, 차량(100)의 롤(roll), 피치(pitch), 요(yaw)는 지속적으로 변경될 수 있다. 롤, 피치 또는 요가 변경됨에 따라, 관성에 의해, 운전자의 자세 및 운전자의 시선도 변경될 수 있다. 이경우, 차량의 자세 정보에 기초하여, 그래픽 객체의 위치를 변경시킴으로써, 운전자의 시선 변화와 무관하게 증강 현실 이미지를 지속적으로 제공할 수 있는 효과가 있다.
예를 들면, 차량의 상태 정보는, 차량의 주행 속도 정보를 포함할 수 있다. 프로세서(670)는, 차량의 주행 속도 정보를 수신할 수 있다. 프로세서(670)는, 차량의 주행 속도 정보에 기초하여, 그래픽 객체의 크기가 변경되도록 디스플레이부(651)를 제어할 수 있다. 가령, 제1 오브젝트가 고정 오브젝트인 경우, 차량(100)과 제1 오브젝트와의 거리는 차량(100)의 속도에 비례한다. 이경우, 차량(100)의 속도에 기초하여 그래픽 객체의 크기가 변경되도록 제어함으로써, 운전자가 직관적으로 제1 오브젝트와의 거리를 인지하게 하는 효과가 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 주행 상황 정보를 수신할 수 있다. 여기서, 주행 상황 정보는, 차량 내부 상황 정보 및 차량 외부 상황 정보를 포함할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 내부 센싱부(125)로부터 차량 내부 상황 정보를 수신할 수 있다. 차량 내부 상황 정보는, 차량 상태 정보로도 명명될 수 있다.
이때, 차량 내부 상황 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보, 차량 외부 조도 정보 중 적어도 하나를 포함할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 차량 외부 상황 정보를 수신할 수 있다.
이때, 차량 외부 상황 정보는, 차량 외부에 위치하는 오브젝트 정보일 수 있다.
오브젝트는, 차선, 타 차량, 보행자, 빛, 교통 신호, 도로, 구조물 등을 포함할 수 있다.
차선(Lane)은, 주행 차선, 주행 차선의 옆 차선일 수 있다. 차선(Lane)은, 차선(Lane)을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.
타 차량은, 차량(100)의 주변에서 주행 중인 차량일 수 있다. 타 차량은, 차량(100)으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 타 차량은, 차량(100)보다 선행 또는 후행하는 차량일 수 있다. 타 차량은, 주행 차선의 옆 차선에서 주행 하는 차량일 수 있다. 타 차량은, 교차로에서 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 차량일 수 있다.
보행자는, 인도 또는 차도상에 위치하는 사람일 수 있다.
빛은, 타 차량에 구비된 램프에서 생성된 빛일 수 있다. 빛은, 가로등에서 생성된 빛을 수 있다. 빛은 태양광일 수 있다.
교통 신호는, 교통 신호등, 교통 표지판, 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.
도로는, 도로면, 커브, 오르막, 내리막 등의 경사 등을 포함할 수 있다.
구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 산, 신호등을 포함할 수 있다.
프로세서(670)는, 주행 상황 정보에 대응하는 그래픽 객체가 더 표시되도록 디스플레이부(651)를 제어할 수 있다 .
예를 들면, 프로세서(670)는, 주행 상황 정보에 대응하는 이미지 또는 텍스트가 표시되도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, 차량 상태 정보에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 양, 종류, 표시되는 영역 중 적어도 어느 하나를 제어할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)의 주행 모드에 따라, 디스플레이부(651)에 표시되는 주행 상황 정보에 대응되는 그래픽 객체의 영역을 변경할 수 있다.
가령, 차량(100)이 수동 주행 모드로 주행하는 경우, 프로세서(670)는, 차량 외부의 오브젝트 정보에 대응되는 그래픽 객체가 실물과 오버레이 되게 증강 현실로 표시할 수 있다.
가령, 차량(100)이 자율 주행 모드로 주행하는 경우, 프로세서(670)는, 차량 외부의 오브젝트 정보에 대응되는 그래픽 객체가 디스플레이부 테두리 영역에 표시되도록 제어할 수 있다.
가령, 차량(100)이 자율 주행 모드로 주행하는 경우, 프로세서(670)는, 차량 내부 상황 정보를 표시하지 않고, 차량 외부 상황 정보만 표시되도록 디스플레이부(651)를 제어할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)의 주행 속도에 따라, 디스플레이부(651)에 표시되는 주행 상황 정보에 대응되는 그래픽 객체의 양을 조절할 수 있다.
가령, 차량(100)이 저속(제1 기준 속도 이하)으로 주행하는 경우, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체의 수를 고속(제2 기준 속도 이상)으로 주행하는 경우보다 많이 표시할 수 있다. 또한, 이경우, 프로세서(670)는, 그래픽 객체를 증강현실로 표시할 수 있다.
가령, 차량(100)이 고속(제2 기준 속도 이상)으로 주행하는 경우, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체의 수를 저속(제1 기준 속도 이하)으로 주행하는 경우보다 더 적게 표시할 수 있다. 또한, 이경우, 프로세서(670)는, 그래픽 객체를 증강현실로 표시하지 않을 수 있다.
가령, 차량(100)이 고속으로 주행하는 경우에도, 자율 주행 모드로 주행하는 경우, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체의 수를 고속(제2 기준 속도 이상)으로 주행하는 경우보다 많이 표시할 수 있다. 또한, 이경우, 프로세서(670)는, 그래픽 객체를 증강현실로 표시할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)의 주행 또는 정차 상태에 따라, 표시되는 그래픽 객체의 양을 조절함으로써, 제공되는 주행 상황 정보의 양을 조절할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)의 주행 또는 정차 상태에 따라, 표시되는 그래픽 객체의 타입도 제어할 수 있다. 차량(100)의 주행 상태에서는, 그래픽 객체를 무빙 이미지(moving image)로 표시할 수 있다. 차량(100)의 정차 상태에서는, 그래픽 객체를 스틸 이미지(still image)로 표시할 수 있다.
한편, 프로세서(670)는, 통신부(610)를 통해, 날씨 정보를 획득할 수 있다. 구체적으로, 프로세서(670)는, 주행 중인 지역의 날씨 정보를 획득할 수 있다. 프로세서(670)는, 날씨 정보에 기초하여, 그래픽 객체의 모양, 크기, 위치, 색 및 투명도 중 적어도 어느 하나를 제어할 수 있다.
예를 들면, 프로세서(670)는, 맑은날 주행하는 경우, 흐린날 주행하는 경우에 비해 그래픽 객체의 색을 더 진하게 하거나, 그래픽 객체의 투명도를 낮출 수 있다. 이와 같이, 제어함으로써, 날씨에 대응하여 그래픽 객체의 시인성을 조절할 수 있다.
프로세서(670)는, 맵 정보를 획득할 수 있다. 프로세서(670)는, 메모리(640)에 저장된 맵 정보를 획득할 수 있다. 프로세서(670)는, 통신부(610)를 통해, 외부 서버, 이동 단말기 또는 타 차량으로부터 맵 정보를 획득할 수 있다. 프로세서(670)는, 인터페이스부(630)를 통해, 차량(100) 내 다른 디바이스(예를 들면, 내비게이션)들로부터 맵 정보를 획득할 수 있다.
프로세서(670)는, 획득된 맵 정보를 기초로, 제2 오브젝트에 대한 정보를 획득할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해 주행 상황 정보를 수신할 수 있다. 주행 상황 정보는, 차량 내부 상황 정보 및 차량 외부 상황 정보를 포함할 수 있다.
프로세서(670)는, 맵 정보 및 주행 상황 정보를 기초로, 차량 주변의 3D 맵을 생성할 수 있다. 프로세서(670)는, 맵 상의 오브젝트와, 외부 센싱부(126)를 통해 획득한 오브젝트 정보를 매칭할 수 있다. 이경우, 프로세서(670)는, 외부 센싱부(126)의 센싱 영역 내에서 3D 맵 정보를 생성할 수 있다. 프로세서(670)는, 3D 맵 생성시, 차량의 위치 정보, 차량 자세 정보와 같은 내부 센싱부(125)의 센싱 정보를 더 이용할 수 있다.
프로세서(670)는, 3D 맵상에서, 차량(100), 제1 오브젝트 및 제2 오브젝트 간의 위치 관계를 기초로, 운전자 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다.
프로세서(670)는, 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보에 기초하여, 동력원, 브레이크 장치 및 조향 장치 중 적어도 어느 하나를 제어하기 위한 신호를 제공할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량 구동부(150)에 제어 신호를 제공할 수 있다.
예를 들면, 프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려져 보이지 않는 상황에서, 제1 오브젝트와 차량(100)의 거리가 기준 거리 이하인 경우, 브레이크 구동부(153)에 제어 신호를 제공하여 차량(100)과 제1 오브젝트간의 거리를 유지할 수 있다.
예를 들면, 프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려져 보이지 않는 상황에서, 제1 오브젝트와 차량(100)의 거리가 기준 거리 이하인 경우, 조향 구동부(152)에 제어 신호를 제공하여, 차량(100)과 제1 오브젝트간의 충돌을 회피할 수 있다.
예를 들면, 프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려져 보이지 않는 상황에서, 제1 오브젝트와 차량(100)의 거리가 기준 거리 이상인 경우, 동력원 구동부(151)에 제어 신호를 제공하여, 차량(100)과 제1 오브젝트간의 거리를 유지할 수 있다.
한편, 프로세서(670)는, 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보에 기초하여, ADAS 기능중 적어도 어느하나가 동작되도록 제어 신호를 제공할 수 있다. 예를 들면, 프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려져 보이지 않는 상황에서, 제1 오브젝트와 차량(100)의 거리가 기준 거리 이하인 경우, AEB, FCW, ACC 또는 BSD이 적절하게 동작되도록 제어 신호를 제공할 수 있다.
한편, 프로세서(670)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
전원 공급부(690)는, 프로세서(670)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(690)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
도 7은 본 발명의 실시예에 따른, 프로세서의 내부 구성을 설명하는데 참조되는 도면이다.
도 7을 참조하면, 프로세서(670)는, 운전자 시선 정보 획득부(671), 제1 오브젝트 정보 획득부(672), 제2 오브젝트 정보 획득부(673), 맵 정보 획득부(674), 주행 상황 정보 획득부(678), 판단부(675), 제1 오브젝트 트래킹부(679), 디스플레이 제어부(676) 및 신호 출력부(677)를 포함할 수 있다.
운전자 시선 정보 획득부(671)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득할 수 있다. 운전자 시선 정보 획득부(671)는, 내부 카메라(624)가 획득한 차량 내부 영상에서, 운전자의 눈을 검출할 수 있다. 운전자 시선 정보 획득부(671)는, 운전자의 눈 이미지를 기초로 운전자 시선 정보를 획득할 수 있다.
운전자 시선 정보는, 판단부(675)에 제공될 수 있다.
제1 오브젝트 정보 획득부(672)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 제1 오브젝트 정보를 획득할 수 있다.
제1 오브젝트는, 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)가 트래킹 중인 오브젝트일 수 있다. 예를 들면, 제1 오브젝트는, 타 차량, 보행자 및 교통 신호 중 어느 하나일 수 있다.
제1 오브젝트 정보 획득부(672)는, 제1 오브젝트 정보를 판단부(675)에 제공할 수 있다.
제2 오브젝트 정보 획득부(673)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 제2 오브젝트 정보를 획득할 수 있다.
제2 오브젝트는, 제1 오브젝트 트래킹에 방해되는 오브젝트일 수 있다. 예를 들면, 제2 오브젝트는, 타 차량, 도로 및 구조물 중 어느 하나일 수 있다.
제2 오브젝트 정보 획득부(673)는, 제2 오브젝트 정보를 판단부(675)에 제공할 수 있다.
맵 정보 획득부(674)는, 인터페이스부(630)를 통해, 내비게이션 장치(300)로부터 맵 정보를 획득할 수 있다. 실시예에 따라, 맵 정보 획득부(674)는, 메모리(640)에 저장된 맵 정보를 획득하거나, 통신부(610)를 통해 차량(100) 외부에 있는 디바이스로부터 맵 정보를 획득할 수 있다.
맵 정보 획득부(674)는, 3D 맵을 생성할 수 있다. 맵 정보 획득부(674)는, 맵 상의 오브젝트와, 외부 센싱부(126)를 통해 획득된 오브젝트 정보를 매칭하여, 3D 맵을 생성할 수 있다. 맵 정보 획득부(674)는, 3D 맵 생성시, 차량의 위치 정보, 차량의 자세 정보와 같은 내부 센싱부(125)의 센싱 정보를 더 이용할 수 있다.
맵 정보 획득부(674)는 맵 정보를, 판단부(675)에 제공할 수 있다.
주행 상황 정보 획득부(678)는, 인터페이스부(630)를 통해, 주행 상황 정보를 획득할 수 있다. 여기서, 주행 상황 정보는, 차량 내부 상황 정보 및 차량 외부 상황 정보를 포함할 수 있다.
주행 상황 정보 획득부(678)는, 인터페이스부(630)를 통해, 내부 센싱부(125)로부터 차량 내부 상황 정보를 수신할 수 있다. 차량 내부 상황 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보, 차량 외부 조도 정보 중 적어도 하나를 포함할 수 있다.
주행 상황 정보 획득부(678)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 차량 외부 상황 정보를 수신할 수 있다. 차량 외부 상황 정보는, 차량 외부에 위치하는 오브젝트 정보일 수 있다.
주행 상황 정보 획득부(678)는, 주행 상황 정보를 디스플레이 제어부(676)에 제공할 수 있다.
판단부(675)는, 차량(100)과 제1 오브젝트 사이에, 제2 오브젝트가 위치하는지 판단할 수 있다.
판단부(675)는, 운전자 시선 정보를 기초로, 운전자의 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다.
판단부(675)는, 3D 맵상에서, 차량(100), 제1 오브젝트 및 제2 오브젝트간의 위치 관계를 기초로, 운전자 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다.
판단부(675)는, 카메라(200)의 시야에서, 제1 오브젝트가 제2 오브젝트에 가리는지 여부를 기초로, 차량(100)과, 제2 오브젝트 사이에 제1 오브젝트가 위치하는지 판단할 수 있다.
판단부(675)는, 내부 카메라(624)를 통해 검출된 운전자의 눈의 위치가 아이 박스 밖으로 벗어나는지 판단할 수 있다.
제1 오브젝트 트래킹부(679)는, V2X 통신부(615)에서 수신되는 정보를 통해, 제1 오브젝트를 트래킹할 수 있다. V2X 통신부(615)는, 제1 오브젝트로부터 위치 정보를 수신하여, 제1 오브젝트 트래킹부(679)에 제공할 수 있다.
한편, 실시예에 따라, V2X 통신부(615)를 통해 획득되는 제1 오브젝트 정보는, 맵 정보 획득부(674)에서 생성된 3D 맵에 반영될 수도 있다.
디스플레이 제어부(676)는, 판단부(675)의 판단 결과를 기초로, 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 차량(100)과 제1 오브젝트 사이에, 제2 오브젝트가 위치하는 경우, 제1 오브젝트에 대응되는 그래픽 객체를 생성하고, 그래픽 객체가 디스플레이부(651)에 표시되도록, 디스플레이부(651)를 제어할 수 있다. 디스플레이 제어부(676)는, 증강 현실로, 그래픽 객체가 표시되도록 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 제1 오브젝트에 대응되는 형상을 그래픽 객체로 생성하여, 그래픽 객체가 디스플레이부(651)에 표시되도록 제어할 수 있다.
디스플레이 제어부(676)는, 프런트 윈드 쉴드 상에서, 제2 오브젝트에 대응되는 영역에 그래픽 객체를 표시하도록 제어할 수 있다.
디스플레이 제어부(676)는, 프런트 윈드 쉴드 상에서, 트래킹되는 제1 오브젝트의 위치에 대응되는 영역에 그래픽 객체를 표시하도록 제어할 수 있다.
디스플레이 제어부(676)는, 차량(100)과 제1 오브젝트와의 거리 또는 상대 속도에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 크기의 변화 또는 색의 변화를 제어할 수 있다.
운전자의 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는 경우, 디스플레이 제어부(676)는, 프런트 윈드 쉴드 상에서, 제2 오브젝트에 대응되는 영역 중, 제1 오브젝트의 위치에 대응되는 영역에, 증강 현실로, 그래픽 객체를 표시할 수 있다.
디스플레이 제어부(676)는, 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가, 제1 오브젝트 중 가려지지 않은 부분에 연장되어 증강 현실로 표시되도록 제어할 수 있다.
획득된 눈의 위치가 메모리(640)에 저장된 아이 박스 밖으로 벗어난 경우, 디스플레이 제어부(676)는, 그래픽 객체의 표시 영역이 변경되도록 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 차량의 상태 정보에 기초하여 디스플레이부(651)에 표시되는 그래픽 객체의 모양, 크기, 위치, 색 및 투명도 중 어느 하나를 제어할 수 있다.
차량의 상태 정보는, 차량의 자세 정보, 차량의 주행 속도 정보, 차량의 주행 모드 정보 및 차량의 주행/정차 상태 정보 등을 포함할 수 있다.
디스플레이 제어부(676)는, 차량의 자세 정보에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 위치를 변경할 수 있다.
디스플레이 제어부(676)는, 차량의 주행 속도 정보에 기초하여, 그래픽 객체의 크기가 변경되도록 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 주행 상황 정보 획득부(678)에서 수신되는 주행 상황 정보에 대응되는 그래픽 객체가 더 표시되도록 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 차량 상태 정보에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 양, 종류, 표시되는 영역 중 적어도 어느 하나를 제어할 수 있다.
신호 출력부(677)는, 제1 오브젝트 정보 및 제2 오브젝트 정보에 기초하여, 동력원, 브레이크 장치 및 조향 장치 중 적어도 어느 하나를 제어하기 위한 신호를 제공할 수 있다.
신호 출력부(677)는, 인터페이스부(630)를 통해, 차량 구동부(150)에 신호를 제공할 수 있다.
도 8 내지 도 9는 본 발명의 실시예에 따라 차량이 경사 진입 전에, 선행하는 타 차량이 도로 경사에 가려지는 상황을 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)은, 도 8에 예시된 바와 같이 내리막을 주행할 수 있다. 차량(100)은, 도 9에 예시된 바와 같이 오르막을 주행할 수 있다. 차량(100)이 오르막 또는 내리막 진입 전에, 선행하는 타 차량(810)이 도로의 경사(820, 830)에 가려져 보이지 않을 수 있다. 차량(100)과 선행하는 타 차량(810) 사이에 도로의 경사(820, 830)가 위치할 수 있다.
여기서, 선행하는 타 차량(810)은, 제1 오브젝트일 수 있다. 도로의 경사(820, 830)는, 제2 오브젝트일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 선행하는 타 차량(810) 정보 및 도로의 경사(820, 830) 정보를 획득할 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 선행하는 타 차량(810) 및 도로의 경사(820, 830)를 감지할 수 있다. 프로세서(670)는, 외부 센싱부(126)로부터 타 차량(810) 정보 및 도로의 경사(820, 830) 정보를 수신할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(810)의 위치 정보를 획득할 수 있다. 타 차량(810)이 도로의 경사(820, 830)에 가려져, 외부 센싱부(126)가 타 차량(810)을 검출하지 못하는 경우에도, 프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(810)을 지속적으로 트래킹할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득하고, 운전자 시선 정보를 기초로, 차량(100)과 선행하는 타 차량(810) 사이에 도로의 경사(820, 830)가 위치하는지 판단할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 선행하는 타 차량(810)이 도로의 경사(820, 830)에 가려지는지 판단할 수 있다.
프로세서(670)는, 3D 맵을 생성하고, 3D 맵상에서, 차량(100), 선행하는 타 차량(810) 및 도로(820, 830)간의 위치 관계를 기초로, 차량(100)과 선행하는 타 차량(810) 사이에 도로의 경사(820, 830)가 위치하는지 판단할 수 있다. 프로세서(670)는, 3D 맵을 기초로 운전자 시선에서, 선행하는 타 차량(810)이 도로의 경사(820, 830)에 가려지는지 판단할 수 있다.
도 10a 내지 도 10d는 본 발명의 실시예에 따라, 도 8 내지 도 9의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)과, 제1 오브젝트 사이에, 제2 오브젝트가 위치하는 경우, 프로세서(670)는, 제1 오브젝트에 대응하는 그래픽 객체(1000, 1010, 1020, 1030, 1050)를 생성할 수 있다. 프로세서(670)는, 그래픽 객체가 표시되도록 디스플레이부(651)를 제어할 수 있다.
그래픽 객체(1000, 1010, 1020, 1030, 1050)는, 차량(100)의 프런트 윈드 쉴드(10) 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체(1000, 1010, 1020, 1030, 1050)가 증강현실로 표시되도록 제어할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드(10) 상에서, 도로의 경사(820, 830)에 대응되는 영역에 그래픽 객체(1000, 1010, 1020, 1030, 1050)를 표시하도록 제어할 수 있다.
프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)을 트래킹할 수 있다. 프로세서(670)는, V2X 통신부(615)를 통해, 선행하는 타 차량(도 8 내지 도 9의 810)의 위치 정보를 수신할 수 있다. 프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)의 위치 정보를 기초로, 트래킹할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드(10) 상에서, 트래킹되는 선행하는 타 차량(도 8 내지 도 9의 810)의 위치에 대응되는 영역에 그래픽 객체(1000, 1010, 1020, 1030, 1050)를 표시하도록 제어할 수 있다.
도 10a에 예시된 바와 같이, 프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)에 대응되는 그래픽 객체(1000, 1010)를 표시할 수 있다.
프로세서(670)는, 그래픽 객체로 텍스트(1010)를 표시할 수 있다. 프로세서(670)는, 그래픽 객체로, 화살표 형상(1000)을 표시할 수 있다. 이때, 프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)이 향하는 방향과 화살표 형상(1000)의 방향이 일치되도록 화살표 형상(1000)을 표시할 수 있다.
도 10b 내지 도 10c에 예시된 바와 같이, 프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)과 비슷한 형상인 차량 이미지(1020, 1030)를, 그래픽 객체로, 표시할 수 있다.
프로세서(670)는, 차량(100)과 선행하는 타 차량(810)의 거리를 기초로 차량 이미지(1020, 1030)의 크기의 변화 또는 색의 변화를 조절할 수 있다.
예를 들면, 차량(100)과 선행하는 타 차량(810)이 점점 가까워질수록, 프로세서(670)는, 차량 이미지(1020, 1030)를 점점 크게 표시할 수 있다. 또한, 차량(100)과 선행하는 타 차량(810)이 점점 멀어질수록, 프로세서(670)는, 차량 이미지(1020, 1030)를 점점 작게 표시할 수 있다.
예를 들면, 차량(100)과 선행하는 타 차량(810)이 점점 가까워질수록, 프로세서(670)는, 차량 이미지(1020, 1030)의 색을 점점 진하게 표시할 수 있다. 또한, 차량(100)과 선행하는 타 차량(810)이 점점 멀어질수록, 프로세서(670)는, 차량 이미지(1020, 1030)의 색을 점점 연하게 표시할 수 있다.
프로세서(670)는, 차량(100)과 선행하는 타 차량(810)의 상대 속도를 기초로, 차량 이미지(1020, 1030)의 크기의 변화 또는 색의 변화를 조절할 수 있다.
예를 들면, 차량(100)과 선행하는 타 차량(810)의 상대 속도가 점점 감소할수록, 프로세서(670)는, 차량 이미지(1020, 1030)를 점점 크게 표시할 수 있다. 또한, 차량(100)과 선행하는 타 차량(810)의 상대 속도가 점점 증가할수록, 프로세서(670)는, 차량 이미지(1020, 1030)를 점점 작게 표시할 수 있다.
예를 들면, 차량(100)과 선행하는 타 차량(810)의 상대 속도가 점점 감소할수록, 프로세서(670)는, 차량 이미지(1020, 1030)의 색을 점점 진하게 표시할 수 있다. 또한, 차량(100)과 선행하는 타 차량(810)의 상대 속도가 점점 증가할수록, 프로세서(670)는, 차량 이미지(1020, 1030)의 색을 점점 연하게 표시할 수 있다.
도 10d에 예시된 바와 같이, 프로세서(670)는, 선행하는 타 차량(810)의 일부가 도로의 경사(820, 830)에 가려지는 경우, 가려진 부분에 대응되는 차량 일부 이미지(1050)가 표시되도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, 차량 일부 이미지(1050)가 선행하는 타 차량(810) 중 가려지지 않은 부분에 연장된 상태로 증강 현실로 표시되도록 디스플레이부(651)를 제어할 수 있다.
도 11은 본 발명의 실시예에 따라 교차로 진입 전에, 타 차량이 건물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)은, 도 11에 예시된 바와 같이, 교차로를 주행할 수 있다. 차량(100)이 교차로 진입 전에, 교차로에서 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 타 차량(1110)이 주변 건물(1120)에 가려져 보이지 않을 수 있다. 차량(100)과 타 차량(1110) 사이에 건물(1120)이 위치할 수 있다.
여기서, 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 타 차량(1110)은, 제1 오브젝트일 수 있다. 도로 주변에 위치하는 건물(1120)은, 제2 오브젝트일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 타 차량(1110) 정보 및 도로 주변 건물(1120) 정보를 획득할 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 타 차량(1110) 및 건물(1120)을 감지하고, 프로세서(670)는, 외부 센싱부(126)로부터 타 차량(1110) 정보 및 건물(1120) 정보를 수신할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(1110)의 위치 정보를 획득할 수 있다. 타 차량(1110)이 건물(1120)에 가려져, 외부 센싱부(126)가 타 차량(1110)을 검출하지 못하는 경우에도, 프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(1110)을 지속적으로 트래킹할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득하고, 운전자 시선 정보를 기초로, 차량(100)과 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 타 차량(1110) 사이에 건물(1120)이 위치하는지 판단할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 타 차량(1110)이 건물(1120)에 가려지는지 판단할 수 있다.
프로세서(670)는, 3D 맵을 생성하고, 3D 맵상에서, 차량(100), 차량(100)의 주행 방향과 교차되는 방향으로 주행 중인 타 차량(1110) 사이에 건물(1120)이 위치하는지 판단할 수 있다. 프로세서(670)는, 3D 맵을 기초로 운전자 시선에서, 타 차량(1110)이 건물(1120)에 가려지는지 판단할 수 있다.
도 12는 본 발명의 실시예에 따라, 도 11의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)과 차량(100)의 주행 방향과 교차되는 방향으로 주행 중인 타 차량(1110) 사이에 건물(1120)이 위치하는 경우, 프로세서(670)는, 타 차량(1110)에 대응되는 그래픽 객체(1210)를 생성할 수 있다. 프로세서(670)는, 그래픽 객체(1210)가 표시되도록 디스플레이부(651)를 제어할 수 있다. 여기서, 그래픽 객체는, 차량의 이미지(1210)일 수 있다.
그래픽 객체(1210)는, 차량(100)의 프런트 윈드 쉴드(10) 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체(1210)가 증강현실로 표시되도록 제어할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드에서, 건물(1120)에 대응되는 영역에 그래픽 객체(1210)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해 수신된, 타 차량(1110)의 위치 정보에 대응되는 영역에 그래픽 객체(1210)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
도 13은 본 발명의 실시예에 따라, 주행시 보행자가 타 차량에 가려지는 상황을 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)은, 도 13에 예시된 바와 같이, 주행 중 차도를 건너는 보행자(1310)가 도로가에 정차되어 있는 타 차량(1320)에 가려져 보이지 않을 수 있다. 차량(100)과 보행자(1310) 사이에 타 차량(1320)이 위치할 수 있다.
여기서, 차도를 건너는 보행자(1310)는, 제1 오브젝트일 수 있다. 도로가에 정차되어 있는 타 차량(1320)는, 제2 오브젝트일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차도를 건너는 보행자(1310) 정보 및 도로가에 정차되어 있는 타 차량(1320) 정보를 획득할 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 보행자(1310) 및 타 차량(1320)을 감지하고, 프로세서(670)는, 외부 센싱부(126)으로부터 보행자(1310) 및 타 차량(1320) 정보를 수신할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 보행자(1310)의 위치 정보를 획득할 수 있다. 구체적으로, 프로세서(670)는, V2X 통신부(615)를 통해, 보행자(1310)가 소지한 이동 단말기와 통신하여, 이동 단말기의 위치 정보를 획득할 수 있다. 이때, 이동 단말기의 위치 정보는, 보행자의 정보일 수 있다. 보행자(1310)가 타 차량(1320)에 가려져, 외부 센싱부(126)가 보행자를 검출하지 못하는 경우에도, 프로세서(670)는, V2X 통신부(615)를 통해, 보행자(1310)를 지속적으로 트래킹할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득하고, 운전자 시선 정보를 기초로, 차량(100)과 차도를 건너는 보행자(1310) 사이에, 도로가에 정차된 타 차량(1320)이 위치하는지 판단할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 보행자(1310)가 타 차량(1320)에 가려지는지 판단할 수 있다.
프로세서(670)는, 3D 맵을 생성하고, 3D 맵상에서, 차량(100), 차도를 건너는 보행자(1310) 사이에 도로가에 정차된 타 차량(1320)이 위치하는지 판단할 수 있다. 프로세서(670)는, 3D 맵을 기초로, 운전자 시선에서, 보행자(1310)가 타 차량(1320)에 가려지는지 판단할 수 있다.
도 14는, 본 발명의 실시예에 따라, 도 13의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)과 차도를 건너는 보행자(1310) 사이에, 도로가에 정차되어 있는 타 차량(1320)이 위치하는 경우, 프로세서(670)는, 보행자(1310)에 대응되는 그래픽 객체(1410)를 생성할 수 있다. 프로세서(670)는, 그래픽 객체(1410)가 표시되도록 디스플레이부(651)를 제어할 수 있다. 여기서, 그래픽 객체는 보행자 이미지(1410)일 수 있다.
그래픽 객체(1410)는, 차량(100)의 프런트 윈드 쉴드(10) 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체(1410)가 증강현실로 표시되도록 제어할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드에서, 타 차량(1320)에 대응되는 영역에 그래픽 객체(1410)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해 수신된, 보행자(1310)의 위치 정보에 대응되는 영역에 그래픽 객체(1410)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
도 15는 본 발명의 실시예에 따라, 차량이 코너 진입 전에, 선행하는 타 차량이 도로 주변 지형물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)은, 도 15에 예시된 바와 같이, 커브 구간을 주행할 수 있다. 차량(100)이 커브 구간 진입 전에, 선행하는 타 차량(1510)이 도로 주변 지형물(1520)에 가려져 보이지 않을 수 있다. 차량(100)과 타 차량(1510) 사이에 지형물(1520)이 위치할 수 있다.
여기서, 선행하는 타 차량(1510)은 제1 오브젝트일 수 있다. 도로 주변에 위치하는 지형물(1520)은, 제2 오브젝트일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량(100)에 선행하는 타 차량(1510) 정보 및 도로 주변에 위치하는 지형물(1520) 정보를 획득할 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 타 차량(1510) 및 지형물(1520)을 감지하고, 프로세서(670)는, 외부 센싱부(126)로부터 타 차량(1510) 정보 및 지형물(1520) 정보를 수신할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(1510)의 위치 정보를 획득할 수 있다. 타 차량(1510)이 지형물(1520)에 가려져, 외부 센싱부(126)가 타 차량(1510)을 검출하지 못하는 경우에도, 프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(1510)을 지속적으로 트래킹할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득하고, 운전자 시선 정보를 기초로, 차량(100)과 차량(100)에 선행하는 타 차량(1510) 사이에 지형물(1520)이 위치하는지 판단할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 타 차량(1510)이 지형물(1520)에 가려지는지 판단할 수 있다.
프로세서(670)는, 3D 맵을 생성하고, 3D 맵상에서, 차량(100), 차량(100)에 선행하는 타 차량(1510) 사이에 지형물(1520)이 위치하는지 판단할 수 있다. 프로세서(670)는, 3D 맵을 기초로, 운전자 시선에서, 타 차량(1520)이 지형물(1520)에 가려지는지 판단할 수 있다.
한편, 지형물(1520)은, 산과 같이, 지상에서 일정한 부피를 가지게 형성되는 오브젝트일 수 있다.
도 16은 본 발명의 실시예에 따라, 도 15의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)과 차량(100)에 선행하는 타 차량(1510) 사이에 지형물(1520)이 위치하는 경우, 프로세서(670)는, 타 차량(1510)에 대응되는 그래픽 객체(1610)를 생성할 수 있다. 프로세서(670)는, 그래픽 객체(1610)가 표시되도록 디스플레이부(651)를 제어할 수 있다. 여기서, 그래픽 객체는, 소정의 도형 이미지(1610)일 수 있다.
그래픽 객체(1610)는, 차량(100)의 프런트 윈드 쉴드(10) 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체(1610)가 증강현실로 표시되도록 제어할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드에서, 지형물(1520)에 대응되는 영역에 그래픽 객체(1610)를 표시하도록 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해 수신된, 타 차량(1520)의 위치 정보에 대응되는 영역에 그래픽 객체(1610)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
한편, 타 차량(1520)이 제2 오브젝트에 가려진 상태에서, 프로세서(670)는, 차량(100)과 선행하는 타 차량(1520)과의 거리 정보를 기초로, 브레이크 제어를 안내하는 그래픽 객체를 증강현실로 표시하도록 디스플레이부(651)를 제어할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)과 타 차량(1520)간의 거리가 제1 범위 이내인 경우, 제1 색 또는 제1 크기의 제1 이미지(1621)를 주행 도로와 겹쳐지게 보이도록 표시할 수 있다 여기서, 제1 이미지(1621)는, 제1 단계의 제동이 이루어지도록 운전자를 유도하기 위한 이미지일 수 있다.
예를 들면, 프로세서(670)는, 차량(100)과 타 차량(1520)간의 거리가 제2 범위 이내인 경우, 제2 색 또는 제2 크기의 제2 이미지(1622)를 주행도로와 겹쳐지게 보이도록 표시할 수 있다. 여기서, 제2 이미지(1622)는, 제2 단계의 제동이 이루어지도록 운전자를 유도하기 위한 이미지일 수 있다.
예를 들면, 프로세서(670)는, 차량(100)과 타 차량(1520)간의 거리가 제3 범위 이내인 경우, 제3 색 또는 제3 크기의 제3 이미지(1623)를 주행도로와 겹쳐지게 보이도록 표시할 수 있다. 여기서, 제3 이미지(1623)는, 제3 단계의 제동이 이루어지도록 운전자를 유도하기 위한 이미지일 수 있다.
도 17은 본 발명의 실시예에 따른 다양한 그래픽 객체를 설명하는데 참조되는 도면이다.
프로세서(670)는, 다양한 그래픽 객체(1710, 1720, 1725, 1730, 1740, 1750)가 증강현실로 표시되도록 디스플레이부(651)를 제어할 수 있다.
예를 들면, 프로세서(670)는, 교통 표지판이 주변에 위치하는 경우, 교통 표지판에 대응되는 이미지(1710)를 표시할 수 있다.
예를 들면, 프로세서(670)는, 탑승객이 선호하는 상점이 주변에 위치하는 경우, 상점에 대응되는 이미지(1720)를 증강 현실로 표시할 수 있다. 이경우, 차량용 디스플레이 장치(100)는, 음향 입력부(622)를 통해 사용자 입력을 수신 받아, 상점에 자동 예약 전화를 걸 수 있다.
예를 들면, 프로세서(670)는, 주변에 신호등이 위치하는 경우, 신호등에 대응하는 이미지(1725)를 증강 현실로 표시할 수 있다. 이때, 프로세서(670)는, 신호등의 신호 변환 시간 정보를 함께 표시할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)에 잔여 연료가 얼마 남지 않은 경우, 주변에 위치한 주유소에 대응하는 이미지(1730)를 증강 현실로 표시할 수 있다. 이때, 프로세서(670)는, 주변 주유소의 유가 정보를 함께 표시할 수 있다.
예를 들면, 프로세서(670)는, 차선 합류 지점이 주변에 위치하는 경우, 차선 합류 지점에 대응하는 이미지(1740)를 표시할 수 있다. 이때, 프로세서(670)는, 차선 합류를 위한 추천 차선 안내 정보를 함께 표시할 수 있다. 이경우, 프로세서(670)는, 차선 합류 지점 진입을 위해 방향 지시등 온(on)을 위한 제어 신호를 램프 구동부(154)에 제공할 수 있다.
예를 들면, 프로세서(670)는, 지하도가 주변이 위치하는 경우, 지하도 진입에 대응하는 이미지(1750)를 표시할 수 있다. 이때, 프로세서(670)는, 지하도 진입 전 공기 오염도 상태 정보를 함께 표시할 수 있다. 이경우, 프로세서(670)는, 지하도 진입 전에 윈도우 구동부(157)에 윈도우 클로징을 위한 제어 신호를 제공할 수 있다. 또한, 프로세서(670)는, 공조 구동부(155)에, 공기 정화기능 온(on)을 위한 제어 신호를 제공할 수 있다.
한편, 위험 상황이 회피되는 경우, 프로세서(670)는, 출력부(650)를 통해, 위험 상황 회피 정보를 출력할 수 있다.
도 18은 본 발명의 실시예에 따른 3D 도면을 설명하는데 참조되는 도면이다.
도면을 참조하면, 프로세서(670)는, 맵 정보를 획득할 수 있다. 맵 정보는, 차량(100)을 중심으로 한, 주변의 공간 정보를 포함할 수 있다. 예를 들면, 맵 정보는, 차량(100) 주변의 도로, 지형물, 구조물 등의 정보를 포함할 수 있다.
프로세서(670)는, 외부 센싱부(126)로부터 센싱된 차량(100)의 외부 상황 정보를 수신할 수 있다. 구체적으로, 프로세서(670)는, 외부 센싱부(126)로부터, 차량(100)의 외부에 위치하는 오브젝트 정보를 수신할 수 있다.
프로세서(670)는, 맵 정보 및 외부 상황 정보를 합성(fusion)하여 3D 맵(1800)을 생성할 수 있다. 프로세서(670)는, 맵 상의 오브젝트와, 외부 센싱부(126)를 통해 획득한 오브젝트 정보를 매칭할 수 있다.
프로세서(670)는, 3D 맵상에서, 맵 정보에서 획득한, 도로(1811), 지형물 및 구조물(1812)을 입체적으로 구현할 수 있다. 또한, 프로세서(670)는, 외부 상황 정보에서 획득한, 타 차량(1821) 및 보행자(1822)를 입체적으로 구현할 수 있다.
프로세서(670)는, 3D 맵상에서, 차량(100), 제1 오브젝트 및 제2 오브젝트 간의 위치 관계를 기초로, 운전자 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다.
도 19는 본 발명의 일 실시예에 따라, 차량용 디스플레이 장치(600)가 윈드 쉴드(10)를 통해 증강현실 이미지를 구현하는 동작을 설명하기 위한 개념도이다. 도 19에서, 차량용 디스플레이 장치(600)는 HUD인 것으로 가정한다.
이하의 설명에서, 증강현실 이미지는 그래픽 객체의 일 예일 수 있다.
도 19를 참조하면, 차량용 디스플레이 장치(600)는 디스플레이 패널(1942), 제1 미러(1944), 제2 미러(1946)를 포함할 수 있다.
디스플레이 패널(1942)에는 백 라이트 유닛이 구비되어, 프로세서(670)의 제어에 따라, 증강현실 이미지를 구현하기 위한 표시광을 윈드 쉴드(10)를 향하여 투영할 수 있다.
프로세서(670)는 실내 카메라(624), 실외 카메라(200) 및 디스플레이 패널(1942)과 기능적으로 연결되어, 실내 카메라(624) 및/또는 실외 카메라(200)로부터 제공되는 영상을 기초로, 특정 증강현실 이미지를 구성하기 위한 영상 데이터를 생성하고, 이를 디스플레이 패널(1942)에 제공할 수 있다. 예컨대, 증강현실 이미지를 구성하기 위한 영상 데이터는 비트맵(bit map) 형식일 수 있다.
일 실시예에서, 프로세서(670)는 실외 카메라(200)로부터 제공되는 전방 영상을 기초로, 차량(100)의 전방에 존재하는 특정 오브젝트(1901)를 검출하고, 검출된 오브젝트(1901)에 대응하는 증강현실 이미지를 구성하기 위한 영상 데이터를 디스플레이 패널(1942)에 제공할 수 있다.
디스플레이 패널(1942)은 프로세서(670)로부터 제공되는 영상 데이터를 기초로, 증강현실 이미지에 대응하는 표시광을 제1 미러(1944)로 출력할 수 있다. 제2 미러(1946)는 제1 미러(1944)로부터 반사된 표시광을 윈드 쉴드(10)에 재 반사함으로써, 윈드 쉴드(10)를 통해 증강현실 이미지가 구현되도록 할 수 있다. 디스플레이 패널(1942)로부터 윈드 쉴드(10)까지의 광학 경로(optical path)에 의해, 증강현실 이미지에 대응하는 표시광의 사이즈가 확대되거나 윈드 쉴드(10)에 대한 투영 위치가 조절될 수 있다.
한편, 제2 미러(1946)에 의해 반사된 표시광은 윈드 쉴드(10)의 미리 정해진 영역(이하, 표시 영역) 내에 투영될 수 있다. 표시 영역(1920)에는 증강현실 이미지(1930)가 보다 선명하게 보일 수 있도록 반사 필름이 부착될 수 있다.
이때, 윈드 쉴드(10)에 투영된 표시광에 의해 증강현실 이미지가 구현되는데, 운전자의 위치에서는 증강현실 이미지(1930)가 윈드 쉴드(10)의 표시 영역(1920)이 아닌, 표시 영역(1920) 너머의 차량(100) 외부에 표시되는 것으로 보일 수 있다. 즉, 증강현실 이미지(1930)는 차량(100)의 전방으로 소정 거리 앞에 마치 떠있는 것처럼 보이는 허상으로 인식될 수 있다. 예컨대, 증강현실 이미지(1930)는 오브젝트(1901)의 윤곽선, 속도, 충돌 경보 등에 대한 정보를 제공하는 그래픽 객체일 수 있다.
차량용 디스플레이 장치(600)가 허상을 통해 증강현실 이미지(1930)를 구현하는 경우, 운전자가 표시 영역(1920)을 통해 증강현실 이미지(1930)를 인지하기 위해서는, 운전자의 눈 위치가 아이 박스(1910) 내에 위치해야 한다. 아이 박스(1910)는 3차원의 부피를 가지는 차량(100) 실내의 공간으로서, 운전자의 눈이 아이 박스(1910) 내에 위치하는 경우, 표시 영역(1920)을 통해 증강현실 이미지(1930)를 확인할 수 있다. 반면, 운전자의 눈이 아이 박스(1910) 밖으로 벗어나는 경우, 증강현실 이미지(1930)의 일부분만이 보이거나, 증강현실 이미지(1930)가 전부 보이지 않을 수 있다. 메모리(640)에는 아이 박스(1910)의 경계를 정의하는 좌표값들이 미리 저장될 수 있다.
한편, 운전자의 눈이 아이 박스(1910) 내에 위치하는 경우, 운전자가 증강현실 이미지(1930)를 인지할 수 있다고 하더라도, 아이 박스(1910) 내에서의 눈 위치 변화에 따라, 운전자가 표시 영역(1920)을 통해 인지하게 되는 오브젝트(1901)의 실제 이미지와 증강현실 이미지(1930) 사이에는 오차가 발생할 수 있다. 이는, 운전자의 위치를 기준으로 할때, 증강현실 이미지(1930)까지의 거리와 오브젝트(1901)까지의 거리가 상이하기 때문에 발생하는 현상이며, 오브젝트(1901)가 상대적으로 멀어질수록 증강현실 이미지(1930)와의 오차는 점차적으로 증대될 수 있다. 이러한 오차를 저감 내지 해소하기 위해, 프로세서(670)는 운전자의 눈 위치를 기초로, 증강현실 이미지(1930)를 후처리할 수 있다.
구체적으로, 프로세서(670)는 실내 카메라(624)로부터 제공되는 운전자 영상으로부터, 운전자의 눈 위치를 검출할 수 있다. 일 실시예에서, 프로세서(670)는 아이 트래킹(eye tracking) 기법을 이용하여, 운전자 영상에 나타나는 운전자의 눈을 검출하고, 검출된 눈의 3차원 좌표값을 산출할 있다. 다른 실시예에서, 프로세서(670)는 에지 검출(edge detection) 기법을 이용하여, 운전자 영상으로부터 운전자의 얼굴 윤곽선을 추출하고, 추출된 윤곽선을 기초로, 운전자의 눈 위치를 추정할 수 있다.
메모리(640)에는 기준 위치에 대한 정보가 미리 설정될 수 있고, 프로세서(670)는 운전자의 눈 위치를 기준 위치와 비교하여, 기준 위치에 대한 눈 위치의 방향 및 거리를 산출할 수 있다. 즉, 프로세서(670)는 운전자의 현재 눈 위치가 기준 위치로부터 어느 방향으로 얼마만큼 떨어져 있는지 판단할 수 있다.
프로세서(670)는 기준 위치에 대한 눈 위치의 방향 및 거리에 따라, 증강현실 이미지에 대한 후처리에 적용할 시각 효과를 결정할 수 있다. 아울러, 프로세서(670)는 결정된 시각 효과의 크기를 결정할 수도 있다.
프로세서(670)는 결정된 시각 효과를 이용하여 증강현실 이미지(1930)를 후처리함으로써, 아이 박스(1910) 내에서의 눈 위치 변화에 따라 발생하는 오브젝트(1901)의 실제 이미지와의 오차를 억제하고, 보다 향상된 이미지 간 매칭 결과를 운전자에게 제공할 수 있다.
증강현실 이미지에 대한 후처리에 적용 가능한 시각 효과는, 증강현실 이미지에 대한 블러링(blurring), 위치 변경, 크기 변경, 형상 변경 및 기울기 변경 중 적어도 하나를 포함할 수 있다. 일 예로, 운전자의 눈 위치가 y축을 따라 좌우로 변화됨에 따라, 증강현실 이미지와 오브젝트의 실제 이미지 간에 수평적 오차가 발생한 경우, 프로세서(670)는 증강현실 이미지를 실제 이미지 쪽으로 수평적으로 이동시키거나, 증강현실 이미지의 폭 확장, 또는 증강현실 이미지의 적어도 일부분에 대한 블러링(blurring) 등의 시각 효과를 통해, 두 이미지 간의 불일치를 보상할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 디스플레이부;
    인터페이스부; 및
    상기 인터페이스부를 통해, 차량 외부에 위치하는 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보를 수신하고,
    차량과 상기 제1 오브젝트 사이에, 상기 제2 오브젝트가 위치하는 경우, 상기 제1 오브젝트에 대응되는 그래픽 객체가, 상기 디스플레이부에 표시되도록 제어하는 프로세서;를 포함하는 차량용 디스플레이 장치.
  2. 제 1항에 있어서,
    상기 그래픽 객체는,
    차량의 프런트 윈드 쉴드 상에 표시되고,
    상기 프로세서는,
    상기 그래픽 객체가 증강현실(Augmented Reality)로 표시되도록 제어하는 차량용 디스플레이 장치.
  3. 제 2항에 있어서,
    상기 프로세서는,
    상기 프런트 윈드 쉴드 상에서, 상기 제2 오브젝트에 대응되는 영역에 상기 그래픽 객체를 표시하도록 제어하는 차량용 디스플레이 장치.
  4. 제 2항에 있어서,
    상기 프로세서는,
    상기 제1 오브젝트를 트래킹하고, 상기 프런트 윈드 쉴드 상에서, 상기 트래킹된 제1 오브젝트의 위치에 대응하는 영역에 상기 그래픽 객체를 표시하도록 제어하는 차량용 디스플레이 장치.
  5. 제 4항에 있어서,
    상기 제1 오브젝트와 데이터를 교환하는 V2X 통신부;를 더 포함하고,
    상기 프로세서는,
    상기 V2X 통신부를 통해, 상기 제1 오브젝트의 위치 정보를 수신하고, 상기 위치 정보를 기초로, 상기 제1 오브젝트를 트래킹하는 차량용 디스플레이 장치.
  6. 제 4항에 있어서,
    상기 프로세서는,
    차량과 상기 제1 오브젝트와의 거리 또는 상대 속도에 기초하여, 상기 디스플레이부에 표시되는 상기 그래픽 객체의 크기의 변화 또는 색의 변화를 제어하는 차량용 디스플레이 장치.
  7. 제 1항에 있어서,
    차량 실내 영상을 획득하는 내부 카메라;를 더 포함하고,
    상기 프로세서는,
    상기 내부 카메라를 통해, 운전자 시선 정보를 획득하고, 상기 운전자 시선 정보를 기초로, 상기 운전자 시선에서, 상기 제1 오브젝트가 상기 제2 오브젝트에 가려지는지 판단하는 차량용 디스플레이 장치.
  8. 제 7항에 있어서,
    상기 프로세서는,
    상기 운전자 시선에서, 상기 제1 오브젝트가 상기 제2 오브젝트에 가려지는 경우, 프런트 윈드 쉴드 상에서, 상기 제2 오브젝트에 대응되는 영역 중, 상기 제1 오브젝트의 위치에 대응하는 영역에, 증강현실로, 상기 그래픽 객체를 표시하는 차량용 디스플레이 장치.
  9. 제 8항에 있어서,
    상기 프로세서는,
    상기 운전자 시선에서, 상기 제1 오브젝트의 일부가, 상기 제2 오브젝트에 가려지는 경우,
    상기 디스플레이부에, 상기 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가, 표시되도록 제어하는 차량용 디스플레이 장치.
  10. 제 9항에 있어서,
    상기 프로세서는,
    상기 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가, 상기 제1 오브젝트 중 가려지지 않은 부분에 연장된 상태로 표시되도록 제어하는 차량용 디스플레이 장치.
  11. 제 7항에 있어서,
    운전자에 대응되는 아이 박스(eye box) 좌표 정보를 저장하는 메모리;를 더 포함하고,
    상기 프로세서는,
    상기 내부 카메라를 통해, 운전자의 눈의 위치 정보를 획득하고, 상기 눈의 위치가 상기 아이 박스 밖으로 벗어난 경우,
    상기 그래픽 객체의 표시 영역이 변경되도록 상기 디스플레이부를 제어하는 차량용 디스플레이 장치.
  12. 제 1항에 있어서,
    상기 프로세서는,
    상기 인터페이스부를 통해, 차량의 상태 정보를 수신하고, 상기 상태 정보에 기초하여, 상기 디스플레이부에 표시되는, 상기 그래픽 객체의 모양, 크기, 위치, 색 및 투명도 중 적어도 어느 하나를 제어하는 차량용 디스플레이 장치.
  13. 제 12항에 있어서,
    상기 상태 정보는, 차량의 자세 정보를 포함하고,
    상기 프로세서는,
    상기 자세 정보에 기초하여, 상기 디스플레이부에 표시되는, 상기 그래픽 객체의 위치를 변경하는 차량용 디스플레이 장치.
  14. 제 12항에 있어서,
    상기 상태 정보는, 차량의 속도 정보를 포함하고,
    상기 프로세서는,
    상기 속도 정보에 기초하여, 상기 그래픽 객체의 크기가 변경되도록 상기 드스플레이부를 제어하는 차량용 디스플레이 장치.
  15. 제 12항에 있어서,
    상기 프로세서는,
    상기 인터페이스부를 통해, 주행 상황 정보를 수신하고, 상기 주행 상황 정보에 대응되는 그래픽 객체가 더 표시되도록 상기 디스플레이부를 제어하는 차량용 디스플레이 장치.
  16. 제 15항에 있어서,
    상기 프로세서는,
    상기 상태 정보에 기초하여, 상기 디스플레이부에 표시되는 상기 주행 상황 정보에 대응되는 그래픽 객체의 양, 종류, 표시되는 영역 중 적어도 어느 하나를 제어하는 차량용 디스플레이 장치.
  17. 제 1항에 있어서,
    상기 프로세서는,
    맵 정보를 획득하고, 상기 맵 정보를 기초로 상기 제2 오브젝트에 대한 정보를 획득하는 차량용 디스플레이 장치.
  18. 제 17항에 있어서,
    상기 프로세서는,
    상기 인터페이스부를 통해, 센싱부로부터, 주행 상황 정보를 수신하고,
    상기 맵 정보 및 상기 주행 상황 정보를 기초로, 3D 맵을 생성하는 차량용 디스플레이 장치.
  19. 제 18항에 있어서,
    상기 프로세서는,
    상기 3D 맵상에서 차량, 상기 제1 오브젝트 및 상기 제2 오브젝트 간의 위치 관계를 기초로, 운전자 시선에서, 상기 제1 오브젝트가 상기 제2 오브젝트에 가려지는지 판단하는 차량용 디스플레이 장치.
  20. 제 1항에 있어서,
    상기 프로세서는,
    상기 제1 오브젝트에 대한 정보 및 상기 제2 오브젝트에 대한 정보에 기초하여, 동력원, 브레이크 장치 및 조향 장치 중 적어도 어느 하나를 제어하기 위한 신호를 제공하는 차량용 디스플레이 장치.
KR1020187033730A 2016-05-30 2016-05-30 차량용 디스플레이 장치 및 차량 KR102201290B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2016/005681 WO2017209313A1 (ko) 2016-05-30 2016-05-30 차량용 디스플레이 장치 및 차량

Publications (2)

Publication Number Publication Date
KR20180132922A true KR20180132922A (ko) 2018-12-12
KR102201290B1 KR102201290B1 (ko) 2021-01-08

Family

ID=60477569

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187033730A KR102201290B1 (ko) 2016-05-30 2016-05-30 차량용 디스플레이 장치 및 차량

Country Status (3)

Country Link
US (1) US11242068B2 (ko)
KR (1) KR102201290B1 (ko)
WO (1) WO2017209313A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102099082B1 (ko) * 2019-01-24 2020-04-09 주식회사 에스더블유엠 전방차량 타이어 이상 모니터링 방법
WO2021040058A1 (ko) * 2019-08-23 2021-03-04 엘지전자 주식회사 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
KR20220030228A (ko) * 2020-05-25 2022-03-10 (주)이머시브캐스트 인카 클라우드 vr 장치 및 방법
KR102542977B1 (ko) * 2021-12-17 2023-06-13 광주과학기술원 Mr 시뮬레이션 기반 표지판 시인성을 평가하는 장치 및 그 방법
US11694446B2 (en) 2020-06-09 2023-07-04 Samsung Electronics Co., Ltd. Advanced driver assist system and method of detecting object in the same

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6726674B2 (ja) * 2015-10-15 2020-07-22 マクセル株式会社 情報表示装置
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation
KR102347651B1 (ko) * 2017-12-11 2022-01-06 현대자동차주식회사 산악 도로 적응형 샤시통합제어 방법 및 차량
US11514789B2 (en) * 2018-01-05 2022-11-29 Arriver Software Llc Illumination-based object tracking within a vehicle
US11501572B2 (en) 2018-03-26 2022-11-15 Nvidia Corporation Object behavior anomaly detection using neural networks
KR102573804B1 (ko) * 2018-12-18 2023-09-01 현대자동차주식회사 통합 제어 유닛, 이를 포함하는 차량 및 그 제어 방법
JP6856085B2 (ja) 2019-03-28 2021-04-07 トヨタ自動車株式会社 車両用表示制御装置、方法及びプログラム
WO2020223751A1 (en) * 2019-05-07 2020-11-12 Kontrol Gmbh Formal verification for the development and real-time application of autonomous systems
KR20200003355A (ko) * 2019-12-16 2020-01-09 엘지전자 주식회사 전자 장치 및 그의 동작 방법
JP7439563B2 (ja) * 2020-02-26 2024-02-28 トヨタ自動車株式会社 走行支援装置
CN111522443B (zh) * 2020-04-13 2024-04-05 京东方科技集团股份有限公司 车辆a柱显示组件的显示方法、系统、设备和存储介质
US11816902B2 (en) * 2020-08-26 2023-11-14 Subaru Corporation Vehicle external environment recognition apparatus
EP4137926A4 (en) * 2020-09-14 2024-01-10 Lg Electronics Inc IMAGE PROCESSING DEVICE FOR A VEHICLE AND METHOD FOR DISPLAYING VISUAL INFORMATION ON A DISPLAY CONTAINED IN A VEHICLE
KR20220036456A (ko) * 2020-09-15 2022-03-23 현대자동차주식회사 증강현실 기반의 정보 표시 장치
US11947236B2 (en) * 2021-04-27 2024-04-02 GM Global Technology Operations LLC High contrast transparent display with automatic shading
CN113597617A (zh) * 2021-06-22 2021-11-02 华为技术有限公司 一种显示方法及装置、设备及车辆
KR20230005034A (ko) * 2021-06-30 2023-01-09 현대자동차주식회사 자율 주행 차량, 그를 원격 제어하는 관제 시스템 및 그 방법
KR20230030706A (ko) * 2021-08-25 2023-03-07 현대자동차주식회사 차량 및 그 제어 방법
US11400958B1 (en) 2021-09-20 2022-08-02 Motional Ad Llc Learning to identify safety-critical scenarios for an autonomous vehicle
CN116071945A (zh) * 2021-10-29 2023-05-05 通用汽车环球科技运作有限责任公司 交通灯可见性检测和增强显示
JP2023074546A (ja) * 2021-11-18 2023-05-30 本田技研工業株式会社 情報表示装置
KR20230078345A (ko) * 2021-11-26 2023-06-02 현대모비스 주식회사 전기차를 위한 횡방향 무선 충전 체인 구성 방법 및 그를 위한 장치 및 시스템
TWI817823B (zh) * 2022-11-10 2023-10-01 宏達國際電子股份有限公司 車輛控制系統、頭戴式顯示裝置及車輛控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130181823A1 (en) * 2010-09-15 2013-07-18 Continental Teve AG & Co., oHG Visual Driver Information and Warning System for a Driver of a Motor Vehicle
KR20150058889A (ko) * 2013-11-21 2015-05-29 현대모비스 주식회사 센서 융합 기반 자율 주행 제어 장치 및 방법
KR20150074750A (ko) * 2013-12-24 2015-07-02 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
WO2015152304A1 (ja) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム
US20150331238A1 (en) * 2012-12-21 2015-11-19 Harman Becker Automotive Sytems Gmbh System for a vehicle

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6289332B2 (en) * 1999-02-26 2001-09-11 Freightliner Corporation Integrated message display system for a vehicle
US6926429B2 (en) * 2002-01-30 2005-08-09 Delphi Technologies, Inc. Eye tracking/HUD system
JP4103518B2 (ja) 2002-09-20 2008-06-18 株式会社エクォス・リサーチ 車載画像表示装置
JP2006072830A (ja) * 2004-09-03 2006-03-16 Aisin Aw Co Ltd 運転支援システム及び運転支援モジュール
JP2006323666A (ja) 2005-05-19 2006-11-30 Denso Corp 歩行者飛び出し警報システム
JP4940767B2 (ja) * 2006-06-05 2012-05-30 マツダ株式会社 車両周辺情報報知装置
US20090256813A1 (en) * 2008-04-09 2009-10-15 Amici Alan J Vehicle moving-image interface
US9349057B2 (en) * 2011-09-12 2016-05-24 Nissan Motor Co., Ltd. Three-dimensional object detection device
KR102028720B1 (ko) * 2012-07-10 2019-11-08 삼성전자주식회사 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법
JP6102117B2 (ja) * 2012-08-08 2017-03-29 ソニー株式会社 移動体、システム、プログラム、および情報処理装置
JP5994574B2 (ja) 2012-10-31 2016-09-21 アイシン・エィ・ダブリュ株式会社 位置案内システム、方法およびプログラム
DE102013220005A1 (de) * 2013-10-02 2015-04-02 Continental Automotive Gmbh Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem
KR20150140449A (ko) 2014-06-05 2015-12-16 팅크웨어(주) 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체
KR101583950B1 (ko) 2014-06-30 2016-01-08 현대자동차주식회사 차량정보 표시장치 및 그 표시방법
US9409519B2 (en) * 2014-08-27 2016-08-09 Toyota Jidosha Kabushiki Kaisha Generating spatial information for a heads-up display
KR101942793B1 (ko) * 2015-07-03 2019-01-28 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
WO2017072679A1 (en) * 2015-10-26 2017-05-04 Active Knowledge Ltd. Autonomous on-road vehicle with shock-absorbing energy dissipation padding placed at eye level
US10011285B2 (en) * 2016-05-23 2018-07-03 Toyota Motor Engineering & Manufacturing North America, Inc. Device, system, and method for pictorial language for autonomous vehicle
US9783166B1 (en) * 2016-06-07 2017-10-10 International Business Machines Corporation Windscreen clearing using surface monitoring
US10497264B2 (en) * 2017-09-26 2019-12-03 Toyota Research Institute, Inc. Methods and systems for providing warnings of obstacle objects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130181823A1 (en) * 2010-09-15 2013-07-18 Continental Teve AG & Co., oHG Visual Driver Information and Warning System for a Driver of a Motor Vehicle
US20150331238A1 (en) * 2012-12-21 2015-11-19 Harman Becker Automotive Sytems Gmbh System for a vehicle
KR20150058889A (ko) * 2013-11-21 2015-05-29 현대모비스 주식회사 센서 융합 기반 자율 주행 제어 장치 및 방법
KR20150074750A (ko) * 2013-12-24 2015-07-02 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
WO2015152304A1 (ja) * 2014-03-31 2015-10-08 エイディシーテクノロジー株式会社 運転支援装置、及び運転支援システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102099082B1 (ko) * 2019-01-24 2020-04-09 주식회사 에스더블유엠 전방차량 타이어 이상 모니터링 방법
WO2021040058A1 (ko) * 2019-08-23 2021-03-04 엘지전자 주식회사 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
KR20220030228A (ko) * 2020-05-25 2022-03-10 (주)이머시브캐스트 인카 클라우드 vr 장치 및 방법
US11403828B2 (en) 2020-05-25 2022-08-02 Immersivecast Co., Ltd. In-car cloud VR device and method
US11694446B2 (en) 2020-06-09 2023-07-04 Samsung Electronics Co., Ltd. Advanced driver assist system and method of detecting object in the same
US11941889B2 (en) 2020-06-09 2024-03-26 Samsung Electronics Co., Ltd. Advanced driver assist system and method of detecting object in the same
KR102542977B1 (ko) * 2021-12-17 2023-06-13 광주과학기술원 Mr 시뮬레이션 기반 표지판 시인성을 평가하는 장치 및 그 방법

Also Published As

Publication number Publication date
WO2017209313A1 (ko) 2017-12-07
US20200361482A1 (en) 2020-11-19
KR102201290B1 (ko) 2021-01-08
US11242068B2 (en) 2022-02-08

Similar Documents

Publication Publication Date Title
KR102201290B1 (ko) 차량용 디스플레이 장치 및 차량
KR101916993B1 (ko) 차량용 디스플레이 장치 및 그 제어방법
KR101770642B1 (ko) 차량용 조명 장치 및 차량
EP3708962B1 (en) Display apparatus for vehicle and vehicle
KR101741433B1 (ko) 운전자 보조 장치 및 그 제어방법
US10737689B2 (en) Parking assistance apparatus and vehicle having the same
KR102366402B1 (ko) 운전자 보조 장치 및 그 제어방법
KR101844885B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR101750178B1 (ko) 차량 외부 알람방법, 이를 실행하는 차량 운전 보조장치 및 이를 포함하는 차량
KR102551099B1 (ko) 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
KR101843774B1 (ko) 차량 운전 보조 장치 및 차량
KR20170099188A (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR20170058188A (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR102372566B1 (ko) 차량용 조명 장치 및 차량
KR101972352B1 (ko) 자동주차 보조장치 및 이를 포함하는 차량
KR101822896B1 (ko) 운전자 보조 장치 및 그 제어방법
KR20170043212A (ko) 차량용 어라운드 뷰 제공 장치 및 차량
KR101850325B1 (ko) 차량용 조명 장치 및 차량
KR101888259B1 (ko) 차량 보조장치 및 이를 포함하는 차량
KR101737236B1 (ko) 차량 운전 보조장치 및 이를 포함하는 차량
KR20150074753A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20170087618A (ko) 차량용 디스플레이 장치 및 그 동작 방법
KR20180051005A (ko) 자동주차 보조장치 및 이를 포함하는 차량
KR20180076529A (ko) 차량 운전 보조장치 및 이를 포함하는 차량

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant