KR20180132922A - 차량용 디스플레이 장치 및 차량 - Google Patents
차량용 디스플레이 장치 및 차량 Download PDFInfo
- Publication number
- KR20180132922A KR20180132922A KR1020187033730A KR20187033730A KR20180132922A KR 20180132922 A KR20180132922 A KR 20180132922A KR 1020187033730 A KR1020187033730 A KR 1020187033730A KR 20187033730 A KR20187033730 A KR 20187033730A KR 20180132922 A KR20180132922 A KR 20180132922A
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- processor
- unit
- display
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 claims description 61
- 238000004891 communication Methods 0.000 claims description 56
- 238000000034 method Methods 0.000 claims description 45
- 230000015654 memory Effects 0.000 claims description 31
- 230000008859 change Effects 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 description 41
- 238000010586 diagram Methods 0.000 description 31
- 238000001514 detection method Methods 0.000 description 27
- 230000000694 effects Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 238000010276 construction Methods 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 10
- 230000011218 segmentation Effects 0.000 description 9
- 238000007781 pre-processing Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 7
- 239000000446 fuel Substances 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000000725 suspension Substances 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 239000010409 thin film Substances 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000004020 conductor Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 229910052782 aluminium Inorganic materials 0.000 description 2
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000010408 film Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000004519 grease Substances 0.000 description 2
- 230000017525 heat dissipation Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241001300198 Caperonia palustris Species 0.000 description 1
- 229920000544 Gore-Tex Polymers 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 235000000384 Veronica chamaedrys Nutrition 0.000 description 1
- 239000002253 acid Substances 0.000 description 1
- 238000003915 air pollution Methods 0.000 description 1
- 238000004887 air purification Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000004512 die casting Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000002803 fossil fuel Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000003921 oil Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
- B60K35/81—Arrangements for controlling instruments for controlling displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3679—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3697—Output of additional, non-guidance related information, e.g. low fuel level
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/178—Warnings
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/188—Displaying information using colour changes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/191—Highlight information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/29—Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2754/00—Output or target parameters relating to objects
- B60W2754/10—Spatial relation or speed relative to objects
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
- Instrument Panels (AREA)
Abstract
본 발명은 디스플레이부; 인터페이스부; 및 상기 인터페이스부를 통해, 차량 외부에 위치하는 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보를 수신하고, 차량과 상기 제1 오브젝트 사이에, 상기 제2 오브젝트가 위치하는 경우, 상기 제1 오브젝트에 대응되는 그래픽 객체가, 상기 디스플레이부에 표시되도록 제어하는 프로세서;를 포함하는 차량용 디스플레이 장치에 관한 것이다.
Description
본 발명은 차량에 구비되는 디스플레이 장치 및 차량에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위해 차량 운전자 보조 시스템(ADAS : Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어지고 있다. 나아가, 자율 주행 자동차(Autonomous Vehicle)에 대한 개발이 활발하게 이루어 지고 있다.
차량 주변에 위치하는 오브젝트들 중에서, 운전자의 시야에 가려지는 오브젝트들이 있다. 도로의 형태, 도로 주변에 위치하는 구조물, 지형물, 타 차량 등으로 인해, 선행하는 차량, 보행자 등이 가려지기도 한다. 오브젝트들이 다른 물체 또는 지형에 가려진 상태에서, 고속 주행 중일 때, 이러한 오브젝트들이 순간적으로 나타나는 경우, 사고가 발생될 확률이 매우 높다.
따라서, 운전자에게 이러한 오브젝트들에 대한 알리는 장치들에 대한 개발이 필요하다.
본 발명의 실시예는 상기한 문제점을 해결하기 위하여, 가려지는 오브젝트에 대응되는 그래픽 객체를 표시하는 차량용 디스플레이 장치를 제공하는데 목적이 있다.
또한, 본 발명의 실시예는 상기 장치를 포함하는 차량을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 장치는, 디스플레이부; 인터페이스부; 및 상기 인터페이스부를 통해, 차량 외부에 위치하는 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보를 수신하고, 차량과 상기 제1 오브젝트 사이에, 상기 제2 오브젝트가 위치하는 경우, 상기 제1 오브젝트에 대응되는 그래픽 객체가, 상기 디스플레이부에 표시되도록 제어하는 프로세서;를 를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 운전자의 눈에 보이지 않는 오브젝트에 대응되는 그래픽 객체를 디스플레이 장치에 표시함으로써, 운전자가 상기 오브젝트를 인지하게 하는 효과가 있다.
둘째, 그래픽 객체를 증강현실로 표시함으로써, 운전자가 직관적으로 오브젝트를 인지할 수 있게 하는 효과가 있다.
셋째, 주행 상황에 적절하게 오브젝트에 대응되는 그래픽 객체를 표시하여, 사고를 예방하는 효과가 있다.
넷째, 주행 상황에 적절하게 차량 구동부를 제어하여 사고를 예방하는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1a는 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다. 도 1b는 본 발명의 실시예에 따른 차량의 내부를 예시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 3a는 본 발명의 실시예에 따른 차량용 카메라의 사시도이다. 도 3b는 본 발명의 실시예에 따른 차량용 카메라의 분해 사시도이다. 도 3c는 본 발명의 실시예에 따라, 도 3a의 A-B를 절개한 차량용 카메라의 절개 측면도이다.
도 4a 내지 도 4b는 도 3a 내지 도 3f의 프로세서의 내부 블록도의 다양한 예를 예시하고, 도 5a 내지 도 5d는 도 4a 내지 도 4b의 프로세서의 동작 설명에 참조되는 도면이다.
도 6은 본 발명의 실시예에 따른 차량용 디스플레이 장치를 설명하는데 참조되는 블럭도이다.
도 7은 본 발명의 실시예에 따른, 프로세서의 내부 구성을 설명하는데 참조되는 도면이다.
도 8 내지 도 9는 본 발명의 실시예에 따라 차량이 경사 진입 전에, 선행하는 타 차량이 도로 경사에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 10a 내지 도 10d는 본 발명의 실시예에 따라, 도 8 내지 도 9의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 11은 본 발명의 실시예에 따라 교차로 진입 전에, 타 차량이 건물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 12는 본 발명의 실시예에 따라, 도 11의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 13은 본 발명의 실시예에 따라, 주행시 보행자가 타 차량에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 14는, 본 발명의 실시예에 따라, 도 13의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 15는 본 발명의 실시예에 따라, 차량이 코너 진입 전에, 선행하는 타 차량이 도로 주변 지형물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 16은 본 발명의 실시예에 따라, 도 15의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 17은 본 발명의 실시예에 따른 다양한 그래픽 객체를 설명하는데 참조되는 도면이다.
도 18은 본 발명의 실시예에 따른 3D 도면을 설명하는데 참조되는 도면이다.
도 19는 본 발명의 일 실시예에 따라, 차량용 디스플레이 장치(600)가 윈드 쉴드(10)를 통해 증강현실 이미지를 구현하는 동작을 설명하기 위한 개념도이다.
도 2는 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 3a는 본 발명의 실시예에 따른 차량용 카메라의 사시도이다. 도 3b는 본 발명의 실시예에 따른 차량용 카메라의 분해 사시도이다. 도 3c는 본 발명의 실시예에 따라, 도 3a의 A-B를 절개한 차량용 카메라의 절개 측면도이다.
도 4a 내지 도 4b는 도 3a 내지 도 3f의 프로세서의 내부 블록도의 다양한 예를 예시하고, 도 5a 내지 도 5d는 도 4a 내지 도 4b의 프로세서의 동작 설명에 참조되는 도면이다.
도 6은 본 발명의 실시예에 따른 차량용 디스플레이 장치를 설명하는데 참조되는 블럭도이다.
도 7은 본 발명의 실시예에 따른, 프로세서의 내부 구성을 설명하는데 참조되는 도면이다.
도 8 내지 도 9는 본 발명의 실시예에 따라 차량이 경사 진입 전에, 선행하는 타 차량이 도로 경사에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 10a 내지 도 10d는 본 발명의 실시예에 따라, 도 8 내지 도 9의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 11은 본 발명의 실시예에 따라 교차로 진입 전에, 타 차량이 건물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 12는 본 발명의 실시예에 따라, 도 11의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 13은 본 발명의 실시예에 따라, 주행시 보행자가 타 차량에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 14는, 본 발명의 실시예에 따라, 도 13의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 15는 본 발명의 실시예에 따라, 차량이 코너 진입 전에, 선행하는 타 차량이 도로 주변 지형물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도 16은 본 발명의 실시예에 따라, 도 15의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도 17은 본 발명의 실시예에 따른 다양한 그래픽 객체를 설명하는데 참조되는 도면이다.
도 18은 본 발명의 실시예에 따른 3D 도면을 설명하는데 참조되는 도면이다.
도 19는 본 발명의 일 실시예에 따라, 차량용 디스플레이 장치(600)가 윈드 쉴드(10)를 통해 증강현실 이미지를 구현하는 동작을 설명하기 위한 개념도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.
도 1a는 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다. 도 1b는 본 발명의 실시예에 따른 차량의 내부를 예시한 도면이다.
도면을 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치를 구비할 수 있다.
실시예에 따라, 차량(100)은 자율 주행 차량일 수 있다. 자율 주행 차량의 경우, 사용자 입력에 따라 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 메뉴얼 모드로 전환되는 경우, 자율 주행 차량(100)은 조향 입력 장치를 통해 조향 입력을 수신할 수 있다.
차량(100)은, 차량 운전 보조 장치(400)를 포함할 수 있다. 차량 운전 보조 장치(400)는, 다양한 센서에서 획득되는 정보를 기초로, 운전자를 보조하는 장치이다. 이러한 차량 운전 보조 장치(400)는, ADAS(Advanced Driver Assistance System)로 명명될 수 있다.
한편, 차량(100)은, 내부 센싱부(125) 및 외부 센싱부(126)를 포함할 수 있다. 특히, 외부 센싱부(126)는, 차량(100) 외부에 위치하는 오브젝트를 감지할 수 있다. 실시예에 따라, 외부 센싱부(126)는, 차량 운전 보조 장치(400)의 하위 구성 요소로 분류될 수도 있다.
본 명세서에서, 차량 운전 보조 장치(400)에 이용되는 센서로 차량용 카메라(200)를 중심으로 설명하나, 이에 한정되지 않는다. 실시예에 따라, 센서는 차량용 카메라(200)외에, 레이다(Radar)(201), 라이다(LiDar)(202), 초음파 센서(203)등이 이용될 수 있다.
도면에서, 차량 운전 보조 장치(400)에 이용되는 차량용 카메라(200)가 차량 전방을 촬영할 수 있도록 프런트 윈드 쉴드(10)에 장착되는 것으로 예시되나, 차량용 카메라(200)는, 차량 전방, 후방, 우측방, 좌측방 어디든 촬영할 수 있다. 그에 따라, 차량용 카메라(200)는, 차량의 외부 또는 내부의 적절한 위치에 배치될 수 있다.
차량(100)은, 차량용 디스플레이 장치(600)를 포함할 수 있다. 차량용 디스플레이 장치(600)는, 다양한 정보, 다양한 컨텐츠 등을 출력할 수 있다. 차량용 디스플레이 장치(600)는, 그래픽 객체를 디스플레이부(651)에 표시할 수 있다.
차량용 디스플레이 장치(600)에 포함되는 디스플레이부(651)는, 프런트 윈드 쉴드(10), 사이드 윈도우 또는 리어 글라스 상에 구현될 수 있다.
예를 들면, 차량용 디스플레이 장치(600)는, HUD(Head up display)로 구현되어, 프런트 윈드 쉴드(10), 사이드 윈도우 또는 리어 글라스에 영상을 투사하여 정보 또는 컨텐츠를 출력할 수 있다. 이경우, 프런트 윈드 쉴드(10), 사이드 윈도우 또는 리어 글라스는 스크린으로 기능할 수 있다. 스크린으로 기능하기 위해, 프런트 윈스 쉴드(10), 사이드 윈도우 또는 리어 글라스 상에 소정의 필름이 부착될 수 있다.
예를 들면, 차량용 디스플레이 장치(600)는, 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는, 프런트 윈드 쉴드(10), 사이드 윈도우 또는 리어 글라스에 근접하게 배치될 수 있다. 차량용 디스플레이 장치(600)는, 투명 디스플레이를 통해, 정보 또는 컨턴츠를 출력할 수 있다.
전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전고 측정의 기준이 되는 방향을 의미할 수 있다.
도 2는 본 발명의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 2를 참조하면, 차량(100)은, 입력부(120), 내부 센싱부(125), 외부 센싱부(126), 메모리(130), 출력부(140), 차량 구동부(150), 제어부(170), 인터페이스부(180), 전원 공급부(190), 차량 운전 보조 장치(400), 차량용 디스플레이 장치(600) 및 내비게이션 장치(300)를 포함할 수 있다.
입력부(120)는, 운전 조작 장치(121), 마이크로 폰(123) 및 사용자 입력부(124)를 포함할 수 있다.
운전 조작 장치(121)는, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작부(121)는 조향 입력 장치, 쉬프트 입력 장치, 가속 입력 장치, 브레이크 입력 장치를 포함할 수 있다.
조향 입력 장치는, 사용자로부터 차량(100)의 진행 방향 입력을 수신한다. 조향 입력 장치는 회전에 의해 조향 입력이 가능하도록 휠 형태로 형성되는 것이 바람직하다. 실시예에 따라, 조향 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
쉬프트 입력 장치는, 사용자로부터 차량(100)의 주차(P), 전진(D), 중립(N), 후진(R)의 입력을 수신한다. 쉬프트 입력 장치는 레버 형태로 형성되는 것이 바람직하다. 실시예에 따라, 쉬프트 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
가속 입력 장치는, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 장치는, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다. 가속 입력 장치 및 브레이크 입력 장치는 페달 형태로 형성되는 것이 바람직하다. 실시예에 따라, 가속 입력 장치 또는 브레이크 입력 장치는 터치 스크린, 터치 패드 또는 버튼으로 형성될 수도 있다.
마이크로 폰(123)은, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(100)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(123)은 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 제어부(170)에 전달될 수 있다.
한편, 실시예에 따라, 카메라(122) 또는 마이크로폰(123)는 입력부(120)에 포함되는 구성요소가 아닌, 센싱부(125)에 포함되는 구성요소일 수도 있다.
사용자 입력부(124)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(124)를 통해, 정보가 입력되면, 제어부(170)는 입력된 정보에 대응되도록 차량(100)의 동작을 제어할 수 있다. 사용자 입력부(124)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(124)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(124)를 조작할 수 있다.
내부 센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서, 브레이크 페달 포지션 센서, 등을 포함할 수 있다.
센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(125)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
외부 센싱부(126)는, 차량의 외부 상황을 센싱할 수 있다. 외부 센싱부(126)는, 차량 외부에 위치하는 오브젝트를 센싱할 수 있다.
외부 센싱부(126)는, 카메라(200), 레이더(201), 라이더(202), 초음파 센서(203) 및 적외선 센서(204)를 포함할 수 있다.
카메라(200)는, 차량용 카메라 장치로 명명될 수 있다. 카메라(200)는, 도 3a 내지 도 3c의 모노 카메라(200a) 및 도 3d 내지 도 3f의 스테레오 카메라(200b)를 포함할 수 있다.
레이더(201)는, 전자파 송신부, 수신부 및 프로세서를 포함할 수 있다. 레이더(201)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 또한, 레이더(201)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다.
레이더(201)는 송신된 전자파를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
레이더(201)은 획득된 오브젝트 정보를 제어부(170), 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)에 제공할 수 있다. 여기서, 오브젝트 정보는 오브젝트와의 거리 정보를 포함할 수 있다.
라이더(202)는, 레이저 송신부, 수신부, 프로세서를 포함할 수 있다. 라이더 (202)는, TOF(Time of Flight) 방식 또는 페이즈쉬프트(phase-shift) 방식으로 구현될 수 있다.
TOF 방식의 라이더(202)는, 레이저 펄스 신호를 방출하고, 오브젝트에 반사되는 반사 펄스 신호를 수신한다. 라이더(202)는, 레이저 펄스 신호가 방출되고 반사 펄스 신호가 수신된 시간을 기초로 오브젝트와의 거리를 측정할 수 있다. 또한, 시간에 따른 거리의 변화를 기초로 오브젝트와의 상대 속도를 측정할 수 있다.
한편, 페이즈쉬프트 방식의 라이더(202)는, 특정 주파수를 가지고 연속적으로 변조되는 레이저 빔을 방출하고, 오브젝트에 반사되어 돌아오는 신호의 위상 변화량을 기초로 시간 및 오브젝트와의 거리를 측정할 수 있다. 또한, 시간에 따른 거리의 변화를 기초로 오브젝트와의 상대 속도를 측정할 수 있다.
라이더(202)는, 송신된 레이저를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
라이더(202)는, 획득된 오브젝트 정보를 제어부(170), 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)에 제공할 수 있다. 여기서, 오브젝트 정보는 오브젝트와의 거리 정보를 포함할 수 있다.
초음파 센서(203)는, 초음파 송신부, 수신부, 프로세서를 포함할 수 있다. 초음파 센서(203)은, 송신된 초음파를 기초로 오브젝트를 검출하고, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.
초음파 센서(203)은 획득된 오브젝트 정보를 제어부(170), 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)에 제공할 수 있다. 여기서, 오브젝트 정보는 오브젝트와의 거리 정보를 포함할 수 있다.
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 음향 출력부(142) 및 햅틱 출력부(143)를 포함할 수 있다. 실시예에 따라, 차량용 디스플레이 장치(600)는, 출력부(140)의 하위 구성 요소로 분류될 수도 있다.
음향 출력부(142)는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(142)는 스피커 등을 구비할 수 있다. 음향 출력부(142)는, 사용자 입력부(724) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
햅틱 출력부(143)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(143)는, 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부(151), 조향 구동부(152), 브레이크 구동부(153), 램프 구동부(154), 공조 구동부(155), 윈도우 구동부(156), 에어백 구동부(157), 썬루프 구동부(158) 및 서스펜션 구동부(159)를 포함할 수 있다.
동력원 구동부(151)는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(151)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(151)가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 주행 속도를 제한할 수 있다.
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(151)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.
조향 구동부(152)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(153)는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
램프 구동부(154)는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
공조 구동부(155)는, 차량(100) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(156)는, 차량(100) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(157)는, 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.
썬루프 구동부(158)는, 차량(100) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(159)는, 차량(100) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다.
한편, 실시예에 따라, 차량 구동부(150)는 샤시 구동부를 포함할 수 있다. 여기서, 샤시 구동부는 조향 구동부(152), 브레이크 구동부(153) 및 서스펜션 구동부(159)를 포함하는 개념일 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다.
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기와 연결할 수 있다. 이경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.
한편, 인터페이스부(180)는 연결된 이동 단말기에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기가 인터페이스부(180)에 전기적으로 연결되는 경우, 제어부(170)의 제어에 따라, 인터페이스부(180)는 전원부(190)에서 공급되는 전기 에너지를 이동 단말기에 제공할 수 있다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
차량 운전 보조 장치(400)는, 운전자에 의한 차량의 주행을 보조할 수 있다.
차량 운전 보조 장치(400)는, 자동 비상 제동 시스템(이하, AEB : Autonomous Emergency Braking), 적응 순향 제어 시스템 (이하, ACC : Adaptive Cruise Control), 측방 접근차량 경고 시스템 (이하, CTA : Cross Traffic Alert), 차선 변경 보조 시스템 (이하, LCA : Lane Change Assistant), 전방 충돌 회피 시스템 (이하, FCW : Foward Collision Warning), 차선 이탈 경고 시스템 (이하, LDW : Lane Departure Warning), 차선 유지 보조 시스템 (이하, LKA : Lane Keeping Assist), 속도 지원 시스템 시스템 (이하, SAS : Speed Assist System), 교통 신호 검출 시스템 (TSR : Traffic Sign Recognition), 적응형 상향등 제어 시스템 (이하, HBA : High Beam Assist), 사각 지대 감시 시스템 (이하, BSD : Blind Spot Detection), 자동 비상 조향 시스템 (이하, AES : Autonomous Emergency Steering), 커브 속도 경고 시스템 시스템 (이하, CSWS : Curve Speed Warning System), 스마트 주차 시스템 시스템 (이하, SPAS : Smart Parking Assist System), 교통 정체 지원 시스템 (이하, TJA : Traffic Jam Assist) 및 어라운드 뷰 모니터 시스템 (이하, AVM : Around View Monitor)을 제공할 수 있다.
차량용 디스플레이 장치(600)는, 다양한 정보 또는 다양한 컨텐츠를 표시할 수 있다.
예를 들면, 차량용 디스플레이 장치(600)는, 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
한편, 디스플레이 장치(600)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다.
한편, 실시예에 따라, 디스플레이 장치(600)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이 장치(600)가 HUD로 구현되는 경우, 디스플레이 장치(600)는 투사 모듈을 구비하여 프런트 윈드 쉴드(10)에 투사되는 이미지를 통해 정보를 출력할 수 있다.
한편, 실시예에 따라, 디스플레이 장치(600)는, 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 프런트 윈드 쉴드(10)에 부착될 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.
내비게이션 장치(300)는, 차량용 디스플레이 장치(600)에 내비게이션 정보를 제공할 수 있다. 실시예에 따라, 내비게이션 장치(300)는, 차량용 디스플레이 장치(600)와 일체형으로 형성될 수 있다.
내비게이션 정보는 설정된 목적지 정보, 상기 목적지 설정 따른 경로 정보, 차량 주행과 관련한, 맵(map) 정보, 차량의 현재 위치 정보를 포함할 수 있다. 한편, 내비게이션 정보는 도로상에서 차량의 위치 정보를 포함할 수 있다.
도 3a는 본 발명의 실시예에 따른 차량용 카메라의 사시도이다. 도 3b는 본 발명의 실시예에 따른 차량용 카메라의 분해 사시도이다. 도 3c는 본 발명의 실시예에 따라, 도 3a의 A-B를 절개한 차량용 카메라의 절개 측면도이다.
도 3a 내지 도 3c를 참조하여 설명하는 차량용 카메라(200)는, 싱글 카메라(200a)이다.
차량용 카메라(200a)는, 렌즈(211), 이미지 센서(214) 및 프로세서(470)를 포함할 수 있다.
실시예에 따라, 차량용 카메라(200a)는, 프로세싱 보드(220), 라이트 쉴드(230), 방열 부재(240), 하우징(250)을 개별적으로 더 포함하거나, 조합하여 더 포함할 수 있다.
한편, 하우징(250)은, 제1 하우징(251), 제2 하우징(252), 제3 하우징(253)을 포함할 수 있다.
렌즈(211)는, 렌즈 하우징(217)에 수용된 상태로, 너트(212)를 통해, 제1 하우징(251)의 일 부분에 형성된 홀(219)에 안착되도록 체결될 수 있다.
이미지 센서(214)는, 광신호를 전기적 신호로 변환할 수 있는 광전 변환 소자를 적어도 하나 포함할 수 있다. 예를 들면, 이미지 센서(214)는 CCD(charge-coupled device) 또는 CMOS(complimentary metal-oxide semiconductor)일 수 있다.
이미지 센서(214)는, 차량 외부 영상 또는 차량 내부 영상을 획득하기 위해, 차량의 외부 또는 차량의 내부의 적절한 곳에 위치할 수 있다.
예를 들면, 이미지 센서(214)는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드(10)에 근접하게 배치될 수 있다. 또는, 이미지 센서(214)는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다.
예를 들면, 이미지 센서(214)는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 또는, 이미지 센서(214)는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다.
예를 들면, 이미지 센서(214)는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 이미지 센서(214)는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
이미지 센서(214)는, 렌즈(211)를 통해 유입되는 광을 기초로 이미지를 획득할 수 있도록, 렌즈(211)의 후단에 배치될 수 있다. 예를 들면, 이미지 센서(214)는, 렌즈(211)와 소정 거리만큼 이격된 상태로 지면을 기준으로 수직하게 배치될 수 있다.
프로세서(470)는, 이미지 센서(214)와 전기적으로 연결될 수 있다. 프로세서(470)는, 이미지 센서(214)를 통해 획득되는 영상을 컴퓨터 처리할 수 있다. 프로세서(470)는, 이미지 센서(214)를 제어할 수 있다.
프로세서(470)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(470)는, 프로세싱 보드(220) 상에 실장될 수 있다.
프로세싱 보드(220)는, 프로세서(270) 및 메모리(440)를 실장할 수 있다.
프로세싱 보드(220)는, 전장 방향으로 경사지게 배치될 수 있다. 예를 들면, 프로세싱 보드(220)는, 전면 또는 배면이 프런트 윈드 쉴드(10)와 마주보도록 배치될 수 있다. 예를 들면, 프로세싱 보드(220)는, 프런트 윈드 쉴드(10)와 평행하게 배치될 수 있다.
차량(100)에 구비되는 프런트 윈드 쉴드(10)는 일반적으로 차량(100)의 보닛(bonnet)에서부터 루프까지 지면과 소정의 각도를 가지면서 경사지게 형성된다. 이경우, 프로세싱 보드(220)가 전장 방향으로 경사지게 배치됨으로써, 차량용 카메라(200a)는, 프로세싱 보드(220)가 수직 또는 수평되게 배치되는 경우보다 작게 형성될 수 있다. 차량용 카메라(200a)가 작게 형성됨으로써, 줄어드는 부피만큼 차량(100)내에서 공간이 더 확보될 수 있는 장점이 있다.
프로세싱 보드(220)에는 복수의 소자 또는 전자 부품들이 실장될 수 있다. 이때, 프로세싱 보드(220)에 포함되는 복수의 소자 또는 부품들로 인해 열이 발생될 수 있다.
프로세싱 보드(220)는, 이미지 센서(241)와 이격되게 배치될 수 있다. 프로세싱 보드(220)가 이미지 센서(241)와 이격되게 배치됨으로써, 프로세싱 보드(220)에서 발생되는 열이 이미지 센서(241)의 성능에 문제를 발생시키지 않도록 할 수 있다.
프로세싱 보드(220)는, 프로세싱 보드(220)에서 발생한 열이 이미지 센서(241)에 영향을 미치지 않도록 최적의 위치에 배치될 수 있다. 구체적으로, 프로세싱 보드(220)는, 이미지 센서(241)의 하단에 배치될 수 있다. 또는, 프로세싱 보드(220)는, 이미지 센서(241)의 전단에 배치될 수 있다.
프로세싱 보드(220)에는 하나 이상의 메모리(440)가 실장될 수 있다. 메모리(440)는, 이미지 센서(241)를 통해 획득되는 영상, 각종 어플리케이션 데이터, 프로세서(470) 제어를 위한 데이터 또는 프로세서(470)에서 처리되는 데이터를 저장할 수 있다. 메모리(440)는, 프로세서(470)와 마찬가지로 주요 열 발생 소자 중의 하나이다. 프로세서(470)가 프로세싱 보드(220) 중심에 배치된 상태에서, 메모리(440)는, 프로세서(470) 주변에 배치될 수 있다. 예를 들면, 하나 이상의 메모리(440)는, 프로세서(470)를 중심에 두고, 프로세서(470)를 둘러싸는 형상으로 배치될 수 있다. 이경우, 열 발생 소자인 프로세서(470) 및 메모리(440)는 이미지 센서(241)에서 가장 먼 위치에 배치될 수 있다.
프로세서(470)는, 제어부(170)에 전기적으로 연결될 수 있다. 프로세서(470)는, 제어부(170)의 제어를 받을 수 있다.
라이트 쉴드(230)는, 렌즈(211) 전단에 배치될 수 있다. 라이트 쉴드(230)는, 영상 획득에 불필요한 빛이 렌즈(211)에 유입되지 않도록 차단할 수 있다. 예를 들면, 라이트 쉴드(230)는, 윈드 쉴드(10) 또는 차량의 대쉬 보드 등에서 반사되는 빛을 차단할 수 있다. 또한, 라이트 쉴드(230)는, 불필요한 광원으로부터 생성되는 빛을 차단할 수 있다.
라이트 쉴드(230)는, 가림막 구조를 가질 수 있다. 예를 들면, 라이트 쉴드(230)는, 하부 가림막 구조를 가질 수 있다.
한편, 차종에 따라 라이트 쉴드(230)의 형상은 가변될 수 있다. 예를 들면, 차종에 따라, 윈드 쉴드의 곡률, 윈드 쉴드와 지면이 형성하는 각도가 다를 수 있으므로, 라이트 쉴드(230)는 차량용 카메라(200a)가 장착되는 차종에 대응하는 형상을 가질 수 있다. 이를 위해, 라이트 쉴드(230)는, 착탈식 구조를 가질 수 있다.
방열 부재(240)는, 이미지 센서(214) 후단에 배치될 수 있다. 방열 부재(240)는, 이미지 센서(214) 또는 이미지 센서(214)가 실장되는 이미지 센서 보드와 접촉될 수 있다. 방열 부재(240)는, 이미지 센서(214)의 열을 처리할 수 있다.
상술한 바와 같이, 이미지 센서(241)는 열에 민감하다. 방열 부재(240)는, 이미지 센서(214) 및 제3 하우징(253) 사이에 배치될 수 있다. 방열 부재(240)는, 이미지 센서(214) 및 제3 하우징(253)가 접촉되게 배치될 수 있다. 이경우, 방열 부재(240)는, 열을 제3 하우징(253)을 통해 방출할 수 있다.
예를 들면, 방열 부재(240)는, 써멀 패드 및 써멀 구리스 중 어느 하날 수 있다.
하우징(250)은, 렌즈 하우징(217) 제1 하우징(251), 제2 하우징(252) 및 제3 하우징(253)을 포함할 수 있다.
렌즈 하우징(217)은, 적어도 하나의 렌즈(211)를 수용하고, 렌즈(211)를 외부의 충격에서 보호할 수 있다.
제1 하우징(251)은, 이미지 센서(241)를 감싸도록 형성될 수 있다. 제1 하우징(251)은 홀(219)을 포함할 수 있다. 렌즈(211)는, 렌즈 하우징에 수용된 상태로 홀(219)에 안착된 상태에서, 이미지 센서(214)와 연결될 수 있다.
제1 하우징(251)은, 이미지 센서(214)에 근접할 수록 두껍게 형성될 수 있다. 예를 들면, 제1 하우징(251)은 다이 캐스팅 방식으로 형성될 수 있다. 이경우, 열에 의한 이미지 센서(214)의 성능 저하 방지를 위해, 제1 하우징(251)은, 이미지 센서(214)에 근접한 부분이 다른 부분보다 두껍게 형성될 수 있다.
제1 하우징(251)은, 제3 하우징(253)보다 두꺼운 두께를 가지도록 형성될 수 있다. 하우징의 두께가 두꺼우면 열전달이 천천히 이루어진다. 따라서, 제1 하우징(251)의 두께가 제3 하우징(253)의 두께보다 두껍게 형성되는 경우, 차량용 카메라(200a) 내부에서 발생되는 열은 프런트 윈드 쉴드(10)에 근접하게 배치되어 열방출이 어려운 제1 하우징(251)보다 제3 하우징(253)을 통해 외부로 방출되는 효과가 있다.
한편, 실시예에 따라, 렌즈 하우징(217) 및 제1 하우징(251)은 일체형으로 형성될 수 있다.
제2 하우징(252)은, 프로세싱 보드(220) 전단에 위치할 수 있다. 제2 하우징(252)은, 제1 하우징(251) 및 제3 하우징(253)과 소정의 체결 수단을 통해 체결될 수 있다.
제2 하우징(252)은, 라이트 쉴드(230)가 부착될 수 있는 부착 수단을 구비할 수 있다. 라이트 쉴드(230)는 상기 부착 수단을 통해 제2 하우징(252)에 부착될 수 있다.
제1 및 제2 하우징(252, 253)은, 합성 수지 재질로 형성될 수 있다.
제3 하우징(253)은, 제1 하우징(251) 및 제2 하우징(252)와 소정의 체결 수단을 통해 체결될 수 있다. 실시예에 따라, 제1 내지 제3 하우징(251, 252, 253)은 일체형으로 형성될 수 있다.
제3 하우징(253)은, 프로세싱 보드(220)를 감싸도록 형성될 수 있다. 제3 하우징(253)은, 프로세싱 보드(220)의 후단 또는 하단에 위치할 수 있다. 제3 하우징(253)은, 열전도성 재질로 형성될 수 있다. 예를 들면, 제3 하우징(253)은 알루미늄과 같은 금속으로 형성될 수 있다. 제3 하우징(253)이 열전도성 재질로 형성됨으로써 효율적인 열방출이 이루어질 수 있다.
제1 및 제2 하우징(251, 252)이 합성 수질 재질로 형성되고, 제3 하우징(253)이 열전도성 재질로 형성되는 경우, 차량용 카메라 내부의 열은, 제1 및 제2 하우징(251, 252) 보다 제3 하우징(253)으로 방출될 수 있다. 즉, 차량용 카메라(200a)가 윈드 쉴드에 장착되는 경우, 제1 및 제2 하우징(251, 252)은, 윈드 쉴드에 근접하게 위치하므로, 제1 및 제2 하우징(251, 252)을 통해 열이 방출될 수 없다. 이경우, 제3 하우징(253)을 통해 열이 효율적으로 방출될 수 있다.
한편, 제3 하우징(253)이 알루미늄으로 구성되는 경우, EMC(electro-magnetic compatibility) 및 ESC(electrostatic discharge)로부터 내부에 위치하는 부품들(예를 들면, 이미지 센서(241) 및 프로세서(470))을 보호하는데 유리할 수 있다.
제3 하우징(253)은 프로세싱 보드(220)와 접촉될 수 있다. 이경우, 제3 하우징(253)은, 프로세싱 보드(220)와 접촉되는 부분을 통해 열을 전달여, 외부로 효율적으로 열을 방출할 수 있다.
제3 하우징(253)은 방열부(291)를 더 포함할 수 있다. 예를 들면, 방열부(291)는 히트 싱크, 방열핀, 써멀 패드 및 써멀 구리스 중 적어도 어느 하나를 포함할 수 있다.
방열부(291)는, 차량용 카메라(200a) 내부에서 생성되는 열을 외부로 방출할 수 있다. 예를 들면, 방열부(291)는, 프로세싱 보드(220) 및 제3 하우징(253) 사이에 위치할 수 있다. 방열부(291)는, 프로세싱 보드(220) 및 제3 하우징(253)과 접촉하여, 프로세싱 보드(220)에서 생성되는 열을 외부로 방출할 수 있다.
제3 하우징(253)은, 공기 배출홀을 더 포함할 수 있다. 공기 배출홀은, 차량용 카메라(200a) 내부의 고온의 공기를 차량용 카메라(200a) 외부로 배출하기 위한 홀이다. 차량용 카메라(200a) 내부에 공기 배출홀과 연결된 공기 유동부가 포함될 수 있다. 공기 유동부는, 차량용 카메라(200a) 내부의 고온의 공기를 공기 배출홀로 유도할 수 있다.
차량용 카메라(200a)는, 방습부를 더 포함할 수 있다. 방습부는, 패치(patch) 형태로 형성되어, 공기 배출부에 부착될 수 있다. 방습부는, 고어텍스 재질을 방습 부재일 수 있다. 방습부는, 차량용 카메라(200a) 내부의 습기는 외부로 유출시킬 수 있다. 또한, 방습부는, 차량용 카메라(200a) 외부의 습기의 내부 유입을 방지할 수 있다.
도 3d은 본 발명의 실시예에 따른 차량용 카메라의 사시도이다. 도 3e는 본 발명의 실시예에 따른 차량용 카메라의 분해 사시도이다. 도 3f는 본 발명의 실시예에 따라, 도 3d의 C-D를 절개한 차량용 카메라의 절개 측면도이다.
도 3d 내지 도 3f를 참조하여 설명하는 차량용 카메라(200)는, 스테레오 카메라(200b)이다.
스테레오 카메라(200b)는 도 3a 내지 도 3c를 참조하여 설명한 싱글 카메라(200a)에 대한 설명이 모두 적용될 수 있다. 즉, 스테레오 카메라(200b)에 포함되는 제1 및 제2 카메라 각각은 도 3a 내지 도 3c를 참조하여 설명한 카메라일 수 있다.
스테레오 카메라(200b)는, 제1 렌즈(211a), 제2 렌즈(211b), 제1 이미지 센서(214a), 제2 이미지 센서(214b) 및 프로세서(470a)를 포함할 수 있다.
실시예에 따라, 차량용 카메라(200b)는, 프로세싱 보드(220a), 제1 라이트 쉴드(230a), 제2 라이트 쉴드(230b), 하우징(250a)을 개별적으로 더 포함하거나, 조합하여 더 포함할 수 있다.
한편, 하우징은, 제1 렌즈 하우징(217a), 제2 렌즈 하우징(217b), 제1 하우징(251a), 제2 하우징(252a), 제3 하우징(253a)을 포함할 수 있다.
제1 렌즈(211a) 및 제2 렌즈(211b)는, 도 3a 내지 도 3c의 렌즈(211)에 대한 설명이 적용될 수 있다.
제1 이미지 센서(214a) 및 제2 이미지 센서(214b)는, 도 3a 내지 도 3c의 이미지 센서(214)에 대한 설명이 적용될 수 있다.
한편, 제1 렌즈(211a), 제1 이미지 센서(214a)를 포함하는 모듈은 제1 이미지 획득 모듈로 명명될 수 있다. 또한, 제2 렌즈(211b), 제2 이미지 센서(214b)를 포함하는 모듈은 제2 이미지 획득 모듈로 명명될 수 있다.
프로세서(470a)는, 제1 이미지 센서(214a), 제2 이미지 센서(214b)와 전기적으로 연결될 수 있다. 프로세서(470)는, 제1 이미지 센서(214a) 및 제2 이미지 센서(214b)를 통해 획득되는 영상을 컴퓨터 처리할 수 있다. 이때, 프로세서(470)는, 제1 이미지 센서(214a) 및 제2 이미지 센서(214b)를 통해 획득되는 영상에 기초하여 디스패리티(disparity) 맵을 형성하거나, 디스패리티 연산을 수행할 수 있다.
프로세서(470a)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
프로세서(470a)는, 프로세싱 보드(220a) 상에 실장될 수 있다.
프로세싱 보드(220a)는, 도 3a 내지 도 3c의 프로세싱 보드(220)에 대한 설명이 적용될 수 있다.
제1 라이트 쉴드(230a) 및 제2 라이트 쉴드(230b)는, 도 3 내지 도 5의 라이트 쉴드(230)에 대한 설명이 적용될 수 있다.
제1 렌즈 하우징(217a) 및 제2 렌즈 하우징(217b)은 도 3 내지 도 5의 렌즈 하우징(217)에 대한 설명이 적용될 수 있다.
제1 하우징(251a)은, 도 3a 내지 도 3c의 제1 하우징(251)에 대한 설명이 적용될 수 있다.
제2 하우징(252a)은, 도 3a 내지 도 3c의 제2 하우징(252)에 대한 설명이 적용될 수 있다.
제3 하우징(253a)은, 도 3a 내지 도 3c의 제3 하우징(253)에 대한 설명이 적용될 수 있다.
도 4a 내지 도 4b는 도 3a 내지 도 3f의 프로세서의 내부 블록도의 다양한 예를 예시하고, 도 5a 내지 도 5d는 도 4a 내지 도 4b의 프로세서의 동작 설명에 참조되는 도면이다.
도 4a를 참조하면, 프로세서(470)는, 영상 전처리부(501), 디스패러티 연산부(502), 오브젝트 검출부(504), 오브젝트 트래킹부(506), 및 어플리케이션부(507)를 포함할 수 있다.
영상 전처리부(image preprocessor)(501)는, 카메라(200)로부터의 이미지를 수신하여, 전처리(preprocessing)를 수행할 수 있다.
구체적으로, 영상 전처리부(501)는, 이미지에 대한, 노이즈 리덕션(noise reduction), 렉티피케이션(rectification), 캘리브레이션(calibration), 색상 강화(color enhancement), 색상 공간 변환(color space conversion;CSC), 인터폴레이션(interpolation), 카메라 게인 컨트롤(camera gain control) 등을 수행할 수 있다. 이에 따라, 카메라(200)에서 촬영된 스테레오 이미지 보다 선명한 이미지를 획득할 수 있다.
디스패러티 연산부(disparity calculator)(502)는, 영상 전처리부(501)에서 신호 처리된, 이미지를 수신하고, 수신된 이미지들에 대한 스테레오 매칭(stereo matching)을 수행하며, 스테레오 매칭에 따른, 디스패러티 맵(dispartiy map)을 획득할 수 있다. 즉, 차량 전방에 대한, 스테레오 이미지에 대한 디스패러티 정보를 획득할 수 있다.
이때, 스테레오 매칭은, 스테레오 이미지들의 픽셀 단위로 또는 소정 블록 단위로 수행될 수 있다. 한편, 디스패러티 맵은, 스테레오 이미지, 즉 좌,우 이미지의 시차(時差) 정보(binocular parallax information)를 수치로 나타낸 맵을 의미할 수 있다.
세그멘테이션부(segmentation unit)(503)는, 디스패러티 연산부(502)로부터의 디스페러티 정보에 기초하여, 이미지 중 적어도 하나에 대해, 세그먼트(segment) 및 클러스터링(clustering)을 수행할 수 있다.
구체적으로, 세그멘테이션부(503)는, 디스페러티 정보에 기초하여, 스테레오 이미지 중 적어도 하나에 대해, 배경(background)과 전경(foreground)을 분리할 수 있다.
예를 들면, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이하인 영역을, 배경으로 연산하고, 해당 부분을 제외시킬 수 있다. 이에 의해, 상대적으로 전경이 분리될 수 있다.
다른 예로, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이상인 영역을, 전경으로 연산하고, 해당 부분을 추출할 수 있다. 이에 의해, 전경이 분리될 수 있다.
이와 같이, 스테레오 이미지에 기반하여 추출된 디스페러티 정보 정보에 기초하여, 전경과 배경을 분리함으로써, 이후의, 오브젝트 검출시, 신호 처리 속도, 신호 처리 양 등을 단축할 수 있게 된다.
다음, 오브젝트 검출부(object detector)(504)는, 세그멘테이션부(503)로부터의 이미지 세그먼트에 기초하여, 오브젝트를 검출할 수 있다.
즉, 오브젝트 검출부(504)는, 디스페러티 정보 정보에 기초하여, 이미지 중 적어도 하나에 대해, 오브젝트를 검출할 수 있다.
구체적으로, 오브젝트 검출부(504)는, 이미지 중 적어도 하나에 대해, 오브젝트를 검출할 수 있다. 예를 들면, 이미지 세그먼트에 의해 분리된 전경으로부터 오브젝트를 검출할 수 있다.
다음, 오브젝트 확인부(object verification unit)(505)는, 분리된 오브젝트를 분류하고(classify), 확인할 수 있다(verify).
이를 위해, 오브젝트 확인부(505)는, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용할 수 있다.
한편, 오브젝트 확인부(505)는, 메모리(440)에 저장된 오브젝트들과, 검출된 오브젝트를 비교하여, 오브젝트를 확인할 수 있다.
예를 들면, 오브젝트 확인부(505)는, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 터널 등을 확인할 수 있다.
오브젝트 트래킹부(object tracking unit)(506)는, 확인된 오브젝트에 대한 트래킹을 수행할 수 있다. 예를 들면, 순차적으로, 획득되는 스테레오 이미지들에 내의, 오브젝트를 확인하고, 확인된 오브젝트의 움직임 또는 움직임 벡터를 연산하며, 연산된 움직임 또는 움직임 벡터에 기초하여, 해당 오브젝트의 이동 등을 트래킹할 수 있다. 이에 따라, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 터널 등을 트래킹할 수 있게 된다.
다음, 어플리케이션부(507)는, 차량 주변에, 위치하는 다양한 오브젝트들, 예를 들면, 다른 차량, 차선, 도로면, 표지판 등에 기초하여, 차량(100)의 위험도 등을 연산할 수 있다. 또한, 앞차와의 추돌 가능성, 차량의 슬립 여부 등을 연산할 수 있다.
그리고, 어플리케이션부(507)는, 연산된 위험도, 추돌 가능성, 또는 슬립 여부 등에 기초하여, 사용자에게, 이러한 정보를 알려주기 위한, 메시지 등을, 차량 운전 보조 정보로서, 출력할 수 있다. 또는, 차량(100)의 자세 제어 또는 주행 제어를 위한 제어 신호를, 차량 제어 정보로서, 생성할 수도 있다.
한편, 실시예에 따라, 프로세서(470)는 영상 전처리부(501), 디스페러티 연산부(502), 세그먼테이션부(503), 오브젝트 검출부(504), 오브젝트 확인부(505), 오브젝트 트래킹부(506) 및 어플리케이션부(507) 중 일부만을 포함할 수 있다. 가령, 카메라(200)가 모노 카메라로 구성되는 경우, 디스패러티 연산부(502)는 제외될 수 있다. 또한, 실시예에 따라, 세그먼테이션부(503)는 제외될 수도 있다.
도 4b는 프로세서의 내부 블록도의 다른 예이다.
도면을 참조하면, 도 4b의 프로세서(470)는, 도 4a의 프로세서(470)와 내부 구성 유닛이 동일하나, 신호 처리 순서가 다른 것에 그 차이가 있다. 이하에서는 그 차이만을 기술한다.
오브젝트 검출부(504)는, 스테레오 이미지를 수신하고, 스테레오 이미지 중 적어도 하나에 대해, 오브젝트를 검출할 수 있다. 도 4a와 달리, 디스패러티 정보에 기초하여, 세그먼트된 이미지에 대해, 오브젝트를 검출하는 것이 아닌, 스테레오 이미지로부터 바로 오브젝트를 검출할 수 있다.
다음, 오브젝트 확인부(object verification unit)(505)는, 세그멘테이션부(503)로부터의 이미지 세그먼트, 및 오브젝트 검출부(504)에서 검출된 오브젝트에 기초하여, 검출 및 분리된 오브젝트를 분류하고(classify), 확인한다(verify).
이를 위해, 오브젝트 확인부(505)는, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용할 수 있다.
도 5a와 도 5b는, 제1 및 제2 프레임 구간에서 각각 획득된 스테레오 이미지를 기반으로 하는 프로세서(470)의 동작 방법 설명을 위해 참조되는 도면이다.
먼저, 도 5a를 참조하면, 제1 프레임 구간 동안, 스테레오 카메라(200b)는, 스테레오 이미지를 획득한다.
프로세서(470) 내의 디스패러티 연산부(502)는, 영상 전처리부(501)에서 신호 처리된, 스테레오 이미지(FR1a,FR1b)를 수신하고, 수신된 스테레오 이미지(FR1a,FR1b)에 대한 스테레오 매칭을 수행하여, 디스패러티 맵(dispartiy map)(520)을 획득한다.
디스패러티 맵(dispartiy map)(520)은, 스테레오 이미지(FR1a,FR1b) 사이의 시차를 레벨화한 것으로서, 디스패러티 레벨이 클수록, 차량과의 거리가 가깝고, 디스패러티 레벨이 작을수록, 차량과의 거리가 먼 것으로 연산할 수 있다.
한편, 이러한 디스패러티 맵을 디스플레이 하는 경우, 디스패러티 레벨이 클수록, 높은 휘도를 가지고, 디스패러티 레벨이 작을수록 낮은 휘도를 가지도록 표시할 수도 있다.
도면에서는, 디스패러티 맵(520) 내에, 제1 선(line) 내지 제4 선(line) (528a,528b,528c,528d) 등이 각각 해당하는 디스패러티 레벨을 가지며, 공사 지역(522), 제1 전방 차량(524), 제2 전방 차량(526)이 각각 해당하는 디스패러티 레벨을 가지는 것을 예시한다.
세그멘테이션부(503)와, 오브젝트 검출부(504), 오브젝트 확인부(505)는, 디스패러티 맵(520)에 기초하여, 스테레오 이미지(FR1a,FR1b) 중 적어도 하나에 대한, 세그먼트, 오브젝트 검출, 및 오브젝트 확인을 수행한다.
도면에서는, 디스패러티 맵(520)을 사용하여, 제2 스테레오 이미지(FR1b)에 대한, 오브젝트 검출, 및 확인이 수행되는 것을 예시한다.
즉, 이미지(530) 내에, 제1 선 내지 제4 선(538a,538b,538c,538d), 공사 지역(532), 제1 전방 차량(534), 제2 전방 차량(536)이, 오브젝트 검출 및 확인이 수행될 수 있다.
다음, 도 5b를 참조하면, 제2 프레임 구간 동안, 스테레오 카메라(200b)는, 스테레오 이미지를 획득한다.
프로세서(470) 내의 디스패러티 연산부(502)는, 영상 전처리부(501)에서 신호 처리된, 스테레오 이미지(FR2a,FR2b)를 수신하고, 수신된 스테레오 이미지(FR2a,FR2b)에 대한 스테레오 매칭을 수행하여, 디스패러티 맵(dispartiy map)(540)을 획득한다.
도면에서는, 디스패러티 맵(540) 내에, 제1 차선 내지 제4 차선(548a,548b,548c,548d) 등이 각각 해당하는 디스패러티 레벨을 가지며, 공사 지역(542), 제1 전방 차량(544), 제2 전방 차량(546)이 각각 해당하는 디스패러티 레벨을 가지는 것을 예시한다.
세그멘테이션부(503)와, 오브젝트 검출부(504), 오브젝트 확인부(505)는, 디스패러티 맵(540)에 기초하여, 스테레오 이미지(FR2a,FR2b) 중 적어도 하나에 대한, 세그먼트, 오브젝트 검출, 및 오브젝트 확인을 수행한다.
도면에서는, 디스패러티 맵(540)을 사용하여, 제2 스테레오 이미지(FR2b)에 대한, 오브젝트 검출, 및 확인이 수행되는 것을 예시한다.
즉, 이미지(550) 내에, 제1 선 내지 제4 선(558a,558b,558c,558d), 공사 지역(552), 제1 전방 차량(554), 제2 전방 차량(556)이, 오브젝트 검출 및 확인이 수행될 수 있다.
한편, 오브젝트 트래킹부(506)는, 도 5a와 도 5b를 비교하여, 확인된 오브젝트에 대한 트래킹을 수행할 수 있다.
구체적으로, 오브젝트 트래킹부(506)는, 도 5a와 도 5b에서 확인된, 각 오브젝트들의 움직임 또는 움직임 벡터에 기초하여, 해당 오브젝트의 이동 등을 트래킹할 수 있다. 이에 따라, 차량 주변에 위치하는, 차선, 공사 지역, 제1 전방 차량, 제2 전방 차량 등에 대한 트래킹을 수행할 수 있게 된다.
도 5c 내지 도 5d는 차량용 카메라의 동작 설명에 참조되는 도면이다.
먼저, 도 5c는, 차량 내부에 구비되는 스테레오 카메라(200b)에서 촬영되는 차량 전방 상황을 예시한 도면이다. 특히, 차량 전방 상황을 버드 아이 뷰(bird eye view)로 표시한다.
도면을 참조하면, 왼쪽에서 오른쪽으로, 제1 차선(642a), 제2 차선(644a), 제3 차선(646a), 제4 차선(648a)이 위치하며, 제1 차선(642a)과 제2 차선(644a) 사이에 공사 지역(610a)이 위치하며, 제2 차선(644a)과 제3 차선(646a) 사이에 제1 전방 차량(620a)가 위치하며, 제3 차선(646a)과 제4 차선(648a) 사이에, 제2 전방 차량(630a)이 배치되는 것을 알 수 있다.
다음, 도 5d는 차량 운전 보조 장치에 의해 파악되는 차량 전방 상황을 각종 정보와 함께 표시하는 것을 예시한다. 특히, 도 5d와 같은 이미지는, 차량용 디스플레이 장치(600)에서 표시될 수도 있다.
도 5d는, 도 5c와 달리, 스테레오 카메라(200)에서 촬영되는 이미지를 기반으로하여 정보 표시가 되는 것을 예시한다.
도면을 참조하면, 왼쪽에서 오른쪽으로, 제1 차선(642b), 제2 차선(644b), 제3 차선(646b), 제4 차선(648b)이 위치하며, 제1 차선(642b)과 제2 차선(644b) 사이에 공사 지역(610b)이 위치하며, 제2 차선(644b)과 제3 차선(646b) 사이에 제1 전방 차량(620b)가 위치하며, 제3 차선(646b)과 제4 차선(648b) 사이에, 제2 전방 차량(630b)이 배치되는 것을 알 수 있다.
차량용 카메라(200)는, 스테레오 카메라(200b)에서 촬영되는 스테레오 이미지를 기반으로 하여, 신호 처리하여, 공사 지역(610b), 제1 전방 차량(620b), 제2 전방 차량(630b)에 대한 오브젝트를 확인할 수 있다. 또한, 제1 차선(642b), 제2 차선(644b), 제3 차선(646b), 제4 차선(648b)을 확인할 수 있다.
한편, 도면에서는 공사 지역(610b), 제1 전방 차량(620b), 제2 전방 차량(630b)에 대한 오브젝트 확인을 나타내기 위해, 각각 테두리로 하이라이트되는 것을 예시한다.
한편, 차량용 카메라(200)는, 스테레오 카메라(200b)에서 촬영되는 스테레오 이미지를 기반으로 하여, 공사 지역(610b), 제1 전방 차량(620b), 제2 전방 차량(630b)에 대한 거리 정보를 연산할 수 있다.
도면에서는, 공사 지역(610b), 제1 전방 차량(620b), 제2 전방 차량(630b) 각각에 대응하는, 연산된 제1 거리 정보(611b), 제2 거리 정보(621b), 제3 거리 정보(631b)가 표시되는 것을 예시한다.
한편, 차량용 카메라(200)는, 제어부(170) 또는 내부 센싱부(125)로부터 차량에 대한 센서 정보를 수신할 수 있다. 특히, 차량 속도 정보, 기어 정보, 차량의 회전각(요각)이 변하는 속도를 나타내는 요 레이트 정보(yaw rate), 차량의 각도 정보를 수신할 수 있으며, 이러한 정보들을 표시할 수 있다.
도면에서는, 차량 전방 이미지 상부(670)에, 차량 속도 정보(672), 기어 정보(671), 요 레이트 정보(673)가 표시되는 것을 예시하며, 차량 전방 이미지 하부(680)에, 차량의 각도 정보(682)가 표시되는 것을 예시하나 다양한 예가 가능하다. 그 외, 차량의 폭 정보(683), 도로의 곡률 정보(681)가, 차량의 각도 정보(682)와 함께 표시될 수 있다.
도 6은 본 발명의 실시예에 따른 차량용 디스플레이 장치를 설명하는데 참조되는 블럭도이다.
도 6을 참조하면, 차량용 디스플레이 장치(600)는, 통신부(610), 입력부(620), 인터페이스부(630), 메모리(640), 출력부(650), 프로세서(670) 및 전원 공급부(690)를 포함할 수 있다.
통신부(610)는, 차량용 디스플레이 장치(600)과 이동 단말기 사이, 차량용 디스플레이 장치(600)과 외부 서버 사이 또는 차량용 디스플레이 장치(600)와 타차량과의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(610)는 차량용 디스플레이 장치(600)를 하나 이상의 망(network)에 연결하는 하나 이상의 모듈을 포함할 수 있다.
통신부(610)는, 방송 수신부(611), 무선 인터넷부(612), 근거리 통신부(613), 위치 정보부(614) 및 V2X 통신부(615)를 포함할 수 있다.
방송 수신부(611)는, 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 또는 TV 방송을 포함한다.
무선 인터넷부(612)는, 무선 인터넷 접속을 위한 모듈이다. 무선 인터넷부(612)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들면, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷부(612)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 예를 들면, 무선 인터넷부(612)는 외부 서버와 무선으로 데이터를 교환할 수 있다. 무선 인터넷부(612)는 외부 서버로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))정보를 수신할 수 있다.
근거리 통신부(613)는, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
근거리 통신부(613)는, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량용 디스플레이 장치(600)와 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신부(613)는 이동 단말기와 무선으로 데이터를 교환할 수 있다. 근거리 통신부(613)는 이동 단말기로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 예를 들면, 사용자가 차량(100)에 탑승한 경우, 사용자의 이동 단말기와 차량용 디스플레이 장치(600)는 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
위치 정보부(614)는, 차량(100)의 위치 정보를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치 정보를 획득할 수 있다.
V2X 통신부(615)는, 외부 서버 또는 타 차량과의 무선 통신 수행을 위한 모듈이다. V2X 모듈(615)은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함한다. 차량용 디스플레이 장치(600)는 V2X 통신 모듈(615)을 통해, 외부 서버 및 타 차량과 무선 통신을 수행할 수 있다.
V2X 통신 모듈(615)은, 제1 오브젝트로부터, 제1 오브젝트의 위치 정보를 수신할 수 있다. 여기서, 제1 오브젝트는, 타 차량 또는 이동 단말기일 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 지속적으로 제1 오브젝트를 검출하고 트래킹할 수 있다. 제1 오브젝트가 트래킹되는 상태에서, 제2 오브젝트에 가려지는 경우, V2X 통신 모듈(615)은, 제1 오브젝트의 위치 정보를 획득할 수 있다. 이경우, 제1 오브젝트에 대한 트래킹은 지속적으로 이루어질 수 있다.
입력부(620)는, 사용자 입력부(621), 음향 입력부(622), 제스쳐 감지부(623) 및 내부 카메라(624)를 포함할 수 있다.
사용자 입력부(621)는, 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(621)를 통해, 정보가 입력되면, 프로세서(670)는 입력된 정보에 대응되도록 차량용 디스플레이 장치(600)의 동작을 제어할 수 있다. 사용자 입력부는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다.
음향 입력부(622)는, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량용 디스플레이 장치(600)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 음향 입력부(622)는, 사용자의 음성 명령을 전기적인 데이터로 전환할 수 있다. 전환된 전기적인 데이터는 프로세서(670)에 전달될 수 있다.
제스쳐 감지부(623)는, 사용자의 제스쳐를 감지할 수 있다. 제스쳐 감지부(623)는, 사용자의 제스쳐를 감지할 수 있다. 제스쳐 감지부(623)는, 2차원 제스쳐를 감지할 수 있다.
예를 들면, 제스쳐 감지부는, 광출력부 및 광수신부를 포함할 수 있다. 광출력부는, 적외선 광을 출력할 수 있다. 광수신부는, 광출력부에서 출적된 적외선 광이 사용자의 손에 반사되어 형성되는 반사광을 수신할 수 있다.
프로세서(670)는, 제스쳐 감지부(623)에서 제공되는 정보를 기초로, 입력 신호를 생성할 수 있다.
프로세서(670)는, 반사광을 기초로 사용자의 제스쳐를 감지할 수 있다.
내부 카메라(624)는, 차량 내부 영상을 획득할 수 있다. 내부 카메라(624)는, 촬영된 차량 내부 영상에서, 사용자를 검출할 수 있다.
예를 들면, 내부 카메라(624)는, 운전자, 운전자의 손 또는 운전자의 손가락을 검출할 수 있다. 또는, 카메라(624)는, 보조석에 앉은 탑승객, 탑승객의 손 또는 탑승객의 손가락을 검출할 수 있다.
프로세서(670)는, 내부 카메라(624)에서 제공되는 정보를 기초로 입력 신호를 생성할 수 있다.
프로세서(670)는, 제스쳐 감지부(623)에서 제공되는 정보 및 내부 카메라(624)에서 제공되는 정보에 기초하여, 입력 신호를 생성할 수 있다.
인터페이스부(630)는, 데이터, 정보, 신호를 수신하거나, 프로세서(670)에서 처리 또는 생성된 데이터, 정보, 신호를 외부로 전송할 수 있다. 이를 위해, 인터페이스부(630)는, 유선 통신 또는 무선 통신 방식에 의해, 차량 내부의 제어부(170), 내부 센싱부(125), 외부 센싱부(126), 차량 구동부(150) 등과 데이터 통신을 수행할 수 있다.
한편, 인터페이스부(630)는, 제어부(170) 또는 내부 센싱부(125)로부터, 차량내부 센싱 정보를 수신할 수 있다.
여기서, 센싱 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보, 차량 외부 조도 정보 중 적어도 하나를 포함할 수 있다.
이러한 센싱 정보는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 외부 온도 센서, 차량 내부 습도 센서, 조도 센서 등으로부터 획득될 수 있다. 한편, 포지션 모듈은, GPS 정보 수신을 위한 GPS 모듈을 포함할 수 있다.
인터페이스부(630)는, 외부 센싱부(126)로부터 오브젝트 정보를 수신할 수 있다.
예를 들면, 외부 센싱부(126) 중 카메라(200)는 획득되는 영상을 기초로 차선 검출(Lane Detection, LD), 주변 차량 검출(Vehicle Detection, VD), 보행자 검출(Pedestrian Detection, PD), 불빛 검출(Brightspot Detection, BD), 교통 신호 검출(Traffic Sign Recognition, TSR), 도로면 검출을 수행할 수 있다. 카메라(200)는 검출된 오브젝트와의 거리 정보를 생성할 수 있다.
메모리(640)는, 프로세서(670)와 전기적으로 연결된다. 메모리(640)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(640)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(640)는 프로세서(670)의 처리 또는 제어를 위한 프로그램 등, 차량용 디스플레이 장치(600) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
메모리(640)는, 내비게이션 기능 구현을 위한 맵 데이터를 저장할 수 있다. 여기서 맵 데이터는, 차량 출고시 디폴트로 저장될 수 있다. 또는, 맵 데이터는, 통신부(610) 또는 인터페이스부(630)를 통해 외부 디바이스로부터 수신될 수 있다.
한편, 실시예에 따라, 메모리(640)는, 프로세서(670)와 일체화되어 형성될 수 있다.
메모리(640)는, 운전자에 대응되는 아이 박스(eye box)의 좌표값 정보를 저장할 수 있다. 복수의 운전자가 차량(100)을 운행하는 경우, 각 운전자에 대응하여 아이 박스 좌표값 정보가 메모리(640)에 저장될 수 있다. 예를 들면, 아이 박스 좌표값 정보는, 각 운전자의 앉은키에 대응하여 메모리(640)에 저장될 수 있다.
아이 박스는 3차원의 부피를 가지는 차량(100) 실내의 공간일 수 있다. 아이 박스 좌표값 정보는, 아이 박스의 경계를 정의하는 좌표값들일 수 있다.
출력부(650)는, 디스플레이부(651) 및 음향 출력부(652)를 포함할 수 있다.
디스플레이부(651)는 프로세서(670)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(651)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.
디스플레이부(651)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부(651)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량용 디스플레이 장치(600)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 차량용 디스플레이 장치(600)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(651)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(651)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이경우, 디스플레이부(651)는 터치 입력을 수신할 수 있다.
디스플레이부(651)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 프로세서(670)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 디스플레이부(651)는 윈드 쉴드의 일 영역에 화면이 표시되도록 구현될 수 있다.
디스플레이부(651)는 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 윈드 쉴드에 부착될 수 있다. 이경우, 차량용 디스플레이 장치(600)는, 투명 디스플레이를 통해, 정보를 출력할 수 있다.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다.
한편, 투명 디스플레이의 투명도는 프로세서(670)의 제어에 따라 조절될 수 있다.
차량용 디스플레이 장치(600)는, HUD(Head up display)로 구현될 수 있다. 이경우, 디스플레이부(651)는 투사 모듈을 포함할 수 있다. 이경우, 디스플레이 장치(600)는, 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.
투사 모듈은 윈드 쉴드 또는 차량내 구비된 스크린을 향해 빔(beam)을 투사한다. 투사 모듈은, 광원 및 투사 렌즈를 포함할 수 있다. 투사 모듈은 프로세서(670)에서 처리되는 정보에 대응하는 영상을 구현할 수 있다. 즉, 투사 모듈은 광원에서 발생한 광을 이용하여 영상을 구현하고, 구현된 영상을 윈드 쉴드에 투사할 수 있다. 이때, 광원은 LED, 레이저 등을 이용하는 것이 바람직하다.
프로세서(670)는, 차량용 디스플레이 장치(600) 내의 각 유닛과 전기적으로 연결되어, 각 유닛의 전반적인 동작을 제어한다.
프로세서(670)는, 통신부(610), 입력부(620) 또는 인터페이스부(630)를 통해 수신된 정보 또는 데이터가 출력되도록 출력부(650)를 제어할 수 있다. 프로세서(670)는, 메모리(640)에 저장된 정보 또는 데이터가 출력되도록 출력부(650)를 제어할 수 있다. 프로세서(670)는, 수신된 정보 또는 데이터를 직접 출력하거나, 가공하여 출력할 수 있다. 프로세서(670)는 정보 또는 데이터를 디스플레이(651)를 통해 시각적으로 출력할 수 있다. 프로세서(670)는 정보 또는 데이터를 음향출력부(652)를 통해 청각적으로 출력할 수 있다.
한편, 프로세서(670)는, 인터페이스부(630)를 통해 수신된 정보 또는 데이터를 기초로, 새로운 정보를 생성할 수 있다. 프로세서(670)는, 생성된 정보 또는 생성된 정보에 대응하는 화면이 표시되도록 디스플레이(651)를 제어할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량 외부에 위치하는 오브젝트 정보를 수신할 수 있다. 예를 들면, 프로세서(670)는, 인터페이스부(630)를 통해, 외부 센싱부(126) 또는 차량 운전 보조 장치(400)로부터 차량 외부에 위치하는 오브젝트 정보를 수신할 수 있다.
오브젝트는, 차선, 타 차량, 보행자, 빛, 교통 신호, 도로, 구조물, 지형물, 과속 방지턱, 동물 등을 포함할 수 있다.
차선(Lane)은, 주행 차선, 주행 차선의 옆 차선일 수 있다. 차선(Lane)은, 차선(Lane)을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.
타 차량은, 차량(100)의 주변에서 주행 중인 차량일 수 있다. 타 차량은, 차량(100)으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 타 차량은, 차량(100)보다 선행 또는 후행하는 차량일 수 있다. 타 차량은, 주행 차선의 옆 차선에서 주행 하는 차량일 수 있다. 타 차량은, 교차로에서 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 차량일 수 있다.
보행자는, 인도 또는 차도상에 위치하는 사람일 수 있다.
빛은, 타 차량에 구비된 램프에서 생성된 빛일 수 있다. 빛은, 가로등에서 생성된 빛을 수 있다. 빛은 태양광일 수 있다.
교통 신호는, 교통 신호등, 교통 표지판, 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.
도로는, 도로면, 커브, 오르막, 내리막 등의 경사 등을 포함할 수 있다.
구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등을 포함할 수 있다.
지형물은, 산, 언덕 등을 포함할 수 있다.
한편, 오브젝트는, 이동 오브젝트와 고정 오브젝트로 분류될 수 있다. 예를 들면, 이동 오브젝트는, 타 차량, 보행자를 포함하는 개념일 수 있다. 예를 들면, 고정 오브젝트는, 교통 신호, 도로, 구조물을 포함하는 개념일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량 외부에 위치하는 제1 오브젝트에 대한 정보를 수신할 수 있다.
제1 오브젝트는, 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)가 트래킹 중인 오브젝트일 수 있다. 예를 들면, 제1 오브젝트는, 타 차량, 보행자, 과속 방지턱, 동물 및 교통 신호 중 어느 하나일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량 외부에 위치하는 제2 오브젝트에 대한 정보를 수신할 수 있다.
제2 오브젝트는, 제1 오브젝트 트래킹에 방해되는 오브젝트일 수 있다. 예를 들면, 제2 오브젝트는, 타 차량, 도로 및 구조물 중 어느 하나일 수 있다.
프로세서(670)는, 차량(100)과 제1 오브젝트 사이에 제2 오브젝트가 위치하는지 판단할 수 있다.
프로세서(670)는, 카메라(200)의 시야에서, 제1 오브젝트가 제2 오브젝트에 가리는지 판단할 수 있다. 제1 오브젝트가 트래킹되는 중에 제2 오브젝트에 가려지는 경우, 프로세서(670)는, 차량(100)과, 제2 오브젝트 사이에 제1 오브젝트가 위치한다고 판단할 수 있다.
차량(100)과 제1 오브젝트 사이에, 제2 오브젝트가 위치하는 경우, 프로세서(670)는, 제1 오브젝트에 대응되는 그래픽 객체를 생성할 수 있다. 프로세서(670)는, 그래픽 객체가 디스플레이부(651)에 표시되도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, 제1 오브젝트에 대응되는 형상을 그래픽 객체로 생성하여, 그래픽 객체가 디스플레이부(651)에 표시되도록 제어할 수 있다. 여기서, 그래픽 객체는, 텍스트일 수 있다. 또는, 그래픽 객체는 도형 또는 입체 도형일 수 있다. 예를 들면, 그래픽 객체는, 다각형, 타원, 원 등의 평면 도형일 수 있다. 또는, 그래픽 객체는, 다면체, 구, 원기둥, 다각기둥 등 입체 도형일 수 있다. 또는, 그래픽 객체는, 제1 오브젝트와 비슷한 형상일 수 있다.
예를 들면, 제1 오브젝트가 타 차량인 경우, 프로세서(670)는 차량 이미지를 생성하여 디스플레이부(651)에 표시되도록 제어할 수 있다.
예를 들면, 제1 오브젝트가 보행자인 경우, 프로세서(670)는, 사람 이미지를 생성하여 디스플레이부(651)에 표시되도록 제어할 수 있다.
한편, 그래픽 객체는, 차량(100)의 프런트 윈드 쉴드 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체가 증강현실(Augmented Reality)로 표시되도록 제어할 수 있다.
운전자의 시선은, 프런트 윈드 쉴드를 거쳐, 차량(100) 외부에 위치하는 오브젝트를 향한다. 이때, 프런트 윈드 쉴드 상에 그래픽 객체를 표시함으로써, 운전자는, 그래픽 객체와, 차량(100) 외부에 위치하는 오브젝트를 함께 볼 수 있다. 즉, 프로세서(670)는, 운전자가 그래픽 객체와 차량(100) 외부에 위치하는 오브젝트를 함께 볼 수 있게 할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드 상에서, 제2 오브젝트에 대응되는 영역에 그래픽 객체를 표시하도록 제어할 수 있다 . 예를 들면, 프로세서(670)는, 프런트 윈드 쉴드 상에 그래픽 객체를 제2 오브젝트와 겹쳐지게 보이도록 표시할 수 있다.
프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려진 상태에서, 프런트 윈드 쉴드 중, 운전자가 제2 오브젝트를 확인하기 위해 바라보는 영역에 증강 현실로 그래픽 객체를 표시하도록 제어할 수 있다.
이와 같이 제어 함으로써, 운전자가, 제1 오브젝트가 제2 오브젝트에 가려진 상태임을 인지할 수 있게하는 효과가 있다.
프로세서(670)는, 제1 오브젝트를 트래킹할 수 있다. 프로세서(670)는, 프런트 윈드 쉴드 상에서, 트래킹되는 제1 오브젝트의 위치에 대응되는 영역에 그래픽 객체를 표시하도록 제어할 수 있다.
제1 오브젝트는, 이동 오브젝트 또는 고정 오브젝트일 수 있다.
제1 오브젝트가 이동 오브젝트인 경우, 차량(100)과 제1 오브젝트의 움직임에 따라, 차량(100) 관점에서, 제1 오브젝트는 상대적으로 움직일 수 있다. 이경우, 차량 운전 보조 장치(400) 또는 외부 센싱부(126)는, 제1 오브젝트를 트래킹할 수 있다.
제1 오브젝트가 고정 오브젝트인 경우, 차량(100)의 움직임에 따라, 차량(100) 관점에서, 제1 오브젝트는 상대적으로 움직일 수 있다. 이경우, 차량 운전 보조 장치(400) 또는 외부 센싱부(126)는, 제1 오브젝트를 트래킹할 수 있다.
제1 오브젝트가 움직임에 따라, 프런트 윈드 쉴드 상에서, 제1 오브젝트에 대응되는 영역도 지속적으로 변할 수 있다. 프로세서(670)는, 제1 오브젝트의 움직임에 따라, 그래픽 객체가 표시되는 영역이 변경되도록 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 제1 오브젝트와 데이터를 교환할 수 있다. 예를 들면, 제1 오브젝트가 타 차량인 경우, 프로세서(670)는, V2X 통신부(615)를 통해, 타 차량의 위치 정보를 수신할 수 있다. 예를 들면, 제1 오브젝트가 보행자가 소지한 이동 단말기인 경우, 프로세서(670)는, V2X 통신부(615)를 통해, 이동 단말기의 위치 정보를 수신할 수 있다. 이경우, 이동 단말기의 위치 정보는, 보행자의 위치 정보일 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 제1 오브젝트의 위치 정보를 수신할 수 있다. 프로세서(670)는, 수신된 위치 정보를 기초로, 제1 오브젝트를 트래킹할 수 있다.
차량(100)의 외부 센싱부(126)는, 제1 오브젝트를 검출하고 지속적으로 트래킹할 수 있다. 프로세서(670)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 제1 오브젝트의 검출 정보 및 트래킹 정보를 수신할 수 있다. 제1 오브젝트가 제2 오브젝트에 가려지는 경우, 프로세서(670)는, V2X 통신부(615)를 통해, 제1 오브젝트의 위치 정보를 수신할 수 있다. 프로세서(670)는, 수신된 제1 오브젝트의 위치 정보를 기초로, 제1 오브젝트의 트래킹을 지속할 수 있다.
프로세서(670)는, 차량(100)과 제1 오브젝트와의 거리 또는 상대 속도에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 크기의 변화 또는 색의 변화를 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해 획득되는 제1 오브젝트의 위치 정보 및 차량(100)의 위치 정보를 기초로, 제1 오브젝트와의 거리 정보를 획득할 수 있다.
프로세서(670)는, 시간에 따른 제1 오브젝트의 위치 변화 정보를 기초로, 제1 오브젝트의 속도 정보를 획득할 수 있다. 프로세서(670)는, 제1 오브젝트의 속도 정보 및 차량(100)의 속도 정보를 기초로, 제1 오브젝트와의 상대 속도 정보를 획득할 수 있다.
예를 들면, 차량(100)과 제1 오브젝트와의 거리가 점점 가까워질수록, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체가 점점 커지도록 제어할 수 있다.
예를 들면, 차량(100)과 제1 오브젝트와의 상대 속도가 점점 감소할수록, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체가 점점 커지도록 제어할 수 있다.
예를 들면, 차량(100)과 제1 오브젝트와의 거리가 점점 멀어질수록, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체가 점점 작아지도록 제어할 수 있다.
예를 들면, 차량(100)과 제1 오브젝트와의 상대 속도가 점점 증가할수록, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체가 점점 작아지도록 제어할 수 있다.
복수의 구간 중, 차량(100)과 제1 오브젝트와의 거리에 해당되는 구간에 따라, 그래픽 객체가 기 설정된 색으로 표시되도록 제어할 수 있다. 예를 들면, 차량(100)과 제1 오브젝트와의 거리가 제1 범위 이내인 경우, 프로세서(670)는, 그래픽 객체가 제1 색으로 표시되도록 제어할 수 있다.
복수의 구간 중, 차량(100)과 제1 오브젝트와의 상대 속도에 해당되는 구간에 따라, 그래픽 객체가 기 설정된 색으로 표시되도록 제어할 수 있다. 예를 들면, 차량(100)과 제1 오브젝트와의 상대 속도가 제1 범위 이내인 경우, 프로세서(670)는, 그래픽 객체가 제1 색으로 표시되도록 제어할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다. 즉, 프로세서(670)는, 운전자가 제2 오브젝트에 가려져서 제1 오브젝트를 볼 수 없는지 판단할 수 있다.
만약, 운전자의 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는 경우, 프로세서(670)는, 프런트 윈드 쉴드 상에서, 제2 오브젝트에 대응되는 영역 중, 제1 오브젝트의 위치에 대응되는 영역에, 증강 현실로, 그래픽 객체를 표시할 수 있다.
프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려진 상태에서, 프런트 윈드 쉴드 중, 운전자가 제2 오브젝트를 확인하기 위해 바라보는 영역 중, 제1 오브젝트의 위치에 대응되는 영역에, 증강 현실로 그래픽 객체를 표시하도록 제어할 수 있다.
프로세서(670)는, 제1 오브젝트의 일부가, 제2 오브젝트에 가려지는 경우, 디스플레이부(651)에, 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가 표시되도록 제어할 수 있다.
예를 들면, 프로세서(670)는, 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가, 제1 오브젝트 중 가려지지 않은 부분에 연장된 상태로 증강 현실로 표시되도록 제어할 수 있다.
이와 같이, 그래픽 객체는, 제1 오브젝트의 실물과 연장되도록 표시되어, 사용자가 느끼는 그래픽 객체의 이질감을 최소화하는 효과가 있다. 또한, 사용자에게 제1 오브젝트의 존재를 더욱 명확하게 인식시키는 효과가 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자의 눈의 위치 정보를 획득할 수 있다. 프로세서(670)는, 거리 검출 알고리즘을 통해, 내부 카메라(624)의 운전자의 눈의 위치 정보를 획득할 수 있다.
획득된 눈의 위치가 메모리(640)에 저장된 아이 박스 밖으로 벗어난 경우, 프로세서(670)는, 그래픽 객체의 표시 영역이 변경되도록 디스플레이부(651)를 제어할 수 있다.
허상을 통해 증강현실 이미지가 구현되는 경우, 운전자가 증강현실 이미지를 인지하기 위해서는, 운전자의 눈의 위치가 아이 박스 내에 위치해야 한다. 만약, 운전자의 눈이 아이 박스 밖으로 벗어나는 경우, 증강현실 이미지의 일부분만 보이거나, 증강현실 이미지가 전부 보이지 않을 수 있다. 운전자의 눈의 위치가 아이 박스 밖으로 벗어난 경우, 그래픽 객체의 표시 영역이 변경되도록 제어함으로써, 운전자가 증강 현실 이미지를 지속적으로 인지하게 하는 효과가 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량의 상태 정보를 수신할 수 있다. 차량의 상태 정보는, 내부 센싱부(125)에서 센싱된 데이터를 기초로 생성된 정보일 수 있다. 예를 들면, 차량의 상태 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보, 차량 외부 조도 정보 중 적어도 하나를 포함할 수 있다.
프로세서(670)는, 상태 정보에 기초하여 디스플레이부(651)에 표시되는 그래픽 객체의 모양, 크기, 위치, 색 및 투명도 중 어느 하나를 제어할 수 있다.
예를 들면, 차량의 상태 정보는, 차량의 자세 정보를 포함할 수 있다. 프로세서(670)는, 차량의 자세 정보를 수신할 수 있다. 프로세서(670)는, 차량의 자세 정보에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 위치를 변경할 수 있다. 구체적으로, 차량(100) 주행시, 차량(100)의 롤(roll), 피치(pitch), 요(yaw)는 지속적으로 변경될 수 있다. 롤, 피치 또는 요가 변경됨에 따라, 관성에 의해, 운전자의 자세 및 운전자의 시선도 변경될 수 있다. 이경우, 차량의 자세 정보에 기초하여, 그래픽 객체의 위치를 변경시킴으로써, 운전자의 시선 변화와 무관하게 증강 현실 이미지를 지속적으로 제공할 수 있는 효과가 있다.
예를 들면, 차량의 상태 정보는, 차량의 주행 속도 정보를 포함할 수 있다. 프로세서(670)는, 차량의 주행 속도 정보를 수신할 수 있다. 프로세서(670)는, 차량의 주행 속도 정보에 기초하여, 그래픽 객체의 크기가 변경되도록 디스플레이부(651)를 제어할 수 있다. 가령, 제1 오브젝트가 고정 오브젝트인 경우, 차량(100)과 제1 오브젝트와의 거리는 차량(100)의 속도에 비례한다. 이경우, 차량(100)의 속도에 기초하여 그래픽 객체의 크기가 변경되도록 제어함으로써, 운전자가 직관적으로 제1 오브젝트와의 거리를 인지하게 하는 효과가 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 주행 상황 정보를 수신할 수 있다. 여기서, 주행 상황 정보는, 차량 내부 상황 정보 및 차량 외부 상황 정보를 포함할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 내부 센싱부(125)로부터 차량 내부 상황 정보를 수신할 수 있다. 차량 내부 상황 정보는, 차량 상태 정보로도 명명될 수 있다.
이때, 차량 내부 상황 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보, 차량 외부 조도 정보 중 적어도 하나를 포함할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 차량 외부 상황 정보를 수신할 수 있다.
이때, 차량 외부 상황 정보는, 차량 외부에 위치하는 오브젝트 정보일 수 있다.
오브젝트는, 차선, 타 차량, 보행자, 빛, 교통 신호, 도로, 구조물 등을 포함할 수 있다.
차선(Lane)은, 주행 차선, 주행 차선의 옆 차선일 수 있다. 차선(Lane)은, 차선(Lane)을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.
타 차량은, 차량(100)의 주변에서 주행 중인 차량일 수 있다. 타 차량은, 차량(100)으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 타 차량은, 차량(100)보다 선행 또는 후행하는 차량일 수 있다. 타 차량은, 주행 차선의 옆 차선에서 주행 하는 차량일 수 있다. 타 차량은, 교차로에서 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 차량일 수 있다.
보행자는, 인도 또는 차도상에 위치하는 사람일 수 있다.
빛은, 타 차량에 구비된 램프에서 생성된 빛일 수 있다. 빛은, 가로등에서 생성된 빛을 수 있다. 빛은 태양광일 수 있다.
교통 신호는, 교통 신호등, 교통 표지판, 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.
도로는, 도로면, 커브, 오르막, 내리막 등의 경사 등을 포함할 수 있다.
구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 산, 신호등을 포함할 수 있다.
프로세서(670)는, 주행 상황 정보에 대응하는 그래픽 객체가 더 표시되도록 디스플레이부(651)를 제어할 수 있다 .
예를 들면, 프로세서(670)는, 주행 상황 정보에 대응하는 이미지 또는 텍스트가 표시되도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, 차량 상태 정보에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 양, 종류, 표시되는 영역 중 적어도 어느 하나를 제어할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)의 주행 모드에 따라, 디스플레이부(651)에 표시되는 주행 상황 정보에 대응되는 그래픽 객체의 영역을 변경할 수 있다.
가령, 차량(100)이 수동 주행 모드로 주행하는 경우, 프로세서(670)는, 차량 외부의 오브젝트 정보에 대응되는 그래픽 객체가 실물과 오버레이 되게 증강 현실로 표시할 수 있다.
가령, 차량(100)이 자율 주행 모드로 주행하는 경우, 프로세서(670)는, 차량 외부의 오브젝트 정보에 대응되는 그래픽 객체가 디스플레이부 테두리 영역에 표시되도록 제어할 수 있다.
가령, 차량(100)이 자율 주행 모드로 주행하는 경우, 프로세서(670)는, 차량 내부 상황 정보를 표시하지 않고, 차량 외부 상황 정보만 표시되도록 디스플레이부(651)를 제어할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)의 주행 속도에 따라, 디스플레이부(651)에 표시되는 주행 상황 정보에 대응되는 그래픽 객체의 양을 조절할 수 있다.
가령, 차량(100)이 저속(제1 기준 속도 이하)으로 주행하는 경우, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체의 수를 고속(제2 기준 속도 이상)으로 주행하는 경우보다 많이 표시할 수 있다. 또한, 이경우, 프로세서(670)는, 그래픽 객체를 증강현실로 표시할 수 있다.
가령, 차량(100)이 고속(제2 기준 속도 이상)으로 주행하는 경우, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체의 수를 저속(제1 기준 속도 이하)으로 주행하는 경우보다 더 적게 표시할 수 있다. 또한, 이경우, 프로세서(670)는, 그래픽 객체를 증강현실로 표시하지 않을 수 있다.
가령, 차량(100)이 고속으로 주행하는 경우에도, 자율 주행 모드로 주행하는 경우, 프로세서(670)는, 디스플레이부(651)에 표시되는 그래픽 객체의 수를 고속(제2 기준 속도 이상)으로 주행하는 경우보다 많이 표시할 수 있다. 또한, 이경우, 프로세서(670)는, 그래픽 객체를 증강현실로 표시할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)의 주행 또는 정차 상태에 따라, 표시되는 그래픽 객체의 양을 조절함으로써, 제공되는 주행 상황 정보의 양을 조절할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)의 주행 또는 정차 상태에 따라, 표시되는 그래픽 객체의 타입도 제어할 수 있다. 차량(100)의 주행 상태에서는, 그래픽 객체를 무빙 이미지(moving image)로 표시할 수 있다. 차량(100)의 정차 상태에서는, 그래픽 객체를 스틸 이미지(still image)로 표시할 수 있다.
한편, 프로세서(670)는, 통신부(610)를 통해, 날씨 정보를 획득할 수 있다. 구체적으로, 프로세서(670)는, 주행 중인 지역의 날씨 정보를 획득할 수 있다. 프로세서(670)는, 날씨 정보에 기초하여, 그래픽 객체의 모양, 크기, 위치, 색 및 투명도 중 적어도 어느 하나를 제어할 수 있다.
예를 들면, 프로세서(670)는, 맑은날 주행하는 경우, 흐린날 주행하는 경우에 비해 그래픽 객체의 색을 더 진하게 하거나, 그래픽 객체의 투명도를 낮출 수 있다. 이와 같이, 제어함으로써, 날씨에 대응하여 그래픽 객체의 시인성을 조절할 수 있다.
프로세서(670)는, 맵 정보를 획득할 수 있다. 프로세서(670)는, 메모리(640)에 저장된 맵 정보를 획득할 수 있다. 프로세서(670)는, 통신부(610)를 통해, 외부 서버, 이동 단말기 또는 타 차량으로부터 맵 정보를 획득할 수 있다. 프로세서(670)는, 인터페이스부(630)를 통해, 차량(100) 내 다른 디바이스(예를 들면, 내비게이션)들로부터 맵 정보를 획득할 수 있다.
프로세서(670)는, 획득된 맵 정보를 기초로, 제2 오브젝트에 대한 정보를 획득할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해 주행 상황 정보를 수신할 수 있다. 주행 상황 정보는, 차량 내부 상황 정보 및 차량 외부 상황 정보를 포함할 수 있다.
프로세서(670)는, 맵 정보 및 주행 상황 정보를 기초로, 차량 주변의 3D 맵을 생성할 수 있다. 프로세서(670)는, 맵 상의 오브젝트와, 외부 센싱부(126)를 통해 획득한 오브젝트 정보를 매칭할 수 있다. 이경우, 프로세서(670)는, 외부 센싱부(126)의 센싱 영역 내에서 3D 맵 정보를 생성할 수 있다. 프로세서(670)는, 3D 맵 생성시, 차량의 위치 정보, 차량 자세 정보와 같은 내부 센싱부(125)의 센싱 정보를 더 이용할 수 있다.
프로세서(670)는, 3D 맵상에서, 차량(100), 제1 오브젝트 및 제2 오브젝트 간의 위치 관계를 기초로, 운전자 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다.
프로세서(670)는, 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보에 기초하여, 동력원, 브레이크 장치 및 조향 장치 중 적어도 어느 하나를 제어하기 위한 신호를 제공할 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량 구동부(150)에 제어 신호를 제공할 수 있다.
예를 들면, 프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려져 보이지 않는 상황에서, 제1 오브젝트와 차량(100)의 거리가 기준 거리 이하인 경우, 브레이크 구동부(153)에 제어 신호를 제공하여 차량(100)과 제1 오브젝트간의 거리를 유지할 수 있다.
예를 들면, 프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려져 보이지 않는 상황에서, 제1 오브젝트와 차량(100)의 거리가 기준 거리 이하인 경우, 조향 구동부(152)에 제어 신호를 제공하여, 차량(100)과 제1 오브젝트간의 충돌을 회피할 수 있다.
예를 들면, 프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려져 보이지 않는 상황에서, 제1 오브젝트와 차량(100)의 거리가 기준 거리 이상인 경우, 동력원 구동부(151)에 제어 신호를 제공하여, 차량(100)과 제1 오브젝트간의 거리를 유지할 수 있다.
한편, 프로세서(670)는, 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보에 기초하여, ADAS 기능중 적어도 어느하나가 동작되도록 제어 신호를 제공할 수 있다. 예를 들면, 프로세서(670)는, 제1 오브젝트가 제2 오브젝트에 가려져 보이지 않는 상황에서, 제1 오브젝트와 차량(100)의 거리가 기준 거리 이하인 경우, AEB, FCW, ACC 또는 BSD이 적절하게 동작되도록 제어 신호를 제공할 수 있다.
한편, 프로세서(670)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
전원 공급부(690)는, 프로세서(670)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(690)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
도 7은 본 발명의 실시예에 따른, 프로세서의 내부 구성을 설명하는데 참조되는 도면이다.
도 7을 참조하면, 프로세서(670)는, 운전자 시선 정보 획득부(671), 제1 오브젝트 정보 획득부(672), 제2 오브젝트 정보 획득부(673), 맵 정보 획득부(674), 주행 상황 정보 획득부(678), 판단부(675), 제1 오브젝트 트래킹부(679), 디스플레이 제어부(676) 및 신호 출력부(677)를 포함할 수 있다.
운전자 시선 정보 획득부(671)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득할 수 있다. 운전자 시선 정보 획득부(671)는, 내부 카메라(624)가 획득한 차량 내부 영상에서, 운전자의 눈을 검출할 수 있다. 운전자 시선 정보 획득부(671)는, 운전자의 눈 이미지를 기초로 운전자 시선 정보를 획득할 수 있다.
운전자 시선 정보는, 판단부(675)에 제공될 수 있다.
제1 오브젝트 정보 획득부(672)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 제1 오브젝트 정보를 획득할 수 있다.
제1 오브젝트는, 차량 운전 보조 장치(400) 또는 차량용 디스플레이 장치(600)가 트래킹 중인 오브젝트일 수 있다. 예를 들면, 제1 오브젝트는, 타 차량, 보행자 및 교통 신호 중 어느 하나일 수 있다.
제1 오브젝트 정보 획득부(672)는, 제1 오브젝트 정보를 판단부(675)에 제공할 수 있다.
제2 오브젝트 정보 획득부(673)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 제2 오브젝트 정보를 획득할 수 있다.
제2 오브젝트는, 제1 오브젝트 트래킹에 방해되는 오브젝트일 수 있다. 예를 들면, 제2 오브젝트는, 타 차량, 도로 및 구조물 중 어느 하나일 수 있다.
제2 오브젝트 정보 획득부(673)는, 제2 오브젝트 정보를 판단부(675)에 제공할 수 있다.
맵 정보 획득부(674)는, 인터페이스부(630)를 통해, 내비게이션 장치(300)로부터 맵 정보를 획득할 수 있다. 실시예에 따라, 맵 정보 획득부(674)는, 메모리(640)에 저장된 맵 정보를 획득하거나, 통신부(610)를 통해 차량(100) 외부에 있는 디바이스로부터 맵 정보를 획득할 수 있다.
맵 정보 획득부(674)는, 3D 맵을 생성할 수 있다. 맵 정보 획득부(674)는, 맵 상의 오브젝트와, 외부 센싱부(126)를 통해 획득된 오브젝트 정보를 매칭하여, 3D 맵을 생성할 수 있다. 맵 정보 획득부(674)는, 3D 맵 생성시, 차량의 위치 정보, 차량의 자세 정보와 같은 내부 센싱부(125)의 센싱 정보를 더 이용할 수 있다.
맵 정보 획득부(674)는 맵 정보를, 판단부(675)에 제공할 수 있다.
주행 상황 정보 획득부(678)는, 인터페이스부(630)를 통해, 주행 상황 정보를 획득할 수 있다. 여기서, 주행 상황 정보는, 차량 내부 상황 정보 및 차량 외부 상황 정보를 포함할 수 있다.
주행 상황 정보 획득부(678)는, 인터페이스부(630)를 통해, 내부 센싱부(125)로부터 차량 내부 상황 정보를 수신할 수 있다. 차량 내부 상황 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차속 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 외부 온도 정보, 차량 내부 습도 정보, 차량 외부 조도 정보 중 적어도 하나를 포함할 수 있다.
주행 상황 정보 획득부(678)는, 인터페이스부(630)를 통해, 외부 센싱부(126)로부터 차량 외부 상황 정보를 수신할 수 있다. 차량 외부 상황 정보는, 차량 외부에 위치하는 오브젝트 정보일 수 있다.
주행 상황 정보 획득부(678)는, 주행 상황 정보를 디스플레이 제어부(676)에 제공할 수 있다.
판단부(675)는, 차량(100)과 제1 오브젝트 사이에, 제2 오브젝트가 위치하는지 판단할 수 있다.
판단부(675)는, 운전자 시선 정보를 기초로, 운전자의 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다.
판단부(675)는, 3D 맵상에서, 차량(100), 제1 오브젝트 및 제2 오브젝트간의 위치 관계를 기초로, 운전자 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다.
판단부(675)는, 카메라(200)의 시야에서, 제1 오브젝트가 제2 오브젝트에 가리는지 여부를 기초로, 차량(100)과, 제2 오브젝트 사이에 제1 오브젝트가 위치하는지 판단할 수 있다.
판단부(675)는, 내부 카메라(624)를 통해 검출된 운전자의 눈의 위치가 아이 박스 밖으로 벗어나는지 판단할 수 있다.
제1 오브젝트 트래킹부(679)는, V2X 통신부(615)에서 수신되는 정보를 통해, 제1 오브젝트를 트래킹할 수 있다. V2X 통신부(615)는, 제1 오브젝트로부터 위치 정보를 수신하여, 제1 오브젝트 트래킹부(679)에 제공할 수 있다.
한편, 실시예에 따라, V2X 통신부(615)를 통해 획득되는 제1 오브젝트 정보는, 맵 정보 획득부(674)에서 생성된 3D 맵에 반영될 수도 있다.
디스플레이 제어부(676)는, 판단부(675)의 판단 결과를 기초로, 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 차량(100)과 제1 오브젝트 사이에, 제2 오브젝트가 위치하는 경우, 제1 오브젝트에 대응되는 그래픽 객체를 생성하고, 그래픽 객체가 디스플레이부(651)에 표시되도록, 디스플레이부(651)를 제어할 수 있다. 디스플레이 제어부(676)는, 증강 현실로, 그래픽 객체가 표시되도록 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 제1 오브젝트에 대응되는 형상을 그래픽 객체로 생성하여, 그래픽 객체가 디스플레이부(651)에 표시되도록 제어할 수 있다.
디스플레이 제어부(676)는, 프런트 윈드 쉴드 상에서, 제2 오브젝트에 대응되는 영역에 그래픽 객체를 표시하도록 제어할 수 있다.
디스플레이 제어부(676)는, 프런트 윈드 쉴드 상에서, 트래킹되는 제1 오브젝트의 위치에 대응되는 영역에 그래픽 객체를 표시하도록 제어할 수 있다.
디스플레이 제어부(676)는, 차량(100)과 제1 오브젝트와의 거리 또는 상대 속도에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 크기의 변화 또는 색의 변화를 제어할 수 있다.
운전자의 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는 경우, 디스플레이 제어부(676)는, 프런트 윈드 쉴드 상에서, 제2 오브젝트에 대응되는 영역 중, 제1 오브젝트의 위치에 대응되는 영역에, 증강 현실로, 그래픽 객체를 표시할 수 있다.
디스플레이 제어부(676)는, 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가, 제1 오브젝트 중 가려지지 않은 부분에 연장되어 증강 현실로 표시되도록 제어할 수 있다.
획득된 눈의 위치가 메모리(640)에 저장된 아이 박스 밖으로 벗어난 경우, 디스플레이 제어부(676)는, 그래픽 객체의 표시 영역이 변경되도록 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 차량의 상태 정보에 기초하여 디스플레이부(651)에 표시되는 그래픽 객체의 모양, 크기, 위치, 색 및 투명도 중 어느 하나를 제어할 수 있다.
차량의 상태 정보는, 차량의 자세 정보, 차량의 주행 속도 정보, 차량의 주행 모드 정보 및 차량의 주행/정차 상태 정보 등을 포함할 수 있다.
디스플레이 제어부(676)는, 차량의 자세 정보에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 위치를 변경할 수 있다.
디스플레이 제어부(676)는, 차량의 주행 속도 정보에 기초하여, 그래픽 객체의 크기가 변경되도록 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 주행 상황 정보 획득부(678)에서 수신되는 주행 상황 정보에 대응되는 그래픽 객체가 더 표시되도록 디스플레이부(651)를 제어할 수 있다.
디스플레이 제어부(676)는, 차량 상태 정보에 기초하여, 디스플레이부(651)에 표시되는 그래픽 객체의 양, 종류, 표시되는 영역 중 적어도 어느 하나를 제어할 수 있다.
신호 출력부(677)는, 제1 오브젝트 정보 및 제2 오브젝트 정보에 기초하여, 동력원, 브레이크 장치 및 조향 장치 중 적어도 어느 하나를 제어하기 위한 신호를 제공할 수 있다.
신호 출력부(677)는, 인터페이스부(630)를 통해, 차량 구동부(150)에 신호를 제공할 수 있다.
도 8 내지 도 9는 본 발명의 실시예에 따라 차량이 경사 진입 전에, 선행하는 타 차량이 도로 경사에 가려지는 상황을 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)은, 도 8에 예시된 바와 같이 내리막을 주행할 수 있다. 차량(100)은, 도 9에 예시된 바와 같이 오르막을 주행할 수 있다. 차량(100)이 오르막 또는 내리막 진입 전에, 선행하는 타 차량(810)이 도로의 경사(820, 830)에 가려져 보이지 않을 수 있다. 차량(100)과 선행하는 타 차량(810) 사이에 도로의 경사(820, 830)가 위치할 수 있다.
여기서, 선행하는 타 차량(810)은, 제1 오브젝트일 수 있다. 도로의 경사(820, 830)는, 제2 오브젝트일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 선행하는 타 차량(810) 정보 및 도로의 경사(820, 830) 정보를 획득할 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 선행하는 타 차량(810) 및 도로의 경사(820, 830)를 감지할 수 있다. 프로세서(670)는, 외부 센싱부(126)로부터 타 차량(810) 정보 및 도로의 경사(820, 830) 정보를 수신할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(810)의 위치 정보를 획득할 수 있다. 타 차량(810)이 도로의 경사(820, 830)에 가려져, 외부 센싱부(126)가 타 차량(810)을 검출하지 못하는 경우에도, 프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(810)을 지속적으로 트래킹할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득하고, 운전자 시선 정보를 기초로, 차량(100)과 선행하는 타 차량(810) 사이에 도로의 경사(820, 830)가 위치하는지 판단할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 선행하는 타 차량(810)이 도로의 경사(820, 830)에 가려지는지 판단할 수 있다.
프로세서(670)는, 3D 맵을 생성하고, 3D 맵상에서, 차량(100), 선행하는 타 차량(810) 및 도로(820, 830)간의 위치 관계를 기초로, 차량(100)과 선행하는 타 차량(810) 사이에 도로의 경사(820, 830)가 위치하는지 판단할 수 있다. 프로세서(670)는, 3D 맵을 기초로 운전자 시선에서, 선행하는 타 차량(810)이 도로의 경사(820, 830)에 가려지는지 판단할 수 있다.
도 10a 내지 도 10d는 본 발명의 실시예에 따라, 도 8 내지 도 9의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)과, 제1 오브젝트 사이에, 제2 오브젝트가 위치하는 경우, 프로세서(670)는, 제1 오브젝트에 대응하는 그래픽 객체(1000, 1010, 1020, 1030, 1050)를 생성할 수 있다. 프로세서(670)는, 그래픽 객체가 표시되도록 디스플레이부(651)를 제어할 수 있다.
그래픽 객체(1000, 1010, 1020, 1030, 1050)는, 차량(100)의 프런트 윈드 쉴드(10) 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체(1000, 1010, 1020, 1030, 1050)가 증강현실로 표시되도록 제어할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드(10) 상에서, 도로의 경사(820, 830)에 대응되는 영역에 그래픽 객체(1000, 1010, 1020, 1030, 1050)를 표시하도록 제어할 수 있다.
프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)을 트래킹할 수 있다. 프로세서(670)는, V2X 통신부(615)를 통해, 선행하는 타 차량(도 8 내지 도 9의 810)의 위치 정보를 수신할 수 있다. 프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)의 위치 정보를 기초로, 트래킹할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드(10) 상에서, 트래킹되는 선행하는 타 차량(도 8 내지 도 9의 810)의 위치에 대응되는 영역에 그래픽 객체(1000, 1010, 1020, 1030, 1050)를 표시하도록 제어할 수 있다.
도 10a에 예시된 바와 같이, 프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)에 대응되는 그래픽 객체(1000, 1010)를 표시할 수 있다.
프로세서(670)는, 그래픽 객체로 텍스트(1010)를 표시할 수 있다. 프로세서(670)는, 그래픽 객체로, 화살표 형상(1000)을 표시할 수 있다. 이때, 프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)이 향하는 방향과 화살표 형상(1000)의 방향이 일치되도록 화살표 형상(1000)을 표시할 수 있다.
도 10b 내지 도 10c에 예시된 바와 같이, 프로세서(670)는, 선행하는 타 차량(도 8 내지 도 9의 810)과 비슷한 형상인 차량 이미지(1020, 1030)를, 그래픽 객체로, 표시할 수 있다.
프로세서(670)는, 차량(100)과 선행하는 타 차량(810)의 거리를 기초로 차량 이미지(1020, 1030)의 크기의 변화 또는 색의 변화를 조절할 수 있다.
예를 들면, 차량(100)과 선행하는 타 차량(810)이 점점 가까워질수록, 프로세서(670)는, 차량 이미지(1020, 1030)를 점점 크게 표시할 수 있다. 또한, 차량(100)과 선행하는 타 차량(810)이 점점 멀어질수록, 프로세서(670)는, 차량 이미지(1020, 1030)를 점점 작게 표시할 수 있다.
예를 들면, 차량(100)과 선행하는 타 차량(810)이 점점 가까워질수록, 프로세서(670)는, 차량 이미지(1020, 1030)의 색을 점점 진하게 표시할 수 있다. 또한, 차량(100)과 선행하는 타 차량(810)이 점점 멀어질수록, 프로세서(670)는, 차량 이미지(1020, 1030)의 색을 점점 연하게 표시할 수 있다.
프로세서(670)는, 차량(100)과 선행하는 타 차량(810)의 상대 속도를 기초로, 차량 이미지(1020, 1030)의 크기의 변화 또는 색의 변화를 조절할 수 있다.
예를 들면, 차량(100)과 선행하는 타 차량(810)의 상대 속도가 점점 감소할수록, 프로세서(670)는, 차량 이미지(1020, 1030)를 점점 크게 표시할 수 있다. 또한, 차량(100)과 선행하는 타 차량(810)의 상대 속도가 점점 증가할수록, 프로세서(670)는, 차량 이미지(1020, 1030)를 점점 작게 표시할 수 있다.
예를 들면, 차량(100)과 선행하는 타 차량(810)의 상대 속도가 점점 감소할수록, 프로세서(670)는, 차량 이미지(1020, 1030)의 색을 점점 진하게 표시할 수 있다. 또한, 차량(100)과 선행하는 타 차량(810)의 상대 속도가 점점 증가할수록, 프로세서(670)는, 차량 이미지(1020, 1030)의 색을 점점 연하게 표시할 수 있다.
도 10d에 예시된 바와 같이, 프로세서(670)는, 선행하는 타 차량(810)의 일부가 도로의 경사(820, 830)에 가려지는 경우, 가려진 부분에 대응되는 차량 일부 이미지(1050)가 표시되도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, 차량 일부 이미지(1050)가 선행하는 타 차량(810) 중 가려지지 않은 부분에 연장된 상태로 증강 현실로 표시되도록 디스플레이부(651)를 제어할 수 있다.
도 11은 본 발명의 실시예에 따라 교차로 진입 전에, 타 차량이 건물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)은, 도 11에 예시된 바와 같이, 교차로를 주행할 수 있다. 차량(100)이 교차로 진입 전에, 교차로에서 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 타 차량(1110)이 주변 건물(1120)에 가려져 보이지 않을 수 있다. 차량(100)과 타 차량(1110) 사이에 건물(1120)이 위치할 수 있다.
여기서, 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 타 차량(1110)은, 제1 오브젝트일 수 있다. 도로 주변에 위치하는 건물(1120)은, 제2 오브젝트일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 타 차량(1110) 정보 및 도로 주변 건물(1120) 정보를 획득할 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 타 차량(1110) 및 건물(1120)을 감지하고, 프로세서(670)는, 외부 센싱부(126)로부터 타 차량(1110) 정보 및 건물(1120) 정보를 수신할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(1110)의 위치 정보를 획득할 수 있다. 타 차량(1110)이 건물(1120)에 가려져, 외부 센싱부(126)가 타 차량(1110)을 검출하지 못하는 경우에도, 프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(1110)을 지속적으로 트래킹할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득하고, 운전자 시선 정보를 기초로, 차량(100)과 차량(100)의 주행 방향과 교차되는 방향으로 주행중인 타 차량(1110) 사이에 건물(1120)이 위치하는지 판단할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 타 차량(1110)이 건물(1120)에 가려지는지 판단할 수 있다.
프로세서(670)는, 3D 맵을 생성하고, 3D 맵상에서, 차량(100), 차량(100)의 주행 방향과 교차되는 방향으로 주행 중인 타 차량(1110) 사이에 건물(1120)이 위치하는지 판단할 수 있다. 프로세서(670)는, 3D 맵을 기초로 운전자 시선에서, 타 차량(1110)이 건물(1120)에 가려지는지 판단할 수 있다.
도 12는 본 발명의 실시예에 따라, 도 11의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)과 차량(100)의 주행 방향과 교차되는 방향으로 주행 중인 타 차량(1110) 사이에 건물(1120)이 위치하는 경우, 프로세서(670)는, 타 차량(1110)에 대응되는 그래픽 객체(1210)를 생성할 수 있다. 프로세서(670)는, 그래픽 객체(1210)가 표시되도록 디스플레이부(651)를 제어할 수 있다. 여기서, 그래픽 객체는, 차량의 이미지(1210)일 수 있다.
그래픽 객체(1210)는, 차량(100)의 프런트 윈드 쉴드(10) 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체(1210)가 증강현실로 표시되도록 제어할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드에서, 건물(1120)에 대응되는 영역에 그래픽 객체(1210)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해 수신된, 타 차량(1110)의 위치 정보에 대응되는 영역에 그래픽 객체(1210)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
도 13은 본 발명의 실시예에 따라, 주행시 보행자가 타 차량에 가려지는 상황을 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)은, 도 13에 예시된 바와 같이, 주행 중 차도를 건너는 보행자(1310)가 도로가에 정차되어 있는 타 차량(1320)에 가려져 보이지 않을 수 있다. 차량(100)과 보행자(1310) 사이에 타 차량(1320)이 위치할 수 있다.
여기서, 차도를 건너는 보행자(1310)는, 제1 오브젝트일 수 있다. 도로가에 정차되어 있는 타 차량(1320)는, 제2 오브젝트일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차도를 건너는 보행자(1310) 정보 및 도로가에 정차되어 있는 타 차량(1320) 정보를 획득할 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 보행자(1310) 및 타 차량(1320)을 감지하고, 프로세서(670)는, 외부 센싱부(126)으로부터 보행자(1310) 및 타 차량(1320) 정보를 수신할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 보행자(1310)의 위치 정보를 획득할 수 있다. 구체적으로, 프로세서(670)는, V2X 통신부(615)를 통해, 보행자(1310)가 소지한 이동 단말기와 통신하여, 이동 단말기의 위치 정보를 획득할 수 있다. 이때, 이동 단말기의 위치 정보는, 보행자의 정보일 수 있다. 보행자(1310)가 타 차량(1320)에 가려져, 외부 센싱부(126)가 보행자를 검출하지 못하는 경우에도, 프로세서(670)는, V2X 통신부(615)를 통해, 보행자(1310)를 지속적으로 트래킹할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득하고, 운전자 시선 정보를 기초로, 차량(100)과 차도를 건너는 보행자(1310) 사이에, 도로가에 정차된 타 차량(1320)이 위치하는지 판단할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 보행자(1310)가 타 차량(1320)에 가려지는지 판단할 수 있다.
프로세서(670)는, 3D 맵을 생성하고, 3D 맵상에서, 차량(100), 차도를 건너는 보행자(1310) 사이에 도로가에 정차된 타 차량(1320)이 위치하는지 판단할 수 있다. 프로세서(670)는, 3D 맵을 기초로, 운전자 시선에서, 보행자(1310)가 타 차량(1320)에 가려지는지 판단할 수 있다.
도 14는, 본 발명의 실시예에 따라, 도 13의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)과 차도를 건너는 보행자(1310) 사이에, 도로가에 정차되어 있는 타 차량(1320)이 위치하는 경우, 프로세서(670)는, 보행자(1310)에 대응되는 그래픽 객체(1410)를 생성할 수 있다. 프로세서(670)는, 그래픽 객체(1410)가 표시되도록 디스플레이부(651)를 제어할 수 있다. 여기서, 그래픽 객체는 보행자 이미지(1410)일 수 있다.
그래픽 객체(1410)는, 차량(100)의 프런트 윈드 쉴드(10) 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체(1410)가 증강현실로 표시되도록 제어할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드에서, 타 차량(1320)에 대응되는 영역에 그래픽 객체(1410)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해 수신된, 보행자(1310)의 위치 정보에 대응되는 영역에 그래픽 객체(1410)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
도 15는 본 발명의 실시예에 따라, 차량이 코너 진입 전에, 선행하는 타 차량이 도로 주변 지형물에 가려지는 상황을 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)은, 도 15에 예시된 바와 같이, 커브 구간을 주행할 수 있다. 차량(100)이 커브 구간 진입 전에, 선행하는 타 차량(1510)이 도로 주변 지형물(1520)에 가려져 보이지 않을 수 있다. 차량(100)과 타 차량(1510) 사이에 지형물(1520)이 위치할 수 있다.
여기서, 선행하는 타 차량(1510)은 제1 오브젝트일 수 있다. 도로 주변에 위치하는 지형물(1520)은, 제2 오브젝트일 수 있다.
프로세서(670)는, 인터페이스부(630)를 통해, 차량(100)에 선행하는 타 차량(1510) 정보 및 도로 주변에 위치하는 지형물(1520) 정보를 획득할 수 있다. 예를 들면, 차량(100)의 외부 센싱부(126)는, 타 차량(1510) 및 지형물(1520)을 감지하고, 프로세서(670)는, 외부 센싱부(126)로부터 타 차량(1510) 정보 및 지형물(1520) 정보를 수신할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(1510)의 위치 정보를 획득할 수 있다. 타 차량(1510)이 지형물(1520)에 가려져, 외부 센싱부(126)가 타 차량(1510)을 검출하지 못하는 경우에도, 프로세서(670)는, V2X 통신부(615)를 통해, 타 차량(1510)을 지속적으로 트래킹할 수 있다.
프로세서(670)는, 내부 카메라(624)를 통해, 운전자 시선 정보를 획득하고, 운전자 시선 정보를 기초로, 차량(100)과 차량(100)에 선행하는 타 차량(1510) 사이에 지형물(1520)이 위치하는지 판단할 수 있다. 프로세서(670)는, 운전자 시선 정보를 기초로, 운전자 시선에서, 타 차량(1510)이 지형물(1520)에 가려지는지 판단할 수 있다.
프로세서(670)는, 3D 맵을 생성하고, 3D 맵상에서, 차량(100), 차량(100)에 선행하는 타 차량(1510) 사이에 지형물(1520)이 위치하는지 판단할 수 있다. 프로세서(670)는, 3D 맵을 기초로, 운전자 시선에서, 타 차량(1520)이 지형물(1520)에 가려지는지 판단할 수 있다.
한편, 지형물(1520)은, 산과 같이, 지상에서 일정한 부피를 가지게 형성되는 오브젝트일 수 있다.
도 16은 본 발명의 실시예에 따라, 도 15의 상황에서, 표시되는 그래픽 객체를 설명하는데 참조되는 도면이다.
도면을 참조하면, 차량(100)과 차량(100)에 선행하는 타 차량(1510) 사이에 지형물(1520)이 위치하는 경우, 프로세서(670)는, 타 차량(1510)에 대응되는 그래픽 객체(1610)를 생성할 수 있다. 프로세서(670)는, 그래픽 객체(1610)가 표시되도록 디스플레이부(651)를 제어할 수 있다. 여기서, 그래픽 객체는, 소정의 도형 이미지(1610)일 수 있다.
그래픽 객체(1610)는, 차량(100)의 프런트 윈드 쉴드(10) 상에 표시될 수 있다. 이경우, 프로세서(670)는, 그래픽 객체(1610)가 증강현실로 표시되도록 제어할 수 있다.
프로세서(670)는, 프런트 윈드 쉴드에서, 지형물(1520)에 대응되는 영역에 그래픽 객체(1610)를 표시하도록 제어할 수 있다.
프로세서(670)는, V2X 통신부(615)를 통해 수신된, 타 차량(1520)의 위치 정보에 대응되는 영역에 그래픽 객체(1610)를 표시하도록 디스플레이부(651)를 제어할 수 있다.
한편, 타 차량(1520)이 제2 오브젝트에 가려진 상태에서, 프로세서(670)는, 차량(100)과 선행하는 타 차량(1520)과의 거리 정보를 기초로, 브레이크 제어를 안내하는 그래픽 객체를 증강현실로 표시하도록 디스플레이부(651)를 제어할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)과 타 차량(1520)간의 거리가 제1 범위 이내인 경우, 제1 색 또는 제1 크기의 제1 이미지(1621)를 주행 도로와 겹쳐지게 보이도록 표시할 수 있다 여기서, 제1 이미지(1621)는, 제1 단계의 제동이 이루어지도록 운전자를 유도하기 위한 이미지일 수 있다.
예를 들면, 프로세서(670)는, 차량(100)과 타 차량(1520)간의 거리가 제2 범위 이내인 경우, 제2 색 또는 제2 크기의 제2 이미지(1622)를 주행도로와 겹쳐지게 보이도록 표시할 수 있다. 여기서, 제2 이미지(1622)는, 제2 단계의 제동이 이루어지도록 운전자를 유도하기 위한 이미지일 수 있다.
예를 들면, 프로세서(670)는, 차량(100)과 타 차량(1520)간의 거리가 제3 범위 이내인 경우, 제3 색 또는 제3 크기의 제3 이미지(1623)를 주행도로와 겹쳐지게 보이도록 표시할 수 있다. 여기서, 제3 이미지(1623)는, 제3 단계의 제동이 이루어지도록 운전자를 유도하기 위한 이미지일 수 있다.
도 17은 본 발명의 실시예에 따른 다양한 그래픽 객체를 설명하는데 참조되는 도면이다.
프로세서(670)는, 다양한 그래픽 객체(1710, 1720, 1725, 1730, 1740, 1750)가 증강현실로 표시되도록 디스플레이부(651)를 제어할 수 있다.
예를 들면, 프로세서(670)는, 교통 표지판이 주변에 위치하는 경우, 교통 표지판에 대응되는 이미지(1710)를 표시할 수 있다.
예를 들면, 프로세서(670)는, 탑승객이 선호하는 상점이 주변에 위치하는 경우, 상점에 대응되는 이미지(1720)를 증강 현실로 표시할 수 있다. 이경우, 차량용 디스플레이 장치(100)는, 음향 입력부(622)를 통해 사용자 입력을 수신 받아, 상점에 자동 예약 전화를 걸 수 있다.
예를 들면, 프로세서(670)는, 주변에 신호등이 위치하는 경우, 신호등에 대응하는 이미지(1725)를 증강 현실로 표시할 수 있다. 이때, 프로세서(670)는, 신호등의 신호 변환 시간 정보를 함께 표시할 수 있다.
예를 들면, 프로세서(670)는, 차량(100)에 잔여 연료가 얼마 남지 않은 경우, 주변에 위치한 주유소에 대응하는 이미지(1730)를 증강 현실로 표시할 수 있다. 이때, 프로세서(670)는, 주변 주유소의 유가 정보를 함께 표시할 수 있다.
예를 들면, 프로세서(670)는, 차선 합류 지점이 주변에 위치하는 경우, 차선 합류 지점에 대응하는 이미지(1740)를 표시할 수 있다. 이때, 프로세서(670)는, 차선 합류를 위한 추천 차선 안내 정보를 함께 표시할 수 있다. 이경우, 프로세서(670)는, 차선 합류 지점 진입을 위해 방향 지시등 온(on)을 위한 제어 신호를 램프 구동부(154)에 제공할 수 있다.
예를 들면, 프로세서(670)는, 지하도가 주변이 위치하는 경우, 지하도 진입에 대응하는 이미지(1750)를 표시할 수 있다. 이때, 프로세서(670)는, 지하도 진입 전 공기 오염도 상태 정보를 함께 표시할 수 있다. 이경우, 프로세서(670)는, 지하도 진입 전에 윈도우 구동부(157)에 윈도우 클로징을 위한 제어 신호를 제공할 수 있다. 또한, 프로세서(670)는, 공조 구동부(155)에, 공기 정화기능 온(on)을 위한 제어 신호를 제공할 수 있다.
한편, 위험 상황이 회피되는 경우, 프로세서(670)는, 출력부(650)를 통해, 위험 상황 회피 정보를 출력할 수 있다.
도 18은 본 발명의 실시예에 따른 3D 도면을 설명하는데 참조되는 도면이다.
도면을 참조하면, 프로세서(670)는, 맵 정보를 획득할 수 있다. 맵 정보는, 차량(100)을 중심으로 한, 주변의 공간 정보를 포함할 수 있다. 예를 들면, 맵 정보는, 차량(100) 주변의 도로, 지형물, 구조물 등의 정보를 포함할 수 있다.
프로세서(670)는, 외부 센싱부(126)로부터 센싱된 차량(100)의 외부 상황 정보를 수신할 수 있다. 구체적으로, 프로세서(670)는, 외부 센싱부(126)로부터, 차량(100)의 외부에 위치하는 오브젝트 정보를 수신할 수 있다.
프로세서(670)는, 맵 정보 및 외부 상황 정보를 합성(fusion)하여 3D 맵(1800)을 생성할 수 있다. 프로세서(670)는, 맵 상의 오브젝트와, 외부 센싱부(126)를 통해 획득한 오브젝트 정보를 매칭할 수 있다.
프로세서(670)는, 3D 맵상에서, 맵 정보에서 획득한, 도로(1811), 지형물 및 구조물(1812)을 입체적으로 구현할 수 있다. 또한, 프로세서(670)는, 외부 상황 정보에서 획득한, 타 차량(1821) 및 보행자(1822)를 입체적으로 구현할 수 있다.
프로세서(670)는, 3D 맵상에서, 차량(100), 제1 오브젝트 및 제2 오브젝트 간의 위치 관계를 기초로, 운전자 시선에서, 제1 오브젝트가 제2 오브젝트에 가려지는지 판단할 수 있다.
도 19는 본 발명의 일 실시예에 따라, 차량용 디스플레이 장치(600)가 윈드 쉴드(10)를 통해 증강현실 이미지를 구현하는 동작을 설명하기 위한 개념도이다. 도 19에서, 차량용 디스플레이 장치(600)는 HUD인 것으로 가정한다.
이하의 설명에서, 증강현실 이미지는 그래픽 객체의 일 예일 수 있다.
도 19를 참조하면, 차량용 디스플레이 장치(600)는 디스플레이 패널(1942), 제1 미러(1944), 제2 미러(1946)를 포함할 수 있다.
디스플레이 패널(1942)에는 백 라이트 유닛이 구비되어, 프로세서(670)의 제어에 따라, 증강현실 이미지를 구현하기 위한 표시광을 윈드 쉴드(10)를 향하여 투영할 수 있다.
프로세서(670)는 실내 카메라(624), 실외 카메라(200) 및 디스플레이 패널(1942)과 기능적으로 연결되어, 실내 카메라(624) 및/또는 실외 카메라(200)로부터 제공되는 영상을 기초로, 특정 증강현실 이미지를 구성하기 위한 영상 데이터를 생성하고, 이를 디스플레이 패널(1942)에 제공할 수 있다. 예컨대, 증강현실 이미지를 구성하기 위한 영상 데이터는 비트맵(bit map) 형식일 수 있다.
일 실시예에서, 프로세서(670)는 실외 카메라(200)로부터 제공되는 전방 영상을 기초로, 차량(100)의 전방에 존재하는 특정 오브젝트(1901)를 검출하고, 검출된 오브젝트(1901)에 대응하는 증강현실 이미지를 구성하기 위한 영상 데이터를 디스플레이 패널(1942)에 제공할 수 있다.
디스플레이 패널(1942)은 프로세서(670)로부터 제공되는 영상 데이터를 기초로, 증강현실 이미지에 대응하는 표시광을 제1 미러(1944)로 출력할 수 있다. 제2 미러(1946)는 제1 미러(1944)로부터 반사된 표시광을 윈드 쉴드(10)에 재 반사함으로써, 윈드 쉴드(10)를 통해 증강현실 이미지가 구현되도록 할 수 있다. 디스플레이 패널(1942)로부터 윈드 쉴드(10)까지의 광학 경로(optical path)에 의해, 증강현실 이미지에 대응하는 표시광의 사이즈가 확대되거나 윈드 쉴드(10)에 대한 투영 위치가 조절될 수 있다.
한편, 제2 미러(1946)에 의해 반사된 표시광은 윈드 쉴드(10)의 미리 정해진 영역(이하, 표시 영역) 내에 투영될 수 있다. 표시 영역(1920)에는 증강현실 이미지(1930)가 보다 선명하게 보일 수 있도록 반사 필름이 부착될 수 있다.
이때, 윈드 쉴드(10)에 투영된 표시광에 의해 증강현실 이미지가 구현되는데, 운전자의 위치에서는 증강현실 이미지(1930)가 윈드 쉴드(10)의 표시 영역(1920)이 아닌, 표시 영역(1920) 너머의 차량(100) 외부에 표시되는 것으로 보일 수 있다. 즉, 증강현실 이미지(1930)는 차량(100)의 전방으로 소정 거리 앞에 마치 떠있는 것처럼 보이는 허상으로 인식될 수 있다. 예컨대, 증강현실 이미지(1930)는 오브젝트(1901)의 윤곽선, 속도, 충돌 경보 등에 대한 정보를 제공하는 그래픽 객체일 수 있다.
차량용 디스플레이 장치(600)가 허상을 통해 증강현실 이미지(1930)를 구현하는 경우, 운전자가 표시 영역(1920)을 통해 증강현실 이미지(1930)를 인지하기 위해서는, 운전자의 눈 위치가 아이 박스(1910) 내에 위치해야 한다. 아이 박스(1910)는 3차원의 부피를 가지는 차량(100) 실내의 공간으로서, 운전자의 눈이 아이 박스(1910) 내에 위치하는 경우, 표시 영역(1920)을 통해 증강현실 이미지(1930)를 확인할 수 있다. 반면, 운전자의 눈이 아이 박스(1910) 밖으로 벗어나는 경우, 증강현실 이미지(1930)의 일부분만이 보이거나, 증강현실 이미지(1930)가 전부 보이지 않을 수 있다. 메모리(640)에는 아이 박스(1910)의 경계를 정의하는 좌표값들이 미리 저장될 수 있다.
한편, 운전자의 눈이 아이 박스(1910) 내에 위치하는 경우, 운전자가 증강현실 이미지(1930)를 인지할 수 있다고 하더라도, 아이 박스(1910) 내에서의 눈 위치 변화에 따라, 운전자가 표시 영역(1920)을 통해 인지하게 되는 오브젝트(1901)의 실제 이미지와 증강현실 이미지(1930) 사이에는 오차가 발생할 수 있다. 이는, 운전자의 위치를 기준으로 할때, 증강현실 이미지(1930)까지의 거리와 오브젝트(1901)까지의 거리가 상이하기 때문에 발생하는 현상이며, 오브젝트(1901)가 상대적으로 멀어질수록 증강현실 이미지(1930)와의 오차는 점차적으로 증대될 수 있다. 이러한 오차를 저감 내지 해소하기 위해, 프로세서(670)는 운전자의 눈 위치를 기초로, 증강현실 이미지(1930)를 후처리할 수 있다.
구체적으로, 프로세서(670)는 실내 카메라(624)로부터 제공되는 운전자 영상으로부터, 운전자의 눈 위치를 검출할 수 있다. 일 실시예에서, 프로세서(670)는 아이 트래킹(eye tracking) 기법을 이용하여, 운전자 영상에 나타나는 운전자의 눈을 검출하고, 검출된 눈의 3차원 좌표값을 산출할 있다. 다른 실시예에서, 프로세서(670)는 에지 검출(edge detection) 기법을 이용하여, 운전자 영상으로부터 운전자의 얼굴 윤곽선을 추출하고, 추출된 윤곽선을 기초로, 운전자의 눈 위치를 추정할 수 있다.
메모리(640)에는 기준 위치에 대한 정보가 미리 설정될 수 있고, 프로세서(670)는 운전자의 눈 위치를 기준 위치와 비교하여, 기준 위치에 대한 눈 위치의 방향 및 거리를 산출할 수 있다. 즉, 프로세서(670)는 운전자의 현재 눈 위치가 기준 위치로부터 어느 방향으로 얼마만큼 떨어져 있는지 판단할 수 있다.
프로세서(670)는 기준 위치에 대한 눈 위치의 방향 및 거리에 따라, 증강현실 이미지에 대한 후처리에 적용할 시각 효과를 결정할 수 있다. 아울러, 프로세서(670)는 결정된 시각 효과의 크기를 결정할 수도 있다.
프로세서(670)는 결정된 시각 효과를 이용하여 증강현실 이미지(1930)를 후처리함으로써, 아이 박스(1910) 내에서의 눈 위치 변화에 따라 발생하는 오브젝트(1901)의 실제 이미지와의 오차를 억제하고, 보다 향상된 이미지 간 매칭 결과를 운전자에게 제공할 수 있다.
증강현실 이미지에 대한 후처리에 적용 가능한 시각 효과는, 증강현실 이미지에 대한 블러링(blurring), 위치 변경, 크기 변경, 형상 변경 및 기울기 변경 중 적어도 하나를 포함할 수 있다. 일 예로, 운전자의 눈 위치가 y축을 따라 좌우로 변화됨에 따라, 증강현실 이미지와 오브젝트의 실제 이미지 간에 수평적 오차가 발생한 경우, 프로세서(670)는 증강현실 이미지를 실제 이미지 쪽으로 수평적으로 이동시키거나, 증강현실 이미지의 폭 확장, 또는 증강현실 이미지의 적어도 일부분에 대한 블러링(blurring) 등의 시각 효과를 통해, 두 이미지 간의 불일치를 보상할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
Claims (20)
- 디스플레이부;
인터페이스부; 및
상기 인터페이스부를 통해, 차량 외부에 위치하는 제1 오브젝트에 대한 정보 및 제2 오브젝트에 대한 정보를 수신하고,
차량과 상기 제1 오브젝트 사이에, 상기 제2 오브젝트가 위치하는 경우, 상기 제1 오브젝트에 대응되는 그래픽 객체가, 상기 디스플레이부에 표시되도록 제어하는 프로세서;를 포함하는 차량용 디스플레이 장치. - 제 1항에 있어서,
상기 그래픽 객체는,
차량의 프런트 윈드 쉴드 상에 표시되고,
상기 프로세서는,
상기 그래픽 객체가 증강현실(Augmented Reality)로 표시되도록 제어하는 차량용 디스플레이 장치. - 제 2항에 있어서,
상기 프로세서는,
상기 프런트 윈드 쉴드 상에서, 상기 제2 오브젝트에 대응되는 영역에 상기 그래픽 객체를 표시하도록 제어하는 차량용 디스플레이 장치. - 제 2항에 있어서,
상기 프로세서는,
상기 제1 오브젝트를 트래킹하고, 상기 프런트 윈드 쉴드 상에서, 상기 트래킹된 제1 오브젝트의 위치에 대응하는 영역에 상기 그래픽 객체를 표시하도록 제어하는 차량용 디스플레이 장치. - 제 4항에 있어서,
상기 제1 오브젝트와 데이터를 교환하는 V2X 통신부;를 더 포함하고,
상기 프로세서는,
상기 V2X 통신부를 통해, 상기 제1 오브젝트의 위치 정보를 수신하고, 상기 위치 정보를 기초로, 상기 제1 오브젝트를 트래킹하는 차량용 디스플레이 장치. - 제 4항에 있어서,
상기 프로세서는,
차량과 상기 제1 오브젝트와의 거리 또는 상대 속도에 기초하여, 상기 디스플레이부에 표시되는 상기 그래픽 객체의 크기의 변화 또는 색의 변화를 제어하는 차량용 디스플레이 장치. - 제 1항에 있어서,
차량 실내 영상을 획득하는 내부 카메라;를 더 포함하고,
상기 프로세서는,
상기 내부 카메라를 통해, 운전자 시선 정보를 획득하고, 상기 운전자 시선 정보를 기초로, 상기 운전자 시선에서, 상기 제1 오브젝트가 상기 제2 오브젝트에 가려지는지 판단하는 차량용 디스플레이 장치. - 제 7항에 있어서,
상기 프로세서는,
상기 운전자 시선에서, 상기 제1 오브젝트가 상기 제2 오브젝트에 가려지는 경우, 프런트 윈드 쉴드 상에서, 상기 제2 오브젝트에 대응되는 영역 중, 상기 제1 오브젝트의 위치에 대응하는 영역에, 증강현실로, 상기 그래픽 객체를 표시하는 차량용 디스플레이 장치. - 제 8항에 있어서,
상기 프로세서는,
상기 운전자 시선에서, 상기 제1 오브젝트의 일부가, 상기 제2 오브젝트에 가려지는 경우,
상기 디스플레이부에, 상기 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가, 표시되도록 제어하는 차량용 디스플레이 장치. - 제 9항에 있어서,
상기 프로세서는,
상기 제1 오브젝트의 가려진 부분에 대응되는 그래픽 객체가, 상기 제1 오브젝트 중 가려지지 않은 부분에 연장된 상태로 표시되도록 제어하는 차량용 디스플레이 장치. - 제 7항에 있어서,
운전자에 대응되는 아이 박스(eye box) 좌표 정보를 저장하는 메모리;를 더 포함하고,
상기 프로세서는,
상기 내부 카메라를 통해, 운전자의 눈의 위치 정보를 획득하고, 상기 눈의 위치가 상기 아이 박스 밖으로 벗어난 경우,
상기 그래픽 객체의 표시 영역이 변경되도록 상기 디스플레이부를 제어하는 차량용 디스플레이 장치. - 제 1항에 있어서,
상기 프로세서는,
상기 인터페이스부를 통해, 차량의 상태 정보를 수신하고, 상기 상태 정보에 기초하여, 상기 디스플레이부에 표시되는, 상기 그래픽 객체의 모양, 크기, 위치, 색 및 투명도 중 적어도 어느 하나를 제어하는 차량용 디스플레이 장치. - 제 12항에 있어서,
상기 상태 정보는, 차량의 자세 정보를 포함하고,
상기 프로세서는,
상기 자세 정보에 기초하여, 상기 디스플레이부에 표시되는, 상기 그래픽 객체의 위치를 변경하는 차량용 디스플레이 장치. - 제 12항에 있어서,
상기 상태 정보는, 차량의 속도 정보를 포함하고,
상기 프로세서는,
상기 속도 정보에 기초하여, 상기 그래픽 객체의 크기가 변경되도록 상기 드스플레이부를 제어하는 차량용 디스플레이 장치. - 제 12항에 있어서,
상기 프로세서는,
상기 인터페이스부를 통해, 주행 상황 정보를 수신하고, 상기 주행 상황 정보에 대응되는 그래픽 객체가 더 표시되도록 상기 디스플레이부를 제어하는 차량용 디스플레이 장치. - 제 15항에 있어서,
상기 프로세서는,
상기 상태 정보에 기초하여, 상기 디스플레이부에 표시되는 상기 주행 상황 정보에 대응되는 그래픽 객체의 양, 종류, 표시되는 영역 중 적어도 어느 하나를 제어하는 차량용 디스플레이 장치. - 제 1항에 있어서,
상기 프로세서는,
맵 정보를 획득하고, 상기 맵 정보를 기초로 상기 제2 오브젝트에 대한 정보를 획득하는 차량용 디스플레이 장치. - 제 17항에 있어서,
상기 프로세서는,
상기 인터페이스부를 통해, 센싱부로부터, 주행 상황 정보를 수신하고,
상기 맵 정보 및 상기 주행 상황 정보를 기초로, 3D 맵을 생성하는 차량용 디스플레이 장치. - 제 18항에 있어서,
상기 프로세서는,
상기 3D 맵상에서 차량, 상기 제1 오브젝트 및 상기 제2 오브젝트 간의 위치 관계를 기초로, 운전자 시선에서, 상기 제1 오브젝트가 상기 제2 오브젝트에 가려지는지 판단하는 차량용 디스플레이 장치. - 제 1항에 있어서,
상기 프로세서는,
상기 제1 오브젝트에 대한 정보 및 상기 제2 오브젝트에 대한 정보에 기초하여, 동력원, 브레이크 장치 및 조향 장치 중 적어도 어느 하나를 제어하기 위한 신호를 제공하는 차량용 디스플레이 장치.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2016/005681 WO2017209313A1 (ko) | 2016-05-30 | 2016-05-30 | 차량용 디스플레이 장치 및 차량 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180132922A true KR20180132922A (ko) | 2018-12-12 |
KR102201290B1 KR102201290B1 (ko) | 2021-01-08 |
Family
ID=60477569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187033730A KR102201290B1 (ko) | 2016-05-30 | 2016-05-30 | 차량용 디스플레이 장치 및 차량 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11242068B2 (ko) |
KR (1) | KR102201290B1 (ko) |
WO (1) | WO2017209313A1 (ko) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102099082B1 (ko) * | 2019-01-24 | 2020-04-09 | 주식회사 에스더블유엠 | 전방차량 타이어 이상 모니터링 방법 |
WO2021040058A1 (ko) * | 2019-08-23 | 2021-03-04 | 엘지전자 주식회사 | 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 |
KR20220030228A (ko) * | 2020-05-25 | 2022-03-10 | (주)이머시브캐스트 | 인카 클라우드 vr 장치 및 방법 |
KR102542977B1 (ko) * | 2021-12-17 | 2023-06-13 | 광주과학기술원 | Mr 시뮬레이션 기반 표지판 시인성을 평가하는 장치 및 그 방법 |
US11694446B2 (en) | 2020-06-09 | 2023-07-04 | Samsung Electronics Co., Ltd. | Advanced driver assist system and method of detecting object in the same |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6726674B2 (ja) * | 2015-10-15 | 2020-07-22 | マクセル株式会社 | 情報表示装置 |
US10357715B2 (en) * | 2017-07-07 | 2019-07-23 | Buxton Global Enterprises, Inc. | Racing simulation |
KR102347651B1 (ko) * | 2017-12-11 | 2022-01-06 | 현대자동차주식회사 | 산악 도로 적응형 샤시통합제어 방법 및 차량 |
US11514789B2 (en) * | 2018-01-05 | 2022-11-29 | Arriver Software Llc | Illumination-based object tracking within a vehicle |
US11501572B2 (en) | 2018-03-26 | 2022-11-15 | Nvidia Corporation | Object behavior anomaly detection using neural networks |
KR102573804B1 (ko) * | 2018-12-18 | 2023-09-01 | 현대자동차주식회사 | 통합 제어 유닛, 이를 포함하는 차량 및 그 제어 방법 |
JP6856085B2 (ja) | 2019-03-28 | 2021-04-07 | トヨタ自動車株式会社 | 車両用表示制御装置、方法及びプログラム |
WO2020223751A1 (en) * | 2019-05-07 | 2020-11-12 | Kontrol Gmbh | Formal verification for the development and real-time application of autonomous systems |
KR20200003355A (ko) * | 2019-12-16 | 2020-01-09 | 엘지전자 주식회사 | 전자 장치 및 그의 동작 방법 |
JP7439563B2 (ja) * | 2020-02-26 | 2024-02-28 | トヨタ自動車株式会社 | 走行支援装置 |
CN111522443B (zh) * | 2020-04-13 | 2024-04-05 | 京东方科技集团股份有限公司 | 车辆a柱显示组件的显示方法、系统、设备和存储介质 |
US11816902B2 (en) * | 2020-08-26 | 2023-11-14 | Subaru Corporation | Vehicle external environment recognition apparatus |
EP4137926A4 (en) * | 2020-09-14 | 2024-01-10 | Lg Electronics Inc | IMAGE PROCESSING DEVICE FOR A VEHICLE AND METHOD FOR DISPLAYING VISUAL INFORMATION ON A DISPLAY CONTAINED IN A VEHICLE |
KR20220036456A (ko) * | 2020-09-15 | 2022-03-23 | 현대자동차주식회사 | 증강현실 기반의 정보 표시 장치 |
US11947236B2 (en) * | 2021-04-27 | 2024-04-02 | GM Global Technology Operations LLC | High contrast transparent display with automatic shading |
CN113597617A (zh) * | 2021-06-22 | 2021-11-02 | 华为技术有限公司 | 一种显示方法及装置、设备及车辆 |
KR20230005034A (ko) * | 2021-06-30 | 2023-01-09 | 현대자동차주식회사 | 자율 주행 차량, 그를 원격 제어하는 관제 시스템 및 그 방법 |
KR20230030706A (ko) * | 2021-08-25 | 2023-03-07 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
US11400958B1 (en) | 2021-09-20 | 2022-08-02 | Motional Ad Llc | Learning to identify safety-critical scenarios for an autonomous vehicle |
CN116071945A (zh) * | 2021-10-29 | 2023-05-05 | 通用汽车环球科技运作有限责任公司 | 交通灯可见性检测和增强显示 |
JP2023074546A (ja) * | 2021-11-18 | 2023-05-30 | 本田技研工業株式会社 | 情報表示装置 |
KR20230078345A (ko) * | 2021-11-26 | 2023-06-02 | 현대모비스 주식회사 | 전기차를 위한 횡방향 무선 충전 체인 구성 방법 및 그를 위한 장치 및 시스템 |
TWI817823B (zh) * | 2022-11-10 | 2023-10-01 | 宏達國際電子股份有限公司 | 車輛控制系統、頭戴式顯示裝置及車輛控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130181823A1 (en) * | 2010-09-15 | 2013-07-18 | Continental Teve AG & Co., oHG | Visual Driver Information and Warning System for a Driver of a Motor Vehicle |
KR20150058889A (ko) * | 2013-11-21 | 2015-05-29 | 현대모비스 주식회사 | 센서 융합 기반 자율 주행 제어 장치 및 방법 |
KR20150074750A (ko) * | 2013-12-24 | 2015-07-02 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
WO2015152304A1 (ja) * | 2014-03-31 | 2015-10-08 | エイディシーテクノロジー株式会社 | 運転支援装置、及び運転支援システム |
US20150331238A1 (en) * | 2012-12-21 | 2015-11-19 | Harman Becker Automotive Sytems Gmbh | System for a vehicle |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6289332B2 (en) * | 1999-02-26 | 2001-09-11 | Freightliner Corporation | Integrated message display system for a vehicle |
US6926429B2 (en) * | 2002-01-30 | 2005-08-09 | Delphi Technologies, Inc. | Eye tracking/HUD system |
JP4103518B2 (ja) | 2002-09-20 | 2008-06-18 | 株式会社エクォス・リサーチ | 車載画像表示装置 |
JP2006072830A (ja) * | 2004-09-03 | 2006-03-16 | Aisin Aw Co Ltd | 運転支援システム及び運転支援モジュール |
JP2006323666A (ja) | 2005-05-19 | 2006-11-30 | Denso Corp | 歩行者飛び出し警報システム |
JP4940767B2 (ja) * | 2006-06-05 | 2012-05-30 | マツダ株式会社 | 車両周辺情報報知装置 |
US20090256813A1 (en) * | 2008-04-09 | 2009-10-15 | Amici Alan J | Vehicle moving-image interface |
US9349057B2 (en) * | 2011-09-12 | 2016-05-24 | Nissan Motor Co., Ltd. | Three-dimensional object detection device |
KR102028720B1 (ko) * | 2012-07-10 | 2019-11-08 | 삼성전자주식회사 | 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법 |
JP6102117B2 (ja) * | 2012-08-08 | 2017-03-29 | ソニー株式会社 | 移動体、システム、プログラム、および情報処理装置 |
JP5994574B2 (ja) | 2012-10-31 | 2016-09-21 | アイシン・エィ・ダブリュ株式会社 | 位置案内システム、方法およびプログラム |
DE102013220005A1 (de) * | 2013-10-02 | 2015-04-02 | Continental Automotive Gmbh | Verfahren und Vorrichtung zur Anzeige der Umgebung eines Fahrzeugs und Fahrerassistenzsystem |
KR20150140449A (ko) | 2014-06-05 | 2015-12-16 | 팅크웨어(주) | 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능한 기록 매체 |
KR101583950B1 (ko) | 2014-06-30 | 2016-01-08 | 현대자동차주식회사 | 차량정보 표시장치 및 그 표시방법 |
US9409519B2 (en) * | 2014-08-27 | 2016-08-09 | Toyota Jidosha Kabushiki Kaisha | Generating spatial information for a heads-up display |
KR101942793B1 (ko) * | 2015-07-03 | 2019-01-28 | 엘지전자 주식회사 | 차량 운전 보조장치 및 이를 포함하는 차량 |
WO2017072679A1 (en) * | 2015-10-26 | 2017-05-04 | Active Knowledge Ltd. | Autonomous on-road vehicle with shock-absorbing energy dissipation padding placed at eye level |
US10011285B2 (en) * | 2016-05-23 | 2018-07-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Device, system, and method for pictorial language for autonomous vehicle |
US9783166B1 (en) * | 2016-06-07 | 2017-10-10 | International Business Machines Corporation | Windscreen clearing using surface monitoring |
US10497264B2 (en) * | 2017-09-26 | 2019-12-03 | Toyota Research Institute, Inc. | Methods and systems for providing warnings of obstacle objects |
-
2016
- 2016-05-30 US US16/306,375 patent/US11242068B2/en active Active
- 2016-05-30 WO PCT/KR2016/005681 patent/WO2017209313A1/ko active Application Filing
- 2016-05-30 KR KR1020187033730A patent/KR102201290B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130181823A1 (en) * | 2010-09-15 | 2013-07-18 | Continental Teve AG & Co., oHG | Visual Driver Information and Warning System for a Driver of a Motor Vehicle |
US20150331238A1 (en) * | 2012-12-21 | 2015-11-19 | Harman Becker Automotive Sytems Gmbh | System for a vehicle |
KR20150058889A (ko) * | 2013-11-21 | 2015-05-29 | 현대모비스 주식회사 | 센서 융합 기반 자율 주행 제어 장치 및 방법 |
KR20150074750A (ko) * | 2013-12-24 | 2015-07-02 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
WO2015152304A1 (ja) * | 2014-03-31 | 2015-10-08 | エイディシーテクノロジー株式会社 | 運転支援装置、及び運転支援システム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102099082B1 (ko) * | 2019-01-24 | 2020-04-09 | 주식회사 에스더블유엠 | 전방차량 타이어 이상 모니터링 방법 |
WO2021040058A1 (ko) * | 2019-08-23 | 2021-03-04 | 엘지전자 주식회사 | 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 |
KR20220030228A (ko) * | 2020-05-25 | 2022-03-10 | (주)이머시브캐스트 | 인카 클라우드 vr 장치 및 방법 |
US11403828B2 (en) | 2020-05-25 | 2022-08-02 | Immersivecast Co., Ltd. | In-car cloud VR device and method |
US11694446B2 (en) | 2020-06-09 | 2023-07-04 | Samsung Electronics Co., Ltd. | Advanced driver assist system and method of detecting object in the same |
US11941889B2 (en) | 2020-06-09 | 2024-03-26 | Samsung Electronics Co., Ltd. | Advanced driver assist system and method of detecting object in the same |
KR102542977B1 (ko) * | 2021-12-17 | 2023-06-13 | 광주과학기술원 | Mr 시뮬레이션 기반 표지판 시인성을 평가하는 장치 및 그 방법 |
Also Published As
Publication number | Publication date |
---|---|
WO2017209313A1 (ko) | 2017-12-07 |
US20200361482A1 (en) | 2020-11-19 |
KR102201290B1 (ko) | 2021-01-08 |
US11242068B2 (en) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102201290B1 (ko) | 차량용 디스플레이 장치 및 차량 | |
KR101916993B1 (ko) | 차량용 디스플레이 장치 및 그 제어방법 | |
KR101770642B1 (ko) | 차량용 조명 장치 및 차량 | |
EP3708962B1 (en) | Display apparatus for vehicle and vehicle | |
KR101741433B1 (ko) | 운전자 보조 장치 및 그 제어방법 | |
US10737689B2 (en) | Parking assistance apparatus and vehicle having the same | |
KR102366402B1 (ko) | 운전자 보조 장치 및 그 제어방법 | |
KR101844885B1 (ko) | 차량 운전 보조장치 및 이를 포함하는 차량 | |
KR101750178B1 (ko) | 차량 외부 알람방법, 이를 실행하는 차량 운전 보조장치 및 이를 포함하는 차량 | |
KR102551099B1 (ko) | 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량 | |
KR101843774B1 (ko) | 차량 운전 보조 장치 및 차량 | |
KR20170099188A (ko) | 차량 운전 보조장치 및 이를 포함하는 차량 | |
KR20170058188A (ko) | 차량 운전 보조장치 및 이를 포함하는 차량 | |
KR102372566B1 (ko) | 차량용 조명 장치 및 차량 | |
KR101972352B1 (ko) | 자동주차 보조장치 및 이를 포함하는 차량 | |
KR101822896B1 (ko) | 운전자 보조 장치 및 그 제어방법 | |
KR20170043212A (ko) | 차량용 어라운드 뷰 제공 장치 및 차량 | |
KR101850325B1 (ko) | 차량용 조명 장치 및 차량 | |
KR101888259B1 (ko) | 차량 보조장치 및 이를 포함하는 차량 | |
KR101737236B1 (ko) | 차량 운전 보조장치 및 이를 포함하는 차량 | |
KR20150074753A (ko) | 차량 운전 보조 장치 및 이를 구비한 차량 | |
KR20170087618A (ko) | 차량용 디스플레이 장치 및 그 동작 방법 | |
KR20180051005A (ko) | 자동주차 보조장치 및 이를 포함하는 차량 | |
KR20180076529A (ko) | 차량 운전 보조장치 및 이를 포함하는 차량 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |