KR20210042431A - System for providing 3D head-up display and control method thereof - Google Patents
System for providing 3D head-up display and control method thereof Download PDFInfo
- Publication number
- KR20210042431A KR20210042431A KR1020190114220A KR20190114220A KR20210042431A KR 20210042431 A KR20210042431 A KR 20210042431A KR 1020190114220 A KR1020190114220 A KR 1020190114220A KR 20190114220 A KR20190114220 A KR 20190114220A KR 20210042431 A KR20210042431 A KR 20210042431A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- vehicle
- image
- display
- user
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000004891 communication Methods 0.000 claims description 36
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 11
- 239000000446 fuel Substances 0.000 description 8
- 238000010276 construction Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 239000010408 film Substances 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/31—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/24—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/408—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/42—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/52—Radar, Lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Abstract
Description
본 발명은 3D 헤드업디스플레이 시스템 및 그의 제어 방법에 관한 것으로서, 특히 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법에 관한 것이다.The present invention relates to a 3D head-up display system and a control method thereof, and in particular, a 3D display that provides a user with an image located at a desired distance using a 3D display capable of providing different information to both eyes of the user. It relates to a head-up display system and a control method thereof.
헤드업 디스플레이(head-up display)(또는 윈드실드 디스플레이: windshield display)는 차량의 프런트글라스에 차속이나 진행 방향 등의 표시를 보여주는 장치이다.A head-up display (or windshield display) is a device that displays an indication of a vehicle speed or heading direction on the front glass of a vehicle.
이러한 헤드업 디스플레이 중 굴절식 헤드업 디스플레이는 상(image)과 사용자의 눈과의 거리의 한계 때문에, 헤드업 디스플레이의 상(image)과 실제 외부의 물체와의 거리 차이가 존재하며, 이러한 헤드업 디스플레이의 상과 실제 외부의 물체와의 거리 차이로 인해 사용시 이질감을 느끼게 된다.Among these head-up displays, the articulated head-up display has a difference between the image of the head-up display and the actual external object due to the limit of the distance between the image and the user's eyes. Due to the difference in the distance between the image of the display and the actual external object, a feeling of disparity is felt when using.
또한, 상기 헤드업 디스플레이는 경로의 길이 차를 만들어 내기 위해서 프로젝션 유닛(projection unit)과 다수의 반사판으로 상이 맺히는 위치 길이를 만들어 내어야 하며, 이러한 상의 위치가 길수록 필연적으로 모듈의 크기가 거질 수밖에 없는 한계를 가지고 있을 뿐만 아니라, 그렇게 만들어진 상의 위치는 단일 위치에 위치될 수 밖에 없어, 표현하고자 하는 이미지의 한계가 존재한다.In addition, the head-up display has to create a location length where the image is formed by a projection unit and a plurality of reflectors in order to create a difference in the length of the path, and the longer the location of the image, the larger the size of the module is inevitably. In addition to having the image, the position of the image thus created can only be located at a single position, so there is a limit to the image to be expressed.
본 발명의 목적은 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법을 제공하는 데 있다.An object of the present invention is to provide a 3D head-up display system and a control method thereof that provide an image located at a desired distance to a user using a 3D display capable of providing different information to both eyes of a user. have.
본 발명의 다른 목적은 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법을 제공하는 데 있다.Another object of the present invention is to generate a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflect a 3D image displayed through a 3D display through a reflector to windshield a 3D HUD image of a virtual image. It is to provide a 3D head-up display system and a control method thereof.
본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템은 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하고, 상기 차량과 관련한 정보를 수집하는 센서부; 상기 객체를 포함하는 영상 정보를 획득하는 촬영부; 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 통신부; 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 시선 추적부; 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 제어부; 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 3D 디스플레이; 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠를 반사하는 반사판; 및 상기 반사판에 의해 반사된 상을 표시하는 윈드실드를 포함할 수 있다.A 3D head-up display system according to an embodiment of the present invention includes: a sensor unit that measures information on an object located in front of a vehicle, which is a moving direction of the vehicle, and collects information related to the vehicle; A photographing unit that acquires image information including the object; A communication unit for receiving information on surrounding conditions according to the location of the vehicle provided from a server and additional information related to an object in the image information; A gaze tracking unit that detects a gaze direction and a gaze position of a user in the vehicle; Information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, surrounding situation information according to the location of the received vehicle, addition related to the object in the received image information A control unit for generating 3D content to be provided to the user based on at least one of information, the detected gaze direction and gaze position of the user, and destination information according to a user input; A 3D display that outputs 3D content generated by the control unit; A reflector that reflects the 3D content output by the 3D display; And a windshield that displays the image reflected by the reflector.
본 발명과 관련된 일 예로서 상기 3D 콘텐츠는, 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 포함하며, 상기 부가 정보는, 상기 차량과 상기 객체와의 거리, 속도 및 추가 정보 중 적어도 하나를 포함하며, 상기 상세 정보는, 상기 차량의 위치에 따른 주변 상황 정보 및 상기 수집된 차량과 관련한 정보를 포함할 수 있다.As an example related to the present invention, the 3D content includes at least one of route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle, and the additional information, It includes at least one of distance, speed, and additional information between the vehicle and the object, and the detailed information may include surrounding situation information according to the location of the vehicle and information related to the collected vehicle.
본 발명과 관련된 일 예로서 상기 윈드실드는, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시할 수 있다.As an example related to the present invention, the windshield, when the 3D content includes additional information on an object located in front of the vehicle and detailed information related to the vehicle, the windshield adjacent to an actual object located in front of the vehicle The additional information included in the reflected image may be displayed on one side of the windshield, and the detailed information included in the reflected image may be displayed on the other side of the windshield.
본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법은 센서부에 의해, 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하는 단계; 상기 센서부에 의해, 상기 차량과 관련한 정보를 수집하는 단계; 촬영부에 의해, 상기 객체를 포함하는 영상 정보를 획득하는 단계; 통신부에 의해, 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 단계; 시선 추적부에 의해, 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 단계; 제어부에 의해, 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 단계; 3D 디스플레이에 의해, 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 단계; 및 윈드실드에 의해, 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠가 반사판에 의해 반사된 상을 표시하는 단계를 포함할 수 있다.A method of controlling a 3D head-up display system according to an embodiment of the present invention includes: measuring information on an object located in front of a vehicle, which is a moving direction of the vehicle, by a sensor unit; Collecting information related to the vehicle by the sensor unit; Obtaining, by a photographing unit, image information including the object; Receiving, by a communication unit, information on surrounding conditions according to the location of the vehicle provided from a server and additional information related to an object in the image information; Detecting, by a gaze tracking unit, a gaze direction and a gaze position of a user in the vehicle; By the control unit, information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, surrounding situation information according to the position of the received vehicle, within the received image information Generating 3D content to be provided to the user based on at least one of additional information related to an object, the detected user's gaze direction and gaze position, and destination information according to a user input; Outputting 3D content generated by the control unit by a 3D display; And displaying, by a windshield, an image of the 3D content output by the 3D display reflected by the reflector.
본 발명과 관련된 일 예로서 상기 반사된 상을 표시하는 단계는, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 차선을 근거로 상기 윈드실드의 일측에 상기 반사된 상에 포함된 상기 길 안내 정보에 따른 차량의 진행 방향에 대한 정보를 표시하고, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 또 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시할 수 있다.As an example related to the present invention, in the displaying of the reflected image, the 3D content may include route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle. In this case, information on the driving direction of the vehicle according to the road guidance information included in the reflected image is displayed on one side of the windshield based on the actual lane located in the front of the vehicle, and the actual object located in the front of the vehicle is displayed. Additional information included in the reflected image may be displayed on the other side of the adjacent windshield, and the detailed information included in the reflected image may be displayed on another side of the windshield.
본 발명은 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공함으로써, 더욱 사실적인 HUD 이미지를 사용자에게 제공하고 이질감이 적은 상태로 정보를 표시함에 따라 사용상의 만족도를 높일 수 있는 효과가 있다.The present invention provides a more realistic HUD image to the user by using a 3D display capable of providing different information to both eyes of the user and providing an image located at a desired distance to the user, and a state with less heterogeneity. As the information is displayed, there is an effect of increasing the satisfaction level in use.
또한, 본 발명은 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시함으로써, 소형으로 전체 시스템을 구성하여 비용을 절감시키고, 디스플레이와 눈의 거리가 가까워져 더욱 작은 크기의 3D 디스플레이로도 더욱 넓은 사용 환경을 제공하며, 원거리 물체에 대한 정보를 표현하고, 다중 거리에 있는 물체에 대한 정보를 표현할 수 있는 효과가 있다.In addition, the present invention generates a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflects a 3D image displayed through a 3D display through a reflector to reflect a 3D HUD image of a virtual image to the windshield. By configuring the entire system in a compact size, cost is reduced, the distance between the display and the eye is closer, providing a wider usage environment even with a smaller sized 3D display, expressing information on distant objects, and There is an effect of being able to express information about an existing object.
도 1 및 도 2는 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른 영상 정보의 예를 나타낸 도이다.
도 5 및 도 6은 본 발명의 실시예에 따른 윈드실드에 표시되는 가상 이미지의 예를 나타낸 도이다.1 and 2 are block diagrams showing the configuration of a 3D head-up display system according to an embodiment of the present invention.
3 is a flowchart illustrating a method of controlling a 3D head-up display system according to an embodiment of the present invention.
4 is a diagram showing an example of image information according to an embodiment of the present invention.
5 and 6 are diagrams showing examples of virtual images displayed on a windshield according to an embodiment of the present invention.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present invention, and is excessively comprehensive. It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be understood by being replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present invention includes a plurality of expressions unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the invention, and some components or some steps may not be included. It is to be construed that it may or may further include additional components or steps.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe the elements, but the elements should not be limited by the terms. The terms are used only to distinguish one component from another. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
도 1 및 도 2는 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템(100)의 구성을 나타낸 블록도이다.1 and 2 are block diagrams showing the configuration of a 3D head-up
도 1에 도시한 바와 같이, 3D 헤드업디스플레이 시스템(100)은 통신부(110), 센서부(120), 촬영부(130), 시선 추적부(140), 저장부(150), 3D 디스플레이(160), 반사판(170), 윈드실드(180) 및 제어부(190)로 구성된다. 도 1 및 도 2에 도시된 3D 헤드업디스플레이 시스템(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1 및 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 3D 헤드업디스플레이 시스템(100)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 3D 헤드업디스플레이 시스템(100)이 구현될 수도 있다.1, the 3D head-
상기 3D 헤드업디스플레이 시스템(또는 굴절식 3D 헤드업디스플레이 시스템)(100)은 차량 내의 특정 위치에 배치(또는 구성/형성)하며, 탈/부착할 수 있도록 구성할 수 있다.The 3D head-up display system (or articulated 3D head-up display system) 100 may be arranged (or configured/formed) at a specific position in the vehicle and configured to be detachable/attached.
상기 통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 인접한 다른 차량에 구비된 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The
또한, 상기 통신부(110)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.In addition, the
또한, 상기 통신부(110)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.In addition, the
또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 상기 서버로 실시간으로 확인되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 전송한다.In addition, the
또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 수신한다.In addition, the
상기 센서부(120)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The
또한, 상기 센서부(120)는 차량의 진행 방향(또는 차량 전면)에 위치한 객체와 관련한 거리, 속도 등을 측정하기 위한 다양한 센서(예를 들어 라이더 센서, 초음파 센서, 3D 스캐너 등 포함)를 포함한다. 여기서, 상기 객체는 상기 차량 전면에 위치한 다른 차량, 건물, 도로 표지판, 교통 표지판 등을 포함한다.In addition, the
또한, 상기 센서부(120)는 상기 차량 전면에 위치한 객체와 관련한 거리, 속도 등을 포함하는 객체에 대한 정보를 측정(또는 감지)한다.In addition, the
또한, 상기 센서부(120)는 상기 차량의 진행 방향과 반대되는 방향(또는 차량 후면)에 위치한 객체에 대한 정보를 측정한다.In addition, the
또한, 상기 센서부(120)는 해당 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치(RPM), 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다. 이때, 상기 센서부(120)는 해당 차량에 구비된 다양한 다른 센서(미도시)를 통해 측정되는 상기 차량과 관련한 정보를 수집할 수 있다.In addition, the
상기 촬영부(또는 카메라부)(130)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The photographing unit (or camera unit) 130 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up
또한, 상기 촬영부(130)는 상기 차량 전면, 상기 차량 후면, 상기 차량의 측면 등을 포함하는 전면을 촬영할 수 있도록 하나 이상의 이미지 센서(카메라 모듈 또는 카메라)로 구성한다. 이때, 상기 촬영부(130)는 360도 전방향에 대한 영상 정보를 획득할 수 있는 스테레오 카메라로 구성할 수도 있다.In addition, the photographing
또한, 상기 촬영부(130)는 상기 차량 전면에 위치한 하나 이상의 객체를 포함하는 영상 정보를 획득(또는 촬영)한다.In addition, the photographing
즉, 상기 촬영부(130)는 영상 통화 모드, 촬영 모드, 영상회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 일 예로, 상기 촬영부(130)는 객체(또는 피사체)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.That is, the photographing
또한, 상기 촬영부(130)는 상기 차량 후면에 위치한 다른 하나 이상의 객체를 포함하는 다른 영상 정보를 획득한다.In addition, the photographing
또한, 상기 촬영부(130)에서 처리된 화상 프레임(또는 영상 정보)은 디지털 비디오 레코더(Digital video recorder: DVR)에 저장되거나, 상기 저장부(150)에 저장되거나, 상기 통신부(110)를 통해 외부 서버 등에 전송될 수 있다.In addition, the image frame (or image information) processed by the photographing
또한, 상기 3D 헤드업디스플레이 시스템(100)은 입력부(미도시)를 통해 사용자 입력에 따른 목적지 정보 등을 수신할 수 있다.In addition, the 3D head-up
이와 같이, 상기 3D 헤드업디스플레이 시스템(100)에 포함된 상기 통신부(110), 상기 센서부(120), 상기 촬영부(130), 상기 입력부 등은 해당 차량과 관련한 정보, 해당 차량이 주행 중인 차량 전면 및/또는 주행 반대 방향에 대응하는 차량 후면에 위치한 하나 이상의 객체에 대한 다양한 정보 등을 수집(또는 측정/감지)할 수 있다.In this way, the
상기 시선 추적부(140)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The
또한, 상기 시선 추적부(140)는 차량 내의 운전석에 위치한 사용자(또는 운전자)의 시선 방향 및 시선 위치(또는 사용자가 차량 밖을 바라보는 방향 및 위치)를 감지(또는 추적)한다.In addition, the
즉, 상기 시선 추적부(140)는 상기 운전석에 위치한 사용자가 상기 차량 전면을 바라보거나 또는, 상기 차량의 측면에 구성된 사이드미러(미도시)를 바라보는 방향 및 위치를 감지한다.That is, the
상기 저장부(150)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The
또한, 상기 저장부(150)는 상기 3D 헤드업디스플레이 시스템(100)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the
즉, 상기 저장부(150)는 상기 3D 헤드업디스플레이 시스템(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 3D 헤드업디스플레이 시스템(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 3D 헤드업디스플레이 시스템(100)의 기본적인 기능을 위하여 출고 당시부터 3D 헤드업디스플레이 시스템(100) 상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(150)에 저장되고, 3D 헤드업디스플레이 시스템(100)에 설치되어, 제어부(190)에 의하여 상기 3D 헤드업디스플레이 시스템(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the
또한, 상기 저장부(150)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 3D 헤드업디스플레이 시스템(100)은 인터넷(internet)상에서 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.In addition, the
또한, 상기 저장부(150)는 상기 제어부(190)의 제어에 의해 상기 서버로 전송되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 저장한다.In addition, the
또한, 상기 저장부(150)는 상기 제어부(190)의 제어에 의해 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 저장한다.In addition, the
상기 3D 디스플레이(또는 3D 모니터/3D 표시부)(160)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The 3D display (or 3D monitor/3D display) 160 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up
또한, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해 상기 저장부(150)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 3D 디스플레이(160)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 3D 디스플레이(160)는 터치 스크린 일 수 있다.In addition, the
또한, 상기 3D 디스플레이(160)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.In addition, the
또한, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해 상기 수집된 다양한 정보들을 근거로 생성된 3D 콘텐츠를 출력(또는 표시)한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보(또는 상기 차량 전면/차량 후면에 위치한 객체에 대한 부가 정보)는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보(또는 상기 차량과 관련한 상세 정보)는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등을 포함한다.In addition, the
또한, 상기 3D 헤드업디스플레이 시스템(100)은 상기 제어부(190)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력하는 음성 출력부(미도시)를 더 포함할 수 있다. 여기서, 상기 음성 출력부에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.In addition, the 3D head-up
또한, 상기 음성 출력부는 상기 제어부(190)에 의해 생성된 안내 음성을 출력한다.In addition, the voice output unit outputs a guide voice generated by the
또한, 상기 음성 출력부는 상기 제어부(190)의 제어에 의해 상기 3D 디스플레이(160)를 통해 출력되는 3D 콘텐츠에 포함된 음성 정보(또는 음향 효과)를 출력한다.In addition, the audio output unit outputs audio information (or sound effect) included in 3D content output through the
상기 반사판(또는 미러부/하프 미러)(170)은 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The reflector (or mirror unit/half mirror) 170 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up
또한, 상기 반사판(170)은 상기 3D 디스플레이(160)로부터 출력되는 3D 콘텐츠를 상기 윈드실드(180)로 반사한다.In addition, the
상기 윈드실드(windshield)(180)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 전면 유리의 일측에 배치(또는 구성/형성)한다. 이때, 상기 윈드실드(180)는 외측 판유리(미도시)와 내측 판유리(미도시) 사이에 반사 필름(미도시)이 형성된 구조이거나 또는, 상기 반사 필름이 형성된 투명 또는 반투명 구조일 수 있다.The
또한, 상기 윈드실드(180)는 상기 3D 디스플레이(160)에 의해 출력되는(또는 표시되는) 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 상(image)(또는 가상 이미지/허상)을 표시한다. 여기서, 상기 반사된 상은 실제 공간상에서 상기 반사된 상의 초점 거리가 조정된 상태로, 실제 공간상의 최적의 초점 위치에 상기 반사된 상이 표시될 수 있다.In addition, the
이때, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보, 해당 차량과 관련한 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 객체에 인접한 일측에 상기 반사된 상에 포함된 해당 부가 정보를 표시하고, 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In this case, when the 3D content includes additional information on an object located in front of the vehicle, detailed information related to the vehicle, etc., the
또한, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 차선을 근거로 일측에 상기 반사된 상에 포함된 해당 길 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 직진, 좌회전, 우회전, 차선 이용 정보, 몇 미터 앞에서 좌회전/우회전/유턴 등의 정보 포함)를 표시하고, 해당 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 객체와 관련한 부가 정보를 표시하고, 상기 윈드실드(180)의 또 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In addition, when the 3D content includes road guidance information, the additional information, the detailed information, etc. according to the destination information, the
이와 같이, 상기 윈드실드(180)는 상기 제어부(190)에 의해 생성된 3D 콘텐츠에 대해서 단일 사용자(예를 들어 운전석 또는 보조석에 위치한 사용자) 또는 다수의 사용자(예를 들어 운전석, 보조석 등에 위치한 복수의 사용자)의 양안에 다른 이미지를 제공할 수 있다.In this way, the
또한, 이와 같이, 상기 윈드실드(180)에 표시되는 상기 반사된 상은 실제 객체의 정보들과 상응하는 이미지를 제공한다.In addition, as described above, the reflected image displayed on the
예를 들어, 상기 3D 헤드업디스플레이 시스템(100)이 구비된 차량으로부터 30m 떨어진 객체(또는 물체)의 네임태그(또는 해당 객체와 관련한 부가 정보 등 포함)를 허상으로 30m 위치에 위치시킴으로써, 사용자는 실상과 허상을 같이 받아들여 실제 하나의 상으로 받아들이거나 또는 30m 떨어진 실제 객체와 그에 도달하는 경로를 0 ~ 30m의 허상으로 표현한다.For example, by placing the name tag of an object (or object) 30m away from the vehicle equipped with the 3D head-up display system 100 (or including additional information related to the object) at a position of 30m in a virtual image, the user can The actual image and the virtual image are both accepted and received as an actual image, or the actual object 30m away and the path to it are expressed as a virtual image of 0 to 30m.
이와 같이, 상기 3D 헤드업디스플레이 시스템(100)은 사용자의 눈(또는 시선)의 방향 및 위치를 추적하여, 3D 디스플레이(160)를 통해 알맞은 허상을 표현함으로써, 실제 운전자가 느끼기엔 원거리에 상이 있다고 느끼게 된다.In this way, the 3D head-up
상기 3D 헤드업디스플레이 시스템(100)은 상기 3D 헤드업디스플레이 시스템(100)의 GPS 위치 정보를 산출(또는 획득)하는 GPS 수신기(미도시)를 더 포함할 수 있다.The 3D head-up
즉, 상기 GPS 수신기는 위성으로부터 전송되는 GPS 신호를 수신하고, 상기 수신된 GPS 신호에 포함된 경도 좌표 및 위도 좌표를 근거로 해당 3D 헤드업디스플레이 시스템(100)의 위치 데이터(또는 위치 정보)를 발생시킨다.That is, the GPS receiver receives the GPS signal transmitted from the satellite, and based on the longitude coordinates and latitude coordinates included in the received GPS signal, the location data (or location information) of the 3D head-up
또한, 상기 GPS 수신기를 통해 수신되는 신호는 IEEE(Institute of Electrical and Electronics Engineers)에서 제안한 무선 LAN 및 일부 적외선 통신 등을 포함하는 무선 LAN에 대한 무선 네트워크의 표준 규격인 802.11과, 블루투스, UWB, 지그비 등을 포함하는 무선 PAN(Personal Area Network)에 대한 표준 규격인 802.15과, 도시 광대역 네트워크(Fixed Wireless Access: FWA) 등을 포함하는 무선 MAN(Metropolitan Area Network), 광대역 무선 접속(Broadband Wireless Access: BWA)에 대한 표준 규격인 802.16과, 와이브로(Wibro), 와이맥스(WiMAX) 등을 포함하는 무선 MAN(Mobile Broadband Wireless Access: MBWA)에 대한 모바일 인터넷에 대한 표준 규격인 802.20 등의 무선 통신 방식을 이용하여 해당 3D 헤드업디스플레이 시스템(100)의 정밀 위치 정보를 상기 3D 헤드업디스플레이 시스템(100)에 제공하도록 구성할 수도 있다.In addition, the signal received through the GPS receiver is 802.11, Bluetooth, UWB, and Zigbee, which are standard standards for wireless LANs including wireless LANs and some infrared communications proposed by the Institute of Electrical and Electronics Engineers (IEEE). 802.15, which is a standard standard for a wireless personal area network (PAN) including, etc., a wireless metropolitan area network (MAN) including a fixed wireless access (FWA), etc., and broadband wireless access (BWA). ), and 802.20, which is a standard standard for mobile Internet, for wireless MAN (Mobile Broadband Wireless Access: MBWA) including Wibro and WiMAX, etc. It may be configured to provide precise location information of the 3D head-up
이와 같이, 상기 GPS 수신기는 상기 제어부(190)의 제어에 의해 해당 3D 헤드업디스플레이 시스템(100)의 위치 정보(또는 상기 3D 헤드업디스플레이 시스템(100)이 차량에 장착된 경우, 해당 차량의 위치 정보)를 생성한다.In this way, the GPS receiver is controlled by the
상기 제어부(controller, 또는 MCU(microcontroller unit)(190)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The controller (or microcontroller unit (MCU) 190) is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up
또한, 상기 제어부(190)는 상기 3D 헤드업디스플레이 시스템(100)의 전반적인 제어 기능을 실행한다.In addition, the
또한, 상기 제어부(190)는 상기 저장부(150)에 저장된 프로그램 및 데이터를 이용하여 3D 헤드업디스플레이 시스템(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(190)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(150)에 액세스하여, 상기 저장부(150)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(150)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the
또한, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된(또는 감지된) 차량 전면에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함), 상기 센서부(120)를 통해 수집된 해당 차량과 관련한 정보, 상기 촬영부(130)를 통해 획득된 하나 이상의 객체를 포함하는 영상 정보, 상기 통신부(110)를 통해 수신된 해당 차량의 주변 상황과 관련한 다양한 정보, 상기 수신된 목적지 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 3D 콘텐츠를 생성한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 수집된 해당 차량과 관련한 정보(예를 들어 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등 포함) 등을 포함한다.In addition, the
이와 같이, 상기 생성되는 3D 콘텐츠는 상기 실제 객체에 대응하는 위치에 해당 객체와 관련한 부가 정보를 표시하고, 미리 설정된 특정 위치에 상기 차량과 관련한 상세 정보를 표시하고, 실제 차선에 대응하는 위치에 상기 생성된 길 안내 정보에 따른 해당 차량의 진행 방향에 대한 정보를 표시할 수 있도록, 사용자의 눈과 HUD 이미지(또는 허상) 간의 거리를 고려한 정보일 수 있다.In this way, the generated 3D content displays additional information related to the object at a location corresponding to the actual object, displays detailed information related to the vehicle at a predetermined specific location, and displays the detailed information related to the vehicle at a location corresponding to the actual lane. This may be information in consideration of the distance between the user's eyes and the HUD image (or virtual image) so as to display information on the driving direction of the vehicle according to the generated road guidance information.
또한, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보를 근거로 해당 사용자의 시선이 일측으로 움직이는 경우, 상기 제어부(190)는 상기 움직이는 사용자의 시선 방향 및 시선 위치를 상기 3D 콘텐츠에 반영하여, 해당 사용자의 시선 방향 및 시선 위치의 움직임 변화에 대응하여 상기 3D 콘텐츠 내에 포함된 다양한 정보(예를 들어 길 안내 정보, 부가 정보, 상세 정보 등 포함)를 해당 움직임 변화에 대응하는 반대 방향으로 이동시킬 수 있다.In addition, when the user's gaze moves to one side based on the detected gaze direction and gaze position information, the
예를 들어 정면을 바라보고 있던 상태에서 왼쪽으로 5cm 정도 움직이는 경우, 상기 제어부(190)는 상기 3D 콘텐츠 내에 포함된 길 안내 정보, 부가 정보, 상세 정보 등을 해당 움직임 변화(예를 들어 왼쪽으로 5cm)에 대응하는 반대 방향으로 5cm 정도 움직인 상태로 보정된 3D 콘텐츠를 상기 3D 디스플레이(160)를 통해 출력하여, 이전 3D 콘텐츠에 비해서 사용자의 시선 움직임 변화에 반대되는 방향으로 상기 다양한 정보들이 이동한 보정된 3D 콘텐츠를 상기 윈드실드(180)를 통해 표시할 수 있다.For example, when moving about 5cm to the left while facing the front, the
또한, 이와 같이, 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공할 수 있다.In addition, as described above, an image located at a desired distance may be provided to the user by using a 3D display capable of providing different information to both eyes of the user.
또한, 이와 같이, 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시할 수 있다.In addition, in this way, a 3D image is generated using information acquired through a communication unit, a sensor unit, a photographing unit, etc., and a 3D HUD image of a virtual image is reflected through a reflector through a reflector. Can be displayed.
이하에서는, 본 발명에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 도 1 내지 도 6을 참조하여 상세히 설명한다.Hereinafter, a method of controlling a 3D head-up display system according to the present invention will be described in detail with reference to FIGS. 1 to 6.
도 3은 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method of controlling a 3D head-up display system according to an embodiment of the present invention.
먼저, 센서부(120)는 차량의 진행 방향(또는 차량 전면)에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함)를 측정(또는 감지)한다. 여기서, 상기 객체는 상기 차량 전면에 위치한 다른 차량, 건물, 도로 표지판, 교통 표지판 등을 포함한다. 이때, 상기 센서부(120)는 상기 차량의 진행 방향과 반대되는 방향(또는 차량 후면)에 위치한 객체에 대한 정보를 측정할 수도 있다.First, the
또한, 상기 센서부(120)는 해당 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치(RPM), 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다. 이때, 상기 센서부(120)는 해당 차량에 구비된 다양한 다른 센서(미도시)를 통해 측정되는 상기 차량과 관련한 정보를 수집할 수 있다.In addition, the
또한, 촬영부(130)는 상기 차량 전면에 위치한 하나 이상의 객체를 포함하는 영상 정보를 획득(또는 촬영)한다. 이때, 상기 촬영부(130)는 상기 차량 후면에 위치한 다른 하나 이상의 객체를 포함하는 다른 영상 정보를 획득할 수도 있다.In addition, the photographing
또한, 통신부(110)는 서버(미도시)로부터 제공되는 해당 차량의 실시간 위치, 상기 촬영부(130)를 통해 획득된 영상 정보 내의 객체 등에 따른 주변 상황과 관련한 정보, 해당 객체와 관련한 정보 등을 수신한다.In addition, the
즉, 상기 통신부(110)는 제어부(190)의 제어에 의해, 실시간으로 확인되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 상기 서버에 전송하고, 상기 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 수신한다.That is, the
또한, 3D 헤드업디스플레이 시스템(100)은 입력부(미도시)를 통해 사용자 입력에 따른 목적지 정보 등을 수신한다.In addition, the 3D head-up
이와 같이, 상기 3D 헤드업디스플레이 시스템(100)에 포함된 상기 통신부(110), 상기 센서부(120), 상기 촬영부(130), 상기 입력부 등은 해당 차량과 관련한 정보, 해당 차량이 주행 중인 차량 전면 및/또는 주행 반대 방향에 대응하는 차량 후면에 위치한 하나 이상의 객체에 대한 다양한 정보 등을 수집(또는 측정/감지)할 수 있다.In this way, the
일 예로, 상기 센서부(120)는 상기 센서부(120)가 구비된 3D 헤드업디스플레이 시스템(100)이 구성된 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등에 대한 정보를 측정한다.As an example, the
또한, 상기 센서부(120)는 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다.In addition, the
또한, 도 4에 도시된 바와 같이, 상기 촬영부(130)는 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보(400)를 획득한다.In addition, as shown in FIG. 4, the photographing
또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 실시간으로 확인되는 해당 제 1 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 제 1 영상 정보 등을 상기 서버에 전송하고, 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음) 등을 수신한다.In addition, the
다른 일 예로, 상기 입력부는 상기 사용자 입력에 따른 제 1 목적지 정보(예를 들어 신사역 사거리)를 수신한다(S310).As another example, the input unit receives first destination information (for example, Sinsa Station intersection) according to the user input (S310).
또한, 시선 추적부(140)는 차량 내의 운전석에 위치한 사용자(또는 운전자)의 시선 방향 및 시선 위치(또는 사용자가 차량 밖을 바라보는 방향 및 위치)를 감지(또는 추적)한다.In addition, the
즉, 상기 시선 추적부(140)는 상기 운전석에 위치한 사용자가 상기 차량 전면을 바라보거나 또는, 상기 차량의 측면에 구성된 사이드미러(미도시)를 바라보는 방향 및 위치를 감지한다.That is, the
일 예로, 상기 시선 추적부(140)는 상기 차량 내의 운전석에 위치한 사용자의 실시간 제 1 시선 방향 및 시선 위치를 감지한다(S320).For example, the
이후, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된(또는 감지된) 차량 전면에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함), 상기 센서부(120)를 통해 수집된 해당 차량과 관련한 정보, 상기 촬영부(130)를 통해 획득된 하나 이상의 객체를 포함하는 영상 정보, 상기 통신부(110)를 통해 수신된 해당 차량의 주변 상황과 관련한 다양한 정보, 상기 수신된 목적지 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 3D 콘텐츠를 생성한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 수집된 해당 차량과 관련한 정보(예를 들어 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등 포함) 등을 포함한다.Thereafter, the
일 예로, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된 차량 전면에 위치한 복수의 차량, 복수의 건물 등에 대한 정보, 상기 센서부(120)를 통해 수집된 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함), 상기 촬영부(130)를 통해 획득된 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보, 상기 통신부(110)를 통해 수신된 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음), 상기 시선 추적부(140)를 통해 감지된 사용자의 제 1 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 제 1 3D 콘텐츠를 생성한다. 이때, 상기 제 1 3D 콘텐츠는 상기 제 2 차량에 대한 제 2 부가 정보(예를 들어 상기 제 1 차량과 상기 제 2 차량 간의 제 1 거리(예를 들어 50m), 상기 제 2 차량의 제 2 속도(예를 들어 시속 80km), 과태료 체납 상황 없음 등 포함), 상기 제 1 차량에 대한 제 1 상세 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km), 해당 제 1 차량의 주행속도(예를 들어 시속 70km), 엔진의 회전수치(예를 들어 2,000RPM) 등 포함) 등을 포함한다.For example, the
다른 일 예로, 상기 제어부(190)는 상기 수신된 제 1 목적지 정보(예를 들어 신사역 사거리)에 따라 상기 제 1 차량의 실시간 현재 위치(예를 들어 역삼역 사거리)에 따른 제 1 경로 안내 정보를 생성한다.As another example, the
또한, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된 차량 전면에 위치한 복수의 차량, 복수의 건물 등에 대한 정보, 상기 센서부(120)를 통해 수집된 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함), 상기 촬영부(130)를 통해 획득된 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보, 상기 통신부(110)를 통해 수신된 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음), 상기 생성된 제 1 경로 안내 정보, 상기 시선 추적부(140)를 통해 감지된 사용자의 제 1 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 제 2 3D 콘텐츠를 생성한다. 이때, 상기 제 2 3D 콘텐츠는 상기 제 2 차량에 대한 제 2 부가 정보(예를 들어 상기 제 1 차량과 상기 제 2 차량 간의 제 1 거리(예를 들어 50m), 상기 제 2 차량의 제 2 속도(예를 들어 시속 80km), 과태료 체납 상황 없음 등 포함), 상기 제 1 차량에 대한 제 2 상세 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km), 해당 제 1 차량의 주행속도(예를 들어 시속 70km), 엔진의 회전수치(예를 들어 2,000 RPM) 등 포함), 상기 제 1 경로 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 659m 앞에서 우회전하세요) 등을 포함한다(S330).In addition, the
이후, 3D 디스플레이(160)는 상기 제어부(190)에 의해 생성된 3D 콘텐츠를 출력(또는 표시)한다.Thereafter, the
즉, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 3D 콘텐츠를 출력한다.That is, the
일 예로, 상기 차량 내의 특정 위치에 구성된(또는 배치된) 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 제 1 3D 콘텐츠를 출력한다.For example, the
다른 일 예로, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 제 2 3D 콘텐츠를 출력한다(S340).As another example, the
이후, 차량의 전면에 구성된 윈드실드(180)는 상기 3D 디스플레이(160)에 의해 출력되는(또는 표시되는) 3D 콘텐츠가 반사판(170)에 의해 반사된 상(image)(또는 가상 이미지/허상)을 표시한다. 여기서, 상기 반사된 상은 실제 공간상에서 상기 반사된 상의 초점 거리가 조정된 상태로, 실제 공간상의 최적의 초점 위치에 상기 반사된 상이 표시될 수 있다.Thereafter, the
이때, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보, 해당 차량과 관련한 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 객체에 인접한 일측에 상기 반사된 상에 포함된 해당 부가 정보를 표시하고, 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In this case, when the 3D content includes additional information on an object located in front of the vehicle, detailed information related to the vehicle, etc., the
또한, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 차선을 근거로 일측에 상기 반사된 상에 포함된 해당 길 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 직진, 좌회전, 우회전, 차선 이용 정보, 몇 미터 후 좌회전/우회전/유턴 등의 정보 포함)를 표시하고, 해당 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 객체와 관련한 부가 정보를 표시하고, 상기 윈드실드(180)의 또 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In addition, when the 3D content includes road guidance information, the additional information, the detailed information, etc. according to the destination information, the
일 예로, 도 5에 도시된 바와 같이, 상기 윈드실드(180)는 상기 3D 디스플레이(160)로부터 출력된 제 1 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 제 1 가상 이미지(500)를 표시한다. 이때, 상기 제 1 3D 콘텐츠에 포함된 상기 제 1 차량에 대한 제 2 부가 정보(510)는 해당 제 2 차량(520)에 인접하게 표시되고, 상기 제 1 차량에 대한 제 1 상세 정보(530)는 미리 설정된 제 1 특정 위치에 표시된다.For example, as shown in FIG. 5, the
다른 일 예로, 도 6에 도시된 바와 같이, 상기 윈드실드(180)는 상기 3D 디스플레이(160)로부터 출력된 제 2 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 제 2 가상 이미지(600)를 표시한다. 이때, 상기 제 2 3D 콘텐츠에 포함된 상기 제 2 차량에 대한 제 2 부가 정보(610)는 해당 제 2 차량(620)에 인접하게 표시되고, 상기 제 1 차량에 대한 제 2 상세 정보(630)는 미리 설정된 제 2 특정 위치에 표시되고, 상기 제 1 경로 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 650m 앞에서 우회전하세요)(640)는 미리 설정된 제 3 특정 위치에 표시된다(S350).As another example, as shown in FIG. 6, the
본 발명의 실시예는 앞서 설명된 바와 같이, 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하여, 더욱 사실적인 HUD 이미지를 사용자에게 제공하고 이질감이 적은 상태로 정보를 표시함에 따라 사용상의 만족도를 높일 수 있다.An embodiment of the present invention provides a more realistic HUD image by providing an image located at a desired distance to a user using a 3D display capable of providing different information to both eyes of the user, as described above. By providing information to the user and displaying the information in a state of less heterogeneity, it is possible to increase the satisfaction level in use.
또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시하여, 소형으로 전체 시스템을 구성하여 비용을 절감시키고, 디스플레이와 눈의 거리가 가까워져 더욱 작은 크기의 3D 디스플레이로도 더욱 넓은 사용 환경을 제공하며, 원거리 물체에 대한 정보를 표현하고, 다중 거리에 있는 물체에 대한 정보를 표현할 수 있다.In addition, as described above, an embodiment of the present invention generates a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflects the 3D image displayed through the 3D display through a reflector. By displaying a 3D HUD image of a virtual image on the windshield, the entire system is configured in a compact size to reduce cost, and the distance between the display and the eye is closer, providing a wider usage environment even with a smaller sized 3D display. It can express information about and can express information about objects at multiple distances.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above-described contents may be modified and modified without departing from the essential characteristics of the present invention by those of ordinary skill in the technical field to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
100: 3D 헤드업디스플레이 시스템
110: 통신부
120: 센서부
130: 촬영부
140: 시선 추적부
150: 저장부
160: 3D 디스플레이
170: 반사판
180: 윈드실드
190: 제어부100: 3D head-up display system 110: communication unit
120: sensor unit 130: photographing unit
140: gaze tracking unit 150: storage unit
160: 3D display 170: reflector
180: windshield 190: control unit
Claims (5)
상기 객체를 포함하는 영상 정보를 획득하는 촬영부;
서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 통신부;
상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 시선 추적부;
상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 제어부;
상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 3D 디스플레이;
상기 3D 디스플레이에 의해 출력된 3D 콘텐츠를 반사하는 반사판; 및
상기 반사판에 의해 반사된 상을 표시하는 윈드실드를 포함하는 3D 헤드업디스플레이 시스템.A sensor unit that measures information on an object located in front of the vehicle, which is a moving direction of the vehicle, and collects information related to the vehicle;
A photographing unit that acquires image information including the object;
A communication unit configured to receive information on surrounding conditions according to the location of the vehicle provided from a server and additional information related to an object in the image information;
A gaze tracking unit that detects a gaze direction and a gaze position of a user in the vehicle;
Information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, surrounding situation information according to the position of the received vehicle, addition related to the object in the received image information A control unit for generating 3D content to be provided to the user based on at least one of information, the detected gaze direction and gaze position of the user, and destination information according to a user input;
A 3D display that outputs 3D content generated by the control unit;
A reflector that reflects the 3D content output by the 3D display; And
A 3D head-up display system comprising a windshield for displaying an image reflected by the reflector.
상기 3D 콘텐츠는,
상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 포함하며,
상기 부가 정보는,
상기 차량과 상기 객체와의 거리, 속도 및 추가 정보 중 적어도 하나를 포함하며,
상기 상세 정보는,
상기 차량의 위치에 따른 주변 상황 정보 및 상기 수집된 차량과 관련한 정보를 포함하는 것을 특징으로 하는 3D 헤드업디스플레이 시스템.The method of claim 1,
The 3D content,
It includes at least one of route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle,
The additional information,
It includes at least one of distance, speed, and additional information between the vehicle and the object,
The above detailed information,
3D head-up display system, comprising: surrounding situation information according to the location of the vehicle and information related to the collected vehicle.
상기 윈드실드는,
상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시하는 것을 특징으로 하는 3D 헤드업디스플레이 시스템.The method of claim 1,
The windshield,
When the 3D content includes additional information on an object located in front of the vehicle and detailed information related to the vehicle, additional information included in the reflected image on one side of the windshield adjacent to the actual object located in the vehicle front And displaying the detailed information included in the reflected image on the other side of the windshield.
상기 센서부에 의해, 상기 차량과 관련한 정보를 수집하는 단계;
촬영부에 의해, 상기 객체를 포함하는 영상 정보를 획득하는 단계;
통신부에 의해, 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 단계;
시선 추적부에 의해, 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 단계;
제어부에 의해, 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 단계;
3D 디스플레이에 의해, 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 단계; 및
윈드실드에 의해, 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠가 반사판에 의해 반사된 상을 표시하는 단계를 포함하는 3D 헤드업디스플레이 시스템의 제어 방법.Measuring, by the sensor unit, information on an object located in front of the vehicle, which is a traveling direction of the vehicle;
Collecting information related to the vehicle by the sensor unit;
Obtaining, by a photographing unit, image information including the object;
Receiving, by the communication unit, information on surrounding conditions according to the location of the vehicle provided from a server and additional information related to an object in the image information;
Detecting, by a gaze tracking unit, a gaze direction and a gaze position of a user in the vehicle;
By the control unit, information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, surrounding situation information according to the position of the received vehicle, within the received image information Generating 3D content to be provided to the user based on at least one of additional information related to an object, the detected user's gaze direction and gaze position, and destination information according to a user input;
Outputting 3D content generated by the control unit by a 3D display; And
A control method of a 3D head-up display system comprising the step of displaying, by a windshield, an image of the 3D content output by the 3D display reflected by a reflector.
상기 반사된 상을 표시하는 단계는,
상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 차선을 근거로 상기 윈드실드의 일측에 상기 반사된 상에 포함된 상기 길 안내 정보에 따른 차량의 진행 방향에 대한 정보를 표시하고, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 또 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시하는 것을 특징으로 하는 3D 헤드업디스플레이 시스템의 제어 방법.The method of claim 4,
Displaying the reflected image,
When the 3D content includes route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle, one side of the windshield based on the actual lane located in the front of the vehicle Display information on the driving direction of the vehicle according to the road guidance information included in the reflected image, and additional information included in the reflected image on the other side of the windshield adjacent to the actual object located in front of the vehicle And displaying the detailed information included in the reflected image on another side of the windshield.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190114220A KR20210042431A (en) | 2019-09-17 | 2019-09-17 | System for providing 3D head-up display and control method thereof |
PCT/KR2020/007919 WO2021054579A1 (en) | 2019-09-17 | 2020-06-18 | 3d head-up display system and control method thereof |
KR1020210088434A KR20210088487A (en) | 2019-09-17 | 2021-07-06 | System for providing 3D head-up display and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190114220A KR20210042431A (en) | 2019-09-17 | 2019-09-17 | System for providing 3D head-up display and control method thereof |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210088434A Division KR20210088487A (en) | 2019-09-17 | 2021-07-06 | System for providing 3D head-up display and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210042431A true KR20210042431A (en) | 2021-04-20 |
Family
ID=74883833
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190114220A KR20210042431A (en) | 2019-09-17 | 2019-09-17 | System for providing 3D head-up display and control method thereof |
KR1020210088434A KR20210088487A (en) | 2019-09-17 | 2021-07-06 | System for providing 3D head-up display and control method thereof |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210088434A KR20210088487A (en) | 2019-09-17 | 2021-07-06 | System for providing 3D head-up display and control method thereof |
Country Status (2)
Country | Link |
---|---|
KR (2) | KR20210042431A (en) |
WO (1) | WO2021054579A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230042988A (en) * | 2021-09-23 | 2023-03-30 | 그리다텍 주식회사 | Virtual reality interface system for imitating solar revolution system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102413715B1 (en) * | 2022-04-05 | 2022-06-27 | 최귀철 | Method of displaying vehicle speed based on satellite positioning data through head-up display and electronic device thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101610275B1 (en) | 2014-11-05 | 2016-04-07 | 주식회사 디젠 | Hud system having adjustable focus function |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5017242B2 (en) * | 2008-12-03 | 2012-09-05 | 本田技研工業株式会社 | Visual support device |
WO2017022051A1 (en) * | 2015-08-03 | 2017-02-09 | 三菱電機株式会社 | Display control device, display device and display control method |
US9922466B2 (en) * | 2016-08-05 | 2018-03-20 | Uber Technologies, Inc. | Virtual reality experience for a vehicle |
KR20190011944A (en) * | 2017-07-26 | 2019-02-08 | 주식회사 크레모텍 | 3d head-up display apparatus for vehicle and display method using the same |
KR102104500B1 (en) * | 2019-03-07 | 2020-04-24 | 삼성전자주식회사 | Method and vehicle for providing information |
-
2019
- 2019-09-17 KR KR1020190114220A patent/KR20210042431A/en active Application Filing
-
2020
- 2020-06-18 WO PCT/KR2020/007919 patent/WO2021054579A1/en active Application Filing
-
2021
- 2021-07-06 KR KR1020210088434A patent/KR20210088487A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101610275B1 (en) | 2014-11-05 | 2016-04-07 | 주식회사 디젠 | Hud system having adjustable focus function |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230042988A (en) * | 2021-09-23 | 2023-03-30 | 그리다텍 주식회사 | Virtual reality interface system for imitating solar revolution system |
Also Published As
Publication number | Publication date |
---|---|
KR20210088487A (en) | 2021-07-14 |
WO2021054579A1 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11758111B2 (en) | 3D lidar system using a dichroic mirror for autonomous driving vehicles | |
KR102348127B1 (en) | Electronic apparatus and control method thereof | |
KR102480417B1 (en) | Electronic device and method of controlling vechicle thereof, sever and method of providing map data thereof | |
CN111664854B (en) | Object position indicator system and method | |
US10168174B2 (en) | Augmented reality for vehicle lane guidance | |
JP6428876B2 (en) | Shielding adjustment system for in-vehicle augmented reality system | |
JP2016048550A (en) | Space information presentation based on driver's attention evaluation | |
US20230048230A1 (en) | Method for displaying lane information and apparatus for executing the method | |
EP2993576A1 (en) | Communication of external sourced information to a driver | |
US11378413B1 (en) | Augmented navigational control for autonomous vehicles | |
KR102406491B1 (en) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium | |
JP2016048547A (en) | Generation of space information for head-up display | |
CN108290521A (en) | A kind of image information processing method and augmented reality AR equipment | |
KR20210088487A (en) | System for providing 3D head-up display and control method thereof | |
EP2829844A1 (en) | Navigation system | |
JP7064371B2 (en) | Dimming control method for content display system, server device, display terminal and content display system | |
KR20180090610A (en) | Method and apparatus for outputting information about a lane | |
JP2020032866A (en) | Vehicular virtual reality providing device, method and computer program | |
US10964048B2 (en) | Method and device for generating image for indicating object on periphery of vehicle | |
KR20160065723A (en) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium | |
WO2023116377A1 (en) | Display method, apparatus, and system | |
KR20120091492A (en) | Electronic device and course guide method of electronic device | |
US8995721B1 (en) | Using object appearance changes due to high reflectivity for feature detection | |
KR102506263B1 (en) | Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map | |
US11338729B2 (en) | Communication of autonomous vehicle actions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X601 | Decision of rejection after re-examination | ||
A107 | Divisional application of patent |