KR20210042431A - System for providing 3D head-up display and control method thereof - Google Patents

System for providing 3D head-up display and control method thereof Download PDF

Info

Publication number
KR20210042431A
KR20210042431A KR1020190114220A KR20190114220A KR20210042431A KR 20210042431 A KR20210042431 A KR 20210042431A KR 1020190114220 A KR1020190114220 A KR 1020190114220A KR 20190114220 A KR20190114220 A KR 20190114220A KR 20210042431 A KR20210042431 A KR 20210042431A
Authority
KR
South Korea
Prior art keywords
information
vehicle
image
display
user
Prior art date
Application number
KR1020190114220A
Other languages
Korean (ko)
Inventor
김필재
Original Assignee
김필재
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김필재 filed Critical 김필재
Priority to KR1020190114220A priority Critical patent/KR20210042431A/en
Priority to PCT/KR2020/007919 priority patent/WO2021054579A1/en
Publication of KR20210042431A publication Critical patent/KR20210042431A/en
Priority to KR1020210088434A priority patent/KR20210088487A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

Disclosed are a three-dimensional (3D) head-up display (HUD) system and a control method thereof. That is, the present invention may increase user satisfaction by providing a more realistic HUD image to a user and displaying information in a state with less heterogeneity by providing the user with an image located at a desired distance using a 3D display that can present different information to both eyes of the user.

Description

3D 헤드업디스플레이 시스템 및 그의 제어 방법{System for providing 3D head-up display and control method thereof}3D head-up display system and its control method TECHNICAL FIELD

본 발명은 3D 헤드업디스플레이 시스템 및 그의 제어 방법에 관한 것으로서, 특히 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법에 관한 것이다.The present invention relates to a 3D head-up display system and a control method thereof, and in particular, a 3D display that provides a user with an image located at a desired distance using a 3D display capable of providing different information to both eyes of the user. It relates to a head-up display system and a control method thereof.

헤드업 디스플레이(head-up display)(또는 윈드실드 디스플레이: windshield display)는 차량의 프런트글라스에 차속이나 진행 방향 등의 표시를 보여주는 장치이다.A head-up display (or windshield display) is a device that displays an indication of a vehicle speed or heading direction on the front glass of a vehicle.

이러한 헤드업 디스플레이 중 굴절식 헤드업 디스플레이는 상(image)과 사용자의 눈과의 거리의 한계 때문에, 헤드업 디스플레이의 상(image)과 실제 외부의 물체와의 거리 차이가 존재하며, 이러한 헤드업 디스플레이의 상과 실제 외부의 물체와의 거리 차이로 인해 사용시 이질감을 느끼게 된다.Among these head-up displays, the articulated head-up display has a difference between the image of the head-up display and the actual external object due to the limit of the distance between the image and the user's eyes. Due to the difference in the distance between the image of the display and the actual external object, a feeling of disparity is felt when using.

또한, 상기 헤드업 디스플레이는 경로의 길이 차를 만들어 내기 위해서 프로젝션 유닛(projection unit)과 다수의 반사판으로 상이 맺히는 위치 길이를 만들어 내어야 하며, 이러한 상의 위치가 길수록 필연적으로 모듈의 크기가 거질 수밖에 없는 한계를 가지고 있을 뿐만 아니라, 그렇게 만들어진 상의 위치는 단일 위치에 위치될 수 밖에 없어, 표현하고자 하는 이미지의 한계가 존재한다.In addition, the head-up display has to create a location length where the image is formed by a projection unit and a plurality of reflectors in order to create a difference in the length of the path, and the longer the location of the image, the larger the size of the module is inevitably. In addition to having the image, the position of the image thus created can only be located at a single position, so there is a limit to the image to be expressed.

한국등록특허 제10-1610275호 [제목: 가변초점 허드 시스템]Korean Patent Registration No. 10-1610275 [Title: Variable Focus Heard System]

본 발명의 목적은 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법을 제공하는 데 있다.An object of the present invention is to provide a 3D head-up display system and a control method thereof that provide an image located at a desired distance to a user using a 3D display capable of providing different information to both eyes of a user. have.

본 발명의 다른 목적은 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법을 제공하는 데 있다.Another object of the present invention is to generate a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflect a 3D image displayed through a 3D display through a reflector to windshield a 3D HUD image of a virtual image. It is to provide a 3D head-up display system and a control method thereof.

본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템은 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하고, 상기 차량과 관련한 정보를 수집하는 센서부; 상기 객체를 포함하는 영상 정보를 획득하는 촬영부; 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 통신부; 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 시선 추적부; 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 제어부; 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 3D 디스플레이; 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠를 반사하는 반사판; 및 상기 반사판에 의해 반사된 상을 표시하는 윈드실드를 포함할 수 있다.A 3D head-up display system according to an embodiment of the present invention includes: a sensor unit that measures information on an object located in front of a vehicle, which is a moving direction of the vehicle, and collects information related to the vehicle; A photographing unit that acquires image information including the object; A communication unit for receiving information on surrounding conditions according to the location of the vehicle provided from a server and additional information related to an object in the image information; A gaze tracking unit that detects a gaze direction and a gaze position of a user in the vehicle; Information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, surrounding situation information according to the location of the received vehicle, addition related to the object in the received image information A control unit for generating 3D content to be provided to the user based on at least one of information, the detected gaze direction and gaze position of the user, and destination information according to a user input; A 3D display that outputs 3D content generated by the control unit; A reflector that reflects the 3D content output by the 3D display; And a windshield that displays the image reflected by the reflector.

본 발명과 관련된 일 예로서 상기 3D 콘텐츠는, 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 포함하며, 상기 부가 정보는, 상기 차량과 상기 객체와의 거리, 속도 및 추가 정보 중 적어도 하나를 포함하며, 상기 상세 정보는, 상기 차량의 위치에 따른 주변 상황 정보 및 상기 수집된 차량과 관련한 정보를 포함할 수 있다.As an example related to the present invention, the 3D content includes at least one of route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle, and the additional information, It includes at least one of distance, speed, and additional information between the vehicle and the object, and the detailed information may include surrounding situation information according to the location of the vehicle and information related to the collected vehicle.

본 발명과 관련된 일 예로서 상기 윈드실드는, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시할 수 있다.As an example related to the present invention, the windshield, when the 3D content includes additional information on an object located in front of the vehicle and detailed information related to the vehicle, the windshield adjacent to an actual object located in front of the vehicle The additional information included in the reflected image may be displayed on one side of the windshield, and the detailed information included in the reflected image may be displayed on the other side of the windshield.

본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법은 센서부에 의해, 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하는 단계; 상기 센서부에 의해, 상기 차량과 관련한 정보를 수집하는 단계; 촬영부에 의해, 상기 객체를 포함하는 영상 정보를 획득하는 단계; 통신부에 의해, 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 단계; 시선 추적부에 의해, 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 단계; 제어부에 의해, 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 단계; 3D 디스플레이에 의해, 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 단계; 및 윈드실드에 의해, 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠가 반사판에 의해 반사된 상을 표시하는 단계를 포함할 수 있다.A method of controlling a 3D head-up display system according to an embodiment of the present invention includes: measuring information on an object located in front of a vehicle, which is a moving direction of the vehicle, by a sensor unit; Collecting information related to the vehicle by the sensor unit; Obtaining, by a photographing unit, image information including the object; Receiving, by a communication unit, information on surrounding conditions according to the location of the vehicle provided from a server and additional information related to an object in the image information; Detecting, by a gaze tracking unit, a gaze direction and a gaze position of a user in the vehicle; By the control unit, information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, surrounding situation information according to the position of the received vehicle, within the received image information Generating 3D content to be provided to the user based on at least one of additional information related to an object, the detected user's gaze direction and gaze position, and destination information according to a user input; Outputting 3D content generated by the control unit by a 3D display; And displaying, by a windshield, an image of the 3D content output by the 3D display reflected by the reflector.

본 발명과 관련된 일 예로서 상기 반사된 상을 표시하는 단계는, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 차선을 근거로 상기 윈드실드의 일측에 상기 반사된 상에 포함된 상기 길 안내 정보에 따른 차량의 진행 방향에 대한 정보를 표시하고, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 또 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시할 수 있다.As an example related to the present invention, in the displaying of the reflected image, the 3D content may include route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle. In this case, information on the driving direction of the vehicle according to the road guidance information included in the reflected image is displayed on one side of the windshield based on the actual lane located in the front of the vehicle, and the actual object located in the front of the vehicle is displayed. Additional information included in the reflected image may be displayed on the other side of the adjacent windshield, and the detailed information included in the reflected image may be displayed on another side of the windshield.

본 발명은 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공함으로써, 더욱 사실적인 HUD 이미지를 사용자에게 제공하고 이질감이 적은 상태로 정보를 표시함에 따라 사용상의 만족도를 높일 수 있는 효과가 있다.The present invention provides a more realistic HUD image to the user by using a 3D display capable of providing different information to both eyes of the user and providing an image located at a desired distance to the user, and a state with less heterogeneity. As the information is displayed, there is an effect of increasing the satisfaction level in use.

또한, 본 발명은 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시함으로써, 소형으로 전체 시스템을 구성하여 비용을 절감시키고, 디스플레이와 눈의 거리가 가까워져 더욱 작은 크기의 3D 디스플레이로도 더욱 넓은 사용 환경을 제공하며, 원거리 물체에 대한 정보를 표현하고, 다중 거리에 있는 물체에 대한 정보를 표현할 수 있는 효과가 있다.In addition, the present invention generates a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflects a 3D image displayed through a 3D display through a reflector to reflect a 3D HUD image of a virtual image to the windshield. By configuring the entire system in a compact size, cost is reduced, the distance between the display and the eye is closer, providing a wider usage environment even with a smaller sized 3D display, expressing information on distant objects, and There is an effect of being able to express information about an existing object.

도 1 및 도 2는 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른 영상 정보의 예를 나타낸 도이다.
도 5 및 도 6은 본 발명의 실시예에 따른 윈드실드에 표시되는 가상 이미지의 예를 나타낸 도이다.
1 and 2 are block diagrams showing the configuration of a 3D head-up display system according to an embodiment of the present invention.
3 is a flowchart illustrating a method of controlling a 3D head-up display system according to an embodiment of the present invention.
4 is a diagram showing an example of image information according to an embodiment of the present invention.
5 and 6 are diagrams showing examples of virtual images displayed on a windshield according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present invention, and is excessively comprehensive. It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be understood by being replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present invention includes a plurality of expressions unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the invention, and some components or some steps may not be included. It is to be construed that it may or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe the elements, but the elements should not be limited by the terms. The terms are used only to distinguish one component from another. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1 및 도 2는 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템(100)의 구성을 나타낸 블록도이다.1 and 2 are block diagrams showing the configuration of a 3D head-up display system 100 according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 3D 헤드업디스플레이 시스템(100)은 통신부(110), 센서부(120), 촬영부(130), 시선 추적부(140), 저장부(150), 3D 디스플레이(160), 반사판(170), 윈드실드(180) 및 제어부(190)로 구성된다. 도 1 및 도 2에 도시된 3D 헤드업디스플레이 시스템(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1 및 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 3D 헤드업디스플레이 시스템(100)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 3D 헤드업디스플레이 시스템(100)이 구현될 수도 있다.1, the 3D head-up display system 100 includes a communication unit 110, a sensor unit 120, a photographing unit 130, a gaze tracking unit 140, a storage unit 150, and a 3D display. 160), a reflector 170, a windshield 180, and a control unit 190. Not all of the components of the 3D head-up display system 100 shown in FIGS. 1 and 2 are essential components, and the 3D head-up display system ( 100) may be implemented, or the 3D head-up display system 100 may be implemented with fewer components.

상기 3D 헤드업디스플레이 시스템(또는 굴절식 3D 헤드업디스플레이 시스템)(100)은 차량 내의 특정 위치에 배치(또는 구성/형성)하며, 탈/부착할 수 있도록 구성할 수 있다.The 3D head-up display system (or articulated 3D head-up display system) 100 may be arranged (or configured/formed) at a specific position in the vehicle and configured to be detachable/attached.

상기 통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 인접한 다른 차량에 구비된 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The communication unit 110 communicates with an internal element or at least one external terminal through a wired/wireless communication network. In this case, the external terminal may include a server (not shown), another terminal provided in another adjacent vehicle (not shown), and the like. Here, as the wireless Internet technology, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wireless Broadband: Wibro, Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet Access) ), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS), etc. In addition, the communication unit 110 transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed above. In addition, short-range communication technologies include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). , Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and the like may be included. In addition, wired communication technologies may include power line communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cable, and the like.

또한, 상기 통신부(110)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.In addition, the communication unit 110 may mutually transmit information with an arbitrary terminal through a universal serial bus (USB).

또한, 상기 통신부(110)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.In addition, the communication unit 110 includes technical standards or communication methods for mobile communication (for example, GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000)), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.), transmits and receives radio signals to and from the base station, the server, the other terminal, and the like.

또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 상기 서버로 실시간으로 확인되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 전송한다.In addition, the communication unit 110 is controlled by the control unit 190, the location information of the vehicle identified in real time by the server, the image information acquired through the photographing unit 130 (or the object in the image information) Information about (for example, including vehicle number of an object such as a vehicle), etc. are transmitted.

또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 수신한다.In addition, the communication unit 110, under the control of the control unit 190, is transmitted from the server in response to the transmission of the information, information related to the surrounding situation according to the location of the vehicle (or surrounding situation information) (for example, Including speed limit information on the corresponding road, construction information on neighboring roads, etc.), additional information related to an object in the image information (eg, information on whether a stolen vehicle or non-payment of fines is arrears), and the like are received.

상기 센서부(120)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The sensor unit 120 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 센서부(120)는 차량의 진행 방향(또는 차량 전면)에 위치한 객체와 관련한 거리, 속도 등을 측정하기 위한 다양한 센서(예를 들어 라이더 센서, 초음파 센서, 3D 스캐너 등 포함)를 포함한다. 여기서, 상기 객체는 상기 차량 전면에 위치한 다른 차량, 건물, 도로 표지판, 교통 표지판 등을 포함한다.In addition, the sensor unit 120 includes various sensors (eg, including lidar sensors, ultrasonic sensors, 3D scanners, etc.) for measuring distances and speeds related to objects located in the traveling direction of the vehicle (or the front of the vehicle). do. Here, the object includes other vehicles, buildings, road signs, traffic signs, etc. located in front of the vehicle.

또한, 상기 센서부(120)는 상기 차량 전면에 위치한 객체와 관련한 거리, 속도 등을 포함하는 객체에 대한 정보를 측정(또는 감지)한다.In addition, the sensor unit 120 measures (or senses) information on an object including a distance, speed, etc. related to the object located in front of the vehicle.

또한, 상기 센서부(120)는 상기 차량의 진행 방향과 반대되는 방향(또는 차량 후면)에 위치한 객체에 대한 정보를 측정한다.In addition, the sensor unit 120 measures information on an object located in a direction opposite to the traveling direction of the vehicle (or the rear of the vehicle).

또한, 상기 센서부(120)는 해당 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치(RPM), 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다. 이때, 상기 센서부(120)는 해당 차량에 구비된 다양한 다른 센서(미도시)를 통해 측정되는 상기 차량과 관련한 정보를 수집할 수 있다.In addition, the sensor unit 120 collects information related to the vehicle (eg, driving speed, engine rotational value (RPM), instant fuel economy, real-time voltage, water temperature, mileage, etc.). In this case, the sensor unit 120 may collect information related to the vehicle measured through various other sensors (not shown) provided in the vehicle.

상기 촬영부(또는 카메라부)(130)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The photographing unit (or camera unit) 130 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 촬영부(130)는 상기 차량 전면, 상기 차량 후면, 상기 차량의 측면 등을 포함하는 전면을 촬영할 수 있도록 하나 이상의 이미지 센서(카메라 모듈 또는 카메라)로 구성한다. 이때, 상기 촬영부(130)는 360도 전방향에 대한 영상 정보를 획득할 수 있는 스테레오 카메라로 구성할 수도 있다.In addition, the photographing unit 130 is configured with one or more image sensors (camera module or camera) to photograph the front surface including the front of the vehicle, the rear of the vehicle, and the side of the vehicle. In this case, the photographing unit 130 may be configured as a stereo camera capable of obtaining image information in all directions of 360 degrees.

또한, 상기 촬영부(130)는 상기 차량 전면에 위치한 하나 이상의 객체를 포함하는 영상 정보를 획득(또는 촬영)한다.In addition, the photographing unit 130 acquires (or photographs) image information including one or more objects located in front of the vehicle.

즉, 상기 촬영부(130)는 영상 통화 모드, 촬영 모드, 영상회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 일 예로, 상기 촬영부(130)는 객체(또는 피사체)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.That is, the photographing unit 130 processes an image frame such as a still image or a video obtained by an image sensor (a camera module or a camera) in a video call mode, a photographing mode, a video conference mode, and the like. That is, according to the codec (CODEC), corresponding image data obtained by the image sensor is encoded/decoded to meet each standard. For example, the photographing unit 130 photographs an object (or subject) and outputs a video signal corresponding to the photographed image (subject image).

또한, 상기 촬영부(130)는 상기 차량 후면에 위치한 다른 하나 이상의 객체를 포함하는 다른 영상 정보를 획득한다.In addition, the photographing unit 130 acquires other image information including one or more other objects located at the rear of the vehicle.

또한, 상기 촬영부(130)에서 처리된 화상 프레임(또는 영상 정보)은 디지털 비디오 레코더(Digital video recorder: DVR)에 저장되거나, 상기 저장부(150)에 저장되거나, 상기 통신부(110)를 통해 외부 서버 등에 전송될 수 있다.In addition, the image frame (or image information) processed by the photographing unit 130 is stored in a digital video recorder (DVR), stored in the storage unit 150, or through the communication unit 110. It can be transmitted to an external server or the like.

또한, 상기 3D 헤드업디스플레이 시스템(100)은 입력부(미도시)를 통해 사용자 입력에 따른 목적지 정보 등을 수신할 수 있다.In addition, the 3D head-up display system 100 may receive destination information according to a user input through an input unit (not shown).

이와 같이, 상기 3D 헤드업디스플레이 시스템(100)에 포함된 상기 통신부(110), 상기 센서부(120), 상기 촬영부(130), 상기 입력부 등은 해당 차량과 관련한 정보, 해당 차량이 주행 중인 차량 전면 및/또는 주행 반대 방향에 대응하는 차량 후면에 위치한 하나 이상의 객체에 대한 다양한 정보 등을 수집(또는 측정/감지)할 수 있다.In this way, the communication unit 110, the sensor unit 120, the photographing unit 130, and the input unit included in the 3D head-up display system 100 include information related to the vehicle, and the vehicle is running. It is possible to collect (or measure/detect) various information about one or more objects located in the front of the vehicle and/or at the rear of the vehicle corresponding to the direction opposite to the driving direction.

상기 시선 추적부(140)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The gaze tracking unit 140 is disposed (or configured/formed) on one side of a vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 시선 추적부(140)는 차량 내의 운전석에 위치한 사용자(또는 운전자)의 시선 방향 및 시선 위치(또는 사용자가 차량 밖을 바라보는 방향 및 위치)를 감지(또는 추적)한다.In addition, the gaze tracking unit 140 detects (or tracks) the gaze direction and gaze position (or the direction and location in which the user looks outside the vehicle) of the user (or driver) located in the driver's seat of the vehicle.

즉, 상기 시선 추적부(140)는 상기 운전석에 위치한 사용자가 상기 차량 전면을 바라보거나 또는, 상기 차량의 측면에 구성된 사이드미러(미도시)를 바라보는 방향 및 위치를 감지한다.That is, the gaze tracking unit 140 detects a direction and a position in which the user located in the driver's seat looks at the front of the vehicle or a side mirror (not shown) configured on the side of the vehicle.

상기 저장부(150)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The storage unit 150 stores various user interfaces (UI), graphic user interfaces (GUI), and the like.

또한, 상기 저장부(150)는 상기 3D 헤드업디스플레이 시스템(100)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 150 stores data and programs necessary for the 3D head-up display system 100 to operate.

즉, 상기 저장부(150)는 상기 3D 헤드업디스플레이 시스템(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 3D 헤드업디스플레이 시스템(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 3D 헤드업디스플레이 시스템(100)의 기본적인 기능을 위하여 출고 당시부터 3D 헤드업디스플레이 시스템(100) 상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(150)에 저장되고, 3D 헤드업디스플레이 시스템(100)에 설치되어, 제어부(190)에 의하여 상기 3D 헤드업디스플레이 시스템(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the storage unit 150 includes a plurality of application programs (application programs or applications) driven by the 3D head-up display system 100, data for the operation of the 3D head-up display system 100, You can store commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the 3D head-up display system 100 from the time of shipment for basic functions of the 3D head-up display system 100. Meanwhile, the application program is stored in the storage unit 150, installed in the 3D head-up display system 100, and performs an operation (or function) of the 3D head-up display system 100 by the control unit 190. Can be driven to

또한, 상기 저장부(150)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 3D 헤드업디스플레이 시스템(100)은 인터넷(internet)상에서 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.In addition, the storage unit 150 is a flash memory type (Flash Memory Type), a hard disk type (Hard Disk Type), a multimedia card micro type (Multimedia Card Micro Type), a card type memory (for example, SD or XD Memory, etc.), magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory: RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), It may include at least one storage medium among Programmable Read-Only Memory (PROM). In addition, the 3D head-up display system 100 may operate a web storage that performs a storage function of the storage unit 150 on the Internet, or may operate in connection with the web storage.

또한, 상기 저장부(150)는 상기 제어부(190)의 제어에 의해 상기 서버로 전송되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 저장한다.In addition, the storage unit 150 includes the location information of the vehicle transmitted to the server under the control of the control unit 190, and the image information acquired through the photographing unit 130 (or the object in the image information). It stores information (eg, vehicle number for an object such as a vehicle, etc.)) and the like.

또한, 상기 저장부(150)는 상기 제어부(190)의 제어에 의해 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 저장한다.In addition, the storage unit 150 is transmitted from the server in response to the transmission of the information under the control of the controller 190, and information related to the surrounding situation according to the location of the vehicle (or surrounding situation information) (for example, It stores speed limit information on the corresponding road, construction information on neighboring roads, etc.), and additional information related to an object in the image information (eg, information on whether a stolen vehicle or non-payment of fines is arrears), and the like.

상기 3D 디스플레이(또는 3D 모니터/3D 표시부)(160)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The 3D display (or 3D monitor/3D display) 160 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해 상기 저장부(150)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 3D 디스플레이(160)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 3D 디스플레이(160)는 터치 스크린 일 수 있다.In addition, the 3D display 160 may display various contents such as various menu screens using a user interface and/or a graphic user interface stored in the storage unit 150 under the control of the controller 190. Here, the content displayed on the 3D display 160 includes various text or image data (including various information data) and a menu screen including data such as icons, list menus, and combo boxes. In addition, the 3D display 160 may be a touch screen.

또한, 상기 3D 디스플레이(160)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.In addition, the 3D display 160 includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible device. It may include at least one of a flexible display, an e-ink display, and a light emitting diode (LED).

또한, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해 상기 수집된 다양한 정보들을 근거로 생성된 3D 콘텐츠를 출력(또는 표시)한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보(또는 상기 차량 전면/차량 후면에 위치한 객체에 대한 부가 정보)는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보(또는 상기 차량과 관련한 상세 정보)는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등을 포함한다.In addition, the 3D display 160 outputs (or displays) 3D content generated based on the collected various pieces of information under the control of the controller 190. At this time, the 3D content includes road guidance information (or route guidance information) according to the destination information, additional information on an object located in front of the vehicle (or an object included in the image information), detailed information related to the vehicle, etc. The route guidance information, the additional information, the detailed information, etc. are displayed adjacent to the actual object located in front of the vehicle in consideration of the position of the object in the image information, or the viewing angle of the user or the user and the object In consideration of the focus of the liver, a location in the corresponding 3D content may be set to be displayed at a specific location. Here, the additional information (or additional information on the object located in the front of the vehicle/the rear of the vehicle) includes information such as distance between the vehicle and the object, speed, and additional information (for example, whether the vehicle is stolen, whether or not a penalty is arrears). ), etc. In addition, the detailed information (or detailed information related to the vehicle) includes various information related to the surrounding situation according to the location of the vehicle (for example, including speed limit information on the road, construction information on the surrounding road, etc.), the vehicle It includes driving speed, engine speed, instant fuel economy, real-time voltage, water temperature, mileage, alarm alarm switch, overspeed alarm, and water temperature alarm.

또한, 상기 3D 헤드업디스플레이 시스템(100)은 상기 제어부(190)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력하는 음성 출력부(미도시)를 더 포함할 수 있다. 여기서, 상기 음성 출력부에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.In addition, the 3D head-up display system 100 may further include an audio output unit (not shown) that outputs audio information included in a signal processed by a predetermined signal by the control unit 190. Here, the audio output unit may include a receiver, a speaker, a buzzer, and the like.

또한, 상기 음성 출력부는 상기 제어부(190)에 의해 생성된 안내 음성을 출력한다.In addition, the voice output unit outputs a guide voice generated by the control unit 190.

또한, 상기 음성 출력부는 상기 제어부(190)의 제어에 의해 상기 3D 디스플레이(160)를 통해 출력되는 3D 콘텐츠에 포함된 음성 정보(또는 음향 효과)를 출력한다.In addition, the audio output unit outputs audio information (or sound effect) included in 3D content output through the 3D display 160 under the control of the controller 190.

상기 반사판(또는 미러부/하프 미러)(170)은 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The reflector (or mirror unit/half mirror) 170 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 반사판(170)은 상기 3D 디스플레이(160)로부터 출력되는 3D 콘텐츠를 상기 윈드실드(180)로 반사한다.In addition, the reflector 170 reflects the 3D content output from the 3D display 160 to the windshield 180.

상기 윈드실드(windshield)(180)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 전면 유리의 일측에 배치(또는 구성/형성)한다. 이때, 상기 윈드실드(180)는 외측 판유리(미도시)와 내측 판유리(미도시) 사이에 반사 필름(미도시)이 형성된 구조이거나 또는, 상기 반사 필름이 형성된 투명 또는 반투명 구조일 수 있다.The windshield 180 is disposed (or configured/formed) on one side of the windshield of the vehicle in which the 3D head-up display system 100 is configured. In this case, the windshield 180 may have a structure in which a reflective film (not shown) is formed between an outer plate glass (not shown) and an inner plate glass (not shown), or a transparent or translucent structure in which the reflective film is formed.

또한, 상기 윈드실드(180)는 상기 3D 디스플레이(160)에 의해 출력되는(또는 표시되는) 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 상(image)(또는 가상 이미지/허상)을 표시한다. 여기서, 상기 반사된 상은 실제 공간상에서 상기 반사된 상의 초점 거리가 조정된 상태로, 실제 공간상의 최적의 초점 위치에 상기 반사된 상이 표시될 수 있다.In addition, the windshield 180 displays an image (or a virtual image/virtual image) in which 3D content output (or displayed) by the 3D display 160 is reflected by the reflector 170. . Here, the reflected image is in a state in which a focal length of the reflected image is adjusted in an actual space, and the reflected image may be displayed at an optimum focal position in the actual space.

이때, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보, 해당 차량과 관련한 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 객체에 인접한 일측에 상기 반사된 상에 포함된 해당 부가 정보를 표시하고, 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In this case, when the 3D content includes additional information on an object located in front of the vehicle, detailed information related to the vehicle, etc., the windshield 180 Corresponding additional information included in the image is displayed, and detailed information related to the vehicle included in the reflected image is displayed on the other side of the windshield 180.

또한, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 차선을 근거로 일측에 상기 반사된 상에 포함된 해당 길 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 직진, 좌회전, 우회전, 차선 이용 정보, 몇 미터 앞에서 좌회전/우회전/유턴 등의 정보 포함)를 표시하고, 해당 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 객체와 관련한 부가 정보를 표시하고, 상기 윈드실드(180)의 또 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In addition, when the 3D content includes road guidance information, the additional information, the detailed information, etc. according to the destination information, the windshield 180 is the reflected on one side based on the actual lane located in front of the vehicle. Display information on the direction of the vehicle according to the corresponding road guidance information included in the image (e.g., information such as straight, left, right, lane usage information, and left/right/U-turn information several meters ahead), and the vehicle Additional information related to the object included in the reflected image is displayed on the other side of the windshield 180 adjacent to the real object located in front, and the reflected image is displayed on the other side of the windshield 180. Displays detailed information related to the included vehicle.

이와 같이, 상기 윈드실드(180)는 상기 제어부(190)에 의해 생성된 3D 콘텐츠에 대해서 단일 사용자(예를 들어 운전석 또는 보조석에 위치한 사용자) 또는 다수의 사용자(예를 들어 운전석, 보조석 등에 위치한 복수의 사용자)의 양안에 다른 이미지를 제공할 수 있다.In this way, the windshield 180 provides a single user (for example, a user located in a driver's seat or an assistant seat) or a plurality of users (for example, a driver's seat, an assistant seat, etc.) for the 3D content generated by the control unit 190. Of the user) can provide different images.

또한, 이와 같이, 상기 윈드실드(180)에 표시되는 상기 반사된 상은 실제 객체의 정보들과 상응하는 이미지를 제공한다.In addition, as described above, the reflected image displayed on the windshield 180 provides an image corresponding to information of an actual object.

예를 들어, 상기 3D 헤드업디스플레이 시스템(100)이 구비된 차량으로부터 30m 떨어진 객체(또는 물체)의 네임태그(또는 해당 객체와 관련한 부가 정보 등 포함)를 허상으로 30m 위치에 위치시킴으로써, 사용자는 실상과 허상을 같이 받아들여 실제 하나의 상으로 받아들이거나 또는 30m 떨어진 실제 객체와 그에 도달하는 경로를 0 ~ 30m의 허상으로 표현한다.For example, by placing the name tag of an object (or object) 30m away from the vehicle equipped with the 3D head-up display system 100 (or including additional information related to the object) at a position of 30m in a virtual image, the user can The actual image and the virtual image are both accepted and received as an actual image, or the actual object 30m away and the path to it are expressed as a virtual image of 0 to 30m.

이와 같이, 상기 3D 헤드업디스플레이 시스템(100)은 사용자의 눈(또는 시선)의 방향 및 위치를 추적하여, 3D 디스플레이(160)를 통해 알맞은 허상을 표현함으로써, 실제 운전자가 느끼기엔 원거리에 상이 있다고 느끼게 된다.In this way, the 3D head-up display system 100 tracks the direction and position of the user's eyes (or gaze), and expresses an appropriate virtual image through the 3D display 160, so that the actual driver feels that there is an image at a distance. do.

상기 3D 헤드업디스플레이 시스템(100)은 상기 3D 헤드업디스플레이 시스템(100)의 GPS 위치 정보를 산출(또는 획득)하는 GPS 수신기(미도시)를 더 포함할 수 있다.The 3D head-up display system 100 may further include a GPS receiver (not shown) that calculates (or acquires) GPS location information of the 3D head-up display system 100.

즉, 상기 GPS 수신기는 위성으로부터 전송되는 GPS 신호를 수신하고, 상기 수신된 GPS 신호에 포함된 경도 좌표 및 위도 좌표를 근거로 해당 3D 헤드업디스플레이 시스템(100)의 위치 데이터(또는 위치 정보)를 발생시킨다.That is, the GPS receiver receives the GPS signal transmitted from the satellite, and based on the longitude coordinates and latitude coordinates included in the received GPS signal, the location data (or location information) of the 3D head-up display system 100 is stored. Occurs.

또한, 상기 GPS 수신기를 통해 수신되는 신호는 IEEE(Institute of Electrical and Electronics Engineers)에서 제안한 무선 LAN 및 일부 적외선 통신 등을 포함하는 무선 LAN에 대한 무선 네트워크의 표준 규격인 802.11과, 블루투스, UWB, 지그비 등을 포함하는 무선 PAN(Personal Area Network)에 대한 표준 규격인 802.15과, 도시 광대역 네트워크(Fixed Wireless Access: FWA) 등을 포함하는 무선 MAN(Metropolitan Area Network), 광대역 무선 접속(Broadband Wireless Access: BWA)에 대한 표준 규격인 802.16과, 와이브로(Wibro), 와이맥스(WiMAX) 등을 포함하는 무선 MAN(Mobile Broadband Wireless Access: MBWA)에 대한 모바일 인터넷에 대한 표준 규격인 802.20 등의 무선 통신 방식을 이용하여 해당 3D 헤드업디스플레이 시스템(100)의 정밀 위치 정보를 상기 3D 헤드업디스플레이 시스템(100)에 제공하도록 구성할 수도 있다.In addition, the signal received through the GPS receiver is 802.11, Bluetooth, UWB, and Zigbee, which are standard standards for wireless LANs including wireless LANs and some infrared communications proposed by the Institute of Electrical and Electronics Engineers (IEEE). 802.15, which is a standard standard for a wireless personal area network (PAN) including, etc., a wireless metropolitan area network (MAN) including a fixed wireless access (FWA), etc., and broadband wireless access (BWA). ), and 802.20, which is a standard standard for mobile Internet, for wireless MAN (Mobile Broadband Wireless Access: MBWA) including Wibro and WiMAX, etc. It may be configured to provide precise location information of the 3D head-up display system 100 to the 3D head-up display system 100.

이와 같이, 상기 GPS 수신기는 상기 제어부(190)의 제어에 의해 해당 3D 헤드업디스플레이 시스템(100)의 위치 정보(또는 상기 3D 헤드업디스플레이 시스템(100)이 차량에 장착된 경우, 해당 차량의 위치 정보)를 생성한다.In this way, the GPS receiver is controlled by the control unit 190 to determine the location information of the corresponding 3D head-up display system 100 (or, when the 3D head-up display system 100 is mounted on the vehicle, the location of the corresponding vehicle). Information).

상기 제어부(controller, 또는 MCU(microcontroller unit)(190)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The controller (or microcontroller unit (MCU) 190) is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 제어부(190)는 상기 3D 헤드업디스플레이 시스템(100)의 전반적인 제어 기능을 실행한다.In addition, the control unit 190 executes an overall control function of the 3D head-up display system 100.

또한, 상기 제어부(190)는 상기 저장부(150)에 저장된 프로그램 및 데이터를 이용하여 3D 헤드업디스플레이 시스템(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(190)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(150)에 액세스하여, 상기 저장부(150)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(150)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the control unit 190 executes an overall control function of the 3D head-up display system 100 using programs and data stored in the storage unit 150. The control unit 190 may include RAM, ROM, CPU, GPU, and bus, and RAM, ROM, CPU, GPU, and the like may be connected to each other through a bus. The CPU can access the storage unit 150 and perform booting using the O/S stored in the storage unit 150, and use various programs, contents, data, etc. stored in the storage unit 150 Thus, various operations can be performed.

또한, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된(또는 감지된) 차량 전면에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함), 상기 센서부(120)를 통해 수집된 해당 차량과 관련한 정보, 상기 촬영부(130)를 통해 획득된 하나 이상의 객체를 포함하는 영상 정보, 상기 통신부(110)를 통해 수신된 해당 차량의 주변 상황과 관련한 다양한 정보, 상기 수신된 목적지 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 3D 콘텐츠를 생성한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 수집된 해당 차량과 관련한 정보(예를 들어 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등 포함) 등을 포함한다.In addition, the control unit 190 includes information on an object located in front of the vehicle measured (or sensed) through the sensor unit 120 (including, for example, distance, speed, etc.), through the sensor unit 120. Collected information related to the vehicle, image information including one or more objects obtained through the photographing unit 130, various information related to the surrounding situation of the vehicle received through the communication unit 110, and the received destination 3D content to be provided to a corresponding user is generated based on information, the detected user's gaze direction, and information on the gaze position. At this time, the 3D content includes road guidance information (or route guidance information) according to the destination information, additional information on an object located in front of the vehicle (or an object included in the image information), detailed information related to the vehicle, etc. The route guidance information, the additional information, the detailed information, etc. are displayed adjacent to the actual object located in front of the vehicle in consideration of the position of the object in the image information, or the viewing angle of the user or the user and the object In consideration of the focus of the liver, a location in the corresponding 3D content may be set to be displayed at a specific location. Here, the additional information includes a distance between the vehicle and a corresponding object, a speed, and additional information (eg, information such as whether a stolen vehicle or a penalty is arrears), and the like. In addition, the detailed information includes various information related to the surrounding situation according to the location of the vehicle (eg, speed limit information on the corresponding road, construction information on the surrounding road, etc.), and the collected information related to the vehicle (eg For example, it includes driving speed related to the vehicle, engine speed, instant fuel economy, real-time voltage, water temperature, mileage, alarm alarm switch, overspeed alarm, water temperature alarm, etc.).

이와 같이, 상기 생성되는 3D 콘텐츠는 상기 실제 객체에 대응하는 위치에 해당 객체와 관련한 부가 정보를 표시하고, 미리 설정된 특정 위치에 상기 차량과 관련한 상세 정보를 표시하고, 실제 차선에 대응하는 위치에 상기 생성된 길 안내 정보에 따른 해당 차량의 진행 방향에 대한 정보를 표시할 수 있도록, 사용자의 눈과 HUD 이미지(또는 허상) 간의 거리를 고려한 정보일 수 있다.In this way, the generated 3D content displays additional information related to the object at a location corresponding to the actual object, displays detailed information related to the vehicle at a predetermined specific location, and displays the detailed information related to the vehicle at a location corresponding to the actual lane. This may be information in consideration of the distance between the user's eyes and the HUD image (or virtual image) so as to display information on the driving direction of the vehicle according to the generated road guidance information.

또한, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보를 근거로 해당 사용자의 시선이 일측으로 움직이는 경우, 상기 제어부(190)는 상기 움직이는 사용자의 시선 방향 및 시선 위치를 상기 3D 콘텐츠에 반영하여, 해당 사용자의 시선 방향 및 시선 위치의 움직임 변화에 대응하여 상기 3D 콘텐츠 내에 포함된 다양한 정보(예를 들어 길 안내 정보, 부가 정보, 상세 정보 등 포함)를 해당 움직임 변화에 대응하는 반대 방향으로 이동시킬 수 있다.In addition, when the user's gaze moves to one side based on the detected gaze direction and gaze position information, the controller 190 reflects the gaze direction and gaze position of the moving user to the 3D content. , In response to changes in the user's gaze direction and gaze position, various information included in the 3D content (for example, including road guidance information, additional information, detailed information, etc.) is moved in the opposite direction corresponding to the corresponding movement change. I can make it.

예를 들어 정면을 바라보고 있던 상태에서 왼쪽으로 5cm 정도 움직이는 경우, 상기 제어부(190)는 상기 3D 콘텐츠 내에 포함된 길 안내 정보, 부가 정보, 상세 정보 등을 해당 움직임 변화(예를 들어 왼쪽으로 5cm)에 대응하는 반대 방향으로 5cm 정도 움직인 상태로 보정된 3D 콘텐츠를 상기 3D 디스플레이(160)를 통해 출력하여, 이전 3D 콘텐츠에 비해서 사용자의 시선 움직임 변화에 반대되는 방향으로 상기 다양한 정보들이 이동한 보정된 3D 콘텐츠를 상기 윈드실드(180)를 통해 표시할 수 있다.For example, when moving about 5cm to the left while facing the front, the control unit 190 changes the corresponding movement (e.g., 5cm to the left) for directions information, additional information, and detailed information included in the 3D content. ), the corrected 3D content is output through the 3D display 160 while moving about 5cm in the opposite direction corresponding to ), and the various information is moved in a direction opposite to the change in the user's gaze movement compared to the previous 3D content. The corrected 3D content may be displayed through the windshield 180.

또한, 이와 같이, 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공할 수 있다.In addition, as described above, an image located at a desired distance may be provided to the user by using a 3D display capable of providing different information to both eyes of the user.

또한, 이와 같이, 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시할 수 있다.In addition, in this way, a 3D image is generated using information acquired through a communication unit, a sensor unit, a photographing unit, etc., and a 3D HUD image of a virtual image is reflected through a reflector through a reflector. Can be displayed.

이하에서는, 본 발명에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 도 1 내지 도 6을 참조하여 상세히 설명한다.Hereinafter, a method of controlling a 3D head-up display system according to the present invention will be described in detail with reference to FIGS. 1 to 6.

도 3은 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a method of controlling a 3D head-up display system according to an embodiment of the present invention.

먼저, 센서부(120)는 차량의 진행 방향(또는 차량 전면)에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함)를 측정(또는 감지)한다. 여기서, 상기 객체는 상기 차량 전면에 위치한 다른 차량, 건물, 도로 표지판, 교통 표지판 등을 포함한다. 이때, 상기 센서부(120)는 상기 차량의 진행 방향과 반대되는 방향(또는 차량 후면)에 위치한 객체에 대한 정보를 측정할 수도 있다.First, the sensor unit 120 measures (or senses) information (including, for example, distance, speed, etc.) on an object located in the traveling direction of the vehicle (or the front of the vehicle). Here, the object includes other vehicles, buildings, road signs, traffic signs, etc. located in front of the vehicle. In this case, the sensor unit 120 may measure information on an object located in a direction opposite to the traveling direction of the vehicle (or the rear of the vehicle).

또한, 상기 센서부(120)는 해당 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치(RPM), 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다. 이때, 상기 센서부(120)는 해당 차량에 구비된 다양한 다른 센서(미도시)를 통해 측정되는 상기 차량과 관련한 정보를 수집할 수 있다.In addition, the sensor unit 120 collects information related to the vehicle (eg, driving speed, engine rotational value (RPM), instant fuel economy, real-time voltage, water temperature, mileage, etc.). In this case, the sensor unit 120 may collect information related to the vehicle measured through various other sensors (not shown) provided in the vehicle.

또한, 촬영부(130)는 상기 차량 전면에 위치한 하나 이상의 객체를 포함하는 영상 정보를 획득(또는 촬영)한다. 이때, 상기 촬영부(130)는 상기 차량 후면에 위치한 다른 하나 이상의 객체를 포함하는 다른 영상 정보를 획득할 수도 있다.In addition, the photographing unit 130 acquires (or photographs) image information including one or more objects located in front of the vehicle. In this case, the photographing unit 130 may acquire other image information including one or more other objects located at the rear of the vehicle.

또한, 통신부(110)는 서버(미도시)로부터 제공되는 해당 차량의 실시간 위치, 상기 촬영부(130)를 통해 획득된 영상 정보 내의 객체 등에 따른 주변 상황과 관련한 정보, 해당 객체와 관련한 정보 등을 수신한다.In addition, the communication unit 110 stores the real-time location of the vehicle provided from the server (not shown), information related to the surrounding situation according to the object in the image information acquired through the photographing unit 130, information related to the object, etc. Receive.

즉, 상기 통신부(110)는 제어부(190)의 제어에 의해, 실시간으로 확인되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 상기 서버에 전송하고, 상기 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 수신한다.That is, the communication unit 110 controls the location information of the vehicle, which is checked in real time under the control of the control unit 190, and the image information obtained through the photographing unit 130 (or information on the object in the image information ( For example, information related to the surrounding situation according to the location of the vehicle (or surrounding situation information) is transmitted from the server to the server, and is transmitted from the server in response to the transmission. (E.g., including speed limit information on the road, construction information of neighboring roads, etc.), additional information related to the object in the image information (e.g., information such as whether a stolen vehicle or non-payment of the fine) is received. .

또한, 3D 헤드업디스플레이 시스템(100)은 입력부(미도시)를 통해 사용자 입력에 따른 목적지 정보 등을 수신한다.In addition, the 3D head-up display system 100 receives destination information according to a user input through an input unit (not shown).

이와 같이, 상기 3D 헤드업디스플레이 시스템(100)에 포함된 상기 통신부(110), 상기 센서부(120), 상기 촬영부(130), 상기 입력부 등은 해당 차량과 관련한 정보, 해당 차량이 주행 중인 차량 전면 및/또는 주행 반대 방향에 대응하는 차량 후면에 위치한 하나 이상의 객체에 대한 다양한 정보 등을 수집(또는 측정/감지)할 수 있다.In this way, the communication unit 110, the sensor unit 120, the photographing unit 130, and the input unit included in the 3D head-up display system 100 include information related to the vehicle, and the vehicle is running. It is possible to collect (or measure/detect) various information about one or more objects located in the front of the vehicle and/or at the rear of the vehicle corresponding to the direction opposite to the driving direction.

일 예로, 상기 센서부(120)는 상기 센서부(120)가 구비된 3D 헤드업디스플레이 시스템(100)이 구성된 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등에 대한 정보를 측정한다.As an example, the sensor unit 120 includes a plurality of vehicles, a plurality of buildings (or buildings) located in the traveling direction of the first vehicle in which the 3D head-up display system 100 provided with the sensor unit 120 is configured. Measure the information.

또한, 상기 센서부(120)는 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다.In addition, the sensor unit 120 collects information related to the first vehicle (eg, driving speed, engine rotational value, instantaneous fuel economy, real-time voltage, water temperature, mileage, etc.).

또한, 도 4에 도시된 바와 같이, 상기 촬영부(130)는 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보(400)를 획득한다.In addition, as shown in FIG. 4, the photographing unit 130 acquires first image information 400 including a plurality of vehicles, a plurality of buildings (or buildings), etc. located in the traveling direction of the first vehicle. do.

또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 실시간으로 확인되는 해당 제 1 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 제 1 영상 정보 등을 상기 서버에 전송하고, 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음) 등을 수신한다.In addition, the communication unit 110 transmits the location information of the first vehicle, the first image information obtained through the photographing unit 130, and the like, to the server, which are checked in real time under the control of the control unit 190. And, in response to the information transmission, first surrounding situation information related to the surrounding situation where the first vehicle is currently located (eg, first speed limit information on a driving road (eg, 80 km/h)) transmitted from the server , 2nd additional information (for example, no arrears of fines) for the second vehicle included in the first image information is received.

다른 일 예로, 상기 입력부는 상기 사용자 입력에 따른 제 1 목적지 정보(예를 들어 신사역 사거리)를 수신한다(S310).As another example, the input unit receives first destination information (for example, Sinsa Station intersection) according to the user input (S310).

또한, 시선 추적부(140)는 차량 내의 운전석에 위치한 사용자(또는 운전자)의 시선 방향 및 시선 위치(또는 사용자가 차량 밖을 바라보는 방향 및 위치)를 감지(또는 추적)한다.In addition, the gaze tracking unit 140 detects (or tracks) the gaze direction and gaze position (or the direction and location in which the user looks outside the vehicle) of the user (or driver) located in the driver's seat in the vehicle.

즉, 상기 시선 추적부(140)는 상기 운전석에 위치한 사용자가 상기 차량 전면을 바라보거나 또는, 상기 차량의 측면에 구성된 사이드미러(미도시)를 바라보는 방향 및 위치를 감지한다.That is, the gaze tracking unit 140 detects a direction and a position in which the user located in the driver's seat looks at the front of the vehicle or a side mirror (not shown) configured on the side of the vehicle.

일 예로, 상기 시선 추적부(140)는 상기 차량 내의 운전석에 위치한 사용자의 실시간 제 1 시선 방향 및 시선 위치를 감지한다(S320).For example, the gaze tracking unit 140 detects a real-time first gaze direction and gaze position of a user located in a driver's seat in the vehicle (S320).

이후, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된(또는 감지된) 차량 전면에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함), 상기 센서부(120)를 통해 수집된 해당 차량과 관련한 정보, 상기 촬영부(130)를 통해 획득된 하나 이상의 객체를 포함하는 영상 정보, 상기 통신부(110)를 통해 수신된 해당 차량의 주변 상황과 관련한 다양한 정보, 상기 수신된 목적지 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 3D 콘텐츠를 생성한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 수집된 해당 차량과 관련한 정보(예를 들어 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등 포함) 등을 포함한다.Thereafter, the control unit 190 includes information on the object located in front of the vehicle measured (or sensed) through the sensor unit 120 (eg, including distance, speed, etc.), through the sensor unit 120. Collected information related to the vehicle, image information including one or more objects obtained through the photographing unit 130, various information related to the surrounding situation of the vehicle received through the communication unit 110, and the received destination 3D content to be provided to a corresponding user is generated based on information, the detected user's gaze direction, and information on the gaze position. At this time, the 3D content includes road guidance information (or route guidance information) according to the destination information, additional information on an object located in front of the vehicle (or an object included in the image information), detailed information related to the vehicle, etc. The route guidance information, the additional information, the detailed information, etc. are displayed adjacent to the actual object located in front of the vehicle in consideration of the position of the object in the image information, or the viewing angle of the user or the user and the object In consideration of the focus of the liver, a location in the corresponding 3D content may be set to be displayed at a specific location. Here, the additional information includes a distance between the vehicle and a corresponding object, a speed, and additional information (eg, information such as whether a stolen vehicle or a penalty is arrears), and the like. In addition, the detailed information includes various information related to the surrounding situation according to the location of the vehicle (eg, speed limit information on the corresponding road, construction information on the surrounding road, etc.), and the collected information related to the vehicle (eg For example, it includes driving speed related to the vehicle, engine speed, instant fuel economy, real-time voltage, water temperature, mileage, alarm alarm switch, overspeed alarm, water temperature alarm, etc.).

일 예로, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된 차량 전면에 위치한 복수의 차량, 복수의 건물 등에 대한 정보, 상기 센서부(120)를 통해 수집된 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함), 상기 촬영부(130)를 통해 획득된 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보, 상기 통신부(110)를 통해 수신된 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음), 상기 시선 추적부(140)를 통해 감지된 사용자의 제 1 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 제 1 3D 콘텐츠를 생성한다. 이때, 상기 제 1 3D 콘텐츠는 상기 제 2 차량에 대한 제 2 부가 정보(예를 들어 상기 제 1 차량과 상기 제 2 차량 간의 제 1 거리(예를 들어 50m), 상기 제 2 차량의 제 2 속도(예를 들어 시속 80km), 과태료 체납 상황 없음 등 포함), 상기 제 1 차량에 대한 제 1 상세 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km), 해당 제 1 차량의 주행속도(예를 들어 시속 70km), 엔진의 회전수치(예를 들어 2,000RPM) 등 포함) 등을 포함한다.For example, the control unit 190 includes information on a plurality of vehicles, a plurality of buildings, etc. located in front of the vehicle measured through the sensor unit 120, and related to the first vehicle collected through the sensor unit 120. Information (e.g., including driving speed, engine speed, instant fuel economy, real-time voltage, water temperature, mileage, etc.), a plurality of vehicles located in the traveling direction of the first vehicle acquired through the photographing unit 130, First image information including a plurality of buildings (or buildings), etc., first surrounding situation information related to the surrounding situation in which the first vehicle is currently located (e.g. 1 speed limit information (e.g., 80 km/h), second additional information about the second vehicle included in the first image information (e.g., no arrears of fines), detected through the gaze tracking unit 140 The first 3D content to be provided to the user is generated based on the information on the first gaze direction and gaze position of the user. In this case, the first 3D content includes second additional information on the second vehicle (for example, a first distance between the first vehicle and the second vehicle (for example, 50 m), and a second speed of the second vehicle). (E.g., 80 km/h), including no arrears of fines, etc.), first detailed information about the first vehicle (e.g., first speed limit information on the driving road (e.g., 80 km/h)), the first Includes the vehicle's running speed (eg, 70km per hour), the engine's rotational value (eg, 2,000RPM), and the like.

다른 일 예로, 상기 제어부(190)는 상기 수신된 제 1 목적지 정보(예를 들어 신사역 사거리)에 따라 상기 제 1 차량의 실시간 현재 위치(예를 들어 역삼역 사거리)에 따른 제 1 경로 안내 정보를 생성한다.As another example, the control unit 190 generates first route guidance information according to the real-time current location (for example, Yeoksam Station intersection) of the first vehicle according to the received first destination information (for example, Sinsa Station intersection). do.

또한, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된 차량 전면에 위치한 복수의 차량, 복수의 건물 등에 대한 정보, 상기 센서부(120)를 통해 수집된 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함), 상기 촬영부(130)를 통해 획득된 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보, 상기 통신부(110)를 통해 수신된 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음), 상기 생성된 제 1 경로 안내 정보, 상기 시선 추적부(140)를 통해 감지된 사용자의 제 1 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 제 2 3D 콘텐츠를 생성한다. 이때, 상기 제 2 3D 콘텐츠는 상기 제 2 차량에 대한 제 2 부가 정보(예를 들어 상기 제 1 차량과 상기 제 2 차량 간의 제 1 거리(예를 들어 50m), 상기 제 2 차량의 제 2 속도(예를 들어 시속 80km), 과태료 체납 상황 없음 등 포함), 상기 제 1 차량에 대한 제 2 상세 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km), 해당 제 1 차량의 주행속도(예를 들어 시속 70km), 엔진의 회전수치(예를 들어 2,000 RPM) 등 포함), 상기 제 1 경로 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 659m 앞에서 우회전하세요) 등을 포함한다(S330).In addition, the control unit 190 includes information on a plurality of vehicles, a plurality of buildings, etc. located in front of the vehicle measured through the sensor unit 120, and information related to the first vehicle collected through the sensor unit 120 (For example, including driving speed, engine rotational speed, instantaneous fuel economy, real-time voltage, water temperature, mileage, etc.), a plurality of vehicles located in the traveling direction of the first vehicle acquired through the photographing unit 130, a plurality of First image information including a building (or building) of, etc., first surrounding situation information related to the surrounding situation in which the first vehicle is currently located (for example, the first image information on the driving road) Speed limit information (e.g., 80 km/h), second additional information on the second vehicle included in the first image information (e.g., no arrears of fines), the generated first route guidance information, the gaze The second 3D content to be provided to the user is generated based on the information on the user's first gaze direction and gaze position sensed through the tracking unit 140. In this case, the second 3D content includes second additional information on the second vehicle (for example, a first distance between the first vehicle and the second vehicle (for example, 50 m), and a second speed of the second vehicle). (E.g., 80 km/h), including no arrears of fines, etc.), second detailed information about the first vehicle (e.g., first speed limit information on the driving road (e.g., 80 km/h), the first Including the driving speed of the vehicle (for example, 70km per hour), the engine speed (for example, 2,000 RPM), information on the direction of the vehicle according to the first route guidance information (for example, turn right in front of 659m) ) And the like (S330).

이후, 3D 디스플레이(160)는 상기 제어부(190)에 의해 생성된 3D 콘텐츠를 출력(또는 표시)한다.Thereafter, the 3D display 160 outputs (or displays) the 3D content generated by the control unit 190.

즉, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 3D 콘텐츠를 출력한다.That is, the 3D display 160 outputs the generated 3D content under the control of the controller 190.

일 예로, 상기 차량 내의 특정 위치에 구성된(또는 배치된) 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 제 1 3D 콘텐츠를 출력한다.For example, the 3D display 160 configured (or disposed) at a specific location in the vehicle outputs the generated first 3D content under the control of the controller 190.

다른 일 예로, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 제 2 3D 콘텐츠를 출력한다(S340).As another example, the 3D display 160 outputs the generated second 3D content under the control of the controller 190 (S340).

이후, 차량의 전면에 구성된 윈드실드(180)는 상기 3D 디스플레이(160)에 의해 출력되는(또는 표시되는) 3D 콘텐츠가 반사판(170)에 의해 반사된 상(image)(또는 가상 이미지/허상)을 표시한다. 여기서, 상기 반사된 상은 실제 공간상에서 상기 반사된 상의 초점 거리가 조정된 상태로, 실제 공간상의 최적의 초점 위치에 상기 반사된 상이 표시될 수 있다.Thereafter, the windshield 180 configured on the front of the vehicle is an image (or virtual image/virtual image) in which 3D content output (or displayed) by the 3D display 160 is reflected by the reflector 170. Is displayed. Here, the reflected image is in a state in which a focal length of the reflected image is adjusted in an actual space, and the reflected image may be displayed at an optimum focal position in the actual space.

이때, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보, 해당 차량과 관련한 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 객체에 인접한 일측에 상기 반사된 상에 포함된 해당 부가 정보를 표시하고, 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In this case, when the 3D content includes additional information on an object located in front of the vehicle, detailed information related to the vehicle, etc., the windshield 180 Corresponding additional information included in the image is displayed, and detailed information related to the vehicle included in the reflected image is displayed on the other side of the windshield 180.

또한, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 차선을 근거로 일측에 상기 반사된 상에 포함된 해당 길 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 직진, 좌회전, 우회전, 차선 이용 정보, 몇 미터 후 좌회전/우회전/유턴 등의 정보 포함)를 표시하고, 해당 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 객체와 관련한 부가 정보를 표시하고, 상기 윈드실드(180)의 또 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In addition, when the 3D content includes road guidance information, the additional information, the detailed information, etc. according to the destination information, the windshield 180 is reflected on one side based on an actual lane located in front of the vehicle. Display information on the direction of the vehicle according to the corresponding directions information included in the image (for example, information such as straight, left turn, right turn, lane usage information, and left turn/right turn/U-turn information after a few meters), and the vehicle Additional information related to the object included in the reflected image is displayed on the other side of the windshield 180 adjacent to the real object located in front, and the reflected image is displayed on the other side of the windshield 180. Displays detailed information related to the included vehicle.

일 예로, 도 5에 도시된 바와 같이, 상기 윈드실드(180)는 상기 3D 디스플레이(160)로부터 출력된 제 1 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 제 1 가상 이미지(500)를 표시한다. 이때, 상기 제 1 3D 콘텐츠에 포함된 상기 제 1 차량에 대한 제 2 부가 정보(510)는 해당 제 2 차량(520)에 인접하게 표시되고, 상기 제 1 차량에 대한 제 1 상세 정보(530)는 미리 설정된 제 1 특정 위치에 표시된다.For example, as shown in FIG. 5, the windshield 180 displays a first virtual image 500 in which the first 3D content output from the 3D display 160 is reflected by the reflector 170. do. In this case, the second additional information 510 on the first vehicle included in the first 3D content is displayed adjacent to the second vehicle 520, and first detailed information 530 on the first vehicle Is displayed at a first specific position set in advance.

다른 일 예로, 도 6에 도시된 바와 같이, 상기 윈드실드(180)는 상기 3D 디스플레이(160)로부터 출력된 제 2 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 제 2 가상 이미지(600)를 표시한다. 이때, 상기 제 2 3D 콘텐츠에 포함된 상기 제 2 차량에 대한 제 2 부가 정보(610)는 해당 제 2 차량(620)에 인접하게 표시되고, 상기 제 1 차량에 대한 제 2 상세 정보(630)는 미리 설정된 제 2 특정 위치에 표시되고, 상기 제 1 경로 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 650m 앞에서 우회전하세요)(640)는 미리 설정된 제 3 특정 위치에 표시된다(S350).As another example, as shown in FIG. 6, the windshield 180 displays a second virtual image 600 in which the second 3D content output from the 3D display 160 is reflected by the reflector 170. Indicate. In this case, the second additional information 610 on the second vehicle included in the second 3D content is displayed adjacent to the second vehicle 620, and second detailed information 630 on the first vehicle Is displayed at a preset second specific location, and information on the vehicle's traveling direction according to the first route guidance information (for example, turn right in front of 650 m) 640 is displayed at a preset third specific location (S350 ).

본 발명의 실시예는 앞서 설명된 바와 같이, 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하여, 더욱 사실적인 HUD 이미지를 사용자에게 제공하고 이질감이 적은 상태로 정보를 표시함에 따라 사용상의 만족도를 높일 수 있다.An embodiment of the present invention provides a more realistic HUD image by providing an image located at a desired distance to a user using a 3D display capable of providing different information to both eyes of the user, as described above. By providing information to the user and displaying the information in a state of less heterogeneity, it is possible to increase the satisfaction level in use.

또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시하여, 소형으로 전체 시스템을 구성하여 비용을 절감시키고, 디스플레이와 눈의 거리가 가까워져 더욱 작은 크기의 3D 디스플레이로도 더욱 넓은 사용 환경을 제공하며, 원거리 물체에 대한 정보를 표현하고, 다중 거리에 있는 물체에 대한 정보를 표현할 수 있다.In addition, as described above, an embodiment of the present invention generates a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflects the 3D image displayed through the 3D display through a reflector. By displaying a 3D HUD image of a virtual image on the windshield, the entire system is configured in a compact size to reduce cost, and the distance between the display and the eye is closer, providing a wider usage environment even with a smaller sized 3D display. It can express information about and can express information about objects at multiple distances.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above-described contents may be modified and modified without departing from the essential characteristics of the present invention by those of ordinary skill in the technical field to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100: 3D 헤드업디스플레이 시스템 110: 통신부
120: 센서부 130: 촬영부
140: 시선 추적부 150: 저장부
160: 3D 디스플레이 170: 반사판
180: 윈드실드 190: 제어부
100: 3D head-up display system 110: communication unit
120: sensor unit 130: photographing unit
140: gaze tracking unit 150: storage unit
160: 3D display 170: reflector
180: windshield 190: control unit

Claims (5)

차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하고, 상기 차량과 관련한 정보를 수집하는 센서부;
상기 객체를 포함하는 영상 정보를 획득하는 촬영부;
서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 통신부;
상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 시선 추적부;
상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 제어부;
상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 3D 디스플레이;
상기 3D 디스플레이에 의해 출력된 3D 콘텐츠를 반사하는 반사판; 및
상기 반사판에 의해 반사된 상을 표시하는 윈드실드를 포함하는 3D 헤드업디스플레이 시스템.
A sensor unit that measures information on an object located in front of the vehicle, which is a moving direction of the vehicle, and collects information related to the vehicle;
A photographing unit that acquires image information including the object;
A communication unit configured to receive information on surrounding conditions according to the location of the vehicle provided from a server and additional information related to an object in the image information;
A gaze tracking unit that detects a gaze direction and a gaze position of a user in the vehicle;
Information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, surrounding situation information according to the position of the received vehicle, addition related to the object in the received image information A control unit for generating 3D content to be provided to the user based on at least one of information, the detected gaze direction and gaze position of the user, and destination information according to a user input;
A 3D display that outputs 3D content generated by the control unit;
A reflector that reflects the 3D content output by the 3D display; And
A 3D head-up display system comprising a windshield for displaying an image reflected by the reflector.
제 1 항에 있어서,
상기 3D 콘텐츠는,
상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 포함하며,
상기 부가 정보는,
상기 차량과 상기 객체와의 거리, 속도 및 추가 정보 중 적어도 하나를 포함하며,
상기 상세 정보는,
상기 차량의 위치에 따른 주변 상황 정보 및 상기 수집된 차량과 관련한 정보를 포함하는 것을 특징으로 하는 3D 헤드업디스플레이 시스템.
The method of claim 1,
The 3D content,
It includes at least one of route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle,
The additional information,
It includes at least one of distance, speed, and additional information between the vehicle and the object,
The above detailed information,
3D head-up display system, comprising: surrounding situation information according to the location of the vehicle and information related to the collected vehicle.
제 1 항에 있어서,
상기 윈드실드는,
상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시하는 것을 특징으로 하는 3D 헤드업디스플레이 시스템.
The method of claim 1,
The windshield,
When the 3D content includes additional information on an object located in front of the vehicle and detailed information related to the vehicle, additional information included in the reflected image on one side of the windshield adjacent to the actual object located in the vehicle front And displaying the detailed information included in the reflected image on the other side of the windshield.
센서부에 의해, 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하는 단계;
상기 센서부에 의해, 상기 차량과 관련한 정보를 수집하는 단계;
촬영부에 의해, 상기 객체를 포함하는 영상 정보를 획득하는 단계;
통신부에 의해, 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 단계;
시선 추적부에 의해, 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 단계;
제어부에 의해, 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 단계;
3D 디스플레이에 의해, 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 단계; 및
윈드실드에 의해, 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠가 반사판에 의해 반사된 상을 표시하는 단계를 포함하는 3D 헤드업디스플레이 시스템의 제어 방법.
Measuring, by the sensor unit, information on an object located in front of the vehicle, which is a traveling direction of the vehicle;
Collecting information related to the vehicle by the sensor unit;
Obtaining, by a photographing unit, image information including the object;
Receiving, by the communication unit, information on surrounding conditions according to the location of the vehicle provided from a server and additional information related to an object in the image information;
Detecting, by a gaze tracking unit, a gaze direction and a gaze position of a user in the vehicle;
By the control unit, information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, surrounding situation information according to the position of the received vehicle, within the received image information Generating 3D content to be provided to the user based on at least one of additional information related to an object, the detected user's gaze direction and gaze position, and destination information according to a user input;
Outputting 3D content generated by the control unit by a 3D display; And
A control method of a 3D head-up display system comprising the step of displaying, by a windshield, an image of the 3D content output by the 3D display reflected by a reflector.
제 4 항에 있어서,
상기 반사된 상을 표시하는 단계는,
상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 차선을 근거로 상기 윈드실드의 일측에 상기 반사된 상에 포함된 상기 길 안내 정보에 따른 차량의 진행 방향에 대한 정보를 표시하고, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 또 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시하는 것을 특징으로 하는 3D 헤드업디스플레이 시스템의 제어 방법.
The method of claim 4,
Displaying the reflected image,
When the 3D content includes route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle, one side of the windshield based on the actual lane located in the front of the vehicle Display information on the driving direction of the vehicle according to the road guidance information included in the reflected image, and additional information included in the reflected image on the other side of the windshield adjacent to the actual object located in front of the vehicle And displaying the detailed information included in the reflected image on another side of the windshield.
KR1020190114220A 2019-09-17 2019-09-17 System for providing 3D head-up display and control method thereof KR20210042431A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190114220A KR20210042431A (en) 2019-09-17 2019-09-17 System for providing 3D head-up display and control method thereof
PCT/KR2020/007919 WO2021054579A1 (en) 2019-09-17 2020-06-18 3d head-up display system and control method thereof
KR1020210088434A KR20210088487A (en) 2019-09-17 2021-07-06 System for providing 3D head-up display and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190114220A KR20210042431A (en) 2019-09-17 2019-09-17 System for providing 3D head-up display and control method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210088434A Division KR20210088487A (en) 2019-09-17 2021-07-06 System for providing 3D head-up display and control method thereof

Publications (1)

Publication Number Publication Date
KR20210042431A true KR20210042431A (en) 2021-04-20

Family

ID=74883833

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190114220A KR20210042431A (en) 2019-09-17 2019-09-17 System for providing 3D head-up display and control method thereof
KR1020210088434A KR20210088487A (en) 2019-09-17 2021-07-06 System for providing 3D head-up display and control method thereof

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020210088434A KR20210088487A (en) 2019-09-17 2021-07-06 System for providing 3D head-up display and control method thereof

Country Status (2)

Country Link
KR (2) KR20210042431A (en)
WO (1) WO2021054579A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230042988A (en) * 2021-09-23 2023-03-30 그리다텍 주식회사 Virtual reality interface system for imitating solar revolution system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413715B1 (en) * 2022-04-05 2022-06-27 최귀철 Method of displaying vehicle speed based on satellite positioning data through head-up display and electronic device thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610275B1 (en) 2014-11-05 2016-04-07 주식회사 디젠 Hud system having adjustable focus function

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017242B2 (en) * 2008-12-03 2012-09-05 本田技研工業株式会社 Visual support device
WO2017022051A1 (en) * 2015-08-03 2017-02-09 三菱電機株式会社 Display control device, display device and display control method
US9922466B2 (en) * 2016-08-05 2018-03-20 Uber Technologies, Inc. Virtual reality experience for a vehicle
KR20190011944A (en) * 2017-07-26 2019-02-08 주식회사 크레모텍 3d head-up display apparatus for vehicle and display method using the same
KR102104500B1 (en) * 2019-03-07 2020-04-24 삼성전자주식회사 Method and vehicle for providing information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610275B1 (en) 2014-11-05 2016-04-07 주식회사 디젠 Hud system having adjustable focus function

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230042988A (en) * 2021-09-23 2023-03-30 그리다텍 주식회사 Virtual reality interface system for imitating solar revolution system

Also Published As

Publication number Publication date
KR20210088487A (en) 2021-07-14
WO2021054579A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
US11758111B2 (en) 3D lidar system using a dichroic mirror for autonomous driving vehicles
KR102348127B1 (en) Electronic apparatus and control method thereof
KR102480417B1 (en) Electronic device and method of controlling vechicle thereof, sever and method of providing map data thereof
CN111664854B (en) Object position indicator system and method
US10168174B2 (en) Augmented reality for vehicle lane guidance
JP6428876B2 (en) Shielding adjustment system for in-vehicle augmented reality system
JP2016048550A (en) Space information presentation based on driver's attention evaluation
US20230048230A1 (en) Method for displaying lane information and apparatus for executing the method
EP2993576A1 (en) Communication of external sourced information to a driver
US11378413B1 (en) Augmented navigational control for autonomous vehicles
KR102406491B1 (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
JP2016048547A (en) Generation of space information for head-up display
CN108290521A (en) A kind of image information processing method and augmented reality AR equipment
KR20210088487A (en) System for providing 3D head-up display and control method thereof
EP2829844A1 (en) Navigation system
JP7064371B2 (en) Dimming control method for content display system, server device, display terminal and content display system
KR20180090610A (en) Method and apparatus for outputting information about a lane
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
US10964048B2 (en) Method and device for generating image for indicating object on periphery of vehicle
KR20160065723A (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
WO2023116377A1 (en) Display method, apparatus, and system
KR20120091492A (en) Electronic device and course guide method of electronic device
US8995721B1 (en) Using object appearance changes due to high reflectivity for feature detection
KR102506263B1 (en) Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map
US11338729B2 (en) Communication of autonomous vehicle actions

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination
A107 Divisional application of patent