KR20210088487A - System for providing 3D head-up display and control method thereof - Google Patents

System for providing 3D head-up display and control method thereof Download PDF

Info

Publication number
KR20210088487A
KR20210088487A KR1020210088434A KR20210088434A KR20210088487A KR 20210088487 A KR20210088487 A KR 20210088487A KR 1020210088434 A KR1020210088434 A KR 1020210088434A KR 20210088434 A KR20210088434 A KR 20210088434A KR 20210088487 A KR20210088487 A KR 20210088487A
Authority
KR
South Korea
Prior art keywords
information
vehicle
image
user
display
Prior art date
Application number
KR1020210088434A
Other languages
Korean (ko)
Inventor
김필재
Original Assignee
김필재
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김필재 filed Critical 김필재
Priority to KR1020210088434A priority Critical patent/KR20210088487A/en
Publication of KR20210088487A publication Critical patent/KR20210088487A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Combustion & Propulsion (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are a 3D head-up display system, and a control method thereof. Thus, the present invention provides an image located at a desired distance to a user by using a 3D display which can provide different information to both eyes of the user, thereby providing the more realistic HUD image to the user and displaying the information at a state with reduced sense of heterogeneity so as to increase user satisfaction.

Description

3D 헤드업디스플레이 시스템 및 그의 제어 방법{System for providing 3D head-up display and control method thereof}3D head-up display system and its control method {System for providing 3D head-up display and control method thereof}

본 발명은 3D 헤드업디스플레이 시스템 및 그의 제어 방법에 관한 것으로서, 특히 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법에 관한 것이다.The present invention relates to a 3D head-up display system and a method for controlling the same, and in particular, a 3D display that provides a user with an image located at a desired distance using a 3D display that can provide different information to both eyes of the user It relates to a head-up display system and a method for controlling the same.

헤드업 디스플레이(head-up display)(또는 윈드실드 디스플레이: windshield display)는 차량의 프런트글라스에 차속이나 진행 방향 등의 표시를 보여주는 장치이다.2. Description of the Related Art A head-up display (or windshield display) is a device for displaying a vehicle speed or a driving direction on a windshield of a vehicle.

이러한 헤드업 디스플레이 중 굴절식 헤드업 디스플레이는 상(image)과 사용자의 눈과의 거리의 한계 때문에, 헤드업 디스플레이의 상(image)과 실제 외부의 물체와의 거리 차이가 존재하며, 이러한 헤드업 디스플레이의 상과 실제 외부의 물체와의 거리 차이로 인해 사용시 이질감을 느끼게 된다.Among these heads-up displays, the refractive head-up display has a distance difference between the image of the head-up display and an actual external object due to the limitation of the distance between the image and the user's eye, and such a head-up display Due to the difference in distance between the image of the display and the actual external object, a sense of difference is felt during use.

또한, 상기 헤드업 디스플레이는 경로의 길이 차를 만들어 내기 위해서 프로젝션 유닛(projection unit)과 다수의 반사판으로 상이 맺히는 위치 길이를 만들어 내어야 하며, 이러한 상의 위치가 길수록 필연적으로 모듈의 크기가 거질 수밖에 없는 한계를 가지고 있을 뿐만 아니라, 그렇게 만들어진 상의 위치는 단일 위치에 위치될 수 밖에 없어, 표현하고자 하는 이미지의 한계가 존재한다.In addition, the head-up display has to create a length at which an image is formed with a projection unit and a plurality of reflectors in order to create a difference in the length of the path, and the longer the position of the image, the larger the size of the module inevitably. In addition to having a , the position of the image thus created has no choice but to be located in a single position, so there is a limit to the image to be expressed.

한국등록특허 제10-1610275호 [제목: 가변초점 허드 시스템]Korean Patent Registration No. 10-1610275 [Title: Variable Focus Hud System]

본 발명의 목적은 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법을 제공하는 데 있다.It is an object of the present invention to provide a 3D head-up display system and a control method thereof for providing a user with an image located at a desired distance using a 3D display capable of providing different information to both eyes of the user. have.

본 발명의 다른 목적은 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법을 제공하는 데 있다.Another object of the present invention is to generate a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflect a 3D image displayed through a 3D display through a reflector to wind a virtual 3D HUD image. An object of the present invention is to provide a 3D head-up display system and a method for controlling the same.

본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템은 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하고, 상기 차량과 관련한 정보를 수집하는 센서부; 상기 객체를 포함하는 영상 정보를 획득하는 촬영부; 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 통신부; 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 시선 추적부; 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 제어부; 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 3D 디스플레이; 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠를 반사하는 반사판; 및 상기 반사판에 의해 반사된 상을 표시하는 윈드실드를 포함할 수 있다.A 3D head-up display system according to an embodiment of the present invention includes: a sensor unit for measuring information on an object located in front of a vehicle, which is a traveling direction of the vehicle, and collecting information related to the vehicle; a photographing unit for obtaining image information including the object; a communication unit for receiving additional information related to an object in the image information and surrounding situation information according to the location of the vehicle provided from a server; a gaze tracking unit detecting a gaze direction and a gaze position of the user in the vehicle; Information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, the received surrounding situation information according to the location of the vehicle, and addition related to the object in the received image information a controller for generating 3D content to be provided to the user based on at least one of information, the sensed gaze direction and gaze position of the user, and destination information according to a user input; a 3D display for outputting the 3D content generated by the control unit; a reflector for reflecting the 3D content output by the 3D display; and a windshield displaying the image reflected by the reflector.

본 발명과 관련된 일 예로서 상기 3D 콘텐츠는, 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 포함하며, 상기 부가 정보는, 상기 차량과 상기 객체와의 거리, 속도 및 추가 정보 중 적어도 하나를 포함하며, 상기 상세 정보는, 상기 차량의 위치에 따른 주변 상황 정보 및 상기 수집된 차량과 관련한 정보를 포함할 수 있다.As an example related to the present invention, the 3D content includes at least one of route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle, wherein the additional information includes: It includes at least one of a distance between the vehicle and the object, a speed, and additional information, and the detailed information may include surrounding situation information according to the location of the vehicle and information related to the collected vehicle.

본 발명과 관련된 일 예로서 상기 윈드실드는, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시할 수 있다.As an example related to the present invention, when the 3D content includes additional information about an object located in front of the vehicle and detailed information related to the vehicle, the windshield is adjacent to the real object located in front of the vehicle. The additional information included in the reflected image may be displayed on one side of the screen, and the detailed information included in the reflected image may be displayed on the other side of the windshield.

본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법은 센서부에 의해, 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하는 단계; 상기 센서부에 의해, 상기 차량과 관련한 정보를 수집하는 단계; 촬영부에 의해, 상기 객체를 포함하는 영상 정보를 획득하는 단계; 통신부에 의해, 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 단계; 시선 추적부에 의해, 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 단계; 제어부에 의해, 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 단계; 3D 디스플레이에 의해, 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 단계; 및 윈드실드에 의해, 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠가 반사판에 의해 반사된 상을 표시하는 단계를 포함할 수 있다.A method of controlling a 3D head-up display system according to an embodiment of the present invention includes measuring, by a sensor unit, information on an object located in front of a vehicle in a traveling direction of the vehicle; collecting, by the sensor unit, information related to the vehicle; obtaining, by the photographing unit, image information including the object; receiving, by a communication unit, additional information related to an object in the image information and surrounding situation information according to the location of the vehicle provided from a server; detecting, by a gaze tracking unit, a gaze direction and a gaze position of a user in the vehicle; By the control unit, the measured information on the object located in front of the vehicle, the collected vehicle-related information, the obtained image information, the received surrounding situation information according to the location of the vehicle, and the received image information. generating 3D content to be provided to the user based on at least one of additional information related to an object, the detected gaze direction and gaze position of the user, and destination information according to a user input; outputting the 3D content generated by the control unit through a 3D display; and displaying, by the windshield, an image of the 3D content output by the 3D display reflected by the reflector.

본 발명과 관련된 일 예로서 상기 반사된 상을 표시하는 단계는, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 차선을 근거로 상기 윈드실드의 일측에 상기 반사된 상에 포함된 상기 길 안내 정보에 따른 차량의 진행 방향에 대한 정보를 표시하고, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 또 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시할 수 있다.As an example related to the present invention, in the displaying of the reflected image, the 3D content may include route guidance information according to the destination information, additional information about an object located in front of the vehicle, and detailed information related to the vehicle. At this time, based on the actual lane located in front of the vehicle, information on the traveling direction of the vehicle according to the road guidance information included in the reflected image is displayed on one side of the windshield based on the actual lane located in front of the vehicle, and information on the actual object located in front of the vehicle is displayed. Additional information included in the reflected image may be displayed on the other side of the adjacent windshield, and the detailed information included in the reflected image may be displayed on another side of the windshield.

본 발명은 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공함으로써, 더욱 사실적인 HUD 이미지를 사용자에게 제공하고 이질감이 적은 상태로 정보를 표시함에 따라 사용상의 만족도를 높일 수 있는 효과가 있다.The present invention provides the user with an image located at a desired distance using a 3D display that can provide different information to both eyes of the user, thereby providing a more realistic HUD image to the user and reducing the sense of heterogeneity There is an effect of increasing user satisfaction by displaying the information.

또한, 본 발명은 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시함으로써, 소형으로 전체 시스템을 구성하여 비용을 절감시키고, 디스플레이와 눈의 거리가 가까워져 더욱 작은 크기의 3D 디스플레이로도 더욱 넓은 사용 환경을 제공하며, 원거리 물체에 대한 정보를 표현하고, 다중 거리에 있는 물체에 대한 정보를 표현할 수 있는 효과가 있다.In addition, the present invention generates a 3D image by using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflects a 3D image displayed through a 3D display through a reflector to apply a virtual 3D HUD image to the windshield. By displaying the entire system in a compact size, the cost is reduced, the distance between the display and the eye is closer, providing a wider usage environment even with a smaller size 3D display, expressing information about distant objects, and using multiple distances. It has the effect of expressing information about an existing object.

도 1 및 도 2는 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른 영상 정보의 예를 나타낸 도이다.
도 5 및 도 6은 본 발명의 실시예에 따른 윈드실드에 표시되는 가상 이미지의 예를 나타낸 도이다.
1 and 2 are block diagrams showing the configuration of a 3D head-up display system according to an embodiment of the present invention.
3 is a flowchart illustrating a control method of a 3D head-up display system according to an embodiment of the present invention.
4 is a diagram illustrating an example of image information according to an embodiment of the present invention.
5 and 6 are diagrams illustrating examples of virtual images displayed on a windshield according to an embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as meanings generally understood by those of ordinary skill in the art to which the present invention belongs, unless otherwise defined in particular in the present invention, and excessively comprehensive It should not be construed in the meaning of a human being or in an excessively reduced meaning. In addition, when the technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be understood by being replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in advance or according to the context before and after, and should not be interpreted in an excessively reduced meaning.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, as used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or several steps described in the invention, and some of the elements or some steps may not be included. It should be construed that it may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first, second, etc. used in the present invention may be used to describe the components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in the description of the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1 및 도 2는 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템(100)의 구성을 나타낸 블록도이다.1 and 2 are block diagrams showing the configuration of a 3D head-up display system 100 according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 3D 헤드업디스플레이 시스템(100)은 통신부(110), 센서부(120), 촬영부(130), 시선 추적부(140), 저장부(150), 3D 디스플레이(160), 반사판(170), 윈드실드(180) 및 제어부(190)로 구성된다. 도 1 및 도 2에 도시된 3D 헤드업디스플레이 시스템(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1 및 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 3D 헤드업디스플레이 시스템(100)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 3D 헤드업디스플레이 시스템(100)이 구현될 수도 있다.As shown in FIG. 1 , the 3D head-up display system 100 includes a communication unit 110 , a sensor unit 120 , a photographing unit 130 , an eye tracking unit 140 , a storage unit 150 , and a 3D display ( 160 ), a reflecting plate 170 , a windshield 180 , and a control unit 190 . Not all of the components of the 3D head-up display system 100 shown in FIGS. 1 and 2 are essential components, and the 3D head-up display system ( 100) may be implemented, and the 3D head-up display system 100 may be implemented with fewer components.

상기 3D 헤드업디스플레이 시스템(또는 굴절식 3D 헤드업디스플레이 시스템)(100)은 차량 내의 특정 위치에 배치(또는 구성/형성)하며, 탈/부착할 수 있도록 구성할 수 있다.The 3D head-up display system (or articulated 3D head-up display system) 100 may be disposed (or configured/formed) at a specific position in the vehicle and configured to be detachable/attachable.

상기 통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 인접한 다른 차량에 구비된 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The communication unit 110 communicates with any internal component or at least one external terminal through a wired/wireless communication network. In this case, the external arbitrary terminal may include a server (not shown), another terminal (not shown) provided in another adjacent vehicle, and the like. Here, as wireless Internet technologies, wireless LAN (WLAN), DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband: Wibro), Wimax (World Interoperability for Microwave Access: Wimax), HSDPA (High Speed Downlink Packet Access) ), High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS), etc. In this case, the communication unit 110 transmits and receives data according to at least one wireless Internet technology within a range including Internet technologies not listed above. In addition, short-range communication technologies include Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and Near Field Communication (NFC). , Ultra Sound Communication (USC), Visible Light Communication (VLC), Wi-Fi (Wi-Fi), Wi-Fi Direct (Wi-Fi Direct), etc. may be included. In addition, the wired communication technology may include power line communication (PLC), USB communication, Ethernet, serial communication, optical/coaxial cable, and the like.

또한, 상기 통신부(110)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.Also, the communication unit 110 may mutually transmit information with an arbitrary terminal through a Universal Serial Bus (USB).

또한, 상기 통신부(110)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.In addition, the communication unit 110 is a technology standard or communication method for mobile communication (eg, GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced, etc.) transmits and receives radio signals to and from the base station, the server, and the other terminal on a mobile communication network constructed according to the same.

또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 상기 서버로 실시간으로 확인되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 전송한다.In addition, the communication unit 110, under the control of the control unit 190, the location information of the vehicle that is checked in real time with the server, image information obtained through the photographing unit 130 (or an object in the image information) information (for example, including a vehicle number for an object such as a vehicle)) and the like.

또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 수신한다.In addition, the communication unit 110, under the control of the control unit 190, information (or surrounding situation information) related to the surrounding situation according to the location of the vehicle transmitted from the server in response to the information transmission (or surrounding situation information) (for example, Receives speed limit information on the corresponding road, construction information on surrounding roads, etc.), additional information related to the object in the image information (including information such as whether the vehicle is stolen, whether or not a fine for negligence is arrears, etc.).

상기 센서부(120)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The sensor unit 120 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 센서부(120)는 차량의 진행 방향(또는 차량 전면)에 위치한 객체와 관련한 거리, 속도 등을 측정하기 위한 다양한 센서(예를 들어 라이더 센서, 초음파 센서, 3D 스캐너 등 포함)를 포함한다. 여기서, 상기 객체는 상기 차량 전면에 위치한 다른 차량, 건물, 도로 표지판, 교통 표지판 등을 포함한다.In addition, the sensor unit 120 includes various sensors (eg, including a lidar sensor, an ultrasonic sensor, a 3D scanner, etc.) for measuring a distance, speed, etc. related to an object located in the traveling direction of the vehicle (or in front of the vehicle) do. Here, the object includes another vehicle, a building, a road sign, a traffic sign, and the like located in front of the vehicle.

또한, 상기 센서부(120)는 상기 차량 전면에 위치한 객체와 관련한 거리, 속도 등을 포함하는 객체에 대한 정보를 측정(또는 감지)한다.In addition, the sensor unit 120 measures (or senses) information on an object including a distance, speed, etc. related to the object located in front of the vehicle.

또한, 상기 센서부(120)는 상기 차량의 진행 방향과 반대되는 방향(또는 차량 후면)에 위치한 객체에 대한 정보를 측정한다.In addition, the sensor unit 120 measures information on an object located in a direction opposite to the traveling direction of the vehicle (or at the rear of the vehicle).

또한, 상기 센서부(120)는 해당 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치(RPM), 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다. 이때, 상기 센서부(120)는 해당 차량에 구비된 다양한 다른 센서(미도시)를 통해 측정되는 상기 차량과 관련한 정보를 수집할 수 있다.In addition, the sensor unit 120 collects information related to the vehicle (including, for example, driving speed, engine RPM, instantaneous fuel efficiency, real-time voltage, water temperature, mileage, etc.). In this case, the sensor unit 120 may collect information related to the vehicle measured through various other sensors (not shown) provided in the vehicle.

상기 촬영부(또는 카메라부)(130)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The photographing unit (or camera unit) 130 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 촬영부(130)는 상기 차량 전면, 상기 차량 후면, 상기 차량의 측면 등을 포함하는 전면을 촬영할 수 있도록 하나 이상의 이미지 센서(카메라 모듈 또는 카메라)로 구성한다. 이때, 상기 촬영부(130)는 360도 전방향에 대한 영상 정보를 획득할 수 있는 스테레오 카메라로 구성할 수도 있다.In addition, the photographing unit 130 includes one or more image sensors (a camera module or a camera) to photograph a front surface including the front of the vehicle, the rear of the vehicle, and the side of the vehicle. In this case, the photographing unit 130 may be configured as a stereo camera capable of acquiring image information for a 360 degree omnidirectional view.

또한, 상기 촬영부(130)는 상기 차량 전면에 위치한 하나 이상의 객체를 포함하는 영상 정보를 획득(또는 촬영)한다.In addition, the photographing unit 130 acquires (or captures) image information including one or more objects located in the front of the vehicle.

즉, 상기 촬영부(130)는 영상 통화 모드, 촬영 모드, 영상회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 일 예로, 상기 촬영부(130)는 객체(또는 피사체)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.That is, the photographing unit 130 processes an image frame such as a still image or a moving picture obtained by an image sensor (a camera module or a camera) in a video call mode, a photographing mode, a video conference mode, and the like. That is, the corresponding image data obtained by the image sensor according to the CODEC is encoded/decoded to meet each standard. For example, the photographing unit 130 photographs an object (or subject), and outputs a video signal corresponding to the photographed image (subject image).

또한, 상기 촬영부(130)는 상기 차량 후면에 위치한 다른 하나 이상의 객체를 포함하는 다른 영상 정보를 획득한다.Also, the photographing unit 130 acquires other image information including one or more other objects located at the rear of the vehicle.

또한, 상기 촬영부(130)에서 처리된 화상 프레임(또는 영상 정보)은 디지털 비디오 레코더(Digital video recorder: DVR)에 저장되거나, 상기 저장부(150)에 저장되거나, 상기 통신부(110)를 통해 외부 서버 등에 전송될 수 있다.In addition, the image frame (or image information) processed by the photographing unit 130 is stored in a digital video recorder (DVR), stored in the storage unit 150, or through the communication unit 110 . It may be transmitted to an external server or the like.

또한, 상기 3D 헤드업디스플레이 시스템(100)은 입력부(미도시)를 통해 사용자 입력에 따른 목적지 정보 등을 수신할 수 있다.Also, the 3D head-up display system 100 may receive destination information according to a user input through an input unit (not shown).

이와 같이, 상기 3D 헤드업디스플레이 시스템(100)에 포함된 상기 통신부(110), 상기 센서부(120), 상기 촬영부(130), 상기 입력부 등은 해당 차량과 관련한 정보, 해당 차량이 주행 중인 차량 전면 및/또는 주행 반대 방향에 대응하는 차량 후면에 위치한 하나 이상의 객체에 대한 다양한 정보 등을 수집(또는 측정/감지)할 수 있다.In this way, the communication unit 110, the sensor unit 120, the photographing unit 130, the input unit, etc. included in the 3D head-up display system 100 provide information related to the vehicle, information related to the vehicle in which the vehicle is driving, and the like. Various information about one or more objects located in the front of the vehicle and/or at the rear of the vehicle corresponding to the driving direction may be collected (or measured/detected).

상기 시선 추적부(140)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The eye tracking unit 140 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 시선 추적부(140)는 차량 내의 운전석에 위치한 사용자(또는 운전자)의 시선 방향 및 시선 위치(또는 사용자가 차량 밖을 바라보는 방향 및 위치)를 감지(또는 추적)한다.In addition, the gaze tracking unit 140 detects (or tracks) the gaze direction and gaze position of the user (or the driver) located in the driver's seat in the vehicle (or the direction and position in which the user looks out of the vehicle).

즉, 상기 시선 추적부(140)는 상기 운전석에 위치한 사용자가 상기 차량 전면을 바라보거나 또는, 상기 차량의 측면에 구성된 사이드미러(미도시)를 바라보는 방향 및 위치를 감지한다.That is, the eye tracking unit 140 detects the direction and position in which the user located in the driver's seat looks at the front of the vehicle or a side mirror (not shown) configured on the side of the vehicle.

상기 저장부(150)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The storage unit 150 stores various user interfaces (UIs), graphic user interfaces (GUIs), and the like.

또한, 상기 저장부(150)는 상기 3D 헤드업디스플레이 시스템(100)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 150 stores data and programs necessary for the 3D head-up display system 100 to operate.

즉, 상기 저장부(150)는 상기 3D 헤드업디스플레이 시스템(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 3D 헤드업디스플레이 시스템(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 3D 헤드업디스플레이 시스템(100)의 기본적인 기능을 위하여 출고 당시부터 3D 헤드업디스플레이 시스템(100) 상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(150)에 저장되고, 3D 헤드업디스플레이 시스템(100)에 설치되어, 제어부(190)에 의하여 상기 3D 헤드업디스플레이 시스템(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the storage unit 150 is a plurality of application programs (application programs or applications) driven in the 3D head-up display system 100, data for the operation of the 3D head-up display system 100, Commands can be stored. At least some of these applications may be downloaded from an external server via wireless communication. In addition, at least some of these application programs may exist on the 3D head-up display system 100 from the time of shipment for the basic function of the 3D heads-up display system 100 . On the other hand, the application program is stored in the storage unit 150, installed in the 3D head-up display system 100, the control unit 190 performs the operation (or function) of the 3D head-up display system 100 can be driven to

또한, 상기 저장부(150)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 3D 헤드업디스플레이 시스템(100)은 인터넷(internet)상에서 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.In addition, the storage unit 150 is a flash memory type (Flash Memory Type), a hard disk type (Hard Disk Type), a multimedia card micro type (Multimedia Card Micro Type), a card type memory (for example, SD or XD) memory, etc.), magnetic memory, magnetic disk, optical disk, RAM (Random Access Memory: RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory: ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), It may include at least one storage medium among Programmable Read-Only Memory (PROM). In addition, the 3D head-up display system 100 may operate a web storage that performs a storage function of the storage unit 150 on the Internet, or may operate in connection with the web storage.

또한, 상기 저장부(150)는 상기 제어부(190)의 제어에 의해 상기 서버로 전송되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 저장한다.In addition, the storage unit 150 includes location information of the corresponding vehicle transmitted to the server under the control of the control unit 190 , image information acquired through the photographing unit 130 (or information about an object in the image information). information (eg, including a vehicle number for an object such as a vehicle)), and the like.

또한, 상기 저장부(150)는 상기 제어부(190)의 제어에 의해 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 저장한다.In addition, the storage unit 150 is information (or surrounding situation information) related to the surrounding situation according to the location of the vehicle transmitted from the server in response to the information transmission under the control of the control unit 190 (for example, It stores speed limit information on the corresponding road, construction information on surrounding roads, etc.) and additional information related to the object in the image information (including, for example, whether the vehicle is stolen, whether or not the fine is arrears), and the like.

상기 3D 디스플레이(또는 3D 모니터/3D 표시부)(160)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The 3D display (or 3D monitor/3D display unit) 160 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해 상기 저장부(150)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 3D 디스플레이(160)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 3D 디스플레이(160)는 터치 스크린 일 수 있다.In addition, the 3D display 160 may display various contents such as various menu screens using a user interface and/or a graphic user interface stored in the storage 150 under the control of the controller 190 . Here, the content displayed on the 3D display 160 includes various text or image data (including various information data) and a menu screen including data such as icons, list menus, and combo boxes. Also, the 3D display 160 may be a touch screen.

또한, 상기 3D 디스플레이(160)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.In addition, the 3D display 160 is a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (Organic Light-Emitting Diode: OLED), flexible The display may include at least one of a flexible display, an e-ink display, and a light emitting diode (LED).

또한, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해 상기 수집된 다양한 정보들을 근거로 생성된 3D 콘텐츠를 출력(또는 표시)한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보(또는 상기 차량 전면/차량 후면에 위치한 객체에 대한 부가 정보)는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보(또는 상기 차량과 관련한 상세 정보)는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등을 포함한다.In addition, the 3D display 160 outputs (or displays) 3D content generated based on the collected various information under the control of the controller 190 . In this case, the 3D content includes route guidance information (or route guidance information) according to the destination information, etc., additional information on an object located in front of the vehicle (or an object included in the image information), detailed information related to the vehicle, and the like. Including, the route guidance information, the additional information, the detailed information, etc. are displayed adjacent to the real object located in front of the vehicle in consideration of the location of the object in the image information, or the user's viewing angle or the user and the object A position in the corresponding 3D content may be set to be displayed at a specific position in consideration of the focus of the liver. Here, the additional information (or additional information on the object located on the front/rear side of the vehicle) includes information such as the distance between the vehicle and the object, the speed, and additional information (for example, whether the vehicle is stolen, or not in arrears of a fine) ), etc. In addition, the detailed information (or detailed information related to the vehicle) includes various information related to the surrounding situation according to the location of the vehicle (eg, including speed limit information on the corresponding road, construction information on the surrounding road, etc.), the vehicle It includes related driving speed, engine rotation value, instantaneous fuel efficiency, real-time voltage, water temperature, mileage, alarm switch, overspeed alarm, water temperature alarm, etc.

또한, 상기 3D 헤드업디스플레이 시스템(100)은 상기 제어부(190)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력하는 음성 출력부(미도시)를 더 포함할 수 있다. 여기서, 상기 음성 출력부에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.In addition, the 3D heads-up display system 100 may further include a voice output unit (not shown) for outputting voice information included in a signal processed by a predetermined signal by the controller 190 . Here, the audio output unit may include a receiver, a speaker, a buzzer, and the like.

또한, 상기 음성 출력부는 상기 제어부(190)에 의해 생성된 안내 음성을 출력한다.In addition, the voice output unit outputs a guide voice generated by the control unit 190 .

또한, 상기 음성 출력부는 상기 제어부(190)의 제어에 의해 상기 3D 디스플레이(160)를 통해 출력되는 3D 콘텐츠에 포함된 음성 정보(또는 음향 효과)를 출력한다.In addition, the audio output unit outputs audio information (or sound effects) included in the 3D content output through the 3D display 160 under the control of the controller 190 .

상기 반사판(또는 미러부/하프 미러)(170)은 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The reflector (or mirror unit/half mirror) 170 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 반사판(170)은 상기 3D 디스플레이(160)로부터 출력되는 3D 콘텐츠를 상기 윈드실드(180)로 반사한다.In addition, the reflector 170 reflects the 3D content output from the 3D display 160 to the windshield 180 .

상기 윈드실드(windshield)(180)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 전면 유리의 일측에 배치(또는 구성/형성)한다. 이때, 상기 윈드실드(180)는 외측 판유리(미도시)와 내측 판유리(미도시) 사이에 반사 필름(미도시)이 형성된 구조이거나 또는, 상기 반사 필름이 형성된 투명 또는 반투명 구조일 수 있다.The windshield 180 is disposed (or configured/formed) on one side of the windshield of the vehicle on which the 3D head-up display system 100 is configured. In this case, the windshield 180 may have a structure in which a reflective film (not shown) is formed between an outer plate glass (not shown) and an inner plate glass (not shown), or a transparent or translucent structure in which the reflective film is formed.

또한, 상기 윈드실드(180)는 상기 3D 디스플레이(160)에 의해 출력되는(또는 표시되는) 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 상(image)(또는 가상 이미지/허상)을 표시한다. 여기서, 상기 반사된 상은 실제 공간상에서 상기 반사된 상의 초점 거리가 조정된 상태로, 실제 공간상의 최적의 초점 위치에 상기 반사된 상이 표시될 수 있다.In addition, the windshield 180 displays an image (or virtual image/virtual image) in which 3D content output (or displayed) by the 3D display 160 is reflected by the reflector 170 . . Here, the reflected image is a state in which a focal length of the reflected image is adjusted in real space, and the reflected image may be displayed at an optimal focal position in real space.

이때, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보, 해당 차량과 관련한 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 객체에 인접한 일측에 상기 반사된 상에 포함된 해당 부가 정보를 표시하고, 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In this case, when the 3D content includes additional information on an object located in front of the vehicle, detailed information related to the vehicle, etc., the windshield 180 is reflected on one side adjacent to the real object located in front of the vehicle. The corresponding additional information included in the image is displayed, and detailed information related to the corresponding vehicle included in the reflected image is displayed on the other side of the windshield 180 .

또한, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 차선을 근거로 일측에 상기 반사된 상에 포함된 해당 길 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 직진, 좌회전, 우회전, 차선 이용 정보, 몇 미터 앞에서 좌회전/우회전/유턴 등의 정보 포함)를 표시하고, 해당 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 객체와 관련한 부가 정보를 표시하고, 상기 윈드실드(180)의 또 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In addition, when the 3D content includes the route guidance information, the additional information, the detailed information, etc. according to the destination information, the windshield 180 is reflected on one side based on the actual lane located in front of the corresponding vehicle. Information on the vehicle's traveling direction according to the corresponding road guidance information included in the image (for example, information on going straight, left turn, right turn, lane use information, and information such as left turn/right turn/U-turn from a few meters ahead) is displayed, and the vehicle Additional information related to the corresponding object included in the reflected image is displayed on the other side of the windshield 180 adjacent to the real object located in front, and the reflected image is displayed on the other side of the windshield 180. Displays detailed information related to the included vehicle.

이와 같이, 상기 윈드실드(180)는 상기 제어부(190)에 의해 생성된 3D 콘텐츠에 대해서 단일 사용자(예를 들어 운전석 또는 보조석에 위치한 사용자) 또는 다수의 사용자(예를 들어 운전석, 보조석 등에 위치한 복수의 사용자)의 양안에 다른 이미지를 제공할 수 있다.As such, with respect to the 3D content generated by the control unit 190 , the windshield 180 provides a single user (eg, a user located in a driver's seat or a passenger seat) or a plurality of users (eg, a plurality of 3D contents located in the driver's seat or the passenger seat). of the user) can provide different images to both eyes.

또한, 이와 같이, 상기 윈드실드(180)에 표시되는 상기 반사된 상은 실제 객체의 정보들과 상응하는 이미지를 제공한다.Also, as described above, the reflected image displayed on the windshield 180 provides an image corresponding to the information of the real object.

예를 들어, 상기 3D 헤드업디스플레이 시스템(100)이 구비된 차량으로부터 30m 떨어진 객체(또는 물체)의 네임태그(또는 해당 객체와 관련한 부가 정보 등 포함)를 허상으로 30m 위치에 위치시킴으로써, 사용자는 실상과 허상을 같이 받아들여 실제 하나의 상으로 받아들이거나 또는 30m 떨어진 실제 객체와 그에 도달하는 경로를 0 ~ 30m의 허상으로 표현한다.For example, by locating the name tag of an object (or object) 30 m away from the vehicle equipped with the 3D head-up display system 100 (or including additional information related to the object) as a virtual image, the user can It accepts the real and virtual images together and accepts them as one real image, or expresses the real object 30m away and the path to it as a 0-30m virtual image.

이와 같이, 상기 3D 헤드업디스플레이 시스템(100)은 사용자의 눈(또는 시선)의 방향 및 위치를 추적하여, 3D 디스플레이(160)를 통해 알맞은 허상을 표현함으로써, 실제 운전자가 느끼기엔 원거리에 상이 있다고 느끼게 된다.In this way, the 3D head-up display system 100 tracks the direction and location of the user's eye (or gaze) and expresses an appropriate virtual image through the 3D display 160, so that the real driver feels that there is an image in the distance. do.

상기 3D 헤드업디스플레이 시스템(100)은 상기 3D 헤드업디스플레이 시스템(100)의 GPS 위치 정보를 산출(또는 획득)하는 GPS 수신기(미도시)를 더 포함할 수 있다.The 3D heads-up display system 100 may further include a GPS receiver (not shown) for calculating (or acquiring) GPS location information of the 3D heads-up display system 100 .

즉, 상기 GPS 수신기는 위성으로부터 전송되는 GPS 신호를 수신하고, 상기 수신된 GPS 신호에 포함된 경도 좌표 및 위도 좌표를 근거로 해당 3D 헤드업디스플레이 시스템(100)의 위치 데이터(또는 위치 정보)를 발생시킨다.That is, the GPS receiver receives a GPS signal transmitted from a satellite, and receives location data (or location information) of the 3D head-up display system 100 based on the longitude and latitude coordinates included in the received GPS signal. generate

또한, 상기 GPS 수신기를 통해 수신되는 신호는 IEEE(Institute of Electrical and Electronics Engineers)에서 제안한 무선 LAN 및 일부 적외선 통신 등을 포함하는 무선 LAN에 대한 무선 네트워크의 표준 규격인 802.11과, 블루투스, UWB, 지그비 등을 포함하는 무선 PAN(Personal Area Network)에 대한 표준 규격인 802.15과, 도시 광대역 네트워크(Fixed Wireless Access: FWA) 등을 포함하는 무선 MAN(Metropolitan Area Network), 광대역 무선 접속(Broadband Wireless Access: BWA)에 대한 표준 규격인 802.16과, 와이브로(Wibro), 와이맥스(WiMAX) 등을 포함하는 무선 MAN(Mobile Broadband Wireless Access: MBWA)에 대한 모바일 인터넷에 대한 표준 규격인 802.20 등의 무선 통신 방식을 이용하여 해당 3D 헤드업디스플레이 시스템(100)의 정밀 위치 정보를 상기 3D 헤드업디스플레이 시스템(100)에 제공하도록 구성할 수도 있다.In addition, the signal received through the GPS receiver includes 802.11, which is a standard standard for wireless networks for wireless LANs including wireless LANs and some infrared communications, proposed by the Institute of Electrical and Electronics Engineers (IEEE), Bluetooth, UWB, and Zigbee. 802.15, which is a standard specification for wireless PAN (Personal Area Network), including, etc., a wireless Metropolitan Area Network (MAN), including a fixed wireless access (FWA), and broadband wireless access (BWA) ) using wireless communication methods such as 802.16, which is a standard standard for , and 802.20, which is a standard for mobile Internet for wireless MAN (Mobile Broadband Wireless Access: MBWA) including Wibro and WiMAX. It may be configured to provide precise position information of the 3D head-up display system 100 to the 3D head-up display system 100 .

이와 같이, 상기 GPS 수신기는 상기 제어부(190)의 제어에 의해 해당 3D 헤드업디스플레이 시스템(100)의 위치 정보(또는 상기 3D 헤드업디스플레이 시스템(100)이 차량에 장착된 경우, 해당 차량의 위치 정보)를 생성한다.In this way, the GPS receiver receives location information of the corresponding 3D head-up display system 100 under the control of the controller 190 (or, when the 3D heads-up display system 100 is mounted on the vehicle, the location of the corresponding vehicle). information) is created.

상기 제어부(controller, 또는 MCU(microcontroller unit)(190)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The controller (or microcontroller unit (MCU) 190 ) is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up display system 100 is configured.

또한, 상기 제어부(190)는 상기 3D 헤드업디스플레이 시스템(100)의 전반적인 제어 기능을 실행한다.In addition, the control unit 190 executes an overall control function of the 3D head-up display system 100 .

또한, 상기 제어부(190)는 상기 저장부(150)에 저장된 프로그램 및 데이터를 이용하여 3D 헤드업디스플레이 시스템(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(190)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(150)에 액세스하여, 상기 저장부(150)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(150)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the control unit 190 executes the overall control function of the 3D head-up display system 100 using the program and data stored in the storage unit 150 . The controller 190 may include RAM, ROM, CPU, GPU, and a bus, and the RAM, ROM, CPU, GPU, etc. may be connected to each other through a bus. The CPU may access the storage unit 150 to perform booting using the O/S stored in the storage unit 150 , and use various programs, contents, data, etc. stored in the storage unit 150 . Thus, various operations can be performed.

또한, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된(또는 감지된) 차량 전면에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함), 상기 센서부(120)를 통해 수집된 해당 차량과 관련한 정보, 상기 촬영부(130)를 통해 획득된 하나 이상의 객체를 포함하는 영상 정보, 상기 통신부(110)를 통해 수신된 해당 차량의 주변 상황과 관련한 다양한 정보, 상기 수신된 목적지 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 3D 콘텐츠를 생성한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 수집된 해당 차량과 관련한 정보(예를 들어 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등 포함) 등을 포함한다.In addition, the control unit 190 through the sensor unit 120 through the information (eg, including distance, speed, etc.) on the object located in the front of the vehicle measured (or sensed) through the sensor unit 120 . Collected information related to the corresponding vehicle, image information including one or more objects acquired through the photographing unit 130 , various information related to the surrounding situation of the corresponding vehicle received through the communication unit 110 , and the received destination 3D content to be provided to the user is generated based on the information, the sensed user's gaze direction and information on the gaze position. In this case, the 3D content includes route guidance information (or route guidance information) according to the destination information, etc., additional information on an object located in front of the vehicle (or an object included in the image information), detailed information related to the vehicle, and the like. Including, the route guidance information, the additional information, the detailed information, etc. are displayed adjacent to the real object located in front of the vehicle in consideration of the location of the object in the image information, or the user's viewing angle or the user and the object A position in the corresponding 3D content may be set to be displayed at a specific position in consideration of the focus of the liver. Here, the additional information includes a distance between the vehicle and a corresponding object, a speed, and additional information (eg, including information such as whether a stolen vehicle is in arrears, etc.). In addition, the detailed information includes various information related to the surrounding situation according to the location of the vehicle (for example, including speed limit information on the corresponding road, construction information on the surrounding road, etc.), information related to the collected vehicle (eg, For example, the vehicle-related driving speed, engine rotation value, instantaneous fuel efficiency, real-time voltage, water temperature, mileage, alarm switch, speed warning, water temperature alarm, etc.) are included.

이와 같이, 상기 생성되는 3D 콘텐츠는 상기 실제 객체에 대응하는 위치에 해당 객체와 관련한 부가 정보를 표시하고, 미리 설정된 특정 위치에 상기 차량과 관련한 상세 정보를 표시하고, 실제 차선에 대응하는 위치에 상기 생성된 길 안내 정보에 따른 해당 차량의 진행 방향에 대한 정보를 표시할 수 있도록, 사용자의 눈과 HUD 이미지(또는 허상) 간의 거리를 고려한 정보일 수 있다.In this way, the generated 3D content displays additional information related to the corresponding object at a location corresponding to the real object, displays detailed information related to the vehicle at a preset specific location, and displays the vehicle-related detailed information at a location corresponding to the actual lane. It may be information in consideration of the distance between the user's eyes and the HUD image (or virtual image) so as to display information on the traveling direction of the corresponding vehicle according to the generated road guide information.

또한, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보를 근거로 해당 사용자의 시선이 일측으로 움직이는 경우, 상기 제어부(190)는 상기 움직이는 사용자의 시선 방향 및 시선 위치를 상기 3D 콘텐츠에 반영하여, 해당 사용자의 시선 방향 및 시선 위치의 움직임 변화에 대응하여 상기 3D 콘텐츠 내에 포함된 다양한 정보(예를 들어 길 안내 정보, 부가 정보, 상세 정보 등 포함)를 해당 움직임 변화에 대응하는 반대 방향으로 이동시킬 수 있다.In addition, when the user's gaze moves to one side based on the sensed information on the user's gaze direction and gaze position, the control unit 190 reflects the moving user's gaze direction and gaze position to the 3D content. , In response to a change in the user's gaze direction and movement of the gaze position, various information (including, for example, road guidance information, additional information, detailed information, etc.) included in the 3D content is moved in the opposite direction corresponding to the movement change can do it

예를 들어 정면을 바라보고 있던 상태에서 왼쪽으로 5cm 정도 움직이는 경우, 상기 제어부(190)는 상기 3D 콘텐츠 내에 포함된 길 안내 정보, 부가 정보, 상세 정보 등을 해당 움직임 변화(예를 들어 왼쪽으로 5cm)에 대응하는 반대 방향으로 5cm 정도 움직인 상태로 보정된 3D 콘텐츠를 상기 3D 디스플레이(160)를 통해 출력하여, 이전 3D 콘텐츠에 비해서 사용자의 시선 움직임 변화에 반대되는 방향으로 상기 다양한 정보들이 이동한 보정된 3D 콘텐츠를 상기 윈드실드(180)를 통해 표시할 수 있다.For example, when moving to the left by about 5 cm while facing the front, the control unit 190 changes the corresponding movement (for example, 5 cm to the left) with direction guide information, additional information, and detailed information included in the 3D content. ), the corrected 3D content is output through the 3D display 160 in a state of moving about 5 cm in the opposite direction, and the various information is moved in the direction opposite to the change in the user's gaze movement compared to the previous 3D content. The corrected 3D content may be displayed through the windshield 180 .

또한, 이와 같이, 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공할 수 있다.Also, as described above, an image located at a desired distance may be provided to the user by using a 3D display capable of providing different information to both eyes of the user.

또한, 이와 같이, 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시할 수 있다.In addition, as described above, a 3D image is generated using the information obtained through the communication unit, the sensor unit, the photographing unit, etc., and the 3D image displayed through the 3D display is reflected through the reflector to apply the virtual 3D HUD image to the windshield. can be displayed

이하에서는, 본 발명에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 도 1 내지 도 6을 참조하여 상세히 설명한다.Hereinafter, a method of controlling a 3D head-up display system according to the present invention will be described in detail with reference to FIGS. 1 to 6 .

도 3은 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a control method of a 3D head-up display system according to an embodiment of the present invention.

먼저, 센서부(120)는 차량의 진행 방향(또는 차량 전면)에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함)를 측정(또는 감지)한다. 여기서, 상기 객체는 상기 차량 전면에 위치한 다른 차량, 건물, 도로 표지판, 교통 표지판 등을 포함한다. 이때, 상기 센서부(120)는 상기 차량의 진행 방향과 반대되는 방향(또는 차량 후면)에 위치한 객체에 대한 정보를 측정할 수도 있다.First, the sensor unit 120 measures (or detects) information (eg, including distance, speed, etc.) on an object located in the traveling direction of the vehicle (or the front of the vehicle). Here, the object includes another vehicle, a building, a road sign, a traffic sign, and the like located in front of the vehicle. In this case, the sensor unit 120 may measure information on an object located in a direction opposite to the traveling direction of the vehicle (or at the rear of the vehicle).

또한, 상기 센서부(120)는 해당 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치(RPM), 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다. 이때, 상기 센서부(120)는 해당 차량에 구비된 다양한 다른 센서(미도시)를 통해 측정되는 상기 차량과 관련한 정보를 수집할 수 있다.In addition, the sensor unit 120 collects information related to the vehicle (including, for example, driving speed, engine RPM, instantaneous fuel efficiency, real-time voltage, water temperature, mileage, etc.). In this case, the sensor unit 120 may collect information related to the vehicle measured through various other sensors (not shown) provided in the vehicle.

또한, 촬영부(130)는 상기 차량 전면에 위치한 하나 이상의 객체를 포함하는 영상 정보를 획득(또는 촬영)한다. 이때, 상기 촬영부(130)는 상기 차량 후면에 위치한 다른 하나 이상의 객체를 포함하는 다른 영상 정보를 획득할 수도 있다.Also, the photographing unit 130 acquires (or captures) image information including one or more objects located in front of the vehicle. In this case, the photographing unit 130 may acquire other image information including one or more other objects located at the rear of the vehicle.

또한, 통신부(110)는 서버(미도시)로부터 제공되는 해당 차량의 실시간 위치, 상기 촬영부(130)를 통해 획득된 영상 정보 내의 객체 등에 따른 주변 상황과 관련한 정보, 해당 객체와 관련한 정보 등을 수신한다.In addition, the communication unit 110 transmits the real-time location of the vehicle provided from the server (not shown), information related to the surrounding situation according to the object in the image information obtained through the photographing unit 130, information related to the object, and the like. receive

즉, 상기 통신부(110)는 제어부(190)의 제어에 의해, 실시간으로 확인되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 상기 서버에 전송하고, 상기 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 수신한다.That is, the communication unit 110 is controlled by the control unit 190, the location information of the vehicle checked in real time, the image information obtained through the photographing unit 130 (or information about the object in the image information ( For example, information related to the surrounding situation according to the location of the vehicle (or surrounding situation information) transmitted from the server in response to the transmission and the like)) of an object such as a vehicle) (For example, including speed limit information on the corresponding road, construction information on surrounding roads, etc.), additional information related to the object in the image information (including information such as whether the vehicle is stolen, whether or not a fine for negligence is not paid), etc. .

또한, 3D 헤드업디스플레이 시스템(100)은 입력부(미도시)를 통해 사용자 입력에 따른 목적지 정보 등을 수신한다.In addition, the 3D head-up display system 100 receives destination information according to a user input through an input unit (not shown).

이와 같이, 상기 3D 헤드업디스플레이 시스템(100)에 포함된 상기 통신부(110), 상기 센서부(120), 상기 촬영부(130), 상기 입력부 등은 해당 차량과 관련한 정보, 해당 차량이 주행 중인 차량 전면 및/또는 주행 반대 방향에 대응하는 차량 후면에 위치한 하나 이상의 객체에 대한 다양한 정보 등을 수집(또는 측정/감지)할 수 있다.In this way, the communication unit 110, the sensor unit 120, the photographing unit 130, the input unit, etc. included in the 3D head-up display system 100 provide information related to the vehicle, information related to the vehicle in which the vehicle is driving, and the like. Various information about one or more objects located in the front of the vehicle and/or at the rear of the vehicle corresponding to the driving direction may be collected (or measured/detected).

일 예로, 상기 센서부(120)는 상기 센서부(120)가 구비된 3D 헤드업디스플레이 시스템(100)이 구성된 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등에 대한 정보를 측정한다.For example, the sensor unit 120 may include a plurality of vehicles, a plurality of buildings (or buildings), etc. located in the traveling direction of the first vehicle in which the 3D head-up display system 100 provided with the sensor unit 120 is configured. Measure information.

또한, 상기 센서부(120)는 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다.In addition, the sensor unit 120 collects information related to the first vehicle (eg, driving speed, engine rotation value, instantaneous fuel efficiency, real-time voltage, water temperature, mileage, etc.).

또한, 도 4에 도시된 바와 같이, 상기 촬영부(130)는 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보(400)를 획득한다.In addition, as shown in FIG. 4 , the photographing unit 130 acquires first image information 400 including a plurality of vehicles, a plurality of buildings (or buildings), etc. located in the traveling direction of the first vehicle. do.

또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 실시간으로 확인되는 해당 제 1 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 제 1 영상 정보 등을 상기 서버에 전송하고, 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음) 등을 수신한다.In addition, the communication unit 110 transmits, under the control of the control unit 190 , the location information of the first vehicle checked in real time, the first image information obtained through the photographing unit 130 , and the like to the server. and first surrounding situation information related to the surrounding situation in which the first vehicle is currently located, transmitted from the server in response to the information transmission (eg, first speed limit information on the driving road (eg, 80 km/h)) , second additional information about the second vehicle included in the first image information (for example, there is no state of arrears in a fine for negligence), and the like.

다른 일 예로, 상기 입력부는 상기 사용자 입력에 따른 제 1 목적지 정보(예를 들어 신사역 사거리)를 수신한다(S310).As another example, the input unit receives first destination information (eg, Sinsa Station intersection) according to the user input (S310).

또한, 시선 추적부(140)는 차량 내의 운전석에 위치한 사용자(또는 운전자)의 시선 방향 및 시선 위치(또는 사용자가 차량 밖을 바라보는 방향 및 위치)를 감지(또는 추적)한다.In addition, the gaze tracking unit 140 detects (or tracks) the gaze direction and gaze position of the user (or the driver) located in the driver's seat in the vehicle (or the direction and position in which the user looks out of the vehicle).

즉, 상기 시선 추적부(140)는 상기 운전석에 위치한 사용자가 상기 차량 전면을 바라보거나 또는, 상기 차량의 측면에 구성된 사이드미러(미도시)를 바라보는 방향 및 위치를 감지한다.That is, the eye tracking unit 140 detects the direction and position in which the user located in the driver's seat looks at the front of the vehicle or a side mirror (not shown) configured on the side of the vehicle.

일 예로, 상기 시선 추적부(140)는 상기 차량 내의 운전석에 위치한 사용자의 실시간 제 1 시선 방향 및 시선 위치를 감지한다(S320).For example, the gaze tracking unit 140 detects a first gaze direction and gaze position of the user located in the driver's seat in the vehicle in real time (S320).

이후, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된(또는 감지된) 차량 전면에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함), 상기 센서부(120)를 통해 수집된 해당 차량과 관련한 정보, 상기 촬영부(130)를 통해 획득된 하나 이상의 객체를 포함하는 영상 정보, 상기 통신부(110)를 통해 수신된 해당 차량의 주변 상황과 관련한 다양한 정보, 상기 수신된 목적지 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 3D 콘텐츠를 생성한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 수집된 해당 차량과 관련한 정보(예를 들어 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등 포함) 등을 포함한다.Thereafter, the control unit 190 receives information (eg, including distance, speed, etc.) on an object located in the front of the vehicle measured (or sensed) through the sensor unit 120 , through the sensor unit 120 . Collected information related to the corresponding vehicle, image information including one or more objects acquired through the photographing unit 130 , various information related to the surrounding situation of the corresponding vehicle received through the communication unit 110 , and the received destination 3D content to be provided to the user is generated based on the information, the sensed user's gaze direction and information on the gaze position. In this case, the 3D content includes route guidance information (or route guidance information) according to the destination information, etc., additional information on an object located in front of the vehicle (or an object included in the image information), detailed information related to the vehicle, and the like. Including, the route guidance information, the additional information, the detailed information, etc. are displayed adjacent to the real object located in front of the vehicle in consideration of the location of the object in the image information, or the user's viewing angle or the user and the object A position in the corresponding 3D content may be set to be displayed at a specific position in consideration of the focus of the liver. Here, the additional information includes a distance between the vehicle and a corresponding object, a speed, and additional information (eg, including information such as whether the vehicle is stolen or not in arrears with a fine). In addition, the detailed information includes various information related to the surrounding situation according to the location of the vehicle (for example, including speed limit information on the corresponding road, construction information on the surrounding road, etc.), information related to the collected vehicle (eg, For example, the vehicle-related driving speed, engine rotation value, instantaneous fuel efficiency, real-time voltage, water temperature, mileage, alarm switch, speed warning, water temperature alarm, etc.) are included.

일 예로, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된 차량 전면에 위치한 복수의 차량, 복수의 건물 등에 대한 정보, 상기 센서부(120)를 통해 수집된 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함), 상기 촬영부(130)를 통해 획득된 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보, 상기 통신부(110)를 통해 수신된 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음), 상기 시선 추적부(140)를 통해 감지된 사용자의 제 1 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 제 1 3D 콘텐츠를 생성한다. 이때, 상기 제 1 3D 콘텐츠는 상기 제 2 차량에 대한 제 2 부가 정보(예를 들어 상기 제 1 차량과 상기 제 2 차량 간의 제 1 거리(예를 들어 50m), 상기 제 2 차량의 제 2 속도(예를 들어 시속 80km), 과태료 체납 상황 없음 등 포함), 상기 제 1 차량에 대한 제 1 상세 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km), 해당 제 1 차량의 주행속도(예를 들어 시속 70km), 엔진의 회전수치(예를 들어 2,000RPM) 등 포함) 등을 포함한다.For example, the control unit 190 may include information about a plurality of vehicles, a plurality of buildings, etc. located in front of the vehicle measured through the sensor unit 120 , and related to the first vehicle collected through the sensor unit 120 . information (including, for example, driving speed, engine rotation value, instantaneous fuel efficiency, real-time voltage, water temperature, mileage, etc.), a plurality of vehicles located in the traveling direction of the first vehicle obtained through the photographing unit 130, First image information including a plurality of buildings (or buildings), and first surrounding situation information (for example, first on the driving road) related to the surrounding situation in which the first vehicle is currently located, received through the communication unit 110 . 1 speed limit information (for example, 80 km/h)), second additional information about the second vehicle included in the first image information (for example, no arrears in fines), detected through the eye tracking unit 140 The first 3D content to be provided to the user is generated based on the user's first gaze direction and information on the gaze position. In this case, the first 3D content includes second additional information about the second vehicle (eg, a first distance (eg, 50 m) between the first vehicle and the second vehicle), and a second speed of the second vehicle. (including, for example, 80 km/h), no non-payment of fines, etc.), first detailed information about the first vehicle (eg, first speed limit information on the driving road (eg, 80 km/h), the first It includes the running speed of the vehicle (for example, 70 km/h), the rotational value of the engine (for example, 2,000 RPM), etc.).

다른 일 예로, 상기 제어부(190)는 상기 수신된 제 1 목적지 정보(예를 들어 신사역 사거리)에 따라 상기 제 1 차량의 실시간 현재 위치(예를 들어 역삼역 사거리)에 따른 제 1 경로 안내 정보를 생성한다.As another example, the control unit 190 generates first route guidance information according to the real-time current location (eg, Yeoksam Station intersection) of the first vehicle according to the received first destination information (eg, Sinsa Station intersection) do.

또한, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된 차량 전면에 위치한 복수의 차량, 복수의 건물 등에 대한 정보, 상기 센서부(120)를 통해 수집된 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함), 상기 촬영부(130)를 통해 획득된 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보, 상기 통신부(110)를 통해 수신된 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음), 상기 생성된 제 1 경로 안내 정보, 상기 시선 추적부(140)를 통해 감지된 사용자의 제 1 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 제 2 3D 콘텐츠를 생성한다. 이때, 상기 제 2 3D 콘텐츠는 상기 제 2 차량에 대한 제 2 부가 정보(예를 들어 상기 제 1 차량과 상기 제 2 차량 간의 제 1 거리(예를 들어 50m), 상기 제 2 차량의 제 2 속도(예를 들어 시속 80km), 과태료 체납 상황 없음 등 포함), 상기 제 1 차량에 대한 제 2 상세 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km), 해당 제 1 차량의 주행속도(예를 들어 시속 70km), 엔진의 회전수치(예를 들어 2,000 RPM) 등 포함), 상기 제 1 경로 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 659m 앞에서 우회전하세요) 등을 포함한다(S330).In addition, the control unit 190 includes information on a plurality of vehicles and a plurality of buildings located in front of the vehicle measured through the sensor unit 120 , and information related to the first vehicle collected through the sensor unit 120 . (including, for example, driving speed, engine rotation speed, instantaneous fuel efficiency, real-time voltage, water temperature, mileage, etc.), a plurality of vehicles located in the traveling direction of the first vehicle acquired through the photographing unit 130 , a plurality of first image information including a building (or building) of Speed limit information (for example, 80 km/h)), second additional information about the second vehicle included in the first image information (for example, no fine arrears), the generated first route guidance information, the gaze The second 3D content to be provided to the user is generated based on the information on the first gaze direction and the gaze position of the user detected through the tracking unit 140 . In this case, the second 3D content includes second additional information about the second vehicle (eg, a first distance (eg, 50m) between the first vehicle and the second vehicle), and a second speed of the second vehicle. (including, for example, 80 km/h), no non-payment of fines, etc.), second detailed information about the first vehicle (eg, first speed limit information on the driving road (eg, 80 km/h), the first Information on the driving speed of the vehicle (eg, 70 km/h), the engine rotation value (eg, 2,000 RPM), and the direction of the vehicle according to the first route guidance information (eg, turn right before 659 m) ) and the like (S330).

이후, 3D 디스플레이(160)는 상기 제어부(190)에 의해 생성된 3D 콘텐츠를 출력(또는 표시)한다.Thereafter, the 3D display 160 outputs (or displays) the 3D content generated by the controller 190 .

즉, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 3D 콘텐츠를 출력한다.That is, the 3D display 160 outputs the generated 3D content under the control of the controller 190 .

일 예로, 상기 차량 내의 특정 위치에 구성된(또는 배치된) 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 제 1 3D 콘텐츠를 출력한다.For example, the 3D display 160 configured (or disposed) at a specific location in the vehicle outputs the generated first 3D content under the control of the controller 190 .

다른 일 예로, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 제 2 3D 콘텐츠를 출력한다(S340).As another example, the 3D display 160 outputs the generated second 3D content under the control of the controller 190 (S340).

이후, 차량의 전면에 구성된 윈드실드(180)는 상기 3D 디스플레이(160)에 의해 출력되는(또는 표시되는) 3D 콘텐츠가 반사판(170)에 의해 반사된 상(image)(또는 가상 이미지/허상)을 표시한다. 여기서, 상기 반사된 상은 실제 공간상에서 상기 반사된 상의 초점 거리가 조정된 상태로, 실제 공간상의 최적의 초점 위치에 상기 반사된 상이 표시될 수 있다.Thereafter, the windshield 180 configured on the front of the vehicle is an image (or virtual image/virtual image) in which 3D content output (or displayed) by the 3D display 160 is reflected by the reflector 170 . to display Here, the reflected image is a state in which a focal length of the reflected image is adjusted in real space, and the reflected image may be displayed at an optimal focal position in real space.

이때, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보, 해당 차량과 관련한 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 객체에 인접한 일측에 상기 반사된 상에 포함된 해당 부가 정보를 표시하고, 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In this case, when the 3D content includes additional information on an object located in front of the vehicle, detailed information related to the vehicle, etc., the windshield 180 is reflected on one side adjacent to the real object located in front of the vehicle. The corresponding additional information included in the image is displayed, and detailed information related to the corresponding vehicle included in the reflected image is displayed on the other side of the windshield 180 .

또한, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 차선을 근거로 일측에 상기 반사된 상에 포함된 해당 길 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 직진, 좌회전, 우회전, 차선 이용 정보, 몇 미터 후 좌회전/우회전/유턴 등의 정보 포함)를 표시하고, 해당 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 객체와 관련한 부가 정보를 표시하고, 상기 윈드실드(180)의 또 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In addition, when the 3D content includes the route guidance information, the additional information, the detailed information, etc. according to the destination information, the windshield 180 is reflected on one side based on the actual lane located in front of the corresponding vehicle. Information on the vehicle's traveling direction according to the corresponding road guide information included in the image (for example, information on going straight, left turn, right turn, lane use information, and information such as left turn/right turn/U-turn after a few meters) is displayed, and the vehicle Additional information related to the corresponding object included in the reflected image is displayed on the other side of the windshield 180 adjacent to the real object located in front, and the reflected image is displayed on the other side of the windshield 180. Displays detailed information related to the included vehicle.

일 예로, 도 5에 도시된 바와 같이, 상기 윈드실드(180)는 상기 3D 디스플레이(160)로부터 출력된 제 1 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 제 1 가상 이미지(500)를 표시한다. 이때, 상기 제 1 3D 콘텐츠에 포함된 상기 제 1 차량에 대한 제 2 부가 정보(510)는 해당 제 2 차량(520)에 인접하게 표시되고, 상기 제 1 차량에 대한 제 1 상세 정보(530)는 미리 설정된 제 1 특정 위치에 표시된다.For example, as shown in FIG. 5 , the windshield 180 displays a first virtual image 500 in which the first 3D content output from the 3D display 160 is reflected by the reflector 170 . do. In this case, the second additional information 510 on the first vehicle included in the first 3D content is displayed adjacent to the second vehicle 520, and the first detailed information 530 on the first vehicle. is displayed at a preset first specific position.

다른 일 예로, 도 6에 도시된 바와 같이, 상기 윈드실드(180)는 상기 3D 디스플레이(160)로부터 출력된 제 2 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 제 2 가상 이미지(600)를 표시한다. 이때, 상기 제 2 3D 콘텐츠에 포함된 상기 제 2 차량에 대한 제 2 부가 정보(610)는 해당 제 2 차량(620)에 인접하게 표시되고, 상기 제 1 차량에 대한 제 2 상세 정보(630)는 미리 설정된 제 2 특정 위치에 표시되고, 상기 제 1 경로 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 650m 앞에서 우회전하세요)(640)는 미리 설정된 제 3 특정 위치에 표시된다(S350).As another example, as shown in FIG. 6 , the windshield 180 displays a second virtual image 600 in which the second 3D content output from the 3D display 160 is reflected by the reflector 170 . indicate In this case, the second additional information 610 on the second vehicle included in the second 3D content is displayed adjacent to the second vehicle 620, and the second detailed information 630 on the first vehicle. is displayed at a preset second specific location, and information on the traveling direction of the vehicle according to the first route guidance information (for example, turn right in front of 650m) 640 is displayed at a preset third specific location (S350) ).

본 발명의 실시예는 앞서 설명된 바와 같이, 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하여, 더욱 사실적인 HUD 이미지를 사용자에게 제공하고 이질감이 적은 상태로 정보를 표시함에 따라 사용상의 만족도를 높일 수 있다.As described above, the embodiment of the present invention provides the user with an image located at a desired distance using a 3D display that can provide different information to both eyes of the user, thereby providing a more realistic HUD image By providing users with information and displaying information in a state with less heterogeneity, user satisfaction can be increased.

또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시하여, 소형으로 전체 시스템을 구성하여 비용을 절감시키고, 디스플레이와 눈의 거리가 가까워져 더욱 작은 크기의 3D 디스플레이로도 더욱 넓은 사용 환경을 제공하며, 원거리 물체에 대한 정보를 표현하고, 다중 거리에 있는 물체에 대한 정보를 표현할 수 있다.In addition, as described above, the embodiment of the present invention generates a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflects the 3D image displayed through the 3D display through a reflector. By displaying the 3D HUD image of the virtual image on the windshield, it reduces the cost by composing the entire system in a compact size, and provides a wider use environment even with a smaller 3D display as the distance between the display and the eyes is closer, It can express information about objects and can express information about objects at multiple distances.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Those of ordinary skill in the art to which the present invention pertains may modify and modify the above-described contents without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100: 3D 헤드업디스플레이 시스템 110: 통신부
120: 센서부 130: 촬영부
140: 시선 추적부 150: 저장부
160: 3D 디스플레이 170: 반사판
180: 윈드실드 190: 제어부
100: 3D head-up display system 110: communication unit
120: sensor unit 130: photographing unit
140: eye tracking unit 150: storage unit
160: 3D display 170: reflector
180: windshield 190: control unit

Claims (3)

차량의 진행 방향인 차량 전면 또는 후면에 위치한 객체에 대한 정보를 측정하고, 상기 차량과 관련한 정보를 수집하는 센서부;
상기 객체를 포함하는 상기 차량의 360도 전방향에 대한 영상 정보를 획득할하 수 있는 스테레오 카메라를 포함하는 촬영부;
서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 통신부;
상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 시선 추적부;
상기 측정된 차량 전면 또는 후면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 제어부;
상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 3D 디스플레이;
상기 제어부에 의해 생성된 3D 콘텐츠에 포함된 음성 정보를 출력하는 음성 출력부;
상기 3D 디스플레이에 의해 출력된 3D 콘텐츠를 반사하는 반사판; 및
외측 판유리와 내측 판유리 사이에 반사 필름이 형성되어, 상기 반사판에 의해 반사된 상을 표시하는 윈드실드를 포함하고,
상기 3D 콘텐츠는,
상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면 또는 후면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 포함하며,
상기 부가 정보는,
상기 차량과 상기 객체와의 거리, 속도 및 추가 정보 중 적어도 하나를 포함하며,
상기 상세 정보는,
상기 차량의 위치에 따른 주변 상황 정보 및 상기 수집된 차량과 관련한 정보를 포함하고,
상기 윈드실드는,
상기 3D 콘텐츠가 상기 차량 전면 또는 후면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면 또는 후면에 위치한 실제 객체에 인접한 상기 윈드실드의 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시하고,
상기 3D 디스플레이에서, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보는 사용자의 시야각 또는 사용자와 객체 간의 초점을 고려하여 표시되도록 해당 3D 콘텐츠에서의 위치가 설정되고,
상기 제어부는,
상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보를 근거로 해당 사용자의 시선이 일측으로 움직이는 경우, 움직이는 사용자의 시선 방향 및 시선 위치를 상기 3D 콘텐츠에 반영하여, 해당 사용자의 시선 방향 및 시선 위치의 움직임 변화에 대응하여 상기 3D 콘텐츠 내에 포함된 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면 또는 후면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 해당 움직임 변화에 대응하는 반대 방향으로 이동시키는
3D 헤드업디스플레이 시스템.
a sensor unit that measures information on an object located in the front or rear of the vehicle, which is a traveling direction of the vehicle, and collects information related to the vehicle;
a photographing unit including a stereo camera capable of acquiring image information for a 360-degree omnidirectional view of the vehicle including the object;
a communication unit configured to receive additional information related to an object in the image information and surrounding situation information according to the location of the vehicle provided from a server;
a gaze tracking unit detecting a gaze direction and a gaze position of the user in the vehicle;
Information on the measured object located on the front or rear of the vehicle, the collected vehicle-related information, the acquired image information, the received surrounding situation information according to the location of the vehicle, the object in the received image information a control unit configured to generate 3D content to be provided to the user based on at least one of related additional information, the sensed gaze direction and gaze position of the user, and destination information according to a user input;
a 3D display for outputting the 3D content generated by the control unit;
a voice output unit for outputting voice information included in the 3D content generated by the control unit;
a reflector for reflecting the 3D content output by the 3D display; and
A reflective film is formed between the outer plate glass and the inner plate glass, comprising a windshield displaying an image reflected by the reflective plate,
The 3D content is
It includes at least one of route guidance information according to the destination information, additional information on an object located on the front or rear of the vehicle, and detailed information related to the vehicle,
The additional information is
It includes at least one of distance, speed, and additional information between the vehicle and the object,
The detailed information is
Including information related to the surrounding situation information and the collected vehicle according to the location of the vehicle,
The windshield is
When the 3D content includes additional information about an object located at the front or rear of the vehicle and detailed information related to the vehicle, the reflected image on one side of the windshield adjacent to a real object located at the front or rear of the vehicle Display the included additional information, and display the detailed information included in the reflected image on the other side of the windshield,
In the 3D display, the location in the 3D content is set so that the route guidance information, the additional information, and the detailed information are displayed in consideration of a user's viewing angle or a focus between a user and an object,
The control unit is
When the user's gaze moves to one side based on the detected information on the user's gaze direction and gaze position, the moving user's gaze direction and gaze position are reflected in the 3D content to reflect the user's gaze direction and gaze position At least one of route guidance information according to the destination information included in the 3D content, additional information on an object located on the front or rear of the vehicle, and detailed information related to the vehicle in response to a change in the movement of the vehicle corresponding to the change in movement moving in the opposite direction
3D head-up display system.
제1항에 있어서,
위성으로부터 전송되는 GPS 신호를 수신하고, 상기 수신된 GPS 신호에 포함된 경도 좌표 및 위도 좌표를 근거로 상기 차량의 위치 정보를 산출하는 GPS 수신기;
를 더 포함하는 것을 특징으로 하는 3D 헤드업디스플레이 시스템.
According to claim 1,
a GPS receiver that receives a GPS signal transmitted from a satellite and calculates location information of the vehicle based on longitude and latitude coordinates included in the received GPS signal;
3D head-up display system, characterized in that it further comprises.
제2항에 있어서,
상기 차량의 위치 정보, 획득된 영상 정보, 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 저장하는 저장부;
를 더 포함하고,
상기 촬영부에서 획득한 영상 정보는 디지털 비디오 레코더(Digital video recorder: DVR)에 저장되거나, 상기 저장부에 저장되거나, 상기 통신부를 통해 상기 서버로 전송되는 것을 특징으로 하는 3D 헤드업디스플레이 시스템.
3. The method of claim 2,
a storage unit for storing the vehicle location information, the acquired image information, surrounding situation information according to the location of the vehicle, and additional information related to an object in the image information;
further comprising,
The image information acquired by the photographing unit is stored in a digital video recorder (DVR), stored in the storage unit, or transmitted to the server through the communication unit.
KR1020210088434A 2019-09-17 2021-07-06 System for providing 3D head-up display and control method thereof KR20210088487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210088434A KR20210088487A (en) 2019-09-17 2021-07-06 System for providing 3D head-up display and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190114220A KR20210042431A (en) 2019-09-17 2019-09-17 System for providing 3D head-up display and control method thereof
KR1020210088434A KR20210088487A (en) 2019-09-17 2021-07-06 System for providing 3D head-up display and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190114220A Division KR20210042431A (en) 2019-09-17 2019-09-17 System for providing 3D head-up display and control method thereof

Publications (1)

Publication Number Publication Date
KR20210088487A true KR20210088487A (en) 2021-07-14

Family

ID=74883833

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190114220A KR20210042431A (en) 2019-09-17 2019-09-17 System for providing 3D head-up display and control method thereof
KR1020210088434A KR20210088487A (en) 2019-09-17 2021-07-06 System for providing 3D head-up display and control method thereof

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190114220A KR20210042431A (en) 2019-09-17 2019-09-17 System for providing 3D head-up display and control method thereof

Country Status (2)

Country Link
KR (2) KR20210042431A (en)
WO (1) WO2021054579A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413715B1 (en) * 2022-04-05 2022-06-27 최귀철 Method of displaying vehicle speed based on satellite positioning data through head-up display and electronic device thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102628667B1 (en) * 2021-09-23 2024-01-24 그리다텍 주식회사 Virtual reality interface system for imitating solar revolution system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610275B1 (en) 2014-11-05 2016-04-07 주식회사 디젠 Hud system having adjustable focus function

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5017242B2 (en) * 2008-12-03 2012-09-05 本田技研工業株式会社 Visual support device
WO2017022051A1 (en) * 2015-08-03 2017-02-09 三菱電機株式会社 Display control device, display device and display control method
US9922466B2 (en) * 2016-08-05 2018-03-20 Uber Technologies, Inc. Virtual reality experience for a vehicle
KR20190011944A (en) * 2017-07-26 2019-02-08 주식회사 크레모텍 3d head-up display apparatus for vehicle and display method using the same
KR102104500B1 (en) * 2019-03-07 2020-04-24 삼성전자주식회사 Method and vehicle for providing information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101610275B1 (en) 2014-11-05 2016-04-07 주식회사 디젠 Hud system having adjustable focus function

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413715B1 (en) * 2022-04-05 2022-06-27 최귀철 Method of displaying vehicle speed based on satellite positioning data through head-up display and electronic device thereof

Also Published As

Publication number Publication date
WO2021054579A1 (en) 2021-03-25
KR20210042431A (en) 2021-04-20

Similar Documents

Publication Publication Date Title
US11758111B2 (en) 3D lidar system using a dichroic mirror for autonomous driving vehicles
KR102348127B1 (en) Electronic apparatus and control method thereof
JP6428876B2 (en) Shielding adjustment system for in-vehicle augmented reality system
US20230048230A1 (en) Method for displaying lane information and apparatus for executing the method
US9171214B2 (en) Projecting location based elements over a heads up display
JP2018190410A (en) Lane guidance using augmented reality
JP2016048550A (en) Space information presentation based on driver's attention evaluation
US20170278305A1 (en) Three Dimensional Heads-up Display Unit Including Visual Context for Voice Commands
EP2993576A1 (en) Communication of external sourced information to a driver
US11900672B2 (en) Integrated internal and external camera system in vehicles
KR20210088487A (en) System for providing 3D head-up display and control method thereof
CN110263688B (en) Driving related guidance providing method and apparatus, and computer readable recording medium
JP2016048547A (en) Generation of space information for head-up display
CN108290521A (en) A kind of image information processing method and augmented reality AR equipment
JP7236442B2 (en) Control method for display device in automobile
US20190187790A1 (en) Vehicle display device and control method thereof
KR20180090610A (en) Method and apparatus for outputting information about a lane
KR20170140284A (en) Vehicle driving aids and vehicles
US10964048B2 (en) Method and device for generating image for indicating object on periphery of vehicle
CN111064936A (en) Road condition information display method and AR equipment
KR20170014451A (en) System and method for securing a clear view, and terminal for performing the same
WO2023116377A1 (en) Display method, apparatus, and system
WO2019155557A1 (en) Information display control device, information display control method, and information display control program
KR102506263B1 (en) Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map
US11338729B2 (en) Communication of autonomous vehicle actions

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E601 Decision to refuse application