KR20210088487A - System for providing 3D head-up display and control method thereof - Google Patents
System for providing 3D head-up display and control method thereof Download PDFInfo
- Publication number
- KR20210088487A KR20210088487A KR1020210088434A KR20210088434A KR20210088487A KR 20210088487 A KR20210088487 A KR 20210088487A KR 1020210088434 A KR1020210088434 A KR 1020210088434A KR 20210088434 A KR20210088434 A KR 20210088434A KR 20210088487 A KR20210088487 A KR 20210088487A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- vehicle
- image
- user
- display
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 14
- 238000004891 communication Methods 0.000 claims description 38
- 230000004044 response Effects 0.000 claims description 6
- 239000005357 flat glass Substances 0.000 claims description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 11
- 239000000446 fuel Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000004185 liver Anatomy 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 239000010408 film Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/31—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/24—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Optics & Photonics (AREA)
- Combustion & Propulsion (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Instrument Panels (AREA)
- Controls And Circuits For Display Device (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
본 발명은 3D 헤드업디스플레이 시스템 및 그의 제어 방법에 관한 것으로서, 특히 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법에 관한 것이다.The present invention relates to a 3D head-up display system and a method for controlling the same, and in particular, a 3D display that provides a user with an image located at a desired distance using a 3D display that can provide different information to both eyes of the user It relates to a head-up display system and a method for controlling the same.
헤드업 디스플레이(head-up display)(또는 윈드실드 디스플레이: windshield display)는 차량의 프런트글라스에 차속이나 진행 방향 등의 표시를 보여주는 장치이다.2. Description of the Related Art A head-up display (or windshield display) is a device for displaying a vehicle speed or a driving direction on a windshield of a vehicle.
이러한 헤드업 디스플레이 중 굴절식 헤드업 디스플레이는 상(image)과 사용자의 눈과의 거리의 한계 때문에, 헤드업 디스플레이의 상(image)과 실제 외부의 물체와의 거리 차이가 존재하며, 이러한 헤드업 디스플레이의 상과 실제 외부의 물체와의 거리 차이로 인해 사용시 이질감을 느끼게 된다.Among these heads-up displays, the refractive head-up display has a distance difference between the image of the head-up display and an actual external object due to the limitation of the distance between the image and the user's eye, and such a head-up display Due to the difference in distance between the image of the display and the actual external object, a sense of difference is felt during use.
또한, 상기 헤드업 디스플레이는 경로의 길이 차를 만들어 내기 위해서 프로젝션 유닛(projection unit)과 다수의 반사판으로 상이 맺히는 위치 길이를 만들어 내어야 하며, 이러한 상의 위치가 길수록 필연적으로 모듈의 크기가 거질 수밖에 없는 한계를 가지고 있을 뿐만 아니라, 그렇게 만들어진 상의 위치는 단일 위치에 위치될 수 밖에 없어, 표현하고자 하는 이미지의 한계가 존재한다.In addition, the head-up display has to create a length at which an image is formed with a projection unit and a plurality of reflectors in order to create a difference in the length of the path, and the longer the position of the image, the larger the size of the module inevitably. In addition to having a , the position of the image thus created has no choice but to be located in a single position, so there is a limit to the image to be expressed.
본 발명의 목적은 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법을 제공하는 데 있다.It is an object of the present invention to provide a 3D head-up display system and a control method thereof for providing a user with an image located at a desired distance using a 3D display capable of providing different information to both eyes of the user. have.
본 발명의 다른 목적은 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시하는 3D 헤드업디스플레이 시스템 및 그의 제어 방법을 제공하는 데 있다.Another object of the present invention is to generate a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflect a 3D image displayed through a 3D display through a reflector to wind a virtual 3D HUD image. An object of the present invention is to provide a 3D head-up display system and a method for controlling the same.
본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템은 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하고, 상기 차량과 관련한 정보를 수집하는 센서부; 상기 객체를 포함하는 영상 정보를 획득하는 촬영부; 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 통신부; 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 시선 추적부; 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 제어부; 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 3D 디스플레이; 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠를 반사하는 반사판; 및 상기 반사판에 의해 반사된 상을 표시하는 윈드실드를 포함할 수 있다.A 3D head-up display system according to an embodiment of the present invention includes: a sensor unit for measuring information on an object located in front of a vehicle, which is a traveling direction of the vehicle, and collecting information related to the vehicle; a photographing unit for obtaining image information including the object; a communication unit for receiving additional information related to an object in the image information and surrounding situation information according to the location of the vehicle provided from a server; a gaze tracking unit detecting a gaze direction and a gaze position of the user in the vehicle; Information on the measured object located in front of the vehicle, information related to the collected vehicle, the acquired image information, the received surrounding situation information according to the location of the vehicle, and addition related to the object in the received image information a controller for generating 3D content to be provided to the user based on at least one of information, the sensed gaze direction and gaze position of the user, and destination information according to a user input; a 3D display for outputting the 3D content generated by the control unit; a reflector for reflecting the 3D content output by the 3D display; and a windshield displaying the image reflected by the reflector.
본 발명과 관련된 일 예로서 상기 3D 콘텐츠는, 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 포함하며, 상기 부가 정보는, 상기 차량과 상기 객체와의 거리, 속도 및 추가 정보 중 적어도 하나를 포함하며, 상기 상세 정보는, 상기 차량의 위치에 따른 주변 상황 정보 및 상기 수집된 차량과 관련한 정보를 포함할 수 있다.As an example related to the present invention, the 3D content includes at least one of route guidance information according to the destination information, additional information on an object located in front of the vehicle, and detailed information related to the vehicle, wherein the additional information includes: It includes at least one of a distance between the vehicle and the object, a speed, and additional information, and the detailed information may include surrounding situation information according to the location of the vehicle and information related to the collected vehicle.
본 발명과 관련된 일 예로서 상기 윈드실드는, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시할 수 있다.As an example related to the present invention, when the 3D content includes additional information about an object located in front of the vehicle and detailed information related to the vehicle, the windshield is adjacent to the real object located in front of the vehicle. The additional information included in the reflected image may be displayed on one side of the screen, and the detailed information included in the reflected image may be displayed on the other side of the windshield.
본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법은 센서부에 의해, 차량의 진행 방향인 차량 전면에 위치한 객체에 대한 정보를 측정하는 단계; 상기 센서부에 의해, 상기 차량과 관련한 정보를 수집하는 단계; 촬영부에 의해, 상기 객체를 포함하는 영상 정보를 획득하는 단계; 통신부에 의해, 서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 단계; 시선 추적부에 의해, 상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 단계; 제어부에 의해, 상기 측정된 차량 전면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 단계; 3D 디스플레이에 의해, 상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 단계; 및 윈드실드에 의해, 상기 3D 디스플레이에 의해 출력된 3D 콘텐츠가 반사판에 의해 반사된 상을 표시하는 단계를 포함할 수 있다.A method of controlling a 3D head-up display system according to an embodiment of the present invention includes measuring, by a sensor unit, information on an object located in front of a vehicle in a traveling direction of the vehicle; collecting, by the sensor unit, information related to the vehicle; obtaining, by the photographing unit, image information including the object; receiving, by a communication unit, additional information related to an object in the image information and surrounding situation information according to the location of the vehicle provided from a server; detecting, by a gaze tracking unit, a gaze direction and a gaze position of a user in the vehicle; By the control unit, the measured information on the object located in front of the vehicle, the collected vehicle-related information, the obtained image information, the received surrounding situation information according to the location of the vehicle, and the received image information. generating 3D content to be provided to the user based on at least one of additional information related to an object, the detected gaze direction and gaze position of the user, and destination information according to a user input; outputting the 3D content generated by the control unit through a 3D display; and displaying, by the windshield, an image of the 3D content output by the 3D display reflected by the reflector.
본 발명과 관련된 일 예로서 상기 반사된 상을 표시하는 단계는, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면에 위치한 실제 차선을 근거로 상기 윈드실드의 일측에 상기 반사된 상에 포함된 상기 길 안내 정보에 따른 차량의 진행 방향에 대한 정보를 표시하고, 상기 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 또 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시할 수 있다.As an example related to the present invention, in the displaying of the reflected image, the 3D content may include route guidance information according to the destination information, additional information about an object located in front of the vehicle, and detailed information related to the vehicle. At this time, based on the actual lane located in front of the vehicle, information on the traveling direction of the vehicle according to the road guidance information included in the reflected image is displayed on one side of the windshield based on the actual lane located in front of the vehicle, and information on the actual object located in front of the vehicle is displayed. Additional information included in the reflected image may be displayed on the other side of the adjacent windshield, and the detailed information included in the reflected image may be displayed on another side of the windshield.
본 발명은 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공함으로써, 더욱 사실적인 HUD 이미지를 사용자에게 제공하고 이질감이 적은 상태로 정보를 표시함에 따라 사용상의 만족도를 높일 수 있는 효과가 있다.The present invention provides the user with an image located at a desired distance using a 3D display that can provide different information to both eyes of the user, thereby providing a more realistic HUD image to the user and reducing the sense of heterogeneity There is an effect of increasing user satisfaction by displaying the information.
또한, 본 발명은 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시함으로써, 소형으로 전체 시스템을 구성하여 비용을 절감시키고, 디스플레이와 눈의 거리가 가까워져 더욱 작은 크기의 3D 디스플레이로도 더욱 넓은 사용 환경을 제공하며, 원거리 물체에 대한 정보를 표현하고, 다중 거리에 있는 물체에 대한 정보를 표현할 수 있는 효과가 있다.In addition, the present invention generates a 3D image by using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflects a 3D image displayed through a 3D display through a reflector to apply a virtual 3D HUD image to the windshield. By displaying the entire system in a compact size, the cost is reduced, the distance between the display and the eye is closer, providing a wider usage environment even with a smaller size 3D display, expressing information about distant objects, and using multiple distances. It has the effect of expressing information about an existing object.
도 1 및 도 2는 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 나타낸 흐름도이다.
도 4는 본 발명의 실시예에 따른 영상 정보의 예를 나타낸 도이다.
도 5 및 도 6은 본 발명의 실시예에 따른 윈드실드에 표시되는 가상 이미지의 예를 나타낸 도이다.1 and 2 are block diagrams showing the configuration of a 3D head-up display system according to an embodiment of the present invention.
3 is a flowchart illustrating a control method of a 3D head-up display system according to an embodiment of the present invention.
4 is a diagram illustrating an example of image information according to an embodiment of the present invention.
5 and 6 are diagrams illustrating examples of virtual images displayed on a windshield according to an embodiment of the present invention.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as meanings generally understood by those of ordinary skill in the art to which the present invention belongs, unless otherwise defined in particular in the present invention, and excessively comprehensive It should not be construed in the meaning of a human being or in an excessively reduced meaning. In addition, when the technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be understood by being replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in advance or according to the context before and after, and should not be interpreted in an excessively reduced meaning.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, as used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or several steps described in the invention, and some of the elements or some steps may not be included. It should be construed that it may further include additional components or steps.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first, second, etc. used in the present invention may be used to describe the components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in the description of the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
도 1 및 도 2는 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템(100)의 구성을 나타낸 블록도이다.1 and 2 are block diagrams showing the configuration of a 3D head-up
도 1에 도시한 바와 같이, 3D 헤드업디스플레이 시스템(100)은 통신부(110), 센서부(120), 촬영부(130), 시선 추적부(140), 저장부(150), 3D 디스플레이(160), 반사판(170), 윈드실드(180) 및 제어부(190)로 구성된다. 도 1 및 도 2에 도시된 3D 헤드업디스플레이 시스템(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1 및 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 3D 헤드업디스플레이 시스템(100)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 3D 헤드업디스플레이 시스템(100)이 구현될 수도 있다.As shown in FIG. 1 , the 3D head-
상기 3D 헤드업디스플레이 시스템(또는 굴절식 3D 헤드업디스플레이 시스템)(100)은 차량 내의 특정 위치에 배치(또는 구성/형성)하며, 탈/부착할 수 있도록 구성할 수 있다.The 3D head-up display system (or articulated 3D head-up display system) 100 may be disposed (or configured/formed) at a specific position in the vehicle and configured to be detachable/attachable.
상기 통신부(110)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 서버(미도시), 인접한 다른 차량에 구비된 다른 단말(미도시) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(110)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.The
또한, 상기 통신부(110)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.Also, the
또한, 상기 통신부(110)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 서버, 상기 다른 단말 등과 무선 신호를 송수신한다.In addition, the
또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 상기 서버로 실시간으로 확인되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 전송한다.In addition, the
또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 수신한다.In addition, the
상기 센서부(120)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The
또한, 상기 센서부(120)는 차량의 진행 방향(또는 차량 전면)에 위치한 객체와 관련한 거리, 속도 등을 측정하기 위한 다양한 센서(예를 들어 라이더 센서, 초음파 센서, 3D 스캐너 등 포함)를 포함한다. 여기서, 상기 객체는 상기 차량 전면에 위치한 다른 차량, 건물, 도로 표지판, 교통 표지판 등을 포함한다.In addition, the
또한, 상기 센서부(120)는 상기 차량 전면에 위치한 객체와 관련한 거리, 속도 등을 포함하는 객체에 대한 정보를 측정(또는 감지)한다.In addition, the
또한, 상기 센서부(120)는 상기 차량의 진행 방향과 반대되는 방향(또는 차량 후면)에 위치한 객체에 대한 정보를 측정한다.In addition, the
또한, 상기 센서부(120)는 해당 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치(RPM), 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다. 이때, 상기 센서부(120)는 해당 차량에 구비된 다양한 다른 센서(미도시)를 통해 측정되는 상기 차량과 관련한 정보를 수집할 수 있다.In addition, the
상기 촬영부(또는 카메라부)(130)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The photographing unit (or camera unit) 130 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up
또한, 상기 촬영부(130)는 상기 차량 전면, 상기 차량 후면, 상기 차량의 측면 등을 포함하는 전면을 촬영할 수 있도록 하나 이상의 이미지 센서(카메라 모듈 또는 카메라)로 구성한다. 이때, 상기 촬영부(130)는 360도 전방향에 대한 영상 정보를 획득할 수 있는 스테레오 카메라로 구성할 수도 있다.In addition, the photographing
또한, 상기 촬영부(130)는 상기 차량 전면에 위치한 하나 이상의 객체를 포함하는 영상 정보를 획득(또는 촬영)한다.In addition, the photographing
즉, 상기 촬영부(130)는 영상 통화 모드, 촬영 모드, 영상회의 모드 등에서 이미지 센서(카메라 모듈 또는 카메라)에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 즉, 코덱(CODEC)에 따라 상기 이미지 센서에 의해 얻어지는 해당 화상 데이터들을 각 규격에 맞도록 인코딩/디코딩한다. 일 예로, 상기 촬영부(130)는 객체(또는 피사체)를 촬영하고, 그 촬영된 영상(피사체 영상)에 대응하는 비디오 신호를 출력한다.That is, the photographing
또한, 상기 촬영부(130)는 상기 차량 후면에 위치한 다른 하나 이상의 객체를 포함하는 다른 영상 정보를 획득한다.Also, the photographing
또한, 상기 촬영부(130)에서 처리된 화상 프레임(또는 영상 정보)은 디지털 비디오 레코더(Digital video recorder: DVR)에 저장되거나, 상기 저장부(150)에 저장되거나, 상기 통신부(110)를 통해 외부 서버 등에 전송될 수 있다.In addition, the image frame (or image information) processed by the photographing
또한, 상기 3D 헤드업디스플레이 시스템(100)은 입력부(미도시)를 통해 사용자 입력에 따른 목적지 정보 등을 수신할 수 있다.Also, the 3D head-up
이와 같이, 상기 3D 헤드업디스플레이 시스템(100)에 포함된 상기 통신부(110), 상기 센서부(120), 상기 촬영부(130), 상기 입력부 등은 해당 차량과 관련한 정보, 해당 차량이 주행 중인 차량 전면 및/또는 주행 반대 방향에 대응하는 차량 후면에 위치한 하나 이상의 객체에 대한 다양한 정보 등을 수집(또는 측정/감지)할 수 있다.In this way, the
상기 시선 추적부(140)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The
또한, 상기 시선 추적부(140)는 차량 내의 운전석에 위치한 사용자(또는 운전자)의 시선 방향 및 시선 위치(또는 사용자가 차량 밖을 바라보는 방향 및 위치)를 감지(또는 추적)한다.In addition, the
즉, 상기 시선 추적부(140)는 상기 운전석에 위치한 사용자가 상기 차량 전면을 바라보거나 또는, 상기 차량의 측면에 구성된 사이드미러(미도시)를 바라보는 방향 및 위치를 감지한다.That is, the
상기 저장부(150)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.The
또한, 상기 저장부(150)는 상기 3D 헤드업디스플레이 시스템(100)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the
즉, 상기 저장부(150)는 상기 3D 헤드업디스플레이 시스템(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 3D 헤드업디스플레이 시스템(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 3D 헤드업디스플레이 시스템(100)의 기본적인 기능을 위하여 출고 당시부터 3D 헤드업디스플레이 시스템(100) 상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(150)에 저장되고, 3D 헤드업디스플레이 시스템(100)에 설치되어, 제어부(190)에 의하여 상기 3D 헤드업디스플레이 시스템(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.That is, the
또한, 상기 저장부(150)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 3D 헤드업디스플레이 시스템(100)은 인터넷(internet)상에서 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.In addition, the
또한, 상기 저장부(150)는 상기 제어부(190)의 제어에 의해 상기 서버로 전송되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 저장한다.In addition, the
또한, 상기 저장부(150)는 상기 제어부(190)의 제어에 의해 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 저장한다.In addition, the
상기 3D 디스플레이(또는 3D 모니터/3D 표시부)(160)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The 3D display (or 3D monitor/3D display unit) 160 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up
또한, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해 상기 저장부(150)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 3D 디스플레이(160)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 3D 디스플레이(160)는 터치 스크린 일 수 있다.In addition, the
또한, 상기 3D 디스플레이(160)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.In addition, the
또한, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해 상기 수집된 다양한 정보들을 근거로 생성된 3D 콘텐츠를 출력(또는 표시)한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보(또는 상기 차량 전면/차량 후면에 위치한 객체에 대한 부가 정보)는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보(또는 상기 차량과 관련한 상세 정보)는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등을 포함한다.In addition, the
또한, 상기 3D 헤드업디스플레이 시스템(100)은 상기 제어부(190)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력하는 음성 출력부(미도시)를 더 포함할 수 있다. 여기서, 상기 음성 출력부에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.In addition, the 3D heads-up
또한, 상기 음성 출력부는 상기 제어부(190)에 의해 생성된 안내 음성을 출력한다.In addition, the voice output unit outputs a guide voice generated by the
또한, 상기 음성 출력부는 상기 제어부(190)의 제어에 의해 상기 3D 디스플레이(160)를 통해 출력되는 3D 콘텐츠에 포함된 음성 정보(또는 음향 효과)를 출력한다.In addition, the audio output unit outputs audio information (or sound effects) included in the 3D content output through the
상기 반사판(또는 미러부/하프 미러)(170)은 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The reflector (or mirror unit/half mirror) 170 is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up
또한, 상기 반사판(170)은 상기 3D 디스플레이(160)로부터 출력되는 3D 콘텐츠를 상기 윈드실드(180)로 반사한다.In addition, the
상기 윈드실드(windshield)(180)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 전면 유리의 일측에 배치(또는 구성/형성)한다. 이때, 상기 윈드실드(180)는 외측 판유리(미도시)와 내측 판유리(미도시) 사이에 반사 필름(미도시)이 형성된 구조이거나 또는, 상기 반사 필름이 형성된 투명 또는 반투명 구조일 수 있다.The
또한, 상기 윈드실드(180)는 상기 3D 디스플레이(160)에 의해 출력되는(또는 표시되는) 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 상(image)(또는 가상 이미지/허상)을 표시한다. 여기서, 상기 반사된 상은 실제 공간상에서 상기 반사된 상의 초점 거리가 조정된 상태로, 실제 공간상의 최적의 초점 위치에 상기 반사된 상이 표시될 수 있다.In addition, the
이때, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보, 해당 차량과 관련한 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 객체에 인접한 일측에 상기 반사된 상에 포함된 해당 부가 정보를 표시하고, 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In this case, when the 3D content includes additional information on an object located in front of the vehicle, detailed information related to the vehicle, etc., the
또한, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 차선을 근거로 일측에 상기 반사된 상에 포함된 해당 길 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 직진, 좌회전, 우회전, 차선 이용 정보, 몇 미터 앞에서 좌회전/우회전/유턴 등의 정보 포함)를 표시하고, 해당 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 객체와 관련한 부가 정보를 표시하고, 상기 윈드실드(180)의 또 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In addition, when the 3D content includes the route guidance information, the additional information, the detailed information, etc. according to the destination information, the
이와 같이, 상기 윈드실드(180)는 상기 제어부(190)에 의해 생성된 3D 콘텐츠에 대해서 단일 사용자(예를 들어 운전석 또는 보조석에 위치한 사용자) 또는 다수의 사용자(예를 들어 운전석, 보조석 등에 위치한 복수의 사용자)의 양안에 다른 이미지를 제공할 수 있다.As such, with respect to the 3D content generated by the
또한, 이와 같이, 상기 윈드실드(180)에 표시되는 상기 반사된 상은 실제 객체의 정보들과 상응하는 이미지를 제공한다.Also, as described above, the reflected image displayed on the
예를 들어, 상기 3D 헤드업디스플레이 시스템(100)이 구비된 차량으로부터 30m 떨어진 객체(또는 물체)의 네임태그(또는 해당 객체와 관련한 부가 정보 등 포함)를 허상으로 30m 위치에 위치시킴으로써, 사용자는 실상과 허상을 같이 받아들여 실제 하나의 상으로 받아들이거나 또는 30m 떨어진 실제 객체와 그에 도달하는 경로를 0 ~ 30m의 허상으로 표현한다.For example, by locating the name tag of an object (or object) 30 m away from the vehicle equipped with the 3D head-up display system 100 (or including additional information related to the object) as a virtual image, the user can It accepts the real and virtual images together and accepts them as one real image, or expresses the real object 30m away and the path to it as a 0-30m virtual image.
이와 같이, 상기 3D 헤드업디스플레이 시스템(100)은 사용자의 눈(또는 시선)의 방향 및 위치를 추적하여, 3D 디스플레이(160)를 통해 알맞은 허상을 표현함으로써, 실제 운전자가 느끼기엔 원거리에 상이 있다고 느끼게 된다.In this way, the 3D head-up
상기 3D 헤드업디스플레이 시스템(100)은 상기 3D 헤드업디스플레이 시스템(100)의 GPS 위치 정보를 산출(또는 획득)하는 GPS 수신기(미도시)를 더 포함할 수 있다.The 3D heads-up
즉, 상기 GPS 수신기는 위성으로부터 전송되는 GPS 신호를 수신하고, 상기 수신된 GPS 신호에 포함된 경도 좌표 및 위도 좌표를 근거로 해당 3D 헤드업디스플레이 시스템(100)의 위치 데이터(또는 위치 정보)를 발생시킨다.That is, the GPS receiver receives a GPS signal transmitted from a satellite, and receives location data (or location information) of the 3D head-up
또한, 상기 GPS 수신기를 통해 수신되는 신호는 IEEE(Institute of Electrical and Electronics Engineers)에서 제안한 무선 LAN 및 일부 적외선 통신 등을 포함하는 무선 LAN에 대한 무선 네트워크의 표준 규격인 802.11과, 블루투스, UWB, 지그비 등을 포함하는 무선 PAN(Personal Area Network)에 대한 표준 규격인 802.15과, 도시 광대역 네트워크(Fixed Wireless Access: FWA) 등을 포함하는 무선 MAN(Metropolitan Area Network), 광대역 무선 접속(Broadband Wireless Access: BWA)에 대한 표준 규격인 802.16과, 와이브로(Wibro), 와이맥스(WiMAX) 등을 포함하는 무선 MAN(Mobile Broadband Wireless Access: MBWA)에 대한 모바일 인터넷에 대한 표준 규격인 802.20 등의 무선 통신 방식을 이용하여 해당 3D 헤드업디스플레이 시스템(100)의 정밀 위치 정보를 상기 3D 헤드업디스플레이 시스템(100)에 제공하도록 구성할 수도 있다.In addition, the signal received through the GPS receiver includes 802.11, which is a standard standard for wireless networks for wireless LANs including wireless LANs and some infrared communications, proposed by the Institute of Electrical and Electronics Engineers (IEEE), Bluetooth, UWB, and Zigbee. 802.15, which is a standard specification for wireless PAN (Personal Area Network), including, etc., a wireless Metropolitan Area Network (MAN), including a fixed wireless access (FWA), and broadband wireless access (BWA) ) using wireless communication methods such as 802.16, which is a standard standard for , and 802.20, which is a standard for mobile Internet for wireless MAN (Mobile Broadband Wireless Access: MBWA) including Wibro and WiMAX. It may be configured to provide precise position information of the 3D head-up
이와 같이, 상기 GPS 수신기는 상기 제어부(190)의 제어에 의해 해당 3D 헤드업디스플레이 시스템(100)의 위치 정보(또는 상기 3D 헤드업디스플레이 시스템(100)이 차량에 장착된 경우, 해당 차량의 위치 정보)를 생성한다.In this way, the GPS receiver receives location information of the corresponding 3D head-up
상기 제어부(controller, 또는 MCU(microcontroller unit)(190)는 상기 3D 헤드업디스플레이 시스템(100)이 구성되는 차량의 일측에 배치(또는 구성/형성)한다.The controller (or microcontroller unit (MCU) 190 ) is disposed (or configured/formed) on one side of the vehicle in which the 3D head-up
또한, 상기 제어부(190)는 상기 3D 헤드업디스플레이 시스템(100)의 전반적인 제어 기능을 실행한다.In addition, the
또한, 상기 제어부(190)는 상기 저장부(150)에 저장된 프로그램 및 데이터를 이용하여 3D 헤드업디스플레이 시스템(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(190)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(150)에 액세스하여, 상기 저장부(150)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(150)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.In addition, the
또한, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된(또는 감지된) 차량 전면에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함), 상기 센서부(120)를 통해 수집된 해당 차량과 관련한 정보, 상기 촬영부(130)를 통해 획득된 하나 이상의 객체를 포함하는 영상 정보, 상기 통신부(110)를 통해 수신된 해당 차량의 주변 상황과 관련한 다양한 정보, 상기 수신된 목적지 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 3D 콘텐츠를 생성한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 수집된 해당 차량과 관련한 정보(예를 들어 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등 포함) 등을 포함한다.In addition, the
이와 같이, 상기 생성되는 3D 콘텐츠는 상기 실제 객체에 대응하는 위치에 해당 객체와 관련한 부가 정보를 표시하고, 미리 설정된 특정 위치에 상기 차량과 관련한 상세 정보를 표시하고, 실제 차선에 대응하는 위치에 상기 생성된 길 안내 정보에 따른 해당 차량의 진행 방향에 대한 정보를 표시할 수 있도록, 사용자의 눈과 HUD 이미지(또는 허상) 간의 거리를 고려한 정보일 수 있다.In this way, the generated 3D content displays additional information related to the corresponding object at a location corresponding to the real object, displays detailed information related to the vehicle at a preset specific location, and displays the vehicle-related detailed information at a location corresponding to the actual lane. It may be information in consideration of the distance between the user's eyes and the HUD image (or virtual image) so as to display information on the traveling direction of the corresponding vehicle according to the generated road guide information.
또한, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보를 근거로 해당 사용자의 시선이 일측으로 움직이는 경우, 상기 제어부(190)는 상기 움직이는 사용자의 시선 방향 및 시선 위치를 상기 3D 콘텐츠에 반영하여, 해당 사용자의 시선 방향 및 시선 위치의 움직임 변화에 대응하여 상기 3D 콘텐츠 내에 포함된 다양한 정보(예를 들어 길 안내 정보, 부가 정보, 상세 정보 등 포함)를 해당 움직임 변화에 대응하는 반대 방향으로 이동시킬 수 있다.In addition, when the user's gaze moves to one side based on the sensed information on the user's gaze direction and gaze position, the
예를 들어 정면을 바라보고 있던 상태에서 왼쪽으로 5cm 정도 움직이는 경우, 상기 제어부(190)는 상기 3D 콘텐츠 내에 포함된 길 안내 정보, 부가 정보, 상세 정보 등을 해당 움직임 변화(예를 들어 왼쪽으로 5cm)에 대응하는 반대 방향으로 5cm 정도 움직인 상태로 보정된 3D 콘텐츠를 상기 3D 디스플레이(160)를 통해 출력하여, 이전 3D 콘텐츠에 비해서 사용자의 시선 움직임 변화에 반대되는 방향으로 상기 다양한 정보들이 이동한 보정된 3D 콘텐츠를 상기 윈드실드(180)를 통해 표시할 수 있다.For example, when moving to the left by about 5 cm while facing the front, the
또한, 이와 같이, 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공할 수 있다.Also, as described above, an image located at a desired distance may be provided to the user by using a 3D display capable of providing different information to both eyes of the user.
또한, 이와 같이, 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시할 수 있다.In addition, as described above, a 3D image is generated using the information obtained through the communication unit, the sensor unit, the photographing unit, etc., and the 3D image displayed through the 3D display is reflected through the reflector to apply the virtual 3D HUD image to the windshield. can be displayed
이하에서는, 본 발명에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 도 1 내지 도 6을 참조하여 상세히 설명한다.Hereinafter, a method of controlling a 3D head-up display system according to the present invention will be described in detail with reference to FIGS. 1 to 6 .
도 3은 본 발명의 실시예에 따른 3D 헤드업디스플레이 시스템의 제어 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a control method of a 3D head-up display system according to an embodiment of the present invention.
먼저, 센서부(120)는 차량의 진행 방향(또는 차량 전면)에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함)를 측정(또는 감지)한다. 여기서, 상기 객체는 상기 차량 전면에 위치한 다른 차량, 건물, 도로 표지판, 교통 표지판 등을 포함한다. 이때, 상기 센서부(120)는 상기 차량의 진행 방향과 반대되는 방향(또는 차량 후면)에 위치한 객체에 대한 정보를 측정할 수도 있다.First, the
또한, 상기 센서부(120)는 해당 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치(RPM), 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다. 이때, 상기 센서부(120)는 해당 차량에 구비된 다양한 다른 센서(미도시)를 통해 측정되는 상기 차량과 관련한 정보를 수집할 수 있다.In addition, the
또한, 촬영부(130)는 상기 차량 전면에 위치한 하나 이상의 객체를 포함하는 영상 정보를 획득(또는 촬영)한다. 이때, 상기 촬영부(130)는 상기 차량 후면에 위치한 다른 하나 이상의 객체를 포함하는 다른 영상 정보를 획득할 수도 있다.Also, the photographing
또한, 통신부(110)는 서버(미도시)로부터 제공되는 해당 차량의 실시간 위치, 상기 촬영부(130)를 통해 획득된 영상 정보 내의 객체 등에 따른 주변 상황과 관련한 정보, 해당 객체와 관련한 정보 등을 수신한다.In addition, the
즉, 상기 통신부(110)는 제어부(190)의 제어에 의해, 실시간으로 확인되는 해당 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 영상 정보(또는 상기 영상 정보 내의 객체에 대한 정보(예를 들어 차량 등의 객체에 대한 차량 번호 등 포함)) 등을 상기 서버에 전송하고, 상기 전송에 응답하여 상기 서버로부터 전송되는 상기 차량의 위치에 따른 주변 상황과 관련한 정보(또는 주변 상황 정보)(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 영상 정보 내의 객체와 관련한 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 수신한다.That is, the
또한, 3D 헤드업디스플레이 시스템(100)은 입력부(미도시)를 통해 사용자 입력에 따른 목적지 정보 등을 수신한다.In addition, the 3D head-up
이와 같이, 상기 3D 헤드업디스플레이 시스템(100)에 포함된 상기 통신부(110), 상기 센서부(120), 상기 촬영부(130), 상기 입력부 등은 해당 차량과 관련한 정보, 해당 차량이 주행 중인 차량 전면 및/또는 주행 반대 방향에 대응하는 차량 후면에 위치한 하나 이상의 객체에 대한 다양한 정보 등을 수집(또는 측정/감지)할 수 있다.In this way, the
일 예로, 상기 센서부(120)는 상기 센서부(120)가 구비된 3D 헤드업디스플레이 시스템(100)이 구성된 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등에 대한 정보를 측정한다.For example, the
또한, 상기 센서부(120)는 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함)를 수집한다.In addition, the
또한, 도 4에 도시된 바와 같이, 상기 촬영부(130)는 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보(400)를 획득한다.In addition, as shown in FIG. 4 , the photographing
또한, 상기 통신부(110)는 상기 제어부(190)의 제어에 의해, 실시간으로 확인되는 해당 제 1 차량의 위치 정보, 상기 촬영부(130)를 통해 획득된 제 1 영상 정보 등을 상기 서버에 전송하고, 상기 정보 전송에 응답하여 상기 서버로부터 전송되는 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음) 등을 수신한다.In addition, the
다른 일 예로, 상기 입력부는 상기 사용자 입력에 따른 제 1 목적지 정보(예를 들어 신사역 사거리)를 수신한다(S310).As another example, the input unit receives first destination information (eg, Sinsa Station intersection) according to the user input (S310).
또한, 시선 추적부(140)는 차량 내의 운전석에 위치한 사용자(또는 운전자)의 시선 방향 및 시선 위치(또는 사용자가 차량 밖을 바라보는 방향 및 위치)를 감지(또는 추적)한다.In addition, the
즉, 상기 시선 추적부(140)는 상기 운전석에 위치한 사용자가 상기 차량 전면을 바라보거나 또는, 상기 차량의 측면에 구성된 사이드미러(미도시)를 바라보는 방향 및 위치를 감지한다.That is, the
일 예로, 상기 시선 추적부(140)는 상기 차량 내의 운전석에 위치한 사용자의 실시간 제 1 시선 방향 및 시선 위치를 감지한다(S320).For example, the
이후, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된(또는 감지된) 차량 전면에 위치한 객체에 대한 정보(예를 들어 거리, 속도 등 포함), 상기 센서부(120)를 통해 수집된 해당 차량과 관련한 정보, 상기 촬영부(130)를 통해 획득된 하나 이상의 객체를 포함하는 영상 정보, 상기 통신부(110)를 통해 수신된 해당 차량의 주변 상황과 관련한 다양한 정보, 상기 수신된 목적지 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 3D 콘텐츠를 생성한다. 이때, 상기 3D 콘텐츠는 상기 목적지 정보 등에 따른 길 안내 정보(또는 경로 안내 정보), 상기 차량 전면에 위치한 객체(또는 상기 영상 정보에 포함된 객체)에 대한 부가 정보, 상기 차량과 관련한 상세 정보 등을 포함하며, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등은 상기 영상 정보 내에서의 객체의 위치 등을 고려하여 상기 차량 전면에 위치한 실제 객체에 인접하게 표시되거나 또는 사용자의 시야각이나 사용자와 객체 간의 초점을 고려하여 특정 위치에 표시되도록 해당 3D 콘텐츠에서의 위치가 설정될 수 있다. 여기서, 상기 부가 정보는 상기 차량과 해당 객체와의 거리, 속도, 추가 정보(예를 들어 도난 차량 여부, 과태료 체납 여부 등의 정보 포함) 등을 포함한다. 또한, 상기 상세 정보는 상기 차량의 위치에 따른 주변 상황과 관련한 다양한 정보(예를 들어 해당 도로에서의 속도 제한 정보, 주변 도로의 공사 정보 등 포함), 상기 수집된 해당 차량과 관련한 정보(예를 들어 해당 차량과 관련한 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리, 경보알람 스위치, 과속경보, 수온경보 등 포함) 등을 포함한다.Thereafter, the
일 예로, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된 차량 전면에 위치한 복수의 차량, 복수의 건물 등에 대한 정보, 상기 센서부(120)를 통해 수집된 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수치, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함), 상기 촬영부(130)를 통해 획득된 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보, 상기 통신부(110)를 통해 수신된 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음), 상기 시선 추적부(140)를 통해 감지된 사용자의 제 1 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 제 1 3D 콘텐츠를 생성한다. 이때, 상기 제 1 3D 콘텐츠는 상기 제 2 차량에 대한 제 2 부가 정보(예를 들어 상기 제 1 차량과 상기 제 2 차량 간의 제 1 거리(예를 들어 50m), 상기 제 2 차량의 제 2 속도(예를 들어 시속 80km), 과태료 체납 상황 없음 등 포함), 상기 제 1 차량에 대한 제 1 상세 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km), 해당 제 1 차량의 주행속도(예를 들어 시속 70km), 엔진의 회전수치(예를 들어 2,000RPM) 등 포함) 등을 포함한다.For example, the
다른 일 예로, 상기 제어부(190)는 상기 수신된 제 1 목적지 정보(예를 들어 신사역 사거리)에 따라 상기 제 1 차량의 실시간 현재 위치(예를 들어 역삼역 사거리)에 따른 제 1 경로 안내 정보를 생성한다.As another example, the
또한, 상기 제어부(190)는 상기 센서부(120)를 통해 측정된 차량 전면에 위치한 복수의 차량, 복수의 건물 등에 대한 정보, 상기 센서부(120)를 통해 수집된 상기 제 1 차량과 관련한 정보(예를 들어 주행속도, 엔진의 회전수, 순간 연비, 실시간 전압, 수온, 주행거리 등 포함), 상기 촬영부(130)를 통해 획득된 상기 제 1 차량의 진행 방향에 위치한 복수의 차량, 복수의 건물(또는 빌딩) 등을 포함하는 제 1 영상 정보, 상기 통신부(110)를 통해 수신된 상기 제 1 차량이 현재 위치한 주변 상황과 관련한 제 1 주변 상황 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km)), 상기 제 1 영상 정보에 포함된 제 2 차량에 대한 제 2 추가 정보(예를 들어 과태료 체납 상황 없음), 상기 생성된 제 1 경로 안내 정보, 상기 시선 추적부(140)를 통해 감지된 사용자의 제 1 시선 방향 및 시선 위치에 대한 정보 등을 근거로 해당 사용자에게 제공할 제 2 3D 콘텐츠를 생성한다. 이때, 상기 제 2 3D 콘텐츠는 상기 제 2 차량에 대한 제 2 부가 정보(예를 들어 상기 제 1 차량과 상기 제 2 차량 간의 제 1 거리(예를 들어 50m), 상기 제 2 차량의 제 2 속도(예를 들어 시속 80km), 과태료 체납 상황 없음 등 포함), 상기 제 1 차량에 대한 제 2 상세 정보(예를 들어 주행 도로상에서의 제 1 속도 제한 정보(예를 들어 시속 80km), 해당 제 1 차량의 주행속도(예를 들어 시속 70km), 엔진의 회전수치(예를 들어 2,000 RPM) 등 포함), 상기 제 1 경로 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 659m 앞에서 우회전하세요) 등을 포함한다(S330).In addition, the
이후, 3D 디스플레이(160)는 상기 제어부(190)에 의해 생성된 3D 콘텐츠를 출력(또는 표시)한다.Thereafter, the
즉, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 3D 콘텐츠를 출력한다.That is, the
일 예로, 상기 차량 내의 특정 위치에 구성된(또는 배치된) 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 제 1 3D 콘텐츠를 출력한다.For example, the
다른 일 예로, 상기 3D 디스플레이(160)는 상기 제어부(190)의 제어에 의해, 상기 생성된 제 2 3D 콘텐츠를 출력한다(S340).As another example, the
이후, 차량의 전면에 구성된 윈드실드(180)는 상기 3D 디스플레이(160)에 의해 출력되는(또는 표시되는) 3D 콘텐츠가 반사판(170)에 의해 반사된 상(image)(또는 가상 이미지/허상)을 표시한다. 여기서, 상기 반사된 상은 실제 공간상에서 상기 반사된 상의 초점 거리가 조정된 상태로, 실제 공간상의 최적의 초점 위치에 상기 반사된 상이 표시될 수 있다.Thereafter, the
이때, 상기 3D 콘텐츠가 상기 차량 전면에 위치한 객체에 대한 부가 정보, 해당 차량과 관련한 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 객체에 인접한 일측에 상기 반사된 상에 포함된 해당 부가 정보를 표시하고, 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In this case, when the 3D content includes additional information on an object located in front of the vehicle, detailed information related to the vehicle, etc., the
또한, 상기 3D 콘텐츠가 상기 목적지 정보에 따른 길 안내 정보, 상기 부가 정보, 상기 상세 정보 등을 포함하는 경우, 상기 윈드실드(180)는 해당 차량 전면에 위치한 실제 차선을 근거로 일측에 상기 반사된 상에 포함된 해당 길 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 직진, 좌회전, 우회전, 차선 이용 정보, 몇 미터 후 좌회전/우회전/유턴 등의 정보 포함)를 표시하고, 해당 차량 전면에 위치한 실제 객체에 인접한 상기 윈드실드(180)의 다른 일측에 상기 반사된 상에 포함된 해당 객체와 관련한 부가 정보를 표시하고, 상기 윈드실드(180)의 또 다른 일측에 상기 반사된 상에 포함된 해당 차량과 관련한 상세 정보를 표시한다.In addition, when the 3D content includes the route guidance information, the additional information, the detailed information, etc. according to the destination information, the
일 예로, 도 5에 도시된 바와 같이, 상기 윈드실드(180)는 상기 3D 디스플레이(160)로부터 출력된 제 1 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 제 1 가상 이미지(500)를 표시한다. 이때, 상기 제 1 3D 콘텐츠에 포함된 상기 제 1 차량에 대한 제 2 부가 정보(510)는 해당 제 2 차량(520)에 인접하게 표시되고, 상기 제 1 차량에 대한 제 1 상세 정보(530)는 미리 설정된 제 1 특정 위치에 표시된다.For example, as shown in FIG. 5 , the
다른 일 예로, 도 6에 도시된 바와 같이, 상기 윈드실드(180)는 상기 3D 디스플레이(160)로부터 출력된 제 2 3D 콘텐츠가 상기 반사판(170)에 의해 반사된 제 2 가상 이미지(600)를 표시한다. 이때, 상기 제 2 3D 콘텐츠에 포함된 상기 제 2 차량에 대한 제 2 부가 정보(610)는 해당 제 2 차량(620)에 인접하게 표시되고, 상기 제 1 차량에 대한 제 2 상세 정보(630)는 미리 설정된 제 2 특정 위치에 표시되고, 상기 제 1 경로 안내 정보에 따른 차량의 진행 방향에 대한 정보(예를 들어 650m 앞에서 우회전하세요)(640)는 미리 설정된 제 3 특정 위치에 표시된다(S350).As another example, as shown in FIG. 6 , the
본 발명의 실시예는 앞서 설명된 바와 같이, 사용자의 양쪽 눈에 서로 다른 정보를 제공할 수 있는 3D 디스플레이를 사용하여 원하는 거리에 위치된 상(image)을 사용자에게 제공하여, 더욱 사실적인 HUD 이미지를 사용자에게 제공하고 이질감이 적은 상태로 정보를 표시함에 따라 사용상의 만족도를 높일 수 있다.As described above, the embodiment of the present invention provides the user with an image located at a desired distance using a 3D display that can provide different information to both eyes of the user, thereby providing a more realistic HUD image By providing users with information and displaying information in a state with less heterogeneity, user satisfaction can be increased.
또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 통신부, 센서부, 촬영부 등을 통해 획득된 정보를 이용해서 3D 영상을 생성하고, 3D 디스플레이를 통해 표시되는 3D 영상을 반사판을 통해 반사하여 허상의 3D HUD 이미지를 윈드실드에 표시하여, 소형으로 전체 시스템을 구성하여 비용을 절감시키고, 디스플레이와 눈의 거리가 가까워져 더욱 작은 크기의 3D 디스플레이로도 더욱 넓은 사용 환경을 제공하며, 원거리 물체에 대한 정보를 표현하고, 다중 거리에 있는 물체에 대한 정보를 표현할 수 있다.In addition, as described above, the embodiment of the present invention generates a 3D image using information obtained through a communication unit, a sensor unit, a photographing unit, etc., and reflects the 3D image displayed through the 3D display through a reflector. By displaying the 3D HUD image of the virtual image on the windshield, it reduces the cost by composing the entire system in a compact size, and provides a wider use environment even with a smaller 3D display as the distance between the display and the eyes is closer, It can express information about objects and can express information about objects at multiple distances.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Those of ordinary skill in the art to which the present invention pertains may modify and modify the above-described contents without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
100: 3D 헤드업디스플레이 시스템
110: 통신부
120: 센서부
130: 촬영부
140: 시선 추적부
150: 저장부
160: 3D 디스플레이
170: 반사판
180: 윈드실드
190: 제어부100: 3D head-up display system 110: communication unit
120: sensor unit 130: photographing unit
140: eye tracking unit 150: storage unit
160: 3D display 170: reflector
180: windshield 190: control unit
Claims (3)
상기 객체를 포함하는 상기 차량의 360도 전방향에 대한 영상 정보를 획득할하 수 있는 스테레오 카메라를 포함하는 촬영부;
서버로부터 제공되는 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 수신하는 통신부;
상기 차량 내의 사용자의 시선 방향 및 시선 위치를 감지하는 시선 추적부;
상기 측정된 차량 전면 또는 후면에 위치한 객체에 대한 정보, 상기 수집된 차량과 관련한 정보, 상기 획득된 영상 정보, 상기 수신된 상기 차량의 위치에 따른 주변 상황 정보, 상기 수신된 상기 영상 정보 내의 객체와 관련한 추가 정보, 상기 감지된 사용자의 시선 방향 및 시선 위치 및, 사용자 입력에 따른 목적지 정보 중 적어도 하나를 근거로 상기 사용자에게 제공할 3D 콘텐츠를 생성하는 제어부;
상기 제어부에 의해 생성된 3D 콘텐츠를 출력하는 3D 디스플레이;
상기 제어부에 의해 생성된 3D 콘텐츠에 포함된 음성 정보를 출력하는 음성 출력부;
상기 3D 디스플레이에 의해 출력된 3D 콘텐츠를 반사하는 반사판; 및
외측 판유리와 내측 판유리 사이에 반사 필름이 형성되어, 상기 반사판에 의해 반사된 상을 표시하는 윈드실드를 포함하고,
상기 3D 콘텐츠는,
상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면 또는 후면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 포함하며,
상기 부가 정보는,
상기 차량과 상기 객체와의 거리, 속도 및 추가 정보 중 적어도 하나를 포함하며,
상기 상세 정보는,
상기 차량의 위치에 따른 주변 상황 정보 및 상기 수집된 차량과 관련한 정보를 포함하고,
상기 윈드실드는,
상기 3D 콘텐츠가 상기 차량 전면 또는 후면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보를 포함할 때, 상기 차량 전면 또는 후면에 위치한 실제 객체에 인접한 상기 윈드실드의 일측에 상기 반사된 상에 포함된 부가 정보를 표시하고, 상기 윈드실드의 다른 일측에 상기 반사된 상에 포함된 상기 상세 정보를 표시하고,
상기 3D 디스플레이에서, 상기 길 안내 정보, 상기 부가 정보, 상기 상세 정보는 사용자의 시야각 또는 사용자와 객체 간의 초점을 고려하여 표시되도록 해당 3D 콘텐츠에서의 위치가 설정되고,
상기 제어부는,
상기 감지된 사용자의 시선 방향 및 시선 위치에 대한 정보를 근거로 해당 사용자의 시선이 일측으로 움직이는 경우, 움직이는 사용자의 시선 방향 및 시선 위치를 상기 3D 콘텐츠에 반영하여, 해당 사용자의 시선 방향 및 시선 위치의 움직임 변화에 대응하여 상기 3D 콘텐츠 내에 포함된 상기 목적지 정보에 따른 길 안내 정보, 상기 차량 전면 또는 후면에 위치한 객체에 대한 부가 정보 및 상기 차량과 관련한 상세 정보 중 적어도 하나를 해당 움직임 변화에 대응하는 반대 방향으로 이동시키는
3D 헤드업디스플레이 시스템.a sensor unit that measures information on an object located in the front or rear of the vehicle, which is a traveling direction of the vehicle, and collects information related to the vehicle;
a photographing unit including a stereo camera capable of acquiring image information for a 360-degree omnidirectional view of the vehicle including the object;
a communication unit configured to receive additional information related to an object in the image information and surrounding situation information according to the location of the vehicle provided from a server;
a gaze tracking unit detecting a gaze direction and a gaze position of the user in the vehicle;
Information on the measured object located on the front or rear of the vehicle, the collected vehicle-related information, the acquired image information, the received surrounding situation information according to the location of the vehicle, the object in the received image information a control unit configured to generate 3D content to be provided to the user based on at least one of related additional information, the sensed gaze direction and gaze position of the user, and destination information according to a user input;
a 3D display for outputting the 3D content generated by the control unit;
a voice output unit for outputting voice information included in the 3D content generated by the control unit;
a reflector for reflecting the 3D content output by the 3D display; and
A reflective film is formed between the outer plate glass and the inner plate glass, comprising a windshield displaying an image reflected by the reflective plate,
The 3D content is
It includes at least one of route guidance information according to the destination information, additional information on an object located on the front or rear of the vehicle, and detailed information related to the vehicle,
The additional information is
It includes at least one of distance, speed, and additional information between the vehicle and the object,
The detailed information is
Including information related to the surrounding situation information and the collected vehicle according to the location of the vehicle,
The windshield is
When the 3D content includes additional information about an object located at the front or rear of the vehicle and detailed information related to the vehicle, the reflected image on one side of the windshield adjacent to a real object located at the front or rear of the vehicle Display the included additional information, and display the detailed information included in the reflected image on the other side of the windshield,
In the 3D display, the location in the 3D content is set so that the route guidance information, the additional information, and the detailed information are displayed in consideration of a user's viewing angle or a focus between a user and an object,
The control unit is
When the user's gaze moves to one side based on the detected information on the user's gaze direction and gaze position, the moving user's gaze direction and gaze position are reflected in the 3D content to reflect the user's gaze direction and gaze position At least one of route guidance information according to the destination information included in the 3D content, additional information on an object located on the front or rear of the vehicle, and detailed information related to the vehicle in response to a change in the movement of the vehicle corresponding to the change in movement moving in the opposite direction
3D head-up display system.
위성으로부터 전송되는 GPS 신호를 수신하고, 상기 수신된 GPS 신호에 포함된 경도 좌표 및 위도 좌표를 근거로 상기 차량의 위치 정보를 산출하는 GPS 수신기;
를 더 포함하는 것을 특징으로 하는 3D 헤드업디스플레이 시스템.According to claim 1,
a GPS receiver that receives a GPS signal transmitted from a satellite and calculates location information of the vehicle based on longitude and latitude coordinates included in the received GPS signal;
3D head-up display system, characterized in that it further comprises.
상기 차량의 위치 정보, 획득된 영상 정보, 상기 차량의 위치에 따른 주변 상황 정보 및 상기 영상 정보 내의 객체와 관련한 추가 정보를 저장하는 저장부;
를 더 포함하고,
상기 촬영부에서 획득한 영상 정보는 디지털 비디오 레코더(Digital video recorder: DVR)에 저장되거나, 상기 저장부에 저장되거나, 상기 통신부를 통해 상기 서버로 전송되는 것을 특징으로 하는 3D 헤드업디스플레이 시스템.
3. The method of claim 2,
a storage unit for storing the vehicle location information, the acquired image information, surrounding situation information according to the location of the vehicle, and additional information related to an object in the image information;
further comprising,
The image information acquired by the photographing unit is stored in a digital video recorder (DVR), stored in the storage unit, or transmitted to the server through the communication unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210088434A KR20210088487A (en) | 2019-09-17 | 2021-07-06 | System for providing 3D head-up display and control method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190114220A KR20210042431A (en) | 2019-09-17 | 2019-09-17 | System for providing 3D head-up display and control method thereof |
KR1020210088434A KR20210088487A (en) | 2019-09-17 | 2021-07-06 | System for providing 3D head-up display and control method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190114220A Division KR20210042431A (en) | 2019-09-17 | 2019-09-17 | System for providing 3D head-up display and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210088487A true KR20210088487A (en) | 2021-07-14 |
Family
ID=74883833
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190114220A KR20210042431A (en) | 2019-09-17 | 2019-09-17 | System for providing 3D head-up display and control method thereof |
KR1020210088434A KR20210088487A (en) | 2019-09-17 | 2021-07-06 | System for providing 3D head-up display and control method thereof |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190114220A KR20210042431A (en) | 2019-09-17 | 2019-09-17 | System for providing 3D head-up display and control method thereof |
Country Status (2)
Country | Link |
---|---|
KR (2) | KR20210042431A (en) |
WO (1) | WO2021054579A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102413715B1 (en) * | 2022-04-05 | 2022-06-27 | 최귀철 | Method of displaying vehicle speed based on satellite positioning data through head-up display and electronic device thereof |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102628667B1 (en) * | 2021-09-23 | 2024-01-24 | 그리다텍 주식회사 | Virtual reality interface system for imitating solar revolution system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101610275B1 (en) | 2014-11-05 | 2016-04-07 | 주식회사 디젠 | Hud system having adjustable focus function |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5017242B2 (en) * | 2008-12-03 | 2012-09-05 | 本田技研工業株式会社 | Visual support device |
WO2017022051A1 (en) * | 2015-08-03 | 2017-02-09 | 三菱電機株式会社 | Display control device, display device and display control method |
US9922466B2 (en) * | 2016-08-05 | 2018-03-20 | Uber Technologies, Inc. | Virtual reality experience for a vehicle |
KR20190011944A (en) * | 2017-07-26 | 2019-02-08 | 주식회사 크레모텍 | 3d head-up display apparatus for vehicle and display method using the same |
KR102104500B1 (en) * | 2019-03-07 | 2020-04-24 | 삼성전자주식회사 | Method and vehicle for providing information |
-
2019
- 2019-09-17 KR KR1020190114220A patent/KR20210042431A/en active Application Filing
-
2020
- 2020-06-18 WO PCT/KR2020/007919 patent/WO2021054579A1/en active Application Filing
-
2021
- 2021-07-06 KR KR1020210088434A patent/KR20210088487A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101610275B1 (en) | 2014-11-05 | 2016-04-07 | 주식회사 디젠 | Hud system having adjustable focus function |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102413715B1 (en) * | 2022-04-05 | 2022-06-27 | 최귀철 | Method of displaying vehicle speed based on satellite positioning data through head-up display and electronic device thereof |
Also Published As
Publication number | Publication date |
---|---|
WO2021054579A1 (en) | 2021-03-25 |
KR20210042431A (en) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11758111B2 (en) | 3D lidar system using a dichroic mirror for autonomous driving vehicles | |
KR102348127B1 (en) | Electronic apparatus and control method thereof | |
JP6428876B2 (en) | Shielding adjustment system for in-vehicle augmented reality system | |
US20230048230A1 (en) | Method for displaying lane information and apparatus for executing the method | |
US9171214B2 (en) | Projecting location based elements over a heads up display | |
JP2018190410A (en) | Lane guidance using augmented reality | |
JP2016048550A (en) | Space information presentation based on driver's attention evaluation | |
US20170278305A1 (en) | Three Dimensional Heads-up Display Unit Including Visual Context for Voice Commands | |
EP2993576A1 (en) | Communication of external sourced information to a driver | |
US11900672B2 (en) | Integrated internal and external camera system in vehicles | |
KR20210088487A (en) | System for providing 3D head-up display and control method thereof | |
CN110263688B (en) | Driving related guidance providing method and apparatus, and computer readable recording medium | |
JP2016048547A (en) | Generation of space information for head-up display | |
CN108290521A (en) | A kind of image information processing method and augmented reality AR equipment | |
JP7236442B2 (en) | Control method for display device in automobile | |
US20190187790A1 (en) | Vehicle display device and control method thereof | |
KR20180090610A (en) | Method and apparatus for outputting information about a lane | |
KR20170140284A (en) | Vehicle driving aids and vehicles | |
US10964048B2 (en) | Method and device for generating image for indicating object on periphery of vehicle | |
CN111064936A (en) | Road condition information display method and AR equipment | |
KR20170014451A (en) | System and method for securing a clear view, and terminal for performing the same | |
WO2023116377A1 (en) | Display method, apparatus, and system | |
WO2019155557A1 (en) | Information display control device, information display control method, and information display control program | |
KR102506263B1 (en) | Apparatus, method, and computer readable recording medium for aerial image process, navigation apparatus and server for path guide using aerial map | |
US11338729B2 (en) | Communication of autonomous vehicle actions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |