KR20180022374A - Lane markings hud for driver and assistant and same method thereof - Google Patents

Lane markings hud for driver and assistant and same method thereof Download PDF

Info

Publication number
KR20180022374A
KR20180022374A KR1020160107735A KR20160107735A KR20180022374A KR 20180022374 A KR20180022374 A KR 20180022374A KR 1020160107735 A KR1020160107735 A KR 1020160107735A KR 20160107735 A KR20160107735 A KR 20160107735A KR 20180022374 A KR20180022374 A KR 20180022374A
Authority
KR
South Korea
Prior art keywords
lane
vehicle
hud
image
unit
Prior art date
Application number
KR1020160107735A
Other languages
Korean (ko)
Inventor
김동일
Original Assignee
주식회사 티노스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 티노스 filed Critical 주식회사 티노스
Priority to KR1020160107735A priority Critical patent/KR20180022374A/en
Priority to CN201610797778.9A priority patent/CN107776490A/en
Publication of KR20180022374A publication Critical patent/KR20180022374A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)

Abstract

Provided according to an embodiment of the present invention is a lane marking HUD of a driver seat and a passenger seat. The HUD, which displays driving information of a vehicle on a mirror unit with a computer graphic of synthesizing virtual lane information with actual lane information in road environment by using augmented reality technology, includes: a camera unit which includes at least one photographic device to photograph the lane of a road and outputs the lane image to a control unit; a GNSS inertial navigation unit which confirms the location of the vehicle based on GPS signal and measures the location of the vehicle by correcting the position of the vehicle confirmed in the GPS; a memory unit which stores a control program for controlling the overall operation of the HUD and data generated during the execution of the control program; the HUD which displays the lane image inputted from the control unit on a front window; and the control unit which determines the location of the vehicle and the location of the lane by analyzing the photographed image, determines the deviation degree of the vehicle in the lane, and controls the HUD so that the lane image is displayed on the position of the mirror unit corresponding to the deviation degree. The present invention provides an effect capable of preventing an accident caused by the lane deviation of a vehicle in advance since a passenger on a passenger seat can recognize the situation even when a driver does not recognize the situation by displaying the driving state of the vehicle by using the HUD even not only in a driver seat but also in the passenger seat by using augmented reality technology. In addition, the present invention provides an effect of differentiating images seen at the driver seat and the passenger seat according to angles seen by viewers in the driver seat and the passenger seat.

Description

운전석과 보조석의 차선표시 HUD와 그 방법{LANE MARKINGS HUD FOR DRIVER AND ASSISTANT AND SAME METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a loud-

본 발명은 HUD(Head Up Display)에 관한 것으로, 보다 상세하게는 운전석과 보조석에 별도로 차선 표시 HUD를 제공하여 운전자와 동시에 동승자도 차량의 주행 상태를 인지할 수 있는 차선표시 HUD와 그 방법에 대한 것이다.The present invention relates to a head-up display (HUD), and more particularly, to a lane-display HUD in which a lane marking HUD is separately provided for a driver's seat and an assistant seat, will be.

현재 자동차 기술과 전자 기술의 발달로 자동차에는 탑승자의 안전을 위한 다양한 차량 안전시스템들이 개발되어 적용되고 있다. 이러한 차량 안전 시스템들 중 하나인 차선 이탈 경보 시스템(Line Definition Warning System)은 차량에 부착된 카메라로부터 전방도로 영상을 감지하여 현재 달리고 있는 차선을 인식하고, 운전자의 졸음 및 부주의 등으로 차량이 차선을 벗어나려고 하면 시트 진동, 경보음 등을 통해 경보를 발생하여 운전자에게 경고하여 주는 안전장치이다.With the development of automobile technology and electronic technology, various vehicle safety systems for the safety of passengers have been developed and applied to automobiles. One of these vehicle safety systems, the Line Definition Warning System, recognizes the currently running lane by detecting the image ahead of the camera attached to the vehicle, and recognizes that the vehicle is lane due to driver's sleepiness and carelessness. If you try to escape, it is a safety device that warns the driver by generating an alarm through seat vibration and alarm sound.

차선 이탈 경보 시스템은 트럭 운전자와 장거리 출퇴근자 등과 같이 장시간 운전을 해야 하는 운전자들이 장시간 운전에 따른 피로, 부주의 졸음운전으로 인한 차선 이탈 사고의 위험에 노출된 상황에서 그 필요성이 부각되고 있다.The lane departure warning system is needed in the situation where drivers who are to drive for a long time such as truck driver and long distance commuter are exposed to risk of lane deviation due to fatigue and careless drowsiness caused by long driving.

차선 이탈 경보 시스템은 헤드업디스플레이(Head Up Display: HUD)를 이용하여 주행 경로에 따라 차량이 차선 주심으로부터 벗어나는 정도에 대한 정보를 운전자에게 시각적으로 제공하는 기술로 발전하고 있다.The lane departure warning system is evolving into a technology that visually provides information to the driver about the extent to which the vehicle deviates from the lane referee according to the driving route using a head up display (HUD).

차선 이탈 경보 시스템의 HUD는 증강현실(Augmented Reality) 기술이 이용될 수 있다. 증강현실은 현실세계와 가상세계를 컴퓨터그래픽을 이용하여 하나의 영상으로 보여주는 기술이다. 증강현실은 실제 환경에 가상 사물이나 정보를 합성해 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이며, 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이라고 할 수 있다. 가상현실(Virtual Reality)이 현실 세계와 유사한 영상을 컴퓨터로 대체하는 것이라면, 증강현실은 부가적인 가상 정보를 현실 정보와 접목시켜 하나의 영상으로 보여주는 것이므로, 가상현실의 또 다른 유형이라고 할 수 있으나 증강현실은 모든 정보가 가상인 가상현실과 달리 현실세계 정보를 바탕으로 하고 있다는 점에서 차이가 있다. Augmented Reality (HUD) technology can be used in the HUD of the lane departure warning system. Augmented reality is a technology that shows the real world and the virtual world as a single image using computer graphics. Augmented reality is a computer graphics technique that combines virtual objects or information into a real environment and makes them look like objects that exist in the original environment. It is a technology that shows a virtual object overlaid on the real world that the user sees. If the virtual reality is to replace the real world with a computer, the augmented reality is another type of virtual reality because it combines additional virtual information with reality information and displays it as one image, The reality differs from the fact that all information is based on real world information, unlike virtual reality, which is virtual.

증강현실은 현실세계의 정보에 추가적인 정보를 더하고 제공하기 때문에 다양한 분야에 적용할 수 있는데, 예를 들면 환자의 몸에 MRI나 CT 영상을 합하여 보여주거나, 산업에서 비행기나 자동차와 같은 복잡한 구조물의 설계, 제작시 도면 등의 필요 정보를 줄 수도 있다. 또한, 책 속의 콘텐츠를 입체화된 움직이는 영상으로 구현하는 등 교육에서도 활용이 가능하며, 현실 정보를 접목한 게임이나 내비게이션 등으로 활용도 가능하며, 카메라와 각종 센서, 영상 표시 장치가 모두 구비된 스마트 기기 및 웨어러블 기기 등의 보급이 늘어남에 따라 이용이 증가하고 있다.Augmented reality can be applied to various fields by adding and providing additional information to real world information. For example, MRI or CT images can be displayed on the body of a patient, or a complex structure such as an airplane or an automobile , And drawing information at the time of production. In addition, the contents in the book can be utilized in education such as realizing stereoscopic moving images, and can be utilized as a game or navigation that combines reality information. In addition, a smart device including a camera, various sensors, and a video display device As the spread of wearable devices increases, usage is increasing.

일반적으로 차선 이탈 경보 시스템은 차량의 전방 도로를 촬영하는 영상장치, 차량의 횡방향 속도를 감지하는 센서부 및 촬영된 영상으로부터 차선 및 차량의 위치를 파악하고 상기 센서부에서 센싱된 횡방향 속도에 의한 주행 경로를 판단하여 차량이 차선 중심으로부터 주행차량의 이동량 및 위치편차에 대한 정보를 헤드업디스플레이(Head Up Display: HUD)를 이용하여 표시하는 제어부를 포함한다.Generally, the lane departure warning system is composed of an image device for photographing the road ahead of the vehicle, a sensor for sensing the lateral velocity of the vehicle, a lane and a vehicle position from the photographed image, And displays the information on the travel amount and the positional deviation of the traveling vehicle from the center of the lane of the vehicle by using a Head Up Display (HUD).

이러한 종래의 HUD를 통한 차선 표시는 운전자를 중심으로 제공되기 때문에, 운전자의 부주의로 인해 이를 인지하지 못하는 경우가 발생할 수 있다. 따라서, 보조석에 탑승한 동승자에게도 차량의 차선 표시 정보를 제공할 필요가 있다.Since the conventional lane marking through the HUD is provided mainly by the driver, it may happen that the driver is not aware of the lane due to carelessness. Therefore, it is necessary to provide the lane marking information of the vehicle to the passenger on the passenger seat.

본 발명의 목적은 운전석과 보조석에 별도로 차선 표시 HUD를 제공하여 운전자와 동시에 동승자도 차량의 주행 상태를 인지할 수 있는 차선표시 HUD를 제공하는 것이다.It is an object of the present invention to provide a lane marking HUD by separately providing a lane marking HUD on a driver's seat and an assistant seat so that the rider can recognize the driving state of the vehicle at the same time as the driver.

본 발명의 일실시예에 따른 운전석과 보조석의 차선표시 HUD는, 증강현실(Augmented Reality)기술을 이용하여 도로 환경에 실제차선과 가상차선 정보를 합성한 컴퓨터 그래픽으로 미러부에 자동차의 주행정보를 표시하는 HUD에 있어서, 적어도 하나의 촬영장치를 구비하여 도로의 차선을 촬영하여 제어부로 출력하는 카메라부; GPS 신호에 기초하여 상기 차량의 위치를 확인하고 상기 GPS에서 확인된 차량의 위치를 보정하여 상기 차량의 위치를 측정하는 GNSS 관성항법부; HUD의 전반적인 동작을 제어하기 위한 제어프로그램과 상기 제어프로그램 수행 중에 발생되는 데이터를 저장하는 메모리부; 제어부로부터 입력되는 차선 영상을 전면유리창에 표시하는 HUD; 및 촬영된 영상을 분석하여 차선의 위치 및 차량의 위치를 판단하고, 차선 내에서의 차량의 편중 정도를 판단하고, 상기 편중 정도에 대응하는 상기 미러부의 위치에 차선 영상이 표시되도록 HUD를 제어하는 제어부를 포함한다.The lane marking HUD of the driver's seat and the supporting seat according to the embodiment of the present invention is a computer graphics that synthesizes actual lane and virtual lane information in a road environment by using Augmented Reality technology, 1. A HUD for displaying an image, comprising: a camera unit having at least one photographing device for photographing a lane of a road and outputting it to a control unit; A GNSS inertial navigation unit for confirming a position of the vehicle based on a GPS signal and correcting a position of the vehicle identified by the GPS to measure the position of the vehicle; A memory unit for storing a control program for controlling an overall operation of the HUD and data generated during execution of the control program; A HUD for displaying a lane image input from the control unit on a front windshield; And controlling the HUD such that the lane image is displayed at the position of the mirror unit corresponding to the degree of biasing, And a control unit.

바람직하게는, 상기 제어부는, 상기 카메라부로부터 입력되는 영상을 분석하여 차선을 인식하는 차선 감지부; 상기 인식된 차선이 있을 경우 상기 영상으로부터 차량의 위치를 판단하고 상기 인식된 차선이 없을 경우 GPS 신호에 기초하여 GNSS 관성항법부에서 상기 차량의 위치를 판단하고 위치를 보정하여 상기 차량의 위치를 측정하는 차선 연산부; 상기 차선 위치 및 차량 위치에 의해 차선 영상을 표시할 미러부의 표시 위치를 결정하는 차선 표시 위치 결정부; 및 상기 결정된 위치에 표시할 차선을 포함하는 차선 영상을 생성하여 상기 HUD로 출력하는 영상부를 포함한다.Preferably, the control unit includes: a lane detecting unit for analyzing an image input from the camera unit to recognize a lane; Determining the position of the vehicle from the image if there is the recognized lane, determining the position of the vehicle in the GNSS inertial navigation unit based on the GPS signal when there is no recognized lane, ; A lane display position determining unit for determining a display position of a mirror unit to display the lane image by the lane position and the vehicle position; And an image unit for generating a lane image including a lane to be displayed at the determined location and outputting the lane image to the HUD.

바람직하게는, 상기 영상부는 증강현실을 이용하여 관찰자가 보는 각도에 따라 상기 적어도 하나의 프로젝터에 다른 영상을 제공하고 상기 미러부에 다른 영상을 출력한다.Preferably, the image portion uses the augmented reality to provide another image to the at least one projector according to an observer's viewing angle, and outputs another image to the mirror portion.

바람직하게는, 상기 제어부는 적어도 하나의 프로젝터 중 차선의 위치에 대응하는 프로젝터를 선택하고, 상기 미러부의 위치에 차선 영상이 표시되도록 선택된 프로젝터의 조사각도를 조절하고, 조사 각도에 따라 차선 영상을 보정하여 상기 미러부의 해당 위치에 표시한다.Preferably, the control unit selects a projector corresponding to a position of a lane of at least one projector, adjusts an irradiation angle of a selected projector so that a lane image is displayed at a position of the mirror unit, And displays it at the corresponding position of the mirror unit.

바람직하게는, 상기 HUD는 적어도 하나의 프로젝터, 미러부, 및 프로젝터 콘트롤러를 포함한다.Preferably, the HUD includes at least one projector, a mirror portion, and a projector controller.

바람직하게는, 상기 적어도 하나의 미러부는 적어도 한 명의 관찰자가 보는 각도에 따라 실제차선과 가상차선이 일치되는 하나의 가상차선 영상만 관찰자에게 보이도록 각각의 미러부의 반사각이 다른 표면을 구비한다.Preferably, the at least one mirror portion has a surface whose reflection angle is different from that of each mirror portion so that only one virtual lane image in which an actual lane and a virtual lane coincide with each other is viewed by an observer according to an angle viewed by at least one observer.

바람직하게는, 상기 적어도 하나의 미러부는 차량의 전면 유리창에 구비되거나 운전자나 동승자의 웨어러블 안경, 헬멧에 구비되어 무선통신으로 영상이 전송된다.Preferably, the at least one mirror portion is provided in a front window of a vehicle or is provided in a wearable glasses or a helmet of a driver or a passenger, and images are transmitted by wireless communication.

바람직하게는, 상기 적어도 하나의 미러부는 도로의 지평선 위치, 교차로의 상황 정보, 앞차의 위치정보와 같은 차량의 전방 정보를 분석하여 HUD 정보가 가장 잘 인식될 수 있는 위치에 HUD 정보를 표시한다.Preferably, the at least one mirror unit analyzes the forward information of the vehicle, such as the horizon position of the road, the intersection situation information, and the position information of the front car, and displays the HUD information at the location where the HUD information is best recognized.

본 발명의 다른 실시예에 따른 운전석과 보조석의 차선표시 방법은, 제어부가 카메라부를 제어하여 영상을 촬영하는 단계; 도로를 촬영한 영상이 카메라부로부터 입력되기 시작하면 제어부는 차선 감지부를 통해 영상에 포함된 차선을 인식하는 동작을 수행하는 단계; 제어부가 상기 차선 인식 동작에 의해 촬영된 영상에 차선이 있는지 없는지를 판단하는 단계; 차선이 있으면 상기 차선감지부로부터 인식된 차선정보와 영상정보를 입력받아 차선 연산부를 통해 차선 사이에서의 차량의 위치를 계산하는 단계; 차선이 없으면 GNSS 관성항법부에서 신호를 받아서 차선 연산부에서 차량의 위치를 계산하는 단계; 차량의 위치가 계산되면 제어부가 차량의 위치편차를 판단하는 단계; 운전석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 운전자에게 알람을 보내는 단계; 및 보조석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 동승자에게 알람을 보내는 단계;를 포함한다. According to another aspect of the present invention, there is provided a method for displaying a lane between a driver's seat and an assistant seat, the method comprising: controlling a camera unit to photograph an image; When the image of the road is input from the camera unit, the control unit performs an operation of recognizing the lane included in the image through the lane detecting unit; Determining whether there is a lane in the image photographed by the lane recognition operation; Receiving the lane information and the image information recognized from the lane detecting unit when the lane is present, and calculating the position of the lane between the lane through the lane calculating unit; If there is no lane, receiving the signal from the GNSS inertial navigation unit and calculating the position of the vehicle in the lane calculation unit; Determining a positional deviation of the vehicle when the position of the vehicle is calculated; Displaying a left lane and a right lane on the driver's seat and sending an alarm to the driver when the vehicle is busy; And displaying the left lane and the right lane on the assistant seat and sending an alarm to the passenger when the vehicle is busy.

바람직하게는, 상기 운전석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 운전자에게 알람을 보내는 단계는, HUD의 프로젝터에서 증강현실기술을 이용하여 도로 환경에 실제차선과 가상차선이 일치되도록 유도신호가 점등되어 표기되는 단계를 더 포함한다.Preferably, the step of displaying the left lane and the right lane on the driver's seat and sending an alarm to the driver when the vehicle is busy may be performed by using the augmented reality technology in the projector of the HUD so that the actual lane and the virtual lane are coincident with the road environment And the induction signal is lit and displayed.

바람직하게는, 상기 보조석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 동승자에게 알람을 보내는 단계는, HUD의 프로젝터에서 증강현실기술을 이용하여 도로 환경에 실제차선과 가상차선이 일치되도록 유도신호가 점등되어 표기되는 단계를 더 포함한다.Preferably, the step of displaying the left lane and the right lane on the supporter and sending an alarm to the passenger when the vehicle is busy is performed by using the augmented reality technology in the projector of the HUD so that the actual lane and the virtual lane coincide with each other in the road environment And the induction signal is lit and displayed.

본 발명은 운전석과는 별도로 보조석에도 HUD를 이용하여 차량의 주행 상태를 표시함으로써, 운전자가 이를 인지하지 못하는 경우에도, 보조석에 탑승한 동행자가 이를 인지할 수 있어 차량의 차선 이탈로 인한 사고를 미연에 방지할 수 있는 효과를 제공한다.The present invention can display the traveling state of the vehicle by using the HUD in the assisting seat separately from the driver's seat so that the companion who is aboard the assistant seat can recognize such a situation even if the driver does not recognize the accident, And the like.

또한, 본 발명은 증강현실을 이용하여 운전석과 보조석에 관찰자가 보는 각도에 따라 운전석과 보조석에 보이는 영상을 다르게 하는 효과를 제공한다.Further, the present invention provides an effect of making the images displayed on the driver's seat and the assistant seat different depending on the angle of the observer viewing the driver's seat and the assistant seat using the augmented reality.

도 1은 본 발명의 일실시예로 운전석과 보조석의 차선표시 HUD의 차선 표시 예시를 나타낸 개략도이다.
도 2는 본 발명의 일실시예로 운전석과 보조석의 차선표시 HUD를 설명하기 위한 개략도이다.
도 3은 본 발명의 일실시예로 운전석과 보조석의 차선표시 HUD를 설명하기 위한 개략도이다.
도 4는 본 발명의 일실시예로 운전석과 보조석의 차선표시 HUD의 구성을 도시한 블럭도이다.
도 5는 본 발명의 일실시예로 따른 운전석과 보조석의 차선표시 HUD의 방법을 나타낸 흐름도이다.
1 is a schematic view showing an example of lane marking of a lane marking HUD of a driver's seat and an assistant seat in an embodiment of the present invention.
2 is a schematic view for explaining a lane marking display HUD of a driver's seat and an assistant seat according to an embodiment of the present invention.
3 is a schematic view for explaining a lane marking display HUD of a driver's seat and an assistant seat in an embodiment of the present invention.
4 is a block diagram showing the configuration of a lane marking HUD of a driver's seat and an assistant seat according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating a method of a lane marking HUD of a driver's seat and an assistant seat according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

본 명세서에서 사용되는 ‘모듈’이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 직접 회로, 직접 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.The term " module ", as used herein, should be interpreted to include software, hardware, or a combination thereof, depending on the context in which the term is used. For example, the software may be machine language, firmware, embedded code, and application software. In another example, the hardware can be a circuit, a processor, a computer, an integrated circuit, a circuit core, a sensor, a micro-electro-mechanical system (MEMS), a passive device, or a combination thereof.

이하, 실시예를 나타낸 도면들을 함께 참조하여 각 구성요소의 동작에 대해 상세히 설명한다.Hereinafter, the operation of each component will be described in detail with reference to the drawings showing embodiments.

도 1 내지 도 3을 참조하면, 본 발명의 운전석과 보조석의 차선표시 HUD(140)를 이용하는 경우에 카메라부(130)를 통해서 차량의 전방 정보를 생성한다. 여기서 차량의 전방 정보는 운전 중 전면 시야에 보여지는 정보를 의미한다. 예를 들어, 전방 도로의 지평선, 교차로 및 전방의 차량에 대한 정보를 포함한다.Referring to FIGS. 1 to 3, when the lane marking HUD 140 of the present invention is used, the front information of the vehicle is generated through the camera unit 130. Here, the front information of the vehicle means information shown in the front view during driving. For example, it includes information about the horizon of the front road, the intersection, and the vehicle ahead.

이렇게 획득한 차량의 전방 정보를 통해서 차량의 전방에 위치하고 있는 각종 물체들의 위치를 알 수 있다. 즉, 도로의 지평선 위치, 교차로의 상황 정보, 앞차의 위치 등을 알 수 있다.The position of various objects located in front of the vehicle can be known through the forward information of the vehicle thus obtained. That is, the position of the horizon of the road, the situation information of the intersection, and the position of the front car can be known.

도 2에서, A 영역은 네비게이션 정보를 표시하는 영역이고, B 영역은 카메라부(130)를 통해 획득한 차량의 차선 위치편차 정보가 표시되는 영역이다.2, the area A is an area for displaying navigation information, and the area B is an area for displaying the lane position deviation information of the vehicle obtained through the camera unit 130. [

A 영역에 표기되는 네비게이션이나 기존의 HUD는 가상현실(Virtual Reality)이 현실 세계와 유사한 영상을 컴퓨터로 대체하는 것이라면, 본 발명의 일실시예의 증강현실을 이용한 운전석과 보조석의 차선표시 HUD(140)는 부가적인 가상 정보를 현실 정보와 접목시켜 하나의 영상으로 보여주는 것이므로, 가상현실의 또 다른 유형이라고 할 수 있으나 증강현실은 모든 정보가 가상인 가상현실과 달리 현실세계 정보를 바탕으로 하고 있다는 점에서 차이가 있다.If the navigation displayed in the A area or the existing HUD is to replace the image similar to the real world by the computer in the virtual reality, the lane marking HUD 140 using the augmented reality of the embodiment of the present invention, Is a different type of virtual reality because it combines additional virtual information with reality information and displays it as one image. However, augmented reality is based on real world information, unlike virtual reality, in which all information is virtual There is a difference.

B 영역에 표기되는 차량의 차선 영상은 촬영된 영상을 분석하여 차선의 위치 및 차량의 위치를 판단하고, 차선 내에서의 차량의 편중 정도를 판단하고, 상기 편중 정도에 대응하는 차선 영상이 미러부(142a,142b)에 표시되도록 HUD(140)를 제어한다. The lane image of the vehicle displayed in the B area is obtained by analyzing the photographed image to judge the position of the lane and the position of the vehicle, determine the biased degree of the vehicle in the lane, And controls the HUD 140 to be displayed on the display units 142a and 142b.

B 영역에 표기되는 차량의 차선 영상은 운전석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 운전자에게 알람을 보내는 경우에, HUD의 프로젝터에서 증강현실기술을 이용하여 도로 환경에 실제차선과 가상차선이 일치되도록 유도신호가 점등되어 표기된다.The lane image of the vehicle displayed in the area B displays the left lane and the right lane in the driver's seat. When an alarm is sent to the driver when the vehicle is busy, the projector of the HUD displays the actual lane The induction signal is lighted to indicate that the virtual lane is coincident.

B 영역에 표기되는 차량의 차선 영상은 보조석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 동승자에게 알람을 보내는 경우에, HUD의 프로젝터에서 증강현실기술을 이용하여 도로 환경에 실제차선과 가상차선이 일치되도록 유도신호가 점등되어 표기된다.The lane image of the vehicle displayed in the area B indicates the left lane and the right lane in the passenger compartment. When an alarm is sent to the passenger when the vehicle is busy, the projector of the HUD uses the augmented reality technology to calculate the actual lane The induction signal is lighted to indicate that the virtual lane is coincident.

본 발명에서는 A 영역과 B 영역이 고정되어 있지 않고, 전방의 운전 시야의 상태에 따라 운전자가 전방을 주시하면서 운전에 필요한 모든 정보를 최적의 상태로 인식할 수 있는 위치에 표시가 되어진다. 예를 들어 도로의 지평선의 높이 상태에 따라 HUD 정보가 표시되는 상기 A 영역과 B 영역의 위치가 상하로 변경될 수 있다. 주위 밝기 상태에 따라 HUD(140)가 최적으로 인식될 수 있도록 HUD(140)의 표시 밝기도 변경 가능하다.In the present invention, the A area and the B area are not fixed, and the driver is able to see the front of the vehicle in front of the driver, For example, the positions of the area A and the area B in which the HUD information is displayed may be changed up and down according to the height of the horizon of the road. The display brightness of the HUD 140 can be changed so that the HUD 140 can be best recognized according to the ambient brightness state.

HUD(140)를 이용하여 차량 정보를 차량의 전면 유리창에 표시하는 경우에 상술한 도로의 지평선 위치, 교차로의 상황 정보, 앞차의 위치등에 의해서 HUD(140) 정보가 제대로 인식이 되지 않는 경우가 발생한다. 이러한 경우에 차량의 전방 정보를 분석하여 HUD(140) 정보가 가장 잘 인식될 수 있는 위치에 HUD(140) 정보를 표시하도록 할 수 있다. 운전자는 운전자의 눈동자 위치(1)에서 전방의 운전 시야와 HUD(140) 정보를 가장 잘 인식할 수 있어 전방만을 주시하여 운전에 필요한 모든 정보를 알 수 있어, 운전 중 전방 주시 태만으로 인한 위험성을 낮출 수 있다.When the vehicle information is displayed on the front window of the vehicle using the HUD 140, the HUD 140 information may not be correctly recognized due to the above-mentioned horizon position of the road, the situation information of the intersection, do. In this case, it is possible to analyze the forward information of the vehicle and to display the HUD 140 information at a position where the HUD 140 information is best recognized. Since the driver can best recognize the driver's eye position (1) and the driver's view of the front and the HUD (140) information, he can see all the information necessary for driving, Can be lowered.

본 발명에서는 HUD(140)를 통한 차선 표시(11a,11b)는 운전자를 중심으로 제공되고 차선 표시(12a,12b)는 동승자에게 제공된다. HUD(140)에 표시되는 디스플레이 정보가 차량의 전면 유리창(10)에 표시되므로 HUD(140)의 위치 또는 HUD(140)에 표시되는 디스플레이 정보의 표시 위치를 변경하여 전면 유리창(10)의 최적의 위치에 HUD(140) 정보가 표시될 수 있다.In the present invention, the lane markings 11a and 11b through the HUD 140 are provided for the driver and the lane markings 12a and 12b are provided for the passenger. Since the display information displayed on the HUD 140 is displayed on the front windshield 10 of the vehicle, the display position of the HUD 140 or the display information displayed on the HUD 140 is changed, The HUD 140 information may be displayed.

도 4를 참조하면, 본 발명의 운전석과 보조석의 차선표시 HUD(140)는, 증강현실(Augmented Reality)기술을 이용하여 도로 환경에 실제차선과 가상차선 정보를 합성해 컴퓨터 그래픽을 이용하여 미러부(142a,142b)에 자동차의 주행정보를 표시하는 HUD(140)에 있어서, 적어도 하나의 촬영장치를 구비하여 도로의 차선을 촬영하여 제어부(110)로 출력하는 카메라부(130); GPS 신호에 기초하여 상기 차량의 위치를 확인하고 상기 GPS에서 확인된 차량의 위치를 보정하여 상기 차량의 위치를 측정하는 GNSS 관성항법부(135); HUD(140)의 전반적인 동작을 제어하기 위한 제어프로그램과 상기 제어프로그램 수행 중에 발생되는 데이터를 저장하는 메모리부(120); 제어부(110)로부터 입력되는 차선 영상을 전면유리창(10)에 표시하는 HUD(140); 및 촬영된 영상을 분석하여 차선의 위치 및 차량의 위치를 판단하고, 차선 내에서의 차량의 편중 정도를 판단하고, 상기 편중 정도에 대응하는 상기 미러부(142a,142b)의 위치에 차선 영상이 표시되도록 HUD(140)를 제어하는 제어부를 포함한다.Referring to FIG. 4, the lane marking HUD 140 of the driver's seat and assistant's seat of the present invention combines actual lane and virtual lane information in a road environment using Augmented Reality technology, A HUD 140 for displaying driving information of an automobile on the roads 142a and 142b, the camera unit 130 having at least one photographing device and photographing a lane on the road and outputting the taken lane to the control unit 110; A GNSS inertial navigation unit 135 for confirming the position of the vehicle based on the GPS signal and correcting the position of the vehicle identified by the GPS to measure the position of the vehicle; A memory unit 120 for storing a control program for controlling the overall operation of the HUD 140 and data generated during the execution of the control program; A HUD 140 for displaying the lane image inputted from the control unit 110 on the front windshield 10; And determines the position of the lane and the position of the vehicle, determines the degree of bias of the vehicle in the lane, and determines whether the lane image at the position of the mirror portions 142a, 142b corresponding to the degree of bi- And a control unit for controlling the HUD 140 to be displayed.

제어부(110)는 촬영된 영상을 분석하여 차선의 위치 및 차량의 위치를 판단하고, 차선 내에서의 차량의 편중 정도를 판단하고, 상기 편중 정도에 대응하는 상기 미러부(142)의 위치에 차선 영상이 표시되도록 HUD(140)를 제어한다.The control unit 110 analyzes the photographed image to determine the position of the lane and the position of the vehicle, determines the biased degree of the vehicle in the lane, and determines the position of the mirror unit 142 corresponding to the biased degree And controls the HUD 140 so that an image is displayed.

제어부(110)는 2개의 프로젝터(141a,141b) 중 차선의 위치에 대응하는 프로젝터(141a,141b)를 선택하고, 미러부(142a,142b))의 위치에 차선 영상이 표시되도록 선택된 프로젝터(141a,141b)의 조사각도를 조절하고, 조사 각도에 따라 차선 영상의 일그러짐을 보상하여 미러부(142a,142b)의 해당 위치에 표시한다.The control unit 110 selects the projectors 141a and 141b corresponding to the positions of the lanes among the two projectors 141a and 141b and selects the projectors 141a and 141b selected to display the lane images at the positions of the mirror units 142a and 142b And 141b to compensate for the distortion of the lane image according to the angle of illumination and display the corresponding position of the mirror units 142a and 142b.

메모리부(120)는 HUD(140)의 전반적인 동작을 제어하기 위한 제어프로그램과 상기 제어프로그램 수행 중에 발생되는 데이터를 저장한다.The memory unit 120 stores a control program for controlling the overall operation of the HUD 140 and data generated during the execution of the control program.

카메라부(130)는 자동차의 전방, 후방 또는 측면에 적어도 하나의 카메라를 구비하여 도로의 차선을 촬영하여 제어부(110)로 출력한다.The camera unit 130 includes at least one camera on the front, rear, or side of the automobile, captures the lane of the road, and outputs the captured image to the control unit 110.

HUD(140)는 제어부(110)로부터 입력되는 차선 영상을 전면유리창에 표시하는 것으로, 적어도 하나의 프로젝터(141a,141b), 미러부(142a,142b), 및 프로젝터 콘트롤러(143a,143b)를 포함한다.The HUD 140 displays the lane image input from the control unit 110 on the front windshield and includes at least one projector 141a and 141b, mirror units 142a and 142b, and projector controllers 143a and 143b do.

HUD(140)의 미러부(142a,142b)는 자동차의 전면유리창의 내측 하단부의 길이방향 전체 길이에 대응되도록 구성되어 전면유리창 하단에 형성된다. The mirror portions 142a and 142b of the HUD 140 are formed at the lower end of the front windshield so as to correspond to the entire longitudinal length of the inner lower end of the front windshield of the automobile.

미러부(142a,142b)는 반사판 형태 및 전면 창과 일체로 전면유리창의 내측 또는 외측에 구성될 수 있을 것이다. 만일 미러부(142a,142b)가 복수개인 경우에 각각의 미러부(142a,142b)는 관찰자가 보는 각도에 따라 실제차선과 가상차선이 일치되는 하나의 가상차선 영상만 관찰자에게 보이도록 각각의 미러부의 반사각이 다른 표면을 구비할 수 있다. 또한, 증강현실을 이용하여 관찰자가 보는 각도에 따라 미러부(142a,142b)에 다른 영상을 제공할 수도 있다. 이러한 방법으로 운전자와 보조석에서 관찰자가 보는 각도에 따라 서로 다른 영상을 볼 수 있다.The mirror portions 142a and 142b may be formed on the inside or outside of the front windshield integrally with the reflecting plate form and the front window. If there are a plurality of mirror portions 142a and 142b, each of the mirror portions 142a and 142b may be configured such that only one virtual lane image in which the actual lane and the virtual lane coincide with each other is viewed by the observer, The reflection angle of the negative portion may be different. In addition, the augmented reality may be used to provide different images to the mirror parts 142a and 142b according to the angle that the observer views. In this way, different images can be seen depending on the angle the observer sees in the driver and assistant seat.

프로젝터(141a,141b)는 제어부(110)로부터 입력되는 차선 영상을 제어부(110)의 제어에 따라 대응되는 위치에 표시한다.The projectors 141a and 141b display the lane images input from the control unit 110 at corresponding positions under the control of the control unit 110. [

프로젝터(141a)가 하나로 구성되는 경우, 상기 차선 영상은 미러부(142a) 전체에 걸쳐서 영상을 표시하여야 하므로 프로젝터(141a)에서 영상을 조사하는 부분이 미러부(142a)에 대응되도록 형성된다. HUD(140)에 둘 이상의 프로젝터(141a,141b)를 포함하도록 구성하고, 하나가 좌측 차선을 표시하고 나머지 하나가 우측 차선을 표시하도록 구성될 수도 있다.When the projector 141a is configured as one, the lane image needs to display an image over the entire mirror portion 142a, so that the portion irradiating the image from the projector 141a is formed to correspond to the mirror portion 142a. The HUD 140 may be configured to include two or more projectors 141a and 141b, one configured to display the left lane and the other one configured to display the right lane.

프로젝터(141a,141b)는 운전석(210)의 중앙 및 보조석(220)의 중앙부분에 대응하는 대시보드 내측에 구성될 수 있다. 프로젝터(141a,141b)를 작게 구성하여 길게 형성된 미러부(142a,142b)에 차선 영상을 표시하도록 구성하고자 하는 경우, 프로젝터(141a,141b)의 영상 조사 방향을 일정 각도 내(일예: 120도)에서 조절할 수 있는 프로젝터 콘트롤러(143a,143b)를 더 구비할 수도 있다. The projectors 141a and 141b may be configured on the inside of the dashboard corresponding to the center of the driver's seat 210 and the central portion of the assistant seat 220. [ The image projecting directions of the projectors 141a and 141b are set to be within a predetermined angle (for example, 120 degrees) in the case where the projectors 141a and 141b are configured to be small and the lane images are displayed on the long mirror parts 142a and 142b, The projector controller 143a and the projector controller 143b may be provided.

제어부(110)는 HUD(140)의 전반적인 동작을 제어한다.The control unit 110 controls the overall operation of the HUD 140.

제어부(110)는 카메라부(130)로부터 입력되는 영상을 분석하여 차선을 인식하는 차선 감지부(111), 인식된 차선의 위치와 영상 분석 정보에 의해 차량의 위치를 판단하는 차선 연산부(112), 상기 차선 및 차량의 위치에 의해 차선을 표시할 미러부(142a,142b)에서의 위치를 결정하는 차선 산출부(113); 및 상기 결정된 차선 표시 위치에 따라 차선 영상을 생성하여 프로젝터(141a,141b)로 출력하는 영상부(114)를 포함한다.The control unit 110 includes a lane detecting unit 111 for analyzing an image input from the camera unit 130 and recognizing a lane, a lane calculating unit 112 for determining a position of the vehicle based on the recognized lane position and image analysis information, A lane calculating unit 113 for determining a position in the mirror units 142a and 142b for displaying the lane by the lane and the position of the vehicle; And an image part 114 for generating a lane image according to the determined lane marking position and outputting the lane image to the projectors 141a and 141b.

영상부(114)는 증강현실을 이용하여 관찰자가 보는 각도에 따라 미러부(142a,142b)에 다른 영상을 제공하고 복수개의 프로젝터(141a,141b)에서 서로 다른 영상을 출력할 수 있다. 이러한 방법으로 운전자와 동승자에서 관찰자가 보는 각도에 따라 서로 다른 영상을 제공할 수 있다.The image portion 114 may provide different images to the mirror portions 142a and 142b and output different images from the plurality of projectors 141a and 141b according to the angle of the observer using the augmented reality. In this way, different images can be provided depending on the viewing angle of the observer in the driver and passenger.

프로젝터(141a,141b)가 둘 이상으로 구성되는 경우, 제어부(110)는 상기 차선 표시 위치에 대응하는 프로젝터(141a,141b)를 선택하고, 선택된 프로젝터(141a,141b)로 생성된 차선 영상을 출력한다.When two or more projectors 141a and 141b are configured, the control unit 110 selects the projectors 141a and 141b corresponding to the lane display position and outputs the lane image generated by the selected projectors 141a and 141b do.

제어부(110)의 영상부(114)는 두 개의 차선 영상을 생성하고 하나의 차선 영상을 제1 프로젝터(141a)로 출력하고 나머지 하나의 차선 영상을 제2 프로젝터(141b)로 출력한다.The video unit 114 of the control unit 110 generates two lane images and outputs one lane image to the first projector 141a and the other lane image to the second projector 141b.

영상부(114)는 좌측 차선을 표시하기 위한 하나의 차선 영상을 생성하여 제1 프로젝터(141a)로 출력한다.The video unit 114 generates one lane image for displaying the left lane and outputs it to the first projector 141a.

영상부(114)는 우측 차선을 표시하기 위한 하나의 차선 영상을 생성하여 제2 프로젝터(141b)로 출력한다.The video part 114 generates one lane image for displaying the right lane and outputs it to the second projector 141b.

또한, HUD(140)가 프로젝터 콘트롤러(143a,143b)를 포함하는 경우, 제어부(110)는 차선 산출부(113)에서 결정된 위치 정보에 따라 해당 프로젝터 콘트롤러(143)를 제어하여 프로젝터(141a,141b)의 영상 조사 방향을 조절시킨 후 영상부(114)를 통해 프로젝터(141a,141b)로 차선 영상을 출력한다.When the HUD 140 includes the projector controllers 143a and 143b, the control unit 110 controls the projector controller 143 according to the position information determined by the lane calculation unit 113 to control the projectors 141a and 141b And then outputs the lane image to the projectors 141a and 141b through the image part 114. [

프로젝터 콘트롤러(143a,143b)를 조작하여 프로젝터(141a,141b)의 영상 출사 방향을 조절하는 경우, 제어부(110)는 상기 영상 출사 방향에 따라 차선 영상의 차선을 보정한 후 프로젝터(141a,141b)로 제공하도록 구성될 수 있다.The controller 110 corrects the lane of the lane image according to the image output direction and then controls the projectors 141a and 141b to adjust the image output directions of the projectors 141a and 141b by operating the projector controllers 143a and 143b. Lt; / RTI >

도 5를 참조하면, 운전석과 보조석의 차선표시 방법은, 제어부(110)가 카메라부(130)를 제어하여 영상을 촬영하는 단계(S310); 도로를 촬영한 영상이 카메라부(130)로부터 입력되기 시작하면 제어부(110)는 차선 감지부(111)를 통해 영상에 포함된 차선을 인식하는 동작을 수행하는 단계(S320); 제어부(110)가 상기 차선 인식 동작에 의해 촬영된 영상에 차선이 있는지 없는지를 판단하는 단계(S330); 차선이 있으면 상기 차선감지부(111)로부터 인식된 차선정보와 영상정보를 입력받아 차선 연산부(112)를 통해 차선 사이에서의 차량의 위치를 계산하는 단계(S340); 차선이 없으면 GNSS 관성항법부(135)에서 신호를 받아서 차선 연산부(112)에서 차량의 위치를 계산하는 단계(S345); 차량의 위치가 계산되면 제어부(110)가 차량의 위치편차를 판단하는 단계(S350); 운전석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 운전자에게 알람을 보내는 단계(S360); 및 보조석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 동승자에게 알람을 보내는 단계(S370);를 포함한다.Referring to FIG. 5, a method of displaying a lane between a driver's seat and an assistant's seat includes the steps of (S310) photographing an image by controlling the camera unit 130 by the control unit 110; When the image of the road is input from the camera unit 130, the control unit 110 performs an operation of recognizing the lane included in the image through the lane detecting unit 111 (S320); A step S330 of the control unit 110 judging whether there is a lane in the image photographed by the lane recognition operation; If the lane is present, receiving the lane information and the image information recognized from the lane detecting unit 111 and calculating the position of the vehicle between the lanes through the lane calculating unit 112 (S340); If there is no lane, receiving a signal from the GNSS inertial navigation unit 135 and calculating the position of the vehicle in the lane calculation unit 112 (S345); A step S350 of the control unit 110 to determine a positional deviation of the vehicle when the position of the vehicle is calculated; Displaying the left lane and the right lane on the driver's seat and sending an alarm to the driver when the vehicle is busy (S360); And a step S370 of displaying the left lane and the right lane in the assistant seat and sending an alarm to the passenger when the vehicle is busy.

310 단계에서 차량에 전원이 공급되거나 시동이 걸려 전원이 공급되면, 제어부(110)는 카메라부(130)를 제어하여 영상을 촬영하기 시작한다.In step 310, when power is supplied to the vehicle or power is supplied to the vehicle, the controller 110 controls the camera unit 130 to start shooting an image.

320 단계에서 도로를 촬영한 영상이 카메라부(130)로부터 입력되기 시작하면 제어부(110)는 차선 감지부(111)를 통해 영상에 포함된 차선을 인식 동작을 수행한다.When the image of the road is input from the camera unit 130 in step 320, the control unit 110 recognizes the lane included in the image through the lane detecting unit 111. [

330 단계에서 제어부(110)는 상기 차선 인식 동작에 의해 촬영된 영상에 차선이 있는지 없는지를 판단한다.In step 330, the control unit 110 determines whether there is a lane in the image photographed by the lane recognition operation.

340 단계에서 차선이 있으면 상기 차선 감지부(111)를 통해 인식된 차선을 근거로 차선 연산부(112)에서 차선 사이에서의 차량의 위치를 계산한다. If there is a lane in step 340, the lane calculation unit 112 calculates the position of the lane between the lanes based on the lane recognized through the lane detecting unit 111. [

345 단계에서 차선이 없으면 GPS(135)에서 신호를 받아서 차선 연산부(112)에서 차량의 위치를 계산한다.If there is no lane in step 345, the GPS 135 receives the signal and calculates the position of the vehicle in the lane calculation unit 112.

350 단계에서 차량의 위치가 계산되면 제어부(110)는 차량의 위치편차를 판단한다.When the position of the vehicle is calculated in step 350, the controller 110 determines the positional deviation of the vehicle.

360 단계에서 증강현실기술을 이용하여 도로 환경에 실제차선과 가상차선 정보를 합성해 원래의 환경에 존재하는 차선처럼 보이도록 컴퓨터 그래픽을 이용하여 HUD(140)의 프로젝터(141a,141b)가 운전석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 운전자에게 알람을 보낸다.In step 360, the actual lane and the virtual lane information are combined with the road environment using the augmented reality technology, and the projectors 141a and 141b of the HUD 140 are displayed on the driver's seat using computer graphics so as to appear as lanes existing in the original environment The left lane and the right lane are displayed, and an alarm is given to the driver when the vehicle is busy.

370 단계에서 증강현실기술을 이용하여 도로 환경에 실제차선과 가상차선 정보를 합성해 원래의 환경에 존재하는 차선처럼 보이도록 컴퓨터 그래픽을 이용하여 HUD(140)의 프로젝터(141a,141b)가 보조석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 동승자에게 알람을 보낸다.In step 370, the actual lane and virtual lane information are combined with the road environment using the augmented reality technology, and the projectors 141a and 141b of the HUD 140 are displayed on the assisting seat using computer graphics so as to appear as lanes existing in the original environment The left lane and the right lane are displayed, and an alarm is sent to the passenger when the vehicle is busy.

본 발명의 일실시예로 370 단계와 380 단계에서 운전석과 보조석의 차선표시 HUD(140)는 증강현실 기술이 이용될 수 있다. 370 단계와 380 단계에서 증강현실기술을 이용한 HUD(140)는 도로 환경에 실제차선과 가상차선 정보를 합성해 원래의 환경에 존재하는 차선처럼 보이도록 컴퓨터 그래픽을 이용하여 나타낼 수 있다. 즉, 사용자가 눈으로 보는 실제차선에 가상차선을 겹쳐서 보여준다. According to an embodiment of the present invention, the augmented reality technique may be used in the lane marking HUD 140 of the driver's seat and the assistant seat in steps 370 and 380. In step 370 and step 380, the HUD 140 using the augmented reality technology can synthesize the actual lane and the virtual lane information in the road environment and display it using a computer graphic so as to look like a lane existing in the original environment. That is, the virtual lane is overlaid on the actual lane seen by the user.

만일 미러부(142a,142b)가 복수개인 경우에 각각의 미러부(142a,142b)는 관찰자가 보는 각도에 따라 실제차선과 가상차선이 일치되는 하나의 가상차선 영상만 관찰자에게 보이도록 각각의 미러부의 반사각이 다른 표면을 구비할 수 있다. 미러부(142a,142b)는 차량의 전면 유리창(10)에 구비될 수도 있고, 운전자나 동승자가 웨어러블 형태의 안경이나 헬멧에 구비되어 무선통신으로 영상이 전송될 수도 있다.If there are a plurality of mirror portions 142a and 142b, each of the mirror portions 142a and 142b may be configured such that only one virtual lane image in which the actual lane and the virtual lane coincide with each other is viewed by the observer, The reflection angle of the negative portion may be different. The mirror units 142a and 142b may be provided on the front windshield 10 of the vehicle or may be mounted on wearable spectacles or helmets of a driver or a passenger so that images may be transmitted by wireless communication.

만일 복수개의 프로젝터(141a,141b)에서 서로 다른 영상을 송출하게 되면 운전석과 보조석의 관찰자는 보는 각도에 따라 서로 다른 영상을 볼 수 있게 된다. 미러부(142a,142b)의 구조에 의하여 운전석에서는 주행을 위한 도로환경을 보고, 보조석에서는 TV 영상이나, 영화시청, 스마트폰의 미러링 화면 등을 볼 수 있게 된다. 이러한 방법으로 운전자와 보조석에서 관찰자가 보는 각도에 따라 서로 다른 영상을 볼 수 있다.If the plurality of projectors 141a and 141b transmit different images, the observers of the driver's seat and the assistant seat can see different images according to the viewing angle. By the structure of the mirror parts 142a and 142b, it is possible to see the road environment for driving in the driver's seat and to watch the TV image, movie watching, mirroring screen of the smart phone, and the like in the assisting seat. In this way, different images can be seen depending on the angle the observer sees in the driver and assistant seat.

한편, 본 발명의 운전석과 보조석의 차선표시 HUD 방법은 컴퓨터 시스템에서 구현되거나, 또는 기록매체에 기록될 수 있다. 컴퓨터 시스템은 적어도 하나의 프로세서와, 메모리와, 사용자 입력 장치와, 데이터 통신 버스와, 사용자 출력 장치와, 저장소를 포함할 수 있다. 전술한 각각의 구성 요소는 데이터 통신 버스를 통해 데이터 통신을 한다.Meanwhile, the lane marking HUD method of the driver's seat and assistant's seat of the present invention can be implemented in a computer system or recorded on a recording medium. The computer system may include at least one processor, a memory, a user input device, a data communication bus, a user output device, and a storage. Each of the above-described components performs data communication via a data communication bus.

컴퓨터 시스템은 네트워크에 커플링된 네트워크 인터페이스를 더 포함할 수 있다. 상기 프로세서는 중앙처리 장치(central processing unit : CPU)이거나, 혹은 메모리 및/또는 저장소에 저장된 명령어를 처리하는 반도체 장치일 수 있다.The computer system may further comprise a network interface coupled to the network. The processor may be a central processing unit (CPU), or a semiconductor device that processes instructions stored in memory and / or storage.

상기 메모리 및 상기 저장소는 다양한 형태의 휘발성 혹은 비휘발성 저장매체를 포함할 수 있다. 예컨대, 상기 메모리는 ROM 및 RAM을 포함할 수 있다.The memory and the storage may include various forms of volatile or non-volatile storage media. For example, the memory may include ROM and RAM.

한편, 상술한 본 발명의 실시예에 따른 운전석과 보조석의 차선표시 HUD 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Meanwhile, the lane marking HUD method of the driver's seat and the assistant seat according to the embodiment of the present invention described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, there may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device and the like. The computer-readable recording medium may also be distributed and executed in a computer system connected to a computer network and stored and executed as a code that can be read in a distributed manner.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description, and all changes or modifications derived from the scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

10: 전면유리창
11a,11b,12a,12b: 차선
110: 제어부
111: 차선 감지부
112: 차선 연산부
113: 차선 산출부
114: 영상부
120: 메모리부
130: 카메라부
135: GNSS 관성항법부
140: HUD
141a,141b: 프로젝터
142a,142b: 미러부
143a,143b: 프로젝터 콘트롤러
10: Front windshield
11a, 11b, 12a, 12b: lane
110:
111: lane detection unit
112:
113: lane calculation section
114:
120: memory unit
130:
135: GNSS Inertial Navigation Department
140: HUD
141a, 141b:
142a, 142b:
143a, 143b: projector controller

Claims (11)

증강현실(Augmented Reality)기술을 이용하여 도로 환경에 실제차선과 가상차선 정보를 합성한 컴퓨터 그래픽으로 미러부에 자동차의 주행정보를 표시하는 HUD에 있어서,
적어도 하나의 촬영장치를 구비하여 도로의 차선을 촬영하여 제어부로 출력하는 카메라부;
GPS 신호에 기초하여 상기 차량의 위치를 확인하고, 상기 GPS에서 확인된 차량의 위치를 보정하여 상기 차량의 위치를 측정하는 GNSS 관성항법부;
HUD의 전반적인 동작을 제어하기 위한 제어프로그램과 상기 제어프로그램 수행 중에 발생되는 데이터를 저장하는 메모리부;
제어부로부터 입력되는 차선 영상을 미러부에 표시하는 HUD; 및
촬영된 영상을 분석하여 차선의 위치 및 차량의 위치를 판단하고, 차선 내에서의 차량의 편중 정도를 판단하고, 상기 편중 정도에 대응하는 상기 미러부의 위치에 차선 영상이 표시되도록 HUD를 제어하는 제어부를 포함하는 운전석과 보조석의 차선표시 HUD.
1. A HUD for displaying driving information of a vehicle in a mirror part using a computer graphics obtained by combining an actual lane and virtual lane information in a road environment using Augmented Reality technology,
A camera unit having at least one photographing device for photographing a lane of a road and outputting the photograph to a control unit;
A GNSS inertial navigation unit for confirming the position of the vehicle based on the GPS signal and for correcting the position of the vehicle identified by the GPS to measure the position of the vehicle;
A memory unit for storing a control program for controlling an overall operation of the HUD and data generated during execution of the control program;
A HUD for displaying a lane image input from the control unit on the mirror unit; And
A control unit for controlling the HUD so as to display the lane image at the position of the mirror unit corresponding to the degree of biasing, Lane marking of the driver's seat and assistant seat including the HUD.
제1항에 있어서,
상기 제어부는,
상기 카메라부로부터 입력되는 영상을 분석하여 차선을 인식하는 차선 감지부;
상기 인식된 차선이 있을 경우 상기 영상으로부터 차량의 위치를 판단하고 상기 인식된 차선이 없을 경우 GPS 신호에 기초하여 GNSS 관성항법부에서 상기 차량의 위치를 판단하고 위치를 보정하여 상기 차량의 위치를 측정하는 차선 연산부;
상기 차선 위치 및 차량 위치에 의해 차선 영상을 표시할 미러부의 표시 위치를 결정하는 차선 표시 위치 결정부; 및
상기 결정된 위치에 표시할 차선을 포함하는 차선 영상을 생성하여 상기 HUD로 출력하는 영상부를 포함하는 것을 특징으로 하는 운전석과 보조석의 차선표시 HUD.
The method according to claim 1,
Wherein,
A lane detecting unit for detecting a lane by analyzing an image input from the camera unit;
Determining the position of the vehicle from the image if there is the recognized lane, determining the position of the vehicle in the GNSS inertial navigation unit based on the GPS signal when there is no recognized lane, ;
A lane display position determining unit for determining a display position of a mirror unit to display the lane image by the lane position and the vehicle position; And
And generating an image of the lane including the lane to be displayed at the determined position and outputting the lane image to the HUD.
제2항에 있어서,
상기 영상부는 증강현실을 이용하여 관찰자가 보는 각도에 따라 상기 적어도 하나의 프로젝터에 다른 영상을 제공하고 상기 미러부에 다른 영상을 출력하는 것을 특징으로 하는 운전석과 보조석의 차선표시 HUD.
3. The method of claim 2,
Wherein the image portion provides the other image to the at least one projector and outputs another image to the mirror portion according to the angle of view by the observer using the augmented reality.
제1항에 있어서,
상기 제어부는 적어도 하나의 프로젝터 중 차선의 위치에 대응하는 프로젝터를 선택하고, 상기 미러부의 위치에 차선 영상이 표시되도록 선택된 프로젝터의 조사각도를 조절하고, 조사 각도에 따라 차선 영상을 보정하여 상기 미러부의 해당 위치에 표시하는 것을 특징으로 하는 운전석과 보조석의 차선표시 HUD.
The method according to claim 1,
The control unit selects a projector corresponding to a position of a lane of at least one projector, adjusts an irradiation angle of the selected projector so that the lane image is displayed at the position of the mirror unit, corrects the lane image according to the angle of illumination, And displays the lane mark on the driver's seat and the auxiliary stool.
제1항에 있어서,
상기 HUD는 적어도 하나의 프로젝터, 미러부, 및 프로젝터 콘트롤러를 포함하는 것을 특징으로 하는 운전석과 보조석의 차선표시 HUD.
The method according to claim 1,
Wherein the HUD comprises at least one projector, a mirror unit, and a projector controller.
제5항에 있어서,
상기 적어도 하나의 미러부는 적어도 한 명의 관찰자가 보는 각도에 따라 실제차선과 가상차선이 일치되는 하나의 가상차선 영상만 관찰자에게 보이도록 각각의 미러부의 반사각이 다른 표면을 구비한 것을 특징으로 하는 운전석과 보조석의 차선표시 HUD.
6. The method of claim 5,
Wherein the at least one mirror portion has surfaces different in reflection angle from each other so that only one virtual lane image in which an actual lane and a virtual lane coincide with each other is viewed by an observer according to an angle viewed by at least one observer, Lane marking on the passenger compartment HUD.
제5항에 있어서,
상기 적어도 하나의 미러부는 차량의 전면 유리창, 운전자나 동승자의 웨어러블 안경, 헬멧에 구비되어 무선통신으로 영상이 전송되는 것을 특징으로 하는 운전석과 보조석의 차선표시 HUD.
6. The method of claim 5,
Wherein the at least one mirror part is mounted on a front windshield of a vehicle, wearable glasses of a driver or a passenger, and a helmet so that an image is transmitted by wireless communication.
제5항 내지 제7항의 어느 한 항에 있어서,
상기 적어도 하나의 미러부는 도로의 지평선 위치, 교차로의 상황 정보, 앞차의 위치정보와 같은 차량의 전방 정보를 분석하여 HUD 정보가 가장 잘 인식될 수 있는 위치에 HUD 정보를 표시하는 것을 특징으로 하는 운전석과 보조석의 차선표시 HUD.
8. The method according to any one of claims 5 to 7,
Wherein the at least one mirror unit analyzes the forward information of the vehicle such as the position of the horizon of the road, the situation of the intersection, and the position of the front car, and displays the HUD information at a position where the HUD information is best recognized. And lane marking of the compass HUD.
제어부가 카메라부를 제어하여 영상을 촬영하는 단계;
도로를 촬영한 영상이 카메라부로부터 입력되기 시작하면 제어부는 차선 감지부를 통해 영상에 포함된 차선을 인식하는 동작을 수행하는 단계;
제어부가 상기 차선 인식 동작에 의해 촬영된 영상에 차선이 있는지 없는지를 판단하는 단계;
차선이 있으면 상기 차선감지부로부터 인식된 차선정보와 영상정보를 입력받아 차선 연산부를 통해 차선 사이에서의 차량의 위치를 계산하는 단계;
차선이 없으면 GNSS 관성항법부에서 신호를 받아서 차선 연산부에서 차량의 위치를 계산하는 단계;
차량의 위치가 계산되면 제어부가 차량의 위치편차를 판단하는 단계;
운전석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 운전자에게 알람을 보내는 단계; 및
보조석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 동승자에게 알람을 보내는 단계;를 포함하는 운전석과 보조석의 차선표시 방법.
Controlling the camera unit to capture an image;
When the image of the road is input from the camera unit, the control unit performs an operation of recognizing the lane included in the image through the lane detecting unit;
Determining whether there is a lane in the image photographed by the lane recognition operation;
Receiving the lane information and the image information recognized from the lane detecting unit when the lane is present, and calculating the position of the lane between the lane through the lane calculating unit;
If there is no lane, receiving the signal from the GNSS inertial navigation unit and calculating the position of the vehicle in the lane calculation unit;
Determining a positional deviation of the vehicle when the position of the vehicle is calculated;
Displaying a left lane and a right lane on the driver's seat and sending an alarm to the driver when the vehicle is busy; And
And displaying the left lane and the right lane on an assistant seat and sending an alarm to the passenger when the vehicle is overloaded.
제9항에 있어서,
상기 운전석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 운전자에게 알람을 보내는 단계는, HUD의 프로젝터에서 증강현실기술을 이용하여 도로 환경에 실제차선과 가상차선이 일치되도록 유도신호가 점등되어 표기되는 단계를 더 포함하는 운전석과 보조석의 차선표시 방법.
10. The method of claim 9,
The step of displaying the left lane and the right lane on the driver's seat and sending an alarm to the driver when the vehicle is busy may include turning on the induction signal so that the actual lane and the virtual lane are coincident with the road environment using the augmented reality technique in the projector of the HUD Wherein the step of displaying the lane of the driver's seat and the assistant stool further comprises the step of displaying the lane of the driver's seat and the assistant stool.
제9항에 있어서,
상기 보조석에 좌측 차선 및 우측 차선을 표시하고 차량이 편중되었을시에 동승자에게 알람을 보내는 단계는, HUD의 프로젝터에서 증강현실기술을 이용하여 도로 환경에 실제차선과 가상차선이 일치되도록 유도신호가 점등되어 표기되는 단계를 더 포함하는 운전석과 보조석의 차선표시 방법.
10. The method of claim 9,
The step of displaying the left lane and the right lane in the assistant seat and sending an alarm to the passenger when the vehicle is busy includes using the augmented reality technique in the projector of the HUD to turn on the induction signal so that the actual lane and the virtual lane are coincident with the road environment Wherein the step of displaying the lane of the driver's seat and the assistant stool further comprises the step of displaying the lane of the driver's seat and the assistant stool.
KR1020160107735A 2016-08-24 2016-08-24 Lane markings hud for driver and assistant and same method thereof KR20180022374A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160107735A KR20180022374A (en) 2016-08-24 2016-08-24 Lane markings hud for driver and assistant and same method thereof
CN201610797778.9A CN107776490A (en) 2016-08-24 2016-08-31 The lane line of driver's seat and front passenger's seat, which is shown, uses head-up display and its display methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160107735A KR20180022374A (en) 2016-08-24 2016-08-24 Lane markings hud for driver and assistant and same method thereof

Publications (1)

Publication Number Publication Date
KR20180022374A true KR20180022374A (en) 2018-03-06

Family

ID=61451626

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160107735A KR20180022374A (en) 2016-08-24 2016-08-24 Lane markings hud for driver and assistant and same method thereof

Country Status (2)

Country Link
KR (1) KR20180022374A (en)
CN (1) CN107776490A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210087238A (en) * 2020-01-02 2021-07-12 주식회사 경신 Apparatus and method for generating virtual lane
CN113109939A (en) * 2020-01-10 2021-07-13 未来(北京)黑科技有限公司 Multi-level imaging system

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053734A (en) * 2018-09-25 2020-04-02 アルパイン株式会社 Electronic mirror system
CN111469663A (en) * 2019-01-24 2020-07-31 宝马股份公司 Control system for a vehicle
CN110136519B (en) * 2019-04-17 2022-04-01 阿波罗智联(北京)科技有限公司 Simulation system and method based on ARHUD navigation
CN110531518A (en) * 2019-08-29 2019-12-03 重庆矢崎仪表有限公司 A kind of vehicle augmented reality head-up display system and display methods
CN113401067B (en) * 2020-03-16 2023-05-26 富顶精密组件(深圳)有限公司 Automobile central control system and control method for controlling same
CN111896024A (en) * 2020-07-24 2020-11-06 北京汽车股份有限公司 Navigation display control method and device and AR-HUD display system
US11562576B2 (en) * 2020-08-05 2023-01-24 GM Global Technology Operations LLC Dynamic adjustment of augmented reality image
CN113942522A (en) * 2021-05-31 2022-01-18 重庆工程职业技术学院 Intelligent driving safety protection system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101992778B (en) * 2010-08-24 2013-11-27 上海科世达-华阳汽车电器有限公司 Lane deviation early warning and driving recording system and method
DE102012024930A1 (en) * 2012-12-20 2014-06-26 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Vehicle with distance monitoring device
JP2015020719A (en) * 2013-07-23 2015-02-02 株式会社デンソー Lane maintenance support device
CN203511453U (en) * 2013-08-08 2014-04-02 华南师范大学 Lane shifting alarm system
KR101558353B1 (en) * 2013-09-26 2015-10-07 현대자동차 주식회사 Head-up display apparatus for vehicle using aumented reality
JP5939226B2 (en) * 2013-10-16 2016-06-22 トヨタ自動車株式会社 Driving assistance device
CN105711588B (en) * 2016-01-20 2018-05-11 奇瑞汽车股份有限公司 A kind of track keeps auxiliary system and track to keep householder method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210087238A (en) * 2020-01-02 2021-07-12 주식회사 경신 Apparatus and method for generating virtual lane
CN113109939A (en) * 2020-01-10 2021-07-13 未来(北京)黑科技有限公司 Multi-level imaging system
CN113109939B (en) * 2020-01-10 2023-11-14 未来(北京)黑科技有限公司 Multi-layer imaging system

Also Published As

Publication number Publication date
CN107776490A (en) 2018-03-09

Similar Documents

Publication Publication Date Title
US11181743B2 (en) Head up display apparatus and display control method thereof
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
JP6731116B2 (en) Head-up display device and display control method thereof
US8536995B2 (en) Information display apparatus and information display method
JP6528139B2 (en) Display control device and display control program
JP6304628B2 (en) Display device and display method
US11250816B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
CN109795413B (en) Driving support device and driving support method
US20230249618A1 (en) Display system and display method
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
US11176749B2 (en) In-vehicle display device three-dimensional image generation
KR101976106B1 (en) Integrated head-up display device for vehicles for providing information
KR20150051671A (en) A display control device using vehicles and user motion recognition and its method of operation
US11827148B2 (en) Display control device, display control method, moving body, and storage medium
JP2012153256A (en) Image processing apparatus
JP6186905B2 (en) In-vehicle display device and program
JPWO2020105685A1 (en) Display controls, methods, and computer programs
JP6962131B2 (en) Vehicle display control device, vehicle display system, vehicle display control method and program
JP6947873B2 (en) AR display device, AR display method, and program
WO2016088227A1 (en) Video display device and method
JP2019121140A (en) Display control device and head-up display device
JP2019064422A (en) Head-up display device
WO2021200913A1 (en) Display control device, image display device, and method
US20240210694A1 (en) Vehicle display control device
JP2021160409A (en) Display control device, image display device, and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application