KR20230001923A - Method and apparatus for controlling HUD image based on driver's eyes - Google Patents

Method and apparatus for controlling HUD image based on driver's eyes Download PDF

Info

Publication number
KR20230001923A
KR20230001923A KR1020210085039A KR20210085039A KR20230001923A KR 20230001923 A KR20230001923 A KR 20230001923A KR 1020210085039 A KR1020210085039 A KR 1020210085039A KR 20210085039 A KR20210085039 A KR 20210085039A KR 20230001923 A KR20230001923 A KR 20230001923A
Authority
KR
South Korea
Prior art keywords
driver
gaze
head
changed
vehicle
Prior art date
Application number
KR1020210085039A
Other languages
Korean (ko)
Inventor
박일도
Original Assignee
주식회사대성엘텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사대성엘텍 filed Critical 주식회사대성엘텍
Priority to KR1020210085039A priority Critical patent/KR20230001923A/en
Publication of KR20230001923A publication Critical patent/KR20230001923A/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • B60K2370/1529
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)

Abstract

According to one emboidment, provided is a method for controlling a head-up display video based on the gaze of a driver, which may output a head-up display video at a first position, track the gaze of the driver of a vehicle, and output the head-up display video at a second position corresponding to the changed gaze when the gaze of the driver changes.

Description

운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법 및 장치{Method and apparatus for controlling HUD image based on driver's eyes}Method and apparatus for controlling HUD image based on driver's eyes}

본 발명은 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for controlling an image output of a head-up display based on a driver's gaze.

차량의 운전자에게 주행 정보와 주변 상황 정보 등을 효율적으로 전달해주는 여러 시스템들 중 헤드업 디스플레이(Head Up Display, 이하 HUD라 한다)가 있다.Among various systems that efficiently deliver driving information and surrounding situation information to a driver of a vehicle, there is a Head Up Display (HUD).

HUD는 주행중 운전자의 시야 범위 내에서 주행정보나 내비게이션 정보 등과 같은 차량의 운행정보를 전면의 유리 또는 윈드실드에 표출하는 장치로서, 운전자로 하여금 운전중에 전방만 주시하면서도 차량의 운행정보를 인지할 수 있도록 함으로써 안전운행을 가능하게 한다.A HUD is a device that displays vehicle driving information, such as driving information or navigation information, on the front glass or windshield within the driver's visual range while driving. This enables safe driving.

HUD는 내비게이션과 연동하여 운전자의 가시영역 내에 경로 변경을 안내하는 화살표 정보, 속도 등을 나타내는 텍스트 정보 등의 다양한 차량 정보를 윈드실드 상에 또는 윈드실드 너머에 증강현실(Augmented Reality, 이하 AR이라 한다) 형태로 표시함으로써, 운전자의 시선이 분산되는 것을 방지한다. 이러한 차량 정보를 확인하기 위해서 운전자는 해당 정보를 제공하는 단말기 방향으로 시선을 옮길 필요가 없고, 헤드업 디스플레이 영상이 출력된 전방을 바라보면서 주행할 수 있기 때문에 운전자의 안전에 도움이 된다. HUD는 상기와 같은 이유로 운전자의 시선에 따라 헤드업 디스플레이의 표시를 제어하는 기능을 필수적으로 구비해야 한다. The HUD works in conjunction with the navigation system to display various vehicle information, such as arrow information guiding route changes within the driver's visual area and text information indicating speed, on or beyond the windshield, referred to as Augmented Reality (AR). ) form, it prevents the driver's line of sight from being dispersed. In order to check such vehicle information, the driver does not need to move his gaze toward the terminal that provides the information, and it is helpful to the driver's safety because he can drive while looking forward where the head-up display image is output. For the above reasons, the HUD must necessarily have a function of controlling the display of the head-up display according to the driver's gaze.

종래의 운전자의 시선을 추적하여 HUD를 디스플레이하는 경우, 운전자의 시선을 무작위로 따라가게 됨으로써 HUD의 위치가 수시로 변경되어, 오히려 운전자의 안전 운전을 방해하는 요소가 되는 문제점이 있었다.When the conventional HUD is displayed by tracking the driver's gaze, the position of the HUD is frequently changed as the driver's gaze is randomly followed, which rather interferes with the driver's safe driving.

[선행기술문헌번호][Prior art document number]

선행기술 1: 한국특허출원공개 10-2021-0042431호Prior Art 1: Korean Patent Application Publication No. 10-2021-0042431

선행기술 2: 한국등록특허 10-2084002호Prior Art 2: Korean Patent Registration No. 10-2084002

일 실시 예들은 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법 및 장치를 제공하는 것이다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.One embodiment is to provide a driver's gaze-based head-up display image output control method and apparatus. In addition, it is to provide a computer-readable recording medium recording a program for executing the method on a computer. The technical problem to be solved is not limited to the technical problems described above, and other technical problems may exist.

일 실시 예에 따른 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법은 제1 위치에 헤드업 디스플레이 영상을 출력하는 단계; 차량의 운전자의 시선을 추적하는 단계; 및 상기 운전자의 시선이 변경된 경우, 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 단계를 포함한다.According to an embodiment, a method for controlling a head-up display image based on a driver's gaze includes outputting a head-up display image at a first location; tracking the gaze of the driver of the vehicle; and outputting the head-up display image at a second location corresponding to the changed gaze when the driver's gaze is changed.

상기 제1 위치 및 상기 제2 위치는, 상기 차량의 전면 유리 중 상기 운전자의 시선에 대응하는 위치인 것을 특징으로 한다.The first position and the second position may be positions corresponding to the driver's line of sight on the windshield of the vehicle.

상기 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법은 상기 운전자의 시선이 변경된 경우, 소정의 시간이 경과되었는지 판단하는 단계를 더 포함하고, 상기 소정의 시간이 경과된 경우, 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 한다.The method for controlling a head-up display image based on the driver's gaze further includes determining whether a predetermined time has elapsed when the driver's gaze is changed, and when the predetermined time has elapsed, a method corresponding to the changed gaze It is characterized in that the head-up display image is output at the second location.

상기 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법은 상기 운전자의 자세가 변경되었는지 판단하는 단계를 더 포함하고, 상기 운전자의 자세가 변경된 경우, 상기 운전자의 시선의 변경 및 상기 운전자의 자세의 변경을 기초로 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 한다.The method for controlling a head-up display image based on the driver's gaze further includes determining whether the driver's posture is changed, and when the driver's posture is changed, the driver's gaze and the driver's posture are changed. It is characterized in that the head-up display image is output at a second position corresponding to the changed line of sight based on this.

상기 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법은 사용자 선택에 따라 시선 기반 표시모드를 설정하는 단계를 더 포함한다.The method for controlling a head-up display image based on the driver's gaze further includes setting a gaze-based display mode according to a user's selection.

다른 실시 예에 따른 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법은 제1 위치에 헤드업 디스플레이 영상을 출력하는 단계; 차량의 운전자의 자세가 변경되었는지 판단하는 단계; 및 상기 운전자의 자세가 변경된 경우, 상기 변경된 자세에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 단계를 포함한다.According to another embodiment, a method for controlling a head-up display image based on a driver's gaze includes outputting a head-up display image at a first location; determining whether a driver's attitude of the vehicle has changed; and outputting the head-up display image at a second position corresponding to the changed posture when the posture of the driver is changed.

또 다른 실시 예에 따른 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 장치는 헤드업 디스플레이; 및 상기 헤드업 디스플레이를 통해 헤드업 디스플레이 영상의 출력을 제어하는 프로세서를 포함하고,An apparatus for controlling an image of a head-up display based on a driver's gaze according to another embodiment includes a head-up display; And a processor for controlling the output of a head-up display image through the head-up display,

상기 프로세서는, 제1 위치에 상기 헤드업 디스플레이 영상을 출력하고, 차량의 운전자의 시선을 추적하고, 상기 운전자의 시선이 변경된 경우, 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 한다.The processor outputs the head-up display image at a first location, tracks the driver's gaze, and displays the head-up display image at a second location corresponding to the changed gaze when the driver's gaze is changed. characterized by output.

상기 제1 위치 및 상기 제2 위치는, 상기 차량의 전면 유리 중 상기 운전자의 시선에 대응하는 위치인 것을 특징으로 한다.The first position and the second position may be positions corresponding to the driver's line of sight on the windshield of the vehicle.

상기 프로세서는, 상기 운전자의 시선이 변경된 경우, 소정의 시간이 경과되었는지 판단하고, 상기 소정의 시간이 경과된 경우, 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 한다.When the driver's line of sight is changed, the processor determines whether a predetermined time has elapsed, and when the predetermined time has elapsed, outputs the head-up display image at a second position corresponding to the changed line of sight. to be

상기 프로세서는, 상기 운전자의 자세가 변경되었는지 판단하고, 상기 운전자의 자세가 변경된 경우, 상기 운전자의 시선의 변경 및 상기 운전자의 자세의 변경을 기초로 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 한다.The processor determines whether the driver's posture has changed, and if the driver's posture has changed, the head is located at a second position corresponding to the changed line of sight based on the change in the driver's line of sight and the change in the driver's posture. It is characterized by outputting an up-display image.

상기 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 장치는 시선 기반 표시모드를 설정하는 사용자 인터페이스를 더 포함한다.The apparatus for controlling an image of a head-up display based on the driver's gaze further includes a user interface for setting a display mode based on the driver's gaze.

또 다른 실시 예에 따른 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.A recording medium on which a program for executing a method for controlling an image of a head-up display based on a driver's gaze according to another embodiment is recorded in a computer.

도 1은 차량의 내부 블록 도이다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
도 3은 일 실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 장치의 개략 도이다.
도 4는 다른 실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법의 흐름 도이다.
도 5는 또 다른 실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법의 흐름 도이다.
도 6은 또 다른 실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법의 흐름 도이다.
도 7a 및 7b는 헤드업 디스플레이 영상의 표시 위치를 변경하는 예시 도들이다.
도 8a 및 8b는 헤드업 디스플레이 영상의 표시 위치를 변경하는 예시 도들이다.
1 is a block diagram of the interior of a vehicle;
FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1;
3 is a schematic diagram of an apparatus for controlling an output of a head-up display based on a driver's gaze according to an embodiment.
4 is a flowchart of a method for controlling a head-up display image output based on a driver's gaze according to another embodiment.
5 is a flowchart of a method for controlling an image output of a head-up display based on a driver's gaze according to another embodiment.
6 is a flowchart of a method for controlling an image output of a head-up display based on a driver's gaze according to another embodiment.
7A and 7B are exemplary diagrams for changing a display position of a head-up display image.
8A and 8B are examples of changing a display position of a head-up display image.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but they may vary depending on the intention or precedent of a person skilled in the field, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a certain part "includes" a certain component throughout the specification, it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 차량의 내부 블록도이다. 1 is an internal block diagram of a vehicle according to an exemplary embodiment.

도 1을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.Referring to FIG. 1 , a vehicle 100 includes a communication unit 110, an input unit 120, a sensing unit 125, a memory 130, an output unit 140, a vehicle driving unit 150, and a vehicle driving assistance system (ADAS). , 160), a control unit 170, an interface unit 180, and a power supply unit 190.

통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The communication unit 110 may include a short-range communication module, a location information module, an optical communication module, and a V2X communication module.

입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The input unit 120 may include a driving control unit, a camera, a microphone, and a user input unit.

운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving control unit receives a user input for driving the vehicle 100 . The driving control unit may include a steering input unit, a shift input unit, an acceleration input unit, and a brake input unit.

가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input unit receives an input for acceleration of the vehicle 100 from a user. The brake input unit receives an input for decelerating the vehicle 100 from a user.

카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera may process still images or moving images obtained by an image sensor (eg, CMOS or CCD). The image processing module may process a still image or video obtained through an image sensor, extract necessary information, and deliver the extracted information to the controller 170 .

한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.Meanwhile, the vehicle 100 may include a front camera for capturing an image in front of the vehicle, an around view camera for capturing an image around the vehicle, and a rear camera for capturing an image behind the vehicle. Each camera may include a lens, an image sensor and a processor. The processor may computer-process the photographed image to generate data or information, and transmit the generated data or information to the controller 170 . A processor included in the camera may be controlled by the controller 170 .

카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a stereo camera. In this case, the processor of the camera may use a disparity difference detected in the stereo image to detect a distance to the object, a relative speed to the object detected in the image, and a distance between a plurality of objects.

카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera detects the distance to the object, the relative speed to the object, and the distance between the plurality of objects based on the time (TOF) until infrared rays or lasers emitted from the light source are reflected and received by the object. can do.

한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rearview camera may be disposed near the rear license plate or trunk or tailgate switch, but the rearview camera is not limited thereto.

복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured by the plurality of cameras is transmitted to a processor of the camera, and the processor may synthesize the respective images to generate an image around the vehicle. In this case, the image around the vehicle may be displayed through the display unit as a top view image or a bird's eye image.

센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The sensing unit 125 senses various conditions of the vehicle 100 . To this end, the sensing unit 125 includes a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a yaw sensor, and a gyro sensor. , position module, vehicle forward/backward sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle internal temperature sensor, vehicle internal humidity sensor, ultrasonic sensor, illuminance sensor, radar, lidar, etc. can include

이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the sensing unit 125 provides vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/backward information, and battery information. , Fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle external illuminance, and the like.

메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 130 is electrically connected to the controller 170 . The memory 130 may store basic data for the unit, control data for controlling the operation of the unit, and input/output data. The memory 130 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc. in terms of hardware. The memory 130 may store various data for overall operation of the vehicle 100, such as a program for processing or control by the control unit 170.

출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The output unit 140 is for outputting information processed by the controller 170 and may include a display unit, a sound output unit, and a haptic output unit.

디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit may display information processed by the controller 170 . For example, the display unit may display vehicle-related information. Here, the vehicle-related information may include vehicle condition information indicating a current state of the vehicle or vehicle driving information related to driving of the vehicle. For example, the display unit may display information about the speed (or speed) of the current vehicle, the speed (or speed) of nearby vehicles, and the distance between the current vehicle and nearby vehicles.

한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다. 실시 예에서, 운전자의 시선을 추적하기 위한 시선추적모듈, 예를 들면 아이트래커(eye tracker)가 클러스터에 구비되어 있을 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check vehicle state information or vehicle driving information while driving. Clusters can be located above the dashboard. In this case, the driver can check the information displayed on the cluster while keeping his/her gaze in front of the vehicle. In an embodiment, a gaze tracking module for tracking the driver's gaze, for example, an eye tracker, may be provided in the cluster.

음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts the electrical signal from the control unit 170 into an audio signal and outputs it. To this end, the sound output unit may include a speaker or the like.

차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The vehicle driving unit 150 may control the operation of various vehicle devices. The vehicle driving unit 150 may include a power source driving unit, a steering driving unit, a brake driving unit, a lamp driving unit, an air conditioning driving unit, a window driving unit, an airbag driving unit, a sunroof driving unit, and a suspension driving unit.

동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driver may perform electronic control of the power source in the vehicle 100 . For example, when a fossil fuel-based engine (not shown) is the power source, the power source driver may perform electronic control of the engine. This makes it possible to control the output torque of the engine and the like. When the power source driver is an engine, the speed of the vehicle may be limited by limiting engine output torque according to the control of the control unit 170 .

브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driver may perform electronic control of a brake apparatus (not shown) in the vehicle 100 . For example, the speed of the vehicle 100 may be reduced by controlling the operation of brakes disposed on wheels. As another example, the driving direction of the vehicle 100 may be adjusted to the left or right by differentiating the operation of the brakes respectively disposed on the left and right wheels.

램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit may control turning on/off of lamps disposed inside or outside the vehicle. In addition, the intensity and direction of the light of the lamp can be controlled. For example, control of direction indicator lamps and brake lamps may be performed.

제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 사고 유무 판단 장치는 제어부(170)에 의해 구동될 수 있다.The controller 170 may control overall operations of each unit in the vehicle 100 . The controller 170 may be referred to as an Electronic Control Unit (ECU). The aforementioned accident determination device may be driven by the controller 170 .

제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The control unit 170, in terms of hardware, includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors ( It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.

인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The interface unit 180 may serve as a passage for various types of external devices connected to the vehicle 100 . For example, the interface unit 180 may have a port connectable to a mobile terminal (not shown), and may be connected to a mobile terminal (not shown) through the port. In this case, the interface unit 180 can exchange data with the mobile terminal.

전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 190 may supply power required for operation of each component according to the control of the control unit 170 . In particular, the power supply unit 190 may receive power from a battery (not shown) inside the vehicle.

도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1;

ADAS(200)는, 편의, 안전 제공을 위해 운전자를 보조 하는 차량 운전 보조 시스템이다.The ADAS 200 is a vehicle driving assistance system that assists a driver in order to provide convenience and safety.

ADAS(200)는, 자동 비상 제동 모듈(이하, AEB: Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW: Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW: Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA: Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS: Speed Assist System)(214), 교통 신호 검출 모듈 (TSR: Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA: High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD: Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES: Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS: Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC: Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS: Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA: Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM: Around View Monitor)(223)을 포함할 수 있다.The ADAS 200 includes an automatic emergency braking module (hereinafter referred to as AEB: Autonomous Emergency Braking) 210, a forward collision avoidance module (hereinafter referred to as FCW: Forward Collision Warning) 211, a lane departure warning module (hereinafter referred to as LDW: Lane Departure Warning) (212), Lane Keeping Assist (LKA) (213), Speed Assist System (SAS) (214), Traffic Sign Detection Module (TSR) Recognition) (215), adaptive high beam control module (hereinafter, HBA: High Beam Assist) (216), blind spot monitoring module (hereinafter, BSD: Blind Spot Detection) (217), automatic emergency steering module (hereinafter, AES: Autonomous Emergency Steering (218), Curve Speed Warning System (CSWS) (219), Adaptive Cruise Control (ACC) (220), Smart Parking System (220) , SPAS: Smart Parking Assist System (SPAS) 221, a traffic congestion support module (hereinafter referred to as TJA: Traffic Jam Assist) 222, and an around view monitor module (hereinafter referred to as AVM: Around View Monitor) 223 may be included. .

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.Each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, and 223 may include a processor for controlling vehicle driving assistance functions.

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(270)의 제어를 받을 수 있다.A processor included in each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223 may be controlled by the controller 270. .

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Each of the ADAS modules (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) processors, in terms of hardware, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors, controllers, micro-controllers, microprocessors microprocessors) and electrical units for performing other functions.

AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다. FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다. LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다. LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다. SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다. TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다. HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다. BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다. AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다. CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다. ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다. SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다. TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다. AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다. The AEB 210 is a module that controls automatic braking in order to prevent a collision with a detected object. The FCW 211 is a module that controls a warning to be output in order to prevent a collision with an object in front of the vehicle. The LDW 212 is a module that controls a warning to be output to prevent lane departure while driving. The LKA 213 is a module that controls to maintain a driving lane while driving. The SAS 214 is a module that controls driving at a set speed or less. The TSR 215 is a module that detects a traffic signal while driving and provides information based on the detected traffic signal. The HBA 216 is a module that controls the irradiation range or amount of high beam light according to driving conditions. The BSD 217 is a module that detects an object outside the driver's visual field while driving and provides detection information. AES (218) is a module that automatically performs steering in an emergency. The CSWS 219 is a module that controls to output a route when driving at a preset speed or higher during curve driving. The ACC 220 is a module that controls the driving vehicle to follow the preceding vehicle. The SPAS 221 is a module that detects a parking space and controls to park in the parking space. The TJA 222 is a module that controls automatic operation in case of traffic congestion. The AVM 223 is a module that provides an image around the vehicle and controls to monitor the surroundings of the vehicle.

ADAS(200)는, 입력부(230) 또는 센싱부(235)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(250) 또는 차량 구동부(260)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(250) 또는 차량 구동부(260)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(270)를 거쳐, 출력부(250) 또는 차량 구동부(260)에 출력할 수 있다.The ADAS 200 provides a control signal for performing each vehicle driving assistance function to the output unit 250 or the vehicle driving unit 260 based on the data acquired by the input unit 230 or the sensing unit 235. can do. The ADAS 200 may directly output the control signal to the output unit 250 or the vehicle driving unit 260 through in-vehicle network communication (eg, CAN). Alternatively, the ADAS 200 may output the control signal to the output unit 250 or the vehicle driving unit 260 via the control unit 270 .

도 3은 일 실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 장치의 개략 도이다.3 is a schematic diagram of an apparatus for controlling an output of a head-up display based on a driver's gaze according to an embodiment.

도 3을 참조하면, 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 장치(300)는 제어부(310), 시선추적부(320), 자세판단부(330) 및 헤드업 디스플레이(340)를 포함한다. Referring to FIG. 3 , an apparatus 300 for controlling an image output of a head-up display based on a driver's gaze includes a controller 310, a gaze tracking unit 320, a posture determining unit 330, and a head-up display 340.

실시 예에 따른 제어부(310)는 헤드업 디스플레이 영상을 출력하고, 차량의 운전자의 시선을 추적하고, 운전자의 시선이 변경된 경우, 변경된 시선에 상응하는 제2 위치에 헤드업 디스플레이 영상을 출력한다.The controller 310 according to the embodiment outputs a head-up display image, tracks the driver's gaze, and outputs the head-up display image at a second location corresponding to the changed gaze when the driver's gaze is changed.

시선추적부(320)는 운전자의 시선을 검출 및 추적하여, 시선의 방향 및 위치(좌표)를 검출한다. 아이트래킹(Eye Tracking)은 동공 중심부분(Pupil center)과 각막반사(Corneal reflex)를 인식하여 눈의 움직임을 추적한다. The gaze tracking unit 320 detects and tracks the driver's gaze, and detects the direction and position (coordinates) of the gaze. Eye Tracking tracks eye movement by recognizing the pupil center and corneal reflex.

예를 들면, 근적외선 LED에 의해 각막을 조사하고, 반사 패턴을 카메라로 촬영한다. 각막 상에 빛의 반사 점을 만들고 그 영상을 카메라로 촬영한다. 촬영된 눈 이미지에서 각막 상의 빛의 반사 점과 동공을 식별하고, 빛의 반사 점과 기타 기하학적 특징을 바탕으로 눈의 방향을 산출할 수 있다. 시선추적은 다양한 알고리즘 및 공지의 시선추적 알고리즘을 사용할 수 있다. For example, the cornea is irradiated with a near-infrared LED, and the reflection pattern is photographed with a camera. A reflection point of light is created on the cornea and the image is captured with a camera. In the captured eye image, the light reflection point on the cornea and the pupil can be identified, and the direction of the eye can be calculated based on the light reflection point and other geometric features. Eye tracking may use various algorithms and known eye tracking algorithms.

시선추적부(320)는 거치형으로 차량의 내부에 운전자의 눈에 조사 및 촬영할 수 있는 위치에 배치될 수 있다. 예를 들면 차량 내부의 룸미러 근처, 비전 클러스터 근처, 운전석에 대응되는 대시보드 근처에 장착될 수 있지만, 그 위치에 한정되는 것은 아니다.The eye tracking unit 320 is a stationary type and may be disposed inside the vehicle at a position where it can irradiate and photograph the driver's eyes. For example, it may be mounted near a room mirror inside a vehicle, near a vision cluster, or near a dashboard corresponding to a driver's seat, but is not limited thereto.

자세 판단부(330)는 운전자의 자세가 변경되었는지를 판단한다. 자세 판단을 위해, 차량 내부의 특정 위치에 배치된 모션 센서(미도시)를 통해 감지된 운전자의 움직임을 가지고 판단할 수 있다. 다른 예시로, 운전석의 시트 조절(상하좌우앞뒤) 버튼이 입력된 것을 기초로, 운전자의 자세가 변경된 것으로 판단한다. The posture determination unit 330 determines whether the driver's posture has changed. In order to determine the posture, the determination may be made using the motion of the driver detected through a motion sensor (not shown) disposed at a specific position inside the vehicle. As another example, it is determined that the driver's posture has changed based on the input of the seat adjustment (up, down, left, right, front and rear) buttons of the driver's seat.

실시 예에서, 운전자의 자세의 변경은, 운전자의 시선이 변경을 유발하므로, 자세 변경을 통해 운전자의 시선 변경을 추정할 수 있다. 이를 위해, 운전자의 기본 자세에서의 시선 위치를 기준으로, 자세 변경을 반영한 시선 위치 변화를 계산할 수 있다.In an embodiment, since a change in the driver's posture causes a change in the driver's gaze, it is possible to estimate the change in the driver's gaze through the change in posture. To this end, based on the position of the driver's gaze in the basic posture, a change in the position of the gaze reflecting the change in posture may be calculated.

헤드업 디스플레이(340)는 운전자의 시선으로부터 윈드실드(전면유리) 너머 허공에 인스트루먼트 패널의 주요 정보와 간단히 내비게이션의 방향 지시를 표시한다. 헤드업 디스플레이(340)는 투명한 그래픽 이미지를 윈드실드의 반사 필름에 투사해 이미지가 운전자 앞 몇 미터에 있는 것처럼 보이게 한다. HUD를 통해 운전자는 고개를 숙여 속도계를 확인하거나, 우측에 위치한 내비게이션을 민감하게 주시할 필요가 없어진다. 오직 전방 도로를 주시하는 것으로 주요 주행 정보를 볼 수 있다. The head-up display 340 displays main information of the instrument panel and simple navigation directions in the air beyond the windshield (front glass) from the driver's line of sight. The head-up display 340 projects a transparent graphic image onto the windshield's reflective film, making the image appear to be several meters in front of the driver. With the HUD, the driver does not have to lower his or her head to check the speedometer or sensitively look at the navigation system located on the right. You can see key driving information just by looking at the road ahead.

헤드업 디스플레이(340)는 매립형, 거치형, 단말기 연동형일 수 있다. 본체와 반사판으로 이루어져 있으며, 기기에 포함된 센서들을 이용해 음성인식과 제스처 컨트롤이 가능하고 기존 차량용 내비게이션과의 연동을 더해 스마트폰과의 연동으로 내비게이션 정보는 표시할 수 있다. 통화와 메시지 정보, 미디어 재생 정보, SNS와 E-메일 알림 등을 표시하거나 아예 스마트폰 화면 자체를 투사할 수도 있다.The head-up display 340 may be a buried type, a stationary type, or a terminal interlocking type. Consisting of a main body and a reflector, voice recognition and gesture control are possible using sensors included in the device, and navigation information can be displayed by linking with a smartphone by adding linkage with an existing car navigation system. It can display call and message information, media play information, SNS and E-mail notifications, or even project the smartphone screen itself.

또한, 헤드업 디스플레이(340)는 AR HUD 영상을 표시할 수 있다. AR HUD는 투명 디스플레이를 이용해 실제 더 먼 전방 풍경 위에 진출입, 방향 전환해야하는 지점에 정확하게 화살표, 또는 카펫이나 라인과 같은 길 안내, 가상의 표지판 등 이미지를 중첩해 표시할 수 있다. AR HUD는 차량 속도와 기본적인 안내 정보는 가까운 화면에, 보다 실제와 같은 증강현실 정보는 먼 화면에 비춘다. 또한, 앞차와 간격이 너무 가깝거나, 급하게 끼어드는 차량, 보행자, 사물 등 충돌위험에 대해, 차선 유지를 위해 AR 그래픽으로 위험을 쉽게 인지할 수 있도록 표시해 줄 수 있다. Also, the head-up display 340 may display an AR HUD image. AR HUD uses a transparent display to display images such as arrows, route guidance such as carpets or lines, and virtual signs precisely at the point where entry and exit and direction change are required on the actual farther forward landscape. AR HUD projects vehicle speed and basic guidance information on a nearby screen, and more realistic augmented reality information on a far screen. In addition, the risk of collision, such as a vehicle in front or too close to a vehicle in a hurry, a pedestrian, or an object, can be displayed with AR graphics so that the danger can be easily recognized in order to keep the vehicle in its lane.

AR HUD를 위해, 차량에 구비된 카메라와 레이더, 초음파 센서로부터 센싱된 정보들을 이용하여, AR HUD 영상을 생성한다. 센서와 소프트웨어는 사물의 좌표를 결정할 수 있고, 사람이거나 사물인지를 식별하며, 디스플레이 위 비디오 이미지에 맞춰서 표시한다. 이미지 센서를 활용한 시나리오 분석에 대한 컴퓨팅 파워, GPS 데이터를 포함해 실제 사물에 가상 정보를 정확히 배치시킨다. 차가 순간 어디에 있고 어느 방향으로 가는지 혹은 운전자가 어디를 보고 있는지를 알기 때문에 풍경 위에 가상 오브젝트의 위치를 잡을 수 있다. 고정밀 GPS와 HD 맵 데이터에 기반한 포지셔닝으로 정확도를 개선한다. AR은 다수의 센서 데이터 세트를 포함하고, 차량 거동 수학 모델을 포함할 수 있다. For the AR HUD, an AR HUD image is generated using information sensed from a camera, radar, and ultrasonic sensor installed in the vehicle. Sensors and software can determine the coordinates of an object, identify whether it is a person or an object, and match the video image to the display. Accurately place virtual information on real objects, including computing power and GPS data for scenario analysis using image sensors. Knowing where the car is at any moment, which way it is going, or where the driver is looking, it can position virtual objects on the landscape. Positioning based on high-precision GPS and HD map data improves accuracy. AR includes multiple sensor data sets and may include vehicle behavior mathematical models.

제어부(310)는 시선추적부(320)로부터 얻은 운전자 시선 정보(예를 들면 방향과 좌표)를 기초로 운전자의 시선이 변경되었는지 판단한다. 제어부(310)는 운전자의 시선이 변경된 경우, 소정의 시간이 경과되었는지 판단한다. 실시 예에서, 운전자의 시선 변경에 따라 HUD 출력 위치가 수시로 변경되는 것은 운전자에게 혼동을 주어, 오히려 안전운전을 방해할 수 있다. 따라서, 운전자가 잠깐 시선을 돌리는 것인지, 아니면, 시선추적의 오류가 있는 것인지 등을 판단하기 위해, 변경된 시선이 어느 정도 유지되는지 판단함으로써, 운전자의 실제 시선 변경을 반영할 수 있다. The controller 310 determines whether the driver's gaze has changed based on the driver's gaze information (eg, direction and coordinates) obtained from the gaze tracking unit 320 . When the driver's line of sight is changed, the controller 310 determines whether a predetermined time has elapsed. In an embodiment, the frequent change of the HUD output position according to the change of the driver's line of sight may confuse the driver and hinder safe driving. Accordingly, the driver's actual gaze change may be reflected by determining how much the changed gaze is maintained in order to determine whether the driver is temporarily looking away or whether there is an error in eye tracking.

제어부(310)는 소정의 시간, 예를 들면 5초의 시간이 경과된 경우, 변경된 시선에 상응하는 제2 위치에 헤드업 디스플레이 영상을 출력한다.The controller 310 outputs a head-up display image at a second position corresponding to the changed line of sight when a predetermined time, for example, 5 seconds has elapsed.

제어부는(310)는 자세 판단부(330)로부터 얻은 운전자의 자세 정보로부터, 운전자의 자세가 변경되었는지 판단한다. 제어부(310)는 운전자의 자세가 변경된 경우, 운전자의 시선의 변경 및 운전자의 자세의 변경을 기초로 운전자의 시선이 변경되었는지 판단한다. 예를 들면, 시선추적으로 통해 시선은 변경되지 않았지만, 자세 변경으로 판단된 경우, 자세 변경에 따라 시선이 변경된 것으로 판단하고, 위치를 변경해서, 헤드업 디스플레이 영상을 출력한다. 또한, 시선추적을 통해 시선이 변경된 좌표와, 자세 변경으로 추정된 시선이 변경된 좌표가 일치하는지 판단할 수 있다. 일치하지 않는 경우, 보정을 통해 정확한 시선 위치를 추정할 수도 있다.The controller 310 determines whether the driver's posture has changed from the driver's posture information obtained from the posture determination unit 330 . When the driver's posture is changed, the controller 310 determines whether the driver's line of sight has changed based on the change in the driver's line of sight and the change in the driver's posture. For example, if the gaze is not changed through gaze tracking but it is determined that the posture is changed, it is determined that the gaze is changed according to the posture change, the position is changed, and the head-up display image is output. In addition, it may be determined whether the coordinates of the gaze change through gaze tracking coincide with the coordinates of the gaze change estimated by the posture change. If they do not match, an accurate gaze position may be estimated through correction.

도 3에 도시되지는 않았지만, 시선기반 표시 모드를 설정할 수 있는 사용자 인터페이스를 포함할 수 있다. 운전자는 사용자 인터페이스를 통해 시선기반 표시모드를 선택한 경우에, 시선추적 또는 자세판단이 수행되어, 운전자의 시선에 따른 HUD 영상 출력의 위치를 제어할 수 있다.Although not shown in FIG. 3 , a user interface capable of setting a gaze-based display mode may be included. When the driver selects the gaze-based display mode through the user interface, gaze tracking or posture determination is performed to control the position of the HUD image output according to the driver's gaze.

도 4는 다른 실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법의 흐름 도이다.4 is a flowchart of a method for controlling a head-up display image output based on a driver's gaze according to another embodiment.

도 4를 참조하면, 단계 400에서, 전면 유리의 제1 위치에 헤드업 디스플레이 영상을 출력한다. 도 7a에 도시된 것처럼, 운전석의 전면의 초기 위치(720)에 헤드업 디스플레이 영상을 출력한다. Referring to FIG. 4 , in step 400, a head-up display image is output to a first position on the windshield. As shown in FIG. 7A , a head-up display image is output at an initial position 720 in front of the driver's seat.

단계 402에서, 운전자의 시선을 추적한다. 도 7a에 도시된 것처럼, 클러스터의 중앙에 시선추적모듈(7100)이 배치되어, 운전자의 시선을 추적한다. In step 402, the driver's gaze is tracked. As shown in FIG. 7A , a gaze tracking module 7100 is disposed in the center of the cluster to track the driver's gaze.

단계 404에서, 운전자의 시선이 변경되었는지 판단한다.In step 404, it is determined whether the driver's line of sight has changed.

단계 404의 판단 결과, 운전자의 시선이 변경된 경우, 단계 406에서, 변경된 시선에 상응하는 제2 위치에 헤드업 디스플레이 영상을 출력한다. 도 7b에 도시된 것처럼, 운전자의 시선이 변경, 예를 들면 위에서 아래로 변경된 경우, 전면 유리에서, 초기 위치(720)보다 낮은 위치(730)에 헤드업 디스플레이 영상을 변경하여 출력한다.As a result of the determination in step 404, when the driver's line of sight is changed, in step 406, a head-up display image is output at a second position corresponding to the changed line of sight. As shown in FIG. 7B , when the driver's line of sight changes, for example, from top to bottom, the head-up display image is changed and output to a position 730 lower than the initial position 720 on the windshield.

도 5는 또 다른 실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법의 흐름 도이다.5 is a flowchart of a method for controlling an image output of a head-up display based on a driver's gaze according to another embodiment.

도 5를 참조하면, 단계 500에서, 전면 유리의 제1 위치에 헤드업 디스플레이 영상을 출력한다. Referring to FIG. 5 , in step 500, a head-up display image is output to a first position on the windshield.

단계 502에서, 운전자의 시트 위치가 변경되었는지 판단한다. 실시 예에서, 운전자의 시트가 상하좌우전후로 변경되는 사용자 입력이 있었는지 판단한다. 다른 예시로, 운전자의 모션을 감지하여, 자세 변경이 있었는지 판단할 수도 있다.In step 502, it is determined whether the driver's seat position has changed. In an embodiment, it is determined whether there is a user input for changing the driver's seat up, down, left, right, back and forth. As another example, the motion of the driver may be detected to determine whether there is a change in posture.

단계 502의 판단 결과, 운전자의 자세가 변경된 경우, 단계 504에서, 변경된 시트 위치에 상응하는 제2 위치에 헤드업 디스플레이 영상을 출력한다. 여기서, 변경된 시트 위치에 상응한느 시선의 위치가 미리 정해져 있을 수 있다. As a result of the determination in step 502, when the driver's posture is changed, in step 504, a head-up display image is output at a second position corresponding to the changed seat position. Here, the position of the line of sight corresponding to the changed seat position may be determined in advance.

도 6은 또 다른 실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법의 흐름 도이다.6 is a flowchart of a method for controlling an image output of a head-up display based on a driver's gaze according to another embodiment.

도 6을 참조하면, 단계 600에서, 전면 유리의 제1 위치에 헤드업 디스플레이 영상을 출력한다. 도 8a에 도시된 것처럼, 운전석의 전면의 초기 위치(810)에 헤드업 디스플레이 영상을 출력한다. Referring to FIG. 6 , in step 600, a head-up display image is output to a first position on the windshield. As shown in FIG. 8A , a head-up display image is output at an initial position 810 in front of the driver's seat.

단계 602에서, 운전자의 시선을 추적한다. In step 602, the driver's gaze is tracked.

단계 604에서, 운전자의 시선이 변경되었는지 판단한다.In step 604, it is determined whether the driver's line of sight has changed.

단계 604의 판단 결과, 운전자의 시선이 변경된 경우, 단계 606에서, 일정시간이 경과하였는지 판단한다. As a result of the determination in step 604, when the driver's line of sight is changed, in step 606, it is determined whether a predetermined time has elapsed.

단계 606의 판단 결과, 일정 시간이 경과한 경우, 단계 608에서, 변경된 시선에 상응하는 제2 위치에 헤드업 디스플레이 영상을 출력한다. 도 8b에 도시된 것처럼, 운전자의 시선이 변경, 예를 들면 초기 위치에서 위로 변경된 경우, 전면 유리에서, 초기 위치(810)보다 높은 위치(720)에 헤드업 디스플레이 영상을 출력한다.As a result of the determination in step 606, when a predetermined time has elapsed, in step 608, a head-up display image is output at a second position corresponding to the changed line of sight. As shown in FIG. 8B , when the driver's line of sight is changed, for example, from an initial position upward, a head-up display image is output at a position 720 higher than the initial position 810 on the windshield.

실시 예에 따른 운전자 시선 기반의 헤드업 디스플레이 영상 출력 제어 방법 및 장치는 운전자의 시선에 따라 적응적으로 헤드업 디스플레이 영상을 제공할 수 있다.A method and apparatus for controlling an output of a head-up display image based on a driver's gaze according to an embodiment may adaptively provide a head-up display image according to a driver's gaze.

또한, 운전자의 시선 변경의 의도를 정확하게 판단하여, 헤드업 디스플레이 영상의 표시 위치를 변경함으로써, 운전자의 안전운전에 도움을 줄 수 있다.In addition, by accurately determining the driver's intention to change the driver's gaze and changing the display position of the head-up display image, it is possible to assist the driver in safe driving.

일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. A device according to an embodiment includes a processor, a memory for storing and executing program data, a permanent storage unit such as a disk drive, a communication port for communicating with an external device, a user interface such as a touch panel, a key, and a button. interface devices and the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, the computer-readable recording medium includes magnetic storage media (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading media (e.g., CD-ROM) ), and DVD (Digital Versatile Disc). A computer-readable recording medium may be distributed among computer systems connected through a network, and computer-readable codes may be stored and executed in a distributed manner. The medium may be readable by a computer, stored in a memory, and executed by a processor.

도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다. Reference numerals have been described in the embodiments shown in the drawings, and specific terms have been used to describe the embodiments, but the present invention is not limited by specific terms, and the embodiments are all configurations commonly conceivable to those skilled in the art. elements may be included.

실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.An embodiment may be presented as functional block structures and various processing steps. These functional blocks may be implemented with any number of hardware or/and software components that perform specific functions. For example, an embodiment is an integrated circuit configuration such as memory, processing, logic, look-up table, etc., which can execute various functions by control of one or more microprocessors or other control devices. can employ them. Similar to components of the present invention that may be implemented as software programming or software elements, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, such as C, C++ , Java (Java), can be implemented in a programming or scripting language such as assembler (assembler). Functional aspects may be implemented in an algorithm running on one or more processors. In addition, the embodiment may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used broadly and are not limited to mechanical and physical components. The term may include a meaning of a series of software routines in connection with a processor or the like.

실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific executions described in the embodiments are examples, and do not limit the scope of the embodiments in any way. For brevity of the specification, description of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection of lines or connecting members between the components shown in the drawings are examples of functional connections and / or physical or circuit connections, which can be replaced in actual devices or additional various functional connections, physical connection, or circuit connections. In addition, if there is no specific reference such as “essential” or “important”, it may not be a component necessarily required for the application of the present invention.

실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of embodiments (particularly in the claims), the use of the term “above” and similar indicating terms may correspond to both singular and plural. In addition, when a range is described in the examples, it includes the invention to which individual values belonging to the range are applied (unless there is no description to the contrary), and it is as if each individual value constituting the range is described in the detailed description. . Finally, if there is no explicit description or description of the order of steps constituting the method according to the embodiment, the steps may be performed in an appropriate order. Examples are not necessarily limited according to the order of description of the steps. The use of all examples or exemplary terms (eg, etc.) in the embodiments is simply to describe the embodiments in detail, and the scope of the embodiments is limited due to the examples or exemplary terms unless limited by the claims. It is not. In addition, those skilled in the art can appreciate that various modifications, combinations and changes can be made according to design conditions and factors within the scope of the appended claims or equivalents thereof.

Claims (12)

제1 위치에 헤드업 디스플레이 영상을 출력하는 단계;
차량의 운전자의 시선을 추적하는 단계; 및
상기 운전자의 시선이 변경된 경우, 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 단계를 포함하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법.
outputting a head-up display image at a first location;
tracking the gaze of the driver of the vehicle; and
and outputting the head-up display image at a second location corresponding to the changed gaze when the driver's gaze is changed.
제 1 항에 있어서,
상기 제1 위치 및 상기 제2 위치는,
상기 차량의 전면 유리 중 상기 운전자의 시선에 대응하는 위치인 것을 특징으로 하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법.
According to claim 1,
The first position and the second position,
A head-up display image control method based on the driver's gaze, characterized in that the position of the windshield of the vehicle corresponding to the driver's gaze.
제 1 항에 있어서,
상기 운전자의 시선이 변경된 경우, 소정의 시간이 경과되었는지 판단하는 단계를 더 포함하고,
상기 소정의 시간이 경과된 경우, 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법.
According to claim 1,
Further comprising determining whether a predetermined time has elapsed when the driver's line of sight is changed,
When the predetermined time has elapsed, the head-up display image is output to a second position corresponding to the changed gaze.
제 1 항에 있어서,
상기 운전자의 자세가 변경되었는지 판단하는 단계를 더 포함하고,
상기 운전자의 자세가 변경된 경우, 상기 운전자의 시선의 변경 및 상기 운전자의 자세의 변경을 기초로 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법.
According to claim 1,
Further comprising determining whether the driver's posture has changed,
When the driver's posture is changed, the head-up display image is output at a second position corresponding to the changed gaze based on the change in the driver's gaze and the change in the driver's posture. based head-up display image control method.
제 1 항에 있어서,
사용자 선택에 따라 시선 기반 표시모드를 설정하는 단계를 더 포함하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법.
According to claim 1,
A method for controlling a head-up display image based on a driver's gaze, further comprising setting a gaze-based display mode according to a user's selection.
제1 위치에 헤드업 디스플레이 영상을 출력하는 단계;
차량의 운전자의 자세가 변경되었는지 판단하는 단계; 및
상기 운전자의 자세가 변경된 경우, 상기 변경된 자세에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 단계를 포함하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 방법.
outputting a head-up display image at a first location;
determining whether a driver's attitude of the vehicle has changed; and
and outputting the head-up display image at a second position corresponding to the changed posture when the posture of the driver is changed.
제 1 항 내지 제 6 항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체.A recording medium recording a program for executing the method according to any one of claims 1 to 6 in a computer. 헤드업 디스플레이;
상기 헤드업 디스플레이를 통해 헤드업 디스플레이 영상의 출력을 제어하는 프로세서를 포함하고,
상기 프로세서는,
제1 위치에 상기 헤드업 디스플레이 영상을 출력하고,
차량의 운전자의 시선을 추적하고,
상기 운전자의 시선이 변경된 경우, 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 하는 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 장치.
heads-up display;
A processor controlling output of a head-up display image through the head-up display;
the processor,
Outputting the head-up display image at a first location;
tracking the driver's gaze of the vehicle;
When the driver's gaze is changed, the head-up display image control device based on the driver's gaze, characterized in that for outputting the head-up display image at a second position corresponding to the changed gaze.
제 8 항에 있어서,
상기 제1 위치 및 상기 제2 위치는,
상기 차량의 전면 유리 중 상기 운전자의 시선에 대응하는 위치인 것을 특징으로 하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 장치.
According to claim 8,
The first position and the second position,
A head-up display image control device based on the driver's gaze, characterized in that the position of the windshield of the vehicle corresponding to the driver's gaze.
제 8 항에 있어서,
상기 프로세서는,
상기 운전자의 시선이 변경된 경우, 소정의 시간이 경과되었는지 판단하고, 상기 소정의 시간이 경과된 경우, 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 장치.
According to claim 8,
the processor,
When the driver's gaze is changed, it is determined whether a predetermined time has elapsed, and when the predetermined time has elapsed, the head-up display image is output at a second location corresponding to the changed gaze. gaze-based head-up display video control device.
제 8 항에 있어서,
상기 프로세서는,
상기 운전자의 자세가 변경되었는지 판단하고,
상기 운전자의 자세가 변경된 경우, 상기 운전자의 시선의 변경 및 상기 운전자의 자세의 변경을 기초로 상기 변경된 시선에 상응하는 제2 위치에 상기 헤드업 디스플레이 영상을 출력하는 것을 특징으로 하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 장치.
According to claim 8,
the processor,
determining whether the driver's posture has changed;
When the driver's posture is changed, the head-up display image is output at a second position corresponding to the changed gaze based on the change in the driver's gaze and the change in the driver's posture. based head-up display video control device.
제 8 항에 있어서,
시선 기반 표시모드를 설정하는 사용자 인터페이스를 더 포함하는, 운전자의 시선 기반의 헤드업 디스플레이 영상 제어 장치.
According to claim 8,
An apparatus for controlling a driver's gaze-based head-up display image, further comprising a user interface for setting a gaze-based display mode.
KR1020210085039A 2021-06-29 2021-06-29 Method and apparatus for controlling HUD image based on driver's eyes KR20230001923A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210085039A KR20230001923A (en) 2021-06-29 2021-06-29 Method and apparatus for controlling HUD image based on driver's eyes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210085039A KR20230001923A (en) 2021-06-29 2021-06-29 Method and apparatus for controlling HUD image based on driver's eyes

Publications (1)

Publication Number Publication Date
KR20230001923A true KR20230001923A (en) 2023-01-05

Family

ID=84926185

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210085039A KR20230001923A (en) 2021-06-29 2021-06-29 Method and apparatus for controlling HUD image based on driver's eyes

Country Status (1)

Country Link
KR (1) KR20230001923A (en)

Similar Documents

Publication Publication Date Title
US10479269B2 (en) Lighting apparatus for vehicle and vehicle having the same
KR101895485B1 (en) Drive assistance appratus and method for controlling the same
KR101579100B1 (en) Apparatus for providing around view and Vehicle including the same
US20170028995A1 (en) Vehicle control apparatus
JP2014213763A (en) Vehicle information projection system
KR20170048781A (en) Augmented reality providing apparatus for vehicle and control method for the same
JP6674793B2 (en) Driving support information display device
KR102372566B1 (en) Lighting apparatus for Vehicle and Vehicle
JP7346859B2 (en) Control device, display device, moving object, control method, and program
US20200101968A1 (en) Apparatus for controlling vehicle, system having same and method thereof
KR20190094461A (en) Computer-readable storage medium comprising a head-up display device for a vehicle, a method, apparatus and instructions for controlling the display of the head-up display device
CN111461096A (en) Display device for vehicle
US10703374B2 (en) Vehicle driving assisting apparatus and vehicle comprising same
JP6811743B2 (en) Safe driving support device
KR102094405B1 (en) Method and apparatus for determining an accident using an image
KR102541416B1 (en) Method and apparatus for displaying a HUD image based on realtime traffic information
KR20230001923A (en) Method and apparatus for controlling HUD image based on driver's eyes
JP7302311B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
WO2016157891A1 (en) Information presentation apparatus
KR102559534B1 (en) Method and apparatus for supporting driving lines of vehicle in bad weather
KR20230046799A (en) Method and apparatus for displaying an image on handle display of vehicle
KR20240022211A (en) Method and apparatus for controlling vehicle's speed based on driving environment
KR20230046798A (en) Method and apparatus for detecting blind spots of vehicle
KR102217973B1 (en) Lane guide apparatus and method for guiding lane
JP7276255B2 (en) Image processing device, program, and image processing system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application