KR102371591B1 - Apparatus and method for determining condition of driver - Google Patents

Apparatus and method for determining condition of driver Download PDF

Info

Publication number
KR102371591B1
KR102371591B1 KR1020160129279A KR20160129279A KR102371591B1 KR 102371591 B1 KR102371591 B1 KR 102371591B1 KR 1020160129279 A KR1020160129279 A KR 1020160129279A KR 20160129279 A KR20160129279 A KR 20160129279A KR 102371591 B1 KR102371591 B1 KR 102371591B1
Authority
KR
South Korea
Prior art keywords
driver
eye
reflection point
eye image
gaze
Prior art date
Application number
KR1020160129279A
Other languages
Korean (ko)
Other versions
KR20180038316A (en
Inventor
정호철
류성숙
김진권
이병준
김삼용
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160129279A priority Critical patent/KR102371591B1/en
Publication of KR20180038316A publication Critical patent/KR20180038316A/en
Application granted granted Critical
Publication of KR102371591B1 publication Critical patent/KR102371591B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2302/00Responses or measures related to driver conditions

Abstract

본 발명은 운전자 상태 판단 장치 및 방법에 관한 것이다. 본 발명에 따른 장치는, 카메라에 의해 촬영된 운전자의 얼굴 영상으로부터 눈 영상을 추출하여 상기 눈 영상으로부터 눈 중심점을 검출하는 눈 검출부, 상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 반사점 검출부, 상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하는 반사점 위치 계산부, 및 상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 시선 위치 판단부를 포함한다.The present invention relates to an apparatus and method for determining a driver's condition. The device according to the present invention includes an eye detector that extracts an eye image from a driver's face image taken by a camera and detects an eye center point from the eye image, and a reflection point formed within a predetermined range from the eye image based on the eye center point. a reflection point detection unit to detect, a reflection point position calculation unit calculating a relative position of a reflection point with respect to the eye center point in the eye image by comparing the positions of the eye center point and the reflection point, and a relative of the calculated reflection point in the eye image and a gaze position determining unit that determines the driver's gaze position based on the position and determines the driver's inattention state according to the driver's gaze position.

Description

운전자 상태 판단 장치 및 방법{APPARATUS AND METHOD FOR DETERMINING CONDITION OF DRIVER}Apparatus and method for determining driver status

본 발명은 운전자 상태 판단 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for determining a driver's condition.

운전자 상태 감시(Driver Status Monitoring, DSM) 시스템은 차량 내에서 운전자의 상태를 판단하기 위해 카메라를 이용하여 운전자의 얼굴 영상을 촬영하고, 이를 이용하여 운전자의 상태를 판단한다.A driver status monitoring (DSM) system uses a camera to capture a face image of a driver in order to determine the driver's condition in the vehicle, and uses this to determine the driver's condition.

다만, 카메라를 통해 운전자 얼굴 영상을 촬영하기 때문에, 주간/야간 등의 광 환경에 대응하기 위해 LED 조사 불가피한 실정이다. However, since the driver's face image is taken through the camera, LED irradiation is inevitable in order to cope with light environments such as day/night.

이와 같이 얼굴 영상 촬영을 위해 LED를 운전자의 얼굴에 조사하는 경우 선명한 얼굴 영상을 획득할 수 있기는 하나, 안경 착용자의 경우 운전자의 자세에 따라 안경에 LED가 반사되어 운전자의 상태를 판단하기가 어려워지는 등 운전자 상태 감시(DSM) 시스템의 성능 저하가 발생할 수 있다.In this way, when the LED is irradiated to the driver's face to take a face image, a clear face image can be obtained. Degradation of the performance of the Driver Condition Monitoring (DSM) system may occur.

안경에 LED가 반사하는 것을 저감시키기 위해, LED의 발광부와 수광부에 방향이 반대인 편광필터를 각각 장착하여 LED 반사를 최소화하는 기술을 활용하기도 하나, 편광필터의 추가 장착으로 인해 비용이 증가하고, 전방향으로 입사되는 태양광 반사에는 그 효과가 미미한 문제가 있었다.In order to reduce the reflection of the LED on the glasses, a technology is used to minimize the LED reflection by mounting polarizing filters with opposite directions on the light emitting part and the light receiving part of the LED, respectively, but the cost increases due to the additional installation of the polarizing filter and , there was a problem that the effect was insignificant in the reflection of sunlight incident in all directions.

본 발명의 목적은, 운전자의 안경에 형성된 LED의 반사점 위치를 계산하여 운전자의 부주의 상태를 판단하고, 운전자 부주의 상태 판단 결과를 HMI(Human-machine interface) 장치에 표시하여 운전자 상태 감시 시스템의 성능을 향상시키도록 한, 운전자 상태 판단 장치 및 방법을 제공함에 있다.An object of the present invention is to determine the driver's careless state by calculating the position of the reflection point of the LED formed on the driver's glasses, and to display the driver's careless state determination result on an HMI (Human-machine Interface) device to improve the performance of the driver's condition monitoring system An object of the present invention is to provide an apparatus and method for determining a driver's condition to be improved.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 장치는, 카메라에 의해 촬영된 운전자의 얼굴 영상으로부터 눈 영상을 추출하여 상기 눈 영상으로부터 눈 중심점을 검출하는 눈 검출부, 상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 반사점 검출부, 상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하는 반사점 위치 계산부, 및 상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 시선 위치 판단부를 포함하는 것을 특징으로 한다.An apparatus according to an embodiment of the present invention for achieving the above object includes an eye detector extracting an eye image from a face image of a driver photographed by a camera and detecting an eye center point from the eye image, and from the eye image A reflection point detection unit for detecting a reflection point formed within a predetermined range with respect to the eye center point, a reflection point position calculation unit for calculating the relative position of the reflection point with respect to the eye center point in the eye image by comparing the positions of the eye center point and the reflection point; and a gaze position determiner configured to determine the driver's gaze position based on the relative position of the calculated reflection point in the eye image, and to determine the driver's inattention state according to the driver's gaze position.

한편, 상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 방법은, 카메라에 의해 촬영된 운전자의 얼굴 영상으로부터 눈 영상을 추출하여 상기 눈 영상으로부터 눈 중심점을 검출하는 단계, 상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 단계, 상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하는 단계, 및 상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 단계를 포함하는 것을 특징으로 한다.On the other hand, the method according to an embodiment of the present invention for achieving the above object, extracting an eye image from a face image of a driver photographed by a camera and detecting an eye center point from the eye image, from the eye image detecting a reflection point formed within a predetermined range with respect to the eye center point; calculating a relative position of the reflection point with respect to the eye center point in the eye image by comparing the positions of the eye center point and the reflection point; and the eye and determining the driver's gaze position based on the relative position of the calculated reflection point in the image, and determining the driver's careless state according to the driver's gaze position.

본 발명에 따르면, 운전자의 안경에 형성된 LED의 반사점 위치를 계산하여 운전자의 부주의 상태를 판단하고, 운전자 부주의 상태 판단 결과를 HMI(Human-machine interface) 장치에 표시하여 운전자 상태 감시 시스템의 성능을 향상시킬 수 있는 효과가 있다.According to the present invention, the driver's careless state is determined by calculating the position of the reflection point of the LED formed on the driver's glasses, and the driver's careless state determination result is displayed on the HMI (Human-machine Interface) device to improve the performance of the driver's condition monitoring system There is an effect that can make it happen.

도 1은 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 구성을 도시한 도면이다.
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 반사점 추출 동작을 설명하는데 참조되는 실시예를 도시한 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 반사점 위치 판단 동작을 설명하는데 참조되는 실시예를 도시한 도면이다.
도 5a 내지 도 5g는 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 응시 위치 판단 동작을 설명하는데 참조되는 실시예를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 경보 출력 동작을 설명하는데 참조되는 실시예를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 운전자 상태 판단 방법에 대한 동작 흐름을 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 장치가 적용된 컴퓨팅 시스템을 도시한 도면이다.
1 is a diagram illustrating a configuration of an apparatus for determining a driver's state according to an embodiment of the present invention.
2A and 2B are diagrams illustrating an exemplary embodiment referenced to describe an operation of extracting a reflection point of an apparatus for determining a driver's state according to an embodiment of the present invention.
3 and 4 are diagrams illustrating an exemplary embodiment referenced to describe a reflection point position determination operation of the driver state determination apparatus according to an embodiment of the present invention.
5A to 5G are diagrams illustrating an exemplary embodiment referenced for explaining a gaze position determination operation of the driver state determination apparatus according to an embodiment of the present invention.
6 is a diagram illustrating an example referenced to explain an operation of outputting an alarm of the driver's condition determination apparatus according to an embodiment of the present invention.
7 is a diagram illustrating an operation flow of a method for determining a driver's condition according to an embodiment of the present invention.
8 is a diagram illustrating a computing system to which an apparatus according to an embodiment of the present invention is applied.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

도 1은 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of an apparatus for determining a driver's state according to an embodiment of the present invention.

본 발명에 따른 운전자 상태 판단 장치(100)는 차량의 내부에 구현될 수 있다. 이때, 운전자 상태 판단 장치(100)는 차량의 내부 제어 유닛들과 일체로 형성될 수 있으며, 별도의 장치로 구현되어 별도의 연결 수단에 의해 차량의 제어 유닛들과 연결될 수도 있다. 여기서, 운전자 상태 판단 장치(100)는 운전자 상태 모니터링 시스템, HMI(Human-machine interface) 장치 및/또는 차량의 디스플레이 장치 등과 연계되어 동작할 수 있다. The driver state determination apparatus 100 according to the present invention may be implemented inside a vehicle. In this case, the driver state determination apparatus 100 may be integrally formed with the vehicle's internal control units, or may be implemented as a separate device and connected to the vehicle's control units by a separate connection means. Here, the driver state determination apparatus 100 may operate in connection with a driver state monitoring system, a human-machine interface (HMI) device, and/or a vehicle display device.

이에, 도 1을 참조하면, 운전자 상태 판단 장치(100)는 제어부(110), 인터페이스부(120), 카메라(130), 발광부(135), 저장부(140), 눈 검출부(150), 반사점 검출부(160), 반사점 위치 계산부(170) 및 시선 위치 판단부(180)를 포함할 수 있다. 여기서, 제어부(110)는 운전자 상태 판단 장치(100)의 각 부간에 전달되는 신호를 처리할 수 있다.Accordingly, referring to FIG. 1 , the driver state determination apparatus 100 includes a control unit 110 , an interface unit 120 , a camera 130 , a light emitting unit 135 , a storage unit 140 , an eye detection unit 150 , It may include a reflection point detection unit 160 , a reflection point position calculation unit 170 , and a gaze position determination unit 180 . Here, the controller 110 may process a signal transmitted between each part of the driver state determination apparatus 100 .

인터페이스부(120)는 사용자로부터의 제어 명령을 입력 받기 위한 입력수단과 운전자 상태 판단 장치(100)의 동작 상태 및 결과 등을 출력하는 출력수단을 포함할 수 있다.The interface unit 120 may include an input unit for receiving a control command from a user and an output unit for outputting an operation state and result of the driver state determination apparatus 100 .

여기서, 입력수단은 키 버튼이 해당될 수 있으며, 마우스, 조이스틱, 조그 셔틀, 스타일러스 펜 등이 해당될 수도 있다. 또한, 입력수단은 디스플레이 상에 구현되는 소프트 키가 해당 될 수도 있다.Here, the input means may correspond to a key button, and may correspond to a mouse, a joystick, a jog shuttle, a stylus pen, or the like. In addition, the input means may correspond to a soft key implemented on the display.

출력수단은 디스플레이를 포함할 수 있으며, 스피커와 같은 음성출력수단을 포함할 수도 있다. 이때, 터치 필름, 터치 시트, 터치 패드 등의 터치 센서가 디스플레이에 구비되는 경우, 디스플레이는 터치 스크린으로 동작하며, 입력수단과 출력수단이 통합된 형태로 구현될 수 있다.The output means may include a display, and may include an audio output means such as a speaker. In this case, when a touch sensor such as a touch film, a touch sheet, or a touch pad is provided in the display, the display operates as a touch screen, and the input means and the output means are integrated.

이때, 디스플레이는 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 전계 방출 디스플레이(Feld Emission Display, FED), 3차원 디스플레이(3D Display) 중에서 적어도 하나를 포함할 수 있다.In this case, the display includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (Flexible Display). , a field emission display (FED), and a three-dimensional display (3D display) may include at least one.

또한, 디스플레이는 헤드업디스플레이(Head Up Display, HUD)를 포함할 수 있다.Also, the display may include a Head Up Display (HUD).

카메라(130)는 차량 내 영상을 촬영하는 장치로서, 운전자의 얼굴 영상을 촬영한다. 여기서, 카메라(130)는 단안 카메라로서, 운전자의 정면 하부 방향, 예를 들어, 스티어링 휠 또는 그 주변에 배치되는 것으로 한다.The camera 130 is a device for capturing an image in the vehicle, and captures an image of the driver's face. Here, the camera 130 is a monocular camera, and it is assumed that the camera 130 is disposed in the lower front direction of the driver, for example, the steering wheel or its vicinity.

카메라(130)는 운전자 탑승 시나 주행 중 운전자의 얼굴 영상을 촬영하여 제어부(110)로 전달한다. 제어부(110)는 카메라(130)로부터 전달된 운전자의 얼굴 영상을 저장부(140)에 저장하고, 저장된 얼굴 영상을 눈 검출부(150), 반사점 검출부(160), 반사점 위치 계산부(170) 등으로 제공할 수 있다.The camera 130 captures an image of the driver's face when the driver is riding or while driving, and transmits it to the controller 110 . The controller 110 stores the driver's face image transmitted from the camera 130 in the storage unit 140 , and stores the stored face image in the eye detection unit 150 , the reflection point detection unit 160 , the reflection point position calculation unit 170 , etc. can be provided as

발광부(135)는 카메라(130) 동작 시에 카메라(130)와 연계하여 동작하며, 카메라(130)를 통해 얼굴 영상 촬영 시 운전자의 얼굴 방향으로 광을 방출한다. 이때, 발광부(135)는 적외선 LED(IR_LED)를 포함할 수 있으나, 이에 한정되는 것은 아니다. The light emitting unit 135 operates in conjunction with the camera 130 when the camera 130 operates, and emits light in the direction of the driver's face when a face image is captured through the camera 130 . In this case, the light emitting unit 135 may include an infrared LED (IR_LED), but is not limited thereto.

발광부(135)는 카메라(130)와 별도의 장치 형태로 구현될 수 있으나, 카메라(130)와 일체로 형성될 수도 있다.The light emitting unit 135 may be implemented as a device separate from the camera 130 , but may also be formed integrally with the camera 130 .

저장부(140)는 운전자 상태 판단 장치(100)가 동작하는데 필요한 데이터 및/또는 알고리즘 등을 저장할 수 있다. The storage unit 140 may store data and/or algorithms required for the driver state determination apparatus 100 to operate.

저장부(140)는 카메라(130)에 의해 촬영된 운전자의 얼굴 영상이 저장될 수 있으며, 눈 검출, 반사점 검출, 반사점 위치 계산 및 시산 위치 판단을 위해 설정된 조건 정보 및 알고리즘 등이 저장될 수 있다. 또한, 저장부(140)는 운전자 상태 판단 결과에 따라 운전자의 주의를 환기시키기 위한 제어 명령 등이 저장될 수 있다.The storage unit 140 may store the driver's face image photographed by the camera 130, and condition information and algorithms set for eye detection, reflection point detection, reflection point position calculation and trial calculation position determination, etc. may be stored. . Also, the storage unit 140 may store a control command for calling the driver's attention according to a result of determining the driver's condition.

여기서, 저장부(140)는 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory)와 같은 저장매체를 포함할 수 있다.Here, the storage unit 140 includes a random access memory (RAM), a static random access memory (SRAM), a read-only memory (ROM), a programmable read-only memory (PROM), and an electrically erasable programmable read (EEPROM). -Only Memory) may include a storage medium.

눈 검출부(150)는 카메라(130)에 의해 촬영된 얼굴 영상으로부터 눈 영상을 추출하고, 추출한 눈 영상으로부터 눈을 검출할 수 있다. 여기서, 눈 검출부(150)는 운전자 눈의 중심점을 검출할 수 있다. 만일, 운전자가 안경을 착용한 경우, 눈 검출부(150)는 카메라(130)에 의해 촬영된 얼굴 영상으로부터 안경을 포함하는 눈 영상을 추출할 수 있다.The eye detector 150 may extract an eye image from the face image captured by the camera 130 , and detect the eye from the extracted eye image. Here, the eye detector 150 may detect the center point of the driver's eye. If the driver wears glasses, the eye detector 150 may extract an eye image including the glasses from the face image captured by the camera 130 .

이때, 반사점 검출부(160)는 눈 영상의 좌측 눈에 대한 제1 눈 중심점 및 우측 눈에 대한 제2 눈 중심점을 각각 검출한다.In this case, the reflection point detector 160 detects the first eye center point for the left eye and the second eye center point for the right eye of the eye image, respectively.

눈 검출부(150)는 눈 영상으로부터 제1 눈 중심점 및 제2 눈 중심점의 검출이 완료되면, 눈 중심점 검출 결과를 제어부(110) 및 반사점 위치 계산부(170)로 전달할 수 있다.When the detection of the first eye center point and the second eye center point from the eye image is completed, the eye detector 150 may transmit the eye center point detection result to the controller 110 and the reflection point position calculator 170 .

반사점 검출부(160)는 운전자가 안경을 착용한 경우 안경을 포함하는 운전자의 눈 영상으로부터 운전자의 안경에 형성된 반사점을 검출한다. 눈 영상으로부터 반사점을 검출하는 실시예는 도 2a 및 도 2b를 참조하도록 한다.The reflection point detector 160 detects a reflection point formed on the driver's glasses from an image of the driver's eyes including the glasses when the driver wears glasses. An embodiment of detecting a reflection point from an eye image will refer to FIGS. 2A and 2B .

안경을 포함하는 운전자의 눈 영상은 도 2a와 같이 나타낼 수 있다. 반사점 검출부(160)는 도 2a에 도시된 눈 영상을 밝기 정도에 근거하여 이진화를 수행한다. 도 2a에 도시된 눈 영상을 밝기 정도에 근거하여 이진화한 결과 영상은 도 2b와 같이 나타낼 수 있다. 따라서, 반사점 검출부(160)는 도 2b에 도시된 이진화 영상에서 운전자의 눈 중심 위치 주변에 형성된 광원 패턴(211)을 검출하고, 검출한 광원 패턴(211)으로부터 반사점(또는 반사 중심점)을 검출할 수 있다. The driver's eye image including the glasses may be displayed as shown in FIG. 2A . The reflection point detector 160 binarizes the eye image shown in FIG. 2A based on the brightness level. The result image obtained by binarizing the eye image shown in FIG. 2A based on the brightness level may be represented as shown in FIG. 2B . Accordingly, the reflection point detection unit 160 detects the light source pattern 211 formed around the driver's eye center position in the binarized image shown in FIG. 2B , and detects the reflection point (or reflection center point) from the detected light source pattern 211 . can

이때, 반사점 검출부(160)는 눈 영상의 좌측 안경에 형성된 제1 반사점 및 우측 안경에 형성된 제2 반사점을 각각 검출한다.In this case, the reflection point detector 160 detects the first reflection point formed on the left glasses and the second reflection point formed on the right glasses of the eye image, respectively.

여기서, 반사점 검출을 위해 이용된 눈 영상은 눈 검출부(150)에서 운전자의 눈 중심점을 검출하는데 이용한 눈 영상과 같은 영상인 것으로 한다.Here, it is assumed that the eye image used for detecting the reflection point is the same image as the eye image used for detecting the center point of the driver's eye by the eye detector 150 .

반사점 검출부(160)는 눈 영상으로부터 제1 반사점 및 제2 반사점 검출이 완료되면, 반사점 검출 결과를 제어부(110) 및 반사점 위치 계산부(170)로 전달할 수 있다.When the detection of the first reflection point and the second reflection point from the eye image is completed, the reflection point detection unit 160 may transmit the reflection point detection result to the controller 110 and the reflection point position calculator 170 .

반사점 위치 계산부(170)는 눈 검출부(150) 및 반사점 검출부(160)를 통해 검출한 눈 중심점 및 반사점의 위치를 비교하여 눈 영상 기반의 반사점 위치를 계산할 수 있다. 눈 영상 기반의 반사점 위치를 계산하는 실시예는 도 3을 참조하도록 한다.The reflection point position calculation unit 170 may calculate the reflection point position based on the eye image by comparing the positions of the eye center point and the reflection point detected by the eye detection unit 150 and the reflection point detection unit 160 . Refer to FIG. 3 for an embodiment of calculating the position of the reflection point based on the eye image.

도 3에 도시된 바와 같이, 반사점 위치 계산부(170)는 눈 영상에서 눈 검출부(150)에 의해 검출된 제1 눈 중심점(311)과, 반사점 검출부(160)에 의해 검출된 제1 반사점(321)의 위치를 비교하고, 눈 영상에서 제1 눈 중심점(311)을 기준으로 하는 제1 반사점(321)의 상대 위치(거리 및 방향)를 계산한다. 또한, 반사점 위치 계산부(170)는 눈 영상에서 눈 검출부(150)에 의해 검출된 제2 눈 중심점(315)과, 반사점 검출부(160)에 의해 검출된 제2 반사점(325)의 위치를 비교하고, 눈 영상에서 제1 눈 중심점(315)을 기준으로 하는 제2 반사점(325)의 상대 위치(거리 및 방향)를 계산한다. As shown in FIG. 3 , the reflection point position calculation unit 170 includes a first eye center point 311 detected by the eye detection unit 150 in the eye image, and a first reflection point detected by the reflection point detection unit 160 ( 321), and calculates the relative position (distance and direction) of the first reflection point 321 with respect to the first eye center point 311 in the eye image. In addition, the reflection point position calculation unit 170 compares the positions of the second eye center point 315 detected by the eye detection unit 150 and the second reflection point 325 detected by the reflection point detection unit 160 in the eye image. and calculates the relative position (distance and direction) of the second reflection point 325 with respect to the first eye center point 315 in the eye image.

반사점 위치 계산부(170)는 계산된 제1 반사점(321) 및 제2 반사점(325)의 상대 위치 정보를 시선 위치 판단부(180)로 제공한다.The reflection point position calculation unit 170 provides the calculated relative position information of the first reflection point 321 and the second reflection point 325 to the gaze position determination unit 180 .

시선 위치 판단부(180)는 앞서 눈 중심점 및 반사점 검출을 위해 이용된 안경을 포함하는 눈 영상에서 안경 영역을 추출하여 복수 개의 영역으로 분할한다. 일 예로, 시선 위치 판단부(180)는 눈 영상의 안경 영역을 동일한 넓이를 갖는 복수 개의 영역으로 분할할 수 있다. 이에 대한 실시예는 도 4를 참조하도록 한다.The gaze position determiner 180 extracts a spectacle region from an eye image including glasses previously used for detecting the eye center point and the reflection point and divides the region into a plurality of regions. For example, the gaze position determiner 180 may divide the spectacles region of the eye image into a plurality of regions having the same area. For an embodiment of this, refer to FIG. 4 .

도 4에 도시된 바와 같이, 시선 위치 판단부(180)는 눈 영상에서 좌측 및 우측의 안경 영역(411, 421)을 가로×세로가 N×N 구조를 갖도록 분할할 수 있다. 여기서, N은 홀수인 것으로 한다. 일 예로, 시선 위치 판단부(180)는 눈 영상에서 좌측 및 우측의 안경 영역(411, 421)을 각각 3×3 구조를 갖는 아홉 개의 제1 영역 내지 제9 영역으로 분할할 수 있다. 이때, 시선 위치 판단부(180)는 3×3 구조로 된 각 분리 영역 중 가운데 영역을 제1 영역으로 정의하고, 제1 영역을 기준으로 그 테두리에 위치한 여덟 개 영역을 제2 영역 내지 제9 영역으로 정의할 수 있다. 물론, 이는 일 실시예일 뿐, 각 영역의 순서를 정하는 것은 실시 형태에 따라 다양하게 변경 가능함은 당연한 것이다.As shown in FIG. 4 , the gaze position determiner 180 may divide the left and right glasses regions 411 and 421 in the eye image to have an N×N structure in terms of width and length. Here, it is assumed that N is an odd number. For example, the gaze position determiner 180 may divide the left and right spectacle regions 411 and 421 in the eye image into nine first to ninth regions each having a 3×3 structure. In this case, the gaze position determining unit 180 defines the middle region among the 3×3 separated regions as the first region, and defines eight regions positioned at the edges with respect to the first region as the second region to the ninth region. area can be defined. Of course, this is only one embodiment, and it is natural that determining the order of each area can be variously changed according to the embodiment.

또한, 시선 위치 판단부(180)는 제1 내지 제9 영역에 대응하여 운전자의 시선 방향을 정의할 수 있다. 일 예로, 제1 영역은 카메라 정면 방향, 제2 영역은 카메라 우측 방향, 제3 영역은 카메라 우측 상단 방향, 제4 영역은 카메라 정면 상단 방향, 제5 영역은 카메라 좌측 상단 방향, 제6 영역은 카메라 좌측 방향, 제7 영역은 카메라 좌측 하단 방향, 제8 영역은 카메라 정면 하단 방향, 그리고 제9 영역은 카메라 우측 하단 방향으로 정의될 수 있다.Also, the gaze position determiner 180 may define the driver's gaze direction in response to the first to ninth regions. For example, the first area is in the front direction of the camera, the second area is in the right direction of the camera, the third area is in the upper right direction of the camera, the fourth area is in the front upper direction of the camera, the fifth area is in the upper left direction of the camera, and the sixth area is The camera left direction, the seventh area may be defined as a camera bottom left direction, the eighth area may be defined as a front bottom direction of the camera, and the ninth area may be defined as a camera right lower direction direction.

제1 영역 내지 제9 영역에 대응하는 시선 방향에 대한 실시예는 도 5a 내지 도 5g를 참조하도록 한다.Examples of gaze directions corresponding to the first to ninth regions will be described with reference to FIGS. 5A to 5G .

도 5a는 안경을 착용하고 카메라 정면을 주시하는 운전자의 영상을 나타낸 것이다. 도 5a와 같이 운전자가 카메라 정면을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제1 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5A illustrates an image of a driver who wears glasses and looks at the front of the camera. When the driver looks at the front of the camera as shown in FIG. 5A , a reflection point by the light emitting unit 135 may be formed in a first area among the first to ninth areas of the eye image including glasses.

도 5b는 안경을 착용하고 카메라 우측을 주시하는 운전자의 영상을 나타낸 것이다. 도 5b와 같이 운전자가 카메라 우측을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제2 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5B illustrates an image of a driver who wears glasses and looks at the right side of the camera. When the driver looks at the right side of the camera as shown in FIG. 5B , a reflection point by the light emitting unit 135 may be formed in a second area among the first to ninth areas of the eye image including glasses.

도 5c는 안경을 착용하고 카메라 정면 상단을 주시하는 운전자의 영상을 나타낸 것이다. 도 5c와 같이 운전자가 카메라 정면 상단을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제4 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5C shows an image of a driver wearing glasses and looking at the top of the front of the camera. As shown in FIG. 5C , when the driver gazes at the top of the front of the camera, a reflection point by the light emitting unit 135 may be formed in a fourth area among the first to ninth areas of the eye image including glasses.

도 5d는 안경을 착용하고 카메라 좌측을 주시하는 운전자의 영상을 나타낸 것이다. 도 5d와 같이 운전자가 카메라 좌측을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제6 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5D illustrates an image of a driver who wears glasses and looks at the left side of the camera. When the driver looks at the left side of the camera as shown in FIG. 5D , a reflection point by the light emitting unit 135 may be formed in a sixth area among the first to ninth areas of the eye image including glasses.

도 5e는 안경을 착용하고 카메라 좌측 하단을 주시하는 운전자의 영상을 나타낸 것이다. 도 5e와 같이 운전자가 카메라 좌측 하단을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제7 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5E illustrates an image of a driver wearing glasses and looking at the lower left corner of the camera. As shown in FIG. 5E , when the driver gazes at the lower left corner of the camera, a reflection point by the light emitting unit 135 may be formed in a seventh area among the first to ninth areas of the eye image including glasses.

도 5f는 안경을 착용하고 카메라 정면 하단을 주시하는 운전자의 영상을 나타낸 것이다. 도 5f와 같이 운전자가 카메라 정면 하단을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제8 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5F shows an image of a driver wearing glasses and looking at the lower front of the camera. As shown in FIG. 5F , when the driver looks at the lower front of the camera, a reflection point by the light emitting unit 135 may be formed in an eighth region among the first to ninth regions of the eye image including glasses.

도 5g는 안경을 착용하고 카메라 우측 하단을 주시하는 운전자의 영상을 나타낸 것이다. 도 5g와 같이 운전자가 카메라 우측 하단을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제9 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5G illustrates an image of a driver wearing glasses and looking at the lower right corner of the camera. When the driver looks at the lower right corner of the camera as shown in FIG. 5G , a reflection point by the light emitting unit 135 may be formed in a ninth area among the first to ninth areas of the eye image including glasses.

이와 같이, 시선 위치 판단부(180)는 눈 위치를 중심으로 하는 반사점의 상대 위치에 따라 반사점이 제1 영역 내지 제9 영역 중 어느 영역에 위치하는지를 판단할 수 있다. 이때, 시선 위치 판단부(180)는 제1 영역 내지 제9 영역 중 반사점이 위치하는 영역에 정의된 시선 방향을 기준으로 HUD에 대한 운전자의 응시 위치를 확인할 수 있다.As such, the gaze position determiner 180 may determine in which region the reflection point is located among the first to ninth regions according to the relative position of the reflection point with respect to the eye position. In this case, the gaze position determiner 180 may determine the driver's gaze position with respect to the HUD based on the gaze direction defined in the region where the reflection point is located among the first to ninth regions.

여기서, 시선 위치 판단부(180)는 제1 영역 내지 제9 영역 중 부주의 영역을 사전에 정의할 수 있다. 일 예로, 제1 영역 내지 제9 영역 중 제1 영역, 제2 영역, 제6 영역 내지 제9 영역을 부주의 영역으로 정의할 수 있다. 따라서, 시선 위치 판단부(180)는 제1 영역 내지 제9 영역 중 반사점이 위치하는 영역이 부주의 영역에 해당하면, 운전자가 부주의 상태인 것으로 판단하여 경보를 출력할 수 있다. 여기서, 운전자의 부주의 상태에 대한 경보를 출력하는 실시예는 도 6을 참조하도록 한다.Here, the gaze position determiner 180 may pre-define an inattentive region among the first to ninth regions. For example, the first region, the second region, and the sixth region to the ninth region among the first to ninth regions may be defined as careless regions. Accordingly, when the area in which the reflection point is located among the first to ninth areas corresponds to the careless area, the gaze position determiner 180 may determine that the driver is in a careless state and output an alert. Here, an embodiment of outputting an alert for the driver's careless state will be described with reference to FIG. 6 .

도 1에는 도시하지 않았으나, 운전자 상태 판단 장치(100)는 통신부(미도시)를 더 포함할 수 있다.Although not shown in FIG. 1 , the driver state determination apparatus 100 may further include a communication unit (not shown).

통신부는 차량에 구비된 전장품 및/또는 제어유닛들과의 통신 인터페이스를 지원하는 통신모듈을 포함할 수 있다. 일 예로서, 통신모듈은 차량에 구비된 디스플레이 장치와 통신 연결되어 운전자의 상태 판단 결과 및 그에 따른 제어 명령을 디스플레이 장치로 송신할 수 있다. The communication unit may include a communication module that supports a communication interface with electronic devices and/or control units provided in the vehicle. As an example, the communication module may be communicatively connected with a display device provided in the vehicle to transmit a result of determining the driver's state and a corresponding control command to the display device.

여기서, 통신모듈은 CAN(Controller Area Network) 통신, LIN(Local Interconnect Network) 통신, 플렉스레이(Flex-Ray) 통신 등의 차량 네트워크 통신을 지원하는 모듈을 포함할 수 있다. 또한, 통신모듈은 무선 인터넷 접속을 위한 모듈 또는 근거리 통신(Short Range Communication)을 위한 모듈을 포함할 수도 있다.Here, the communication module may include a module supporting vehicle network communication such as CAN (Controller Area Network) communication, LIN (Local Interconnect Network) communication, and Flex-Ray communication. In addition, the communication module may include a module for wireless Internet access or a module for short range communication.

상기와 같이 구성되는 본 발명에 따른 장치의 동작 흐름을 보다 상세히 설명하면 다음과 같다.The operation flow of the device according to the present invention configured as described above will be described in more detail as follows.

도 7은 본 발명의 일 실시예에 따른 운전자 상태 판단 방법에 대한 동작 흐름을 도시한 도면이다. 도 7의 실시예는 운전자가 안경을 착용한 경우에 안경을 포함하는 눈 영상을 기준으로 운전자 상태를 판단하는 동작을 나타낸 것이다.7 is a diagram illustrating an operation flow of a method for determining a driver's condition according to an embodiment of the present invention. 7 illustrates an operation of determining a driver's state based on an eye image including glasses when the driver wears glasses.

도 7을 참조하면, 본 발명에 따른 운전자 상태 판단 장치(100)는 카메라(130)에 의해 촬영된 얼굴 영상으로부터 추출한 눈 영상으로부터 눈 중심점을 검출한다(S110).Referring to FIG. 7 , the driver state determination apparatus 100 according to the present invention detects an eye center point from an eye image extracted from a face image captured by the camera 130 ( S110 ).

또한, 운전자 상태 판단 장치(100)는 눈 영상을 밝기 정도에 근거하여 이진화하고(S120), 'S120' 과정의 이진화 영상에서 운전자의 눈 중심 위치 주변에 형성된 광원 패턴으로부터 운전자의 안경에 형성된 반사점을 검출한다(S130).In addition, the driver state determination apparatus 100 binarizes the eye image based on the brightness level (S120), and in the binarized image of the process 'S120', a reflection point formed on the driver's glasses from the light source pattern formed around the driver's eye center position is detected (S130).

운전자 상태 판단 장치(100)는 눈 중심점 및 반사점이 검출되면, 검출된 눈 중심점 및 반사점의 위치를 비교하여, 눈 영상에서 눈 중심점을 기준으로 하는 반사점의 상대 위치(거리 및 방향)를 계산한다(S140). When the eye center point and the reflection point are detected, the driver state determination apparatus 100 compares the positions of the detected eye center point and the reflection point to calculate the relative position (distance and direction) of the reflection point with respect to the eye center point in the eye image ( S140).

운전자 상태 판단 장치(100)는 'S140' 과정에서 계산된 반사점의 상대 위치를 토대로 운전자의 시선 위치를 판단한다. 여기서, 운전자 상태 판단 장치(100)는 눈 영상의 안경 영역을 동일한 넓이를 갖는 아홉 개의 영역으로 분할하고, 분할된 각 영역에 대응하는 시선 방향을 정의할 수 있다.The driver state determination apparatus 100 determines the driver's gaze position based on the relative position of the reflection point calculated in the process 'S140'. Here, the driver state determination apparatus 100 may divide the glasses region of the eye image into nine regions having the same area, and define a gaze direction corresponding to each of the divided regions.

운전자 상태 판단 장치(100)는 분할된 아홉 개의 영역 중 반사점이 위치하는 영역을 판단하고(S150), 해당 영역에 대해 정의된 시선 방향을 운전자의 시선 방향, 예를 들어, HUD의 응시 위치를 판단할 수 있다(S160).The driver state determination apparatus 100 determines a region in which the reflection point is located among the nine divided regions (S150), and determines the gaze direction defined for the region as the driver's gaze direction, for example, the gaze position of the HUD. It can be done (S160).

이후, 운전자 상태 판단 장치(100)는 운전자가 응시하는 위치가 부주의 영역인지 확인하고, 부주의 영역이면 운전자가 부주의 상태인 것으로 인식한다. 따라서, 운전자 상태 판단 장치(100)는 운전자가 부주의 상태인 것으로 확인되면(S170), 경보 알림을 통해 운전자의 주의를 환기시키도록 한다(S180).Thereafter, the driver state determination apparatus 100 checks whether the driver's gaze is an inattentive area, and if the driver's gaze is in the careless area, recognizes that the driver is in an inattentive state. Accordingly, when it is confirmed that the driver is in an inattentive state (S170), the driver state determination apparatus 100 draws the driver's attention through an alarm notification (S180).

상기에서와 같이 동작하는 본 실시예에 따른 장치(100)는 독립적인 하드웨어 장치 형태로 구현될 수 있으며, 적어도 하나 이상의 프로세서(processor)로서 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다.The device 100 according to the present embodiment operating as described above may be implemented as an independent hardware device, and at least one or more processors are included in other hardware devices such as a microprocessor or general-purpose computer system. can be driven by

도 8은 본 발명의 일 실시예에 따른 장치가 적용된 컴퓨팅 시스템을 도시한 도면이다.8 is a diagram illustrating a computing system to which an apparatus according to an embodiment of the present invention is applied.

도 8을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다. Referring to FIG. 8 , the computing system 1000 includes at least one processor 1100 , a memory 1300 , a user interface input device 1400 , a user interface output device 1500 , and storage connected through a bus 1200 . 1600 , and a network interface 1700 .

프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The processor 1100 may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in the memory 1300 and/or the storage 1600 . The memory 1300 and the storage 1600 may include various types of volatile or nonvolatile storage media. For example, the memory 1300 may include read only memory (ROM) and random access memory (RAM).

따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Accordingly, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be directly implemented in hardware, a software module executed by the processor 1100 , or a combination of the two. A software module resides in a storage medium (ie, memory 1300 and/or storage 1600 ) such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, a removable disk, a CD-ROM. You may. An exemplary storage medium is coupled to the processor 1100 , the processor 1100 capable of reading information from, and writing information to, the storage medium. Alternatively, the storage medium may be integrated with the processor 1100 . The processor and storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and storage medium may reside as separate components within the user terminal.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100: 운전자 상태 판단 장치 110: 제어부
120: 인터페이스부 130: 카메라
135: 발광부 140: 저장부
150: 눈 검출부 160: 반사점 검출부
170: 반사점 위치 계산부 180: 시선 위치 판단부
100: driver state determination device 110: control unit
120: interface unit 130: camera
135: light emitting unit 140: storage unit
150: eye detection unit 160: reflection point detection unit
170: reflection point position calculation unit 180: gaze position determination unit

Claims (19)

카메라에 의해 촬영된 운전자의 얼굴 영상으로부터 눈 영상을 추출하여 상기 눈 영상으로부터 눈 중심점을 검출하는 눈 검출부;
상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 반사점 검출부;
상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하는 반사점 위치 계산부; 및
상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 시선 위치 판단부;
를 포함하고,
상기 시선 위치 판단부는,
상기 눈 영상에서 운전자의 좌측 눈 및 우측 눈을 기준으로 정해진 범위 내의 각 영역을 N이 홀수인 NХN 구조를 갖도록 분할하고, 분할된 상기 각 영역에 대응하는 운전자의 시선 방향을 정의하는 것을 특징으로 하는 운전자 상태 판단 장치.
an eye detection unit that extracts an eye image from a driver's face image captured by a camera and detects an eye center point from the eye image;
a reflection point detection unit configured to detect a reflection point formed within a predetermined range based on the eye center point from the eye image;
a reflection point position calculation unit calculating a relative position of a reflection point with respect to the eye center point in the eye image by comparing the positions of the eye center point and the reflection point; and
a gaze position determination unit that determines a driver's gaze position based on the relative position of the calculated reflection point in the eye image, and determines the driver's inattention state according to the driver's gaze position;
including,
The gaze position determination unit,
In the eye image, each region within a predetermined range based on the driver's left eye and right eye is divided to have an NХN structure in which N is an odd number, and a driver's gaze direction corresponding to each of the divided regions is defined. Driver condition judgment device.
청구항 1에 있어서,
상기 눈 영상은,
상기 운전자가 착용한 안경 영역을 포함하며,
상기 반사점은,
상기 안경 영역 내에 형성된 것을 특징으로 하는 운전자 상태 판단 장치.
The method according to claim 1,
The eye image is
It includes an area of glasses worn by the driver,
The reflection point is
Driver state determination device, characterized in that formed in the glasses area.
청구항 2에 있어서,
상기 반사점 검출부는,
상기 눈 영상을 밝기 정도에 근거하여 이진화 한 이진화 영상에서 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 광원 패턴을 검출하고, 상기 검출한 광원 패턴으로부터 반사점을 검출하는 것을 특징으로 하는 운전자 상태 판단 장치.
3. The method according to claim 2,
The reflection point detection unit,
The apparatus for determining a driver's condition, characterized in that in the binarized image obtained by binarizing the eye image based on the brightness level, a light source pattern formed within a predetermined range with respect to the eye center point is detected, and a reflection point is detected from the detected light source pattern.
삭제delete 삭제delete 청구항 1에 있어서,
상기 시선 위치 판단부는,
상기 눈 영상에서 운전자의 좌측 눈 및 우측 눈을 기준으로 정해진 범위 내의 각 영역을 3×3 구조를 갖는 아홉 개의 영역으로 분할하는 것을 특징으로 하는 운전자 상태 판단 장치.
The method according to claim 1,
The gaze position determination unit,
and dividing each region within a predetermined range based on the driver's left and right eyes in the eye image into nine regions having a 3×3 structure.
청구항 1에 있어서,
상기 시선 위치 판단부는,
상기 분할된 영역들 중 가운데 영역에 대응하는 시선 방향을 카메라의 정면 방향으로 정의하고, 상기 가운데 영역을 기준으로 테두리에 위치한 영역들에 대응하는 시선 방향을 각각 정의하는 것을 특징으로 하는 운전자 상태 판단 장치.
The method according to claim 1,
The gaze position determination unit,
Driver state determination apparatus, characterized in that a gaze direction corresponding to a center region among the divided regions is defined as a front direction of the camera, and gaze directions corresponding to regions located at an edge with respect to the center region are respectively defined. .
청구항 1에 있어서,
상기 시선 위치 판단부는,
상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 상기 분할된 영역들 중 상기 반사점이 위치한 영역을 확인하고, 상기 확인된 영역에 대응하여 정의된 시선 방향에 기초하여 상기 운전자의 시선 위치를 판단하는 것을 특징으로 하는 운전자 상태 판단 장치.
The method according to claim 1,
The gaze position determination unit,
A region in which the reflection point is located among the divided regions is identified based on the relative position of the calculated reflection point in the eye image, and the driver's gaze position is determined based on a gaze direction defined corresponding to the identified region Driver state determination device, characterized in that.
청구항 8에 있어서,
상기 시선 위치 판단부는,
상기 분할된 영역들에 각각 정의된 시선 방향에 기초하여 부주의 영역을 정의하고, 상기 반사점이 위치한 영역이 부주의 영역에 해당하는 경우 상기 운전자가 부주의 상태인 것으로 판단하는 것을 특징으로 하는 운전자 상태 판단 장치.
9. The method of claim 8,
The gaze position determination unit,
The driver state determination apparatus of claim 1, wherein an inattention region is defined based on a gaze direction defined in each of the divided regions, and when the region in which the reflection point is located corresponds to the inattention region, it is determined that the driver is in an inattentive state.
청구항 1에 있어서,
상기 시선 위치 판단부는,
상기 운전자가 부주의 상태인 것으로 확인되면 경보를 출력하는 것을 특징으로 하는 운전자 상태 판단 장치.
The method according to claim 1,
The gaze position determination unit,
Driver state determination device, characterized in that outputting an alarm when it is confirmed that the driver is in a careless state.
카메라에 의해 촬영된 운전자의 얼굴 영상으로부터 눈 영상을 추출하여 상기 눈 영상으로부터 눈 중심점을 검출하는 단계;
상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 단계;
상기 눈 영상에서 운전자의 좌측 눈 및 우측 눈을 기준으로 정해진 범위 내의 각 영역을 N이 홀수인 NХN 구조를 갖도록 분할하는 단계;
상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하되, 상기 상대 위치가 상기 분할된 각 영역에 대응하는 것을 바탕으로 운전자의 시선 방향을 정의하는 단계; 및
상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 단계;
를 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.
extracting an eye image from a driver's face image captured by a camera and detecting an eye center point from the eye image;
detecting a reflection point formed within a predetermined range based on the eye center point from the eye image;
dividing each region within a predetermined range based on the driver's left and right eyes in the eye image to have an NХN structure in which N is an odd number;
By comparing the positions of the eye center point and the reflection point, the relative position of the reflection point with respect to the eye center point is calculated in the eye image, and the driver's gaze direction is determined based on the relative position corresponding to each of the divided regions. defining; and
determining the driver's gaze position based on the relative position of the calculated reflection point in the eye image, and determining the driver's careless state according to the driver's gaze position;
Driver status determination method comprising a.
청구항 11에 있어서,
상기 반사점을 검출하는 단계는,
상기 눈 영상을 밝기 정도에 근거하여 이진화를 수행하는 단계;
이진화 영상에서 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 광원 패턴을 검출하는 단계; 및
상기 검출한 광원 패턴으로부터 반사점을 검출하는 단계를 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.
12. The method of claim 11,
The step of detecting the reflection point,
performing binarization of the eye image based on a brightness level;
detecting a light source pattern formed within a predetermined range based on the eye center point in the binarized image; and
and detecting a reflection point from the detected light source pattern.
삭제delete 삭제delete 청구항 11에 있어서,
상기 분할하는 단계는,
상기 눈 영상에서 운전자의 좌측 눈 및 우측 눈을 기준으로 정해진 범위 내의 각 영역을 3×3 구조를 갖는 아홉 개의 영역으로 분할하는 것을 특징으로 하는 운전자 상태 판단 방법.
12. The method of claim 11,
The dividing step is
In the eye image, each area within a predetermined range based on the driver's left eye and right eye is divided into nine areas having a 3×3 structure.
청구항 11에 있어서,
상기 운전자의 시선 방향을 정의하는 단계는,
상기 분할된 영역들 중 가운데 영역에 대응하는 시선 방향을 카메라의 정면 방향으로 정의하는 단계; 및
상기 가운데 영역을 기준으로 테두리에 위치한 영역들에 대응하는 시선 방향을 각각 정의하는 단계를 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.
12. The method of claim 11,
The step of defining the driver's gaze direction includes:
defining a gaze direction corresponding to a middle area among the divided areas as a front direction of the camera; and
and defining gaze directions corresponding to regions located at edges with respect to the center region, respectively.
청구항 11에 있어서,
상기 운전자의 부주의 상태를 판단하는 단계는,
상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 상기 분할된 영역들 중 상기 반사점이 위치한 영역을 확인하는 단계; 및
상기 확인된 영역에 대응하여 정의된 시선 방향에 기초하여 상기 운전자의 시선 위치를 판단하는 단계를 더 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.
12. The method of claim 11,
The step of determining the driver's careless state includes:
identifying an area in which the reflection point is located among the divided areas based on the calculated relative positions of the reflection points in the eye image; and
The method of claim 1, further comprising: determining a gaze position of the driver based on a gaze direction defined in response to the identified area.
청구항 11에 있어서,
상기 운전자의 부주의 상태를 판단하는 단계 이전에,
상기 분할된 영역들에 각각 정의된 시선 방향에 기초하여 부주의 영역을 정의하는 단계를 더 포함하고,
상기 운전자의 부주의 상태를 판단하는 단계는,
상기 반사점이 위치한 영역이 부주의 영역에 해당하는 경우 상기 운전자가 부주의 상태인 것으로 판단하는 것을 특징으로 하는 운전자 상태 판단 방법.
12. The method of claim 11,
Prior to the step of determining the driver's careless state,
Further comprising the step of defining an inattentive region based on the gaze direction defined in each of the divided regions,
The step of determining the driver's careless state includes:
The driver state determination method, characterized in that, when the area where the reflection point is located corresponds to the careless area, it is determined that the driver is in the careless state.
청구항 11에 있어서,
상기 운전자가 부주의 상태인 것으로 확인되면 경보를 출력하는 단계를 더 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.
12. The method of claim 11,
and outputting an alarm when it is confirmed that the driver is in a careless state.
KR1020160129279A 2016-10-06 2016-10-06 Apparatus and method for determining condition of driver KR102371591B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160129279A KR102371591B1 (en) 2016-10-06 2016-10-06 Apparatus and method for determining condition of driver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160129279A KR102371591B1 (en) 2016-10-06 2016-10-06 Apparatus and method for determining condition of driver

Publications (2)

Publication Number Publication Date
KR20180038316A KR20180038316A (en) 2018-04-16
KR102371591B1 true KR102371591B1 (en) 2022-03-07

Family

ID=62081921

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160129279A KR102371591B1 (en) 2016-10-06 2016-10-06 Apparatus and method for determining condition of driver

Country Status (1)

Country Link
KR (1) KR102371591B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108819900A (en) * 2018-06-04 2018-11-16 上海商汤智能科技有限公司 Control method for vehicle and system, vehicle intelligent system, electronic equipment, medium
KR102236469B1 (en) * 2019-03-08 2021-04-07 동국대학교 산학협력단 Device and method for estimating driver's distraction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331850A (en) * 2001-05-07 2002-11-19 Nissan Motor Co Ltd Driving behavior intention detector
JP2002352229A (en) 2001-05-30 2002-12-06 Mitsubishi Electric Corp Face region detector
JP2005301727A (en) * 2004-04-13 2005-10-27 Honda Motor Co Ltd Inattention determination apparatus
JP2008123137A (en) 2006-11-09 2008-05-29 Aisin Seiki Co Ltd On-vehicle image processor and control method therefor
KR101619661B1 (en) * 2014-12-08 2016-05-10 현대자동차주식회사 Detection method of face direction of driver

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002331850A (en) * 2001-05-07 2002-11-19 Nissan Motor Co Ltd Driving behavior intention detector
JP2002352229A (en) 2001-05-30 2002-12-06 Mitsubishi Electric Corp Face region detector
JP2005301727A (en) * 2004-04-13 2005-10-27 Honda Motor Co Ltd Inattention determination apparatus
JP2008123137A (en) 2006-11-09 2008-05-29 Aisin Seiki Co Ltd On-vehicle image processor and control method therefor
KR101619661B1 (en) * 2014-12-08 2016-05-10 현대자동차주식회사 Detection method of face direction of driver

Also Published As

Publication number Publication date
KR20180038316A (en) 2018-04-16

Similar Documents

Publication Publication Date Title
US10955970B2 (en) Pointing direction determination system and method thereof
US10354449B2 (en) Augmented reality lighting effects
KR101960644B1 (en) Vehicle display device and vehicle display method
CN104331168A (en) Display adjusting method and electronic equipment
US9367951B1 (en) Creating realistic three-dimensional effects
US10019107B2 (en) Correcting for parallax in electronic displays
US10002300B2 (en) Apparatus and method for monitoring driver's concentrativeness using eye tracing
CN104335574A (en) Head-mounted display
KR20200050515A (en) Display apparatus and method for controlling the same
KR102402148B1 (en) Electronic device and method for recognizing character thereof
KR101679265B1 (en) Transparent display apparatus and the operation method thereof
KR102371591B1 (en) Apparatus and method for determining condition of driver
KR102581179B1 (en) Electronic device for perfoming biometric authentication and operation method thereof
JP2015129929A (en) Method for displaying content and head mounted display
TW201624352A (en) Optical fingerprint recognition apparatus
US20180130442A1 (en) Anti-spy electric device and adjustable focus glasses and anti-spy method for electric device
US9811916B1 (en) Approaches for head tracking
US20190025911A1 (en) Non-transitory computer-readable storage medium, information processing apparatus, and information processing method
KR102233481B1 (en) Method of controlling screen and display device having the same
CN106080136B (en) Incident light intensity control method and device
SE536984C2 (en) System and method for displaying information on a window pane a vehicle with a mirror mounted outside the pane
WO2020088156A1 (en) Under-screen fingerprint module, electronic device and fingerprint image processing method
KR101476503B1 (en) Interaction providing apparatus and method for wearable display device
KR20200056187A (en) Apparatus and method for driver distraction warning control
US10742937B2 (en) Watching apparatus, watching method, and recording medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant