KR102371591B1 - Apparatus and method for determining condition of driver - Google Patents
Apparatus and method for determining condition of driver Download PDFInfo
- Publication number
- KR102371591B1 KR102371591B1 KR1020160129279A KR20160129279A KR102371591B1 KR 102371591 B1 KR102371591 B1 KR 102371591B1 KR 1020160129279 A KR1020160129279 A KR 1020160129279A KR 20160129279 A KR20160129279 A KR 20160129279A KR 102371591 B1 KR102371591 B1 KR 102371591B1
- Authority
- KR
- South Korea
- Prior art keywords
- driver
- eye
- reflection point
- eye image
- gaze
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims abstract description 12
- 239000000284 extract Substances 0.000 claims abstract description 5
- 239000011521 glass Substances 0.000 claims description 33
- 230000004044 response Effects 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012544 monitoring process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2302/00—Responses or measures related to driver conditions
Abstract
본 발명은 운전자 상태 판단 장치 및 방법에 관한 것이다. 본 발명에 따른 장치는, 카메라에 의해 촬영된 운전자의 얼굴 영상으로부터 눈 영상을 추출하여 상기 눈 영상으로부터 눈 중심점을 검출하는 눈 검출부, 상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 반사점 검출부, 상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하는 반사점 위치 계산부, 및 상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 시선 위치 판단부를 포함한다.The present invention relates to an apparatus and method for determining a driver's condition. The device according to the present invention includes an eye detector that extracts an eye image from a driver's face image taken by a camera and detects an eye center point from the eye image, and a reflection point formed within a predetermined range from the eye image based on the eye center point. a reflection point detection unit to detect, a reflection point position calculation unit calculating a relative position of a reflection point with respect to the eye center point in the eye image by comparing the positions of the eye center point and the reflection point, and a relative of the calculated reflection point in the eye image and a gaze position determining unit that determines the driver's gaze position based on the position and determines the driver's inattention state according to the driver's gaze position.
Description
본 발명은 운전자 상태 판단 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for determining a driver's condition.
운전자 상태 감시(Driver Status Monitoring, DSM) 시스템은 차량 내에서 운전자의 상태를 판단하기 위해 카메라를 이용하여 운전자의 얼굴 영상을 촬영하고, 이를 이용하여 운전자의 상태를 판단한다.A driver status monitoring (DSM) system uses a camera to capture a face image of a driver in order to determine the driver's condition in the vehicle, and uses this to determine the driver's condition.
다만, 카메라를 통해 운전자 얼굴 영상을 촬영하기 때문에, 주간/야간 등의 광 환경에 대응하기 위해 LED 조사 불가피한 실정이다. However, since the driver's face image is taken through the camera, LED irradiation is inevitable in order to cope with light environments such as day/night.
이와 같이 얼굴 영상 촬영을 위해 LED를 운전자의 얼굴에 조사하는 경우 선명한 얼굴 영상을 획득할 수 있기는 하나, 안경 착용자의 경우 운전자의 자세에 따라 안경에 LED가 반사되어 운전자의 상태를 판단하기가 어려워지는 등 운전자 상태 감시(DSM) 시스템의 성능 저하가 발생할 수 있다.In this way, when the LED is irradiated to the driver's face to take a face image, a clear face image can be obtained. Degradation of the performance of the Driver Condition Monitoring (DSM) system may occur.
안경에 LED가 반사하는 것을 저감시키기 위해, LED의 발광부와 수광부에 방향이 반대인 편광필터를 각각 장착하여 LED 반사를 최소화하는 기술을 활용하기도 하나, 편광필터의 추가 장착으로 인해 비용이 증가하고, 전방향으로 입사되는 태양광 반사에는 그 효과가 미미한 문제가 있었다.In order to reduce the reflection of the LED on the glasses, a technology is used to minimize the LED reflection by mounting polarizing filters with opposite directions on the light emitting part and the light receiving part of the LED, respectively, but the cost increases due to the additional installation of the polarizing filter and , there was a problem that the effect was insignificant in the reflection of sunlight incident in all directions.
본 발명의 목적은, 운전자의 안경에 형성된 LED의 반사점 위치를 계산하여 운전자의 부주의 상태를 판단하고, 운전자 부주의 상태 판단 결과를 HMI(Human-machine interface) 장치에 표시하여 운전자 상태 감시 시스템의 성능을 향상시키도록 한, 운전자 상태 판단 장치 및 방법을 제공함에 있다.An object of the present invention is to determine the driver's careless state by calculating the position of the reflection point of the LED formed on the driver's glasses, and to display the driver's careless state determination result on an HMI (Human-machine Interface) device to improve the performance of the driver's condition monitoring system An object of the present invention is to provide an apparatus and method for determining a driver's condition to be improved.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 장치는, 카메라에 의해 촬영된 운전자의 얼굴 영상으로부터 눈 영상을 추출하여 상기 눈 영상으로부터 눈 중심점을 검출하는 눈 검출부, 상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 반사점 검출부, 상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하는 반사점 위치 계산부, 및 상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 시선 위치 판단부를 포함하는 것을 특징으로 한다.An apparatus according to an embodiment of the present invention for achieving the above object includes an eye detector extracting an eye image from a face image of a driver photographed by a camera and detecting an eye center point from the eye image, and from the eye image A reflection point detection unit for detecting a reflection point formed within a predetermined range with respect to the eye center point, a reflection point position calculation unit for calculating the relative position of the reflection point with respect to the eye center point in the eye image by comparing the positions of the eye center point and the reflection point; and a gaze position determiner configured to determine the driver's gaze position based on the relative position of the calculated reflection point in the eye image, and to determine the driver's inattention state according to the driver's gaze position.
한편, 상기의 목적을 달성하기 위한 본 발명의 일 실시예에 따른 방법은, 카메라에 의해 촬영된 운전자의 얼굴 영상으로부터 눈 영상을 추출하여 상기 눈 영상으로부터 눈 중심점을 검출하는 단계, 상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 단계, 상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하는 단계, 및 상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 단계를 포함하는 것을 특징으로 한다.On the other hand, the method according to an embodiment of the present invention for achieving the above object, extracting an eye image from a face image of a driver photographed by a camera and detecting an eye center point from the eye image, from the eye image detecting a reflection point formed within a predetermined range with respect to the eye center point; calculating a relative position of the reflection point with respect to the eye center point in the eye image by comparing the positions of the eye center point and the reflection point; and the eye and determining the driver's gaze position based on the relative position of the calculated reflection point in the image, and determining the driver's careless state according to the driver's gaze position.
본 발명에 따르면, 운전자의 안경에 형성된 LED의 반사점 위치를 계산하여 운전자의 부주의 상태를 판단하고, 운전자 부주의 상태 판단 결과를 HMI(Human-machine interface) 장치에 표시하여 운전자 상태 감시 시스템의 성능을 향상시킬 수 있는 효과가 있다.According to the present invention, the driver's careless state is determined by calculating the position of the reflection point of the LED formed on the driver's glasses, and the driver's careless state determination result is displayed on the HMI (Human-machine Interface) device to improve the performance of the driver's condition monitoring system There is an effect that can make it happen.
도 1은 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 구성을 도시한 도면이다.
도 2a 및 도 2b는 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 반사점 추출 동작을 설명하는데 참조되는 실시예를 도시한 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 반사점 위치 판단 동작을 설명하는데 참조되는 실시예를 도시한 도면이다.
도 5a 내지 도 5g는 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 응시 위치 판단 동작을 설명하는데 참조되는 실시예를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 경보 출력 동작을 설명하는데 참조되는 실시예를 도시한 도면이다.
도 7은 본 발명의 일 실시예에 따른 운전자 상태 판단 방법에 대한 동작 흐름을 도시한 도면이다.
도 8은 본 발명의 일 실시예에 따른 장치가 적용된 컴퓨팅 시스템을 도시한 도면이다.1 is a diagram illustrating a configuration of an apparatus for determining a driver's state according to an embodiment of the present invention.
2A and 2B are diagrams illustrating an exemplary embodiment referenced to describe an operation of extracting a reflection point of an apparatus for determining a driver's state according to an embodiment of the present invention.
3 and 4 are diagrams illustrating an exemplary embodiment referenced to describe a reflection point position determination operation of the driver state determination apparatus according to an embodiment of the present invention.
5A to 5G are diagrams illustrating an exemplary embodiment referenced for explaining a gaze position determination operation of the driver state determination apparatus according to an embodiment of the present invention.
6 is a diagram illustrating an example referenced to explain an operation of outputting an alarm of the driver's condition determination apparatus according to an embodiment of the present invention.
7 is a diagram illustrating an operation flow of a method for determining a driver's condition according to an embodiment of the present invention.
8 is a diagram illustrating a computing system to which an apparatus according to an embodiment of the present invention is applied.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
도 1은 본 발명의 일 실시예에 따른 운전자 상태 판단 장치의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of an apparatus for determining a driver's state according to an embodiment of the present invention.
본 발명에 따른 운전자 상태 판단 장치(100)는 차량의 내부에 구현될 수 있다. 이때, 운전자 상태 판단 장치(100)는 차량의 내부 제어 유닛들과 일체로 형성될 수 있으며, 별도의 장치로 구현되어 별도의 연결 수단에 의해 차량의 제어 유닛들과 연결될 수도 있다. 여기서, 운전자 상태 판단 장치(100)는 운전자 상태 모니터링 시스템, HMI(Human-machine interface) 장치 및/또는 차량의 디스플레이 장치 등과 연계되어 동작할 수 있다. The driver
이에, 도 1을 참조하면, 운전자 상태 판단 장치(100)는 제어부(110), 인터페이스부(120), 카메라(130), 발광부(135), 저장부(140), 눈 검출부(150), 반사점 검출부(160), 반사점 위치 계산부(170) 및 시선 위치 판단부(180)를 포함할 수 있다. 여기서, 제어부(110)는 운전자 상태 판단 장치(100)의 각 부간에 전달되는 신호를 처리할 수 있다.Accordingly, referring to FIG. 1 , the driver
인터페이스부(120)는 사용자로부터의 제어 명령을 입력 받기 위한 입력수단과 운전자 상태 판단 장치(100)의 동작 상태 및 결과 등을 출력하는 출력수단을 포함할 수 있다.The
여기서, 입력수단은 키 버튼이 해당될 수 있으며, 마우스, 조이스틱, 조그 셔틀, 스타일러스 펜 등이 해당될 수도 있다. 또한, 입력수단은 디스플레이 상에 구현되는 소프트 키가 해당 될 수도 있다.Here, the input means may correspond to a key button, and may correspond to a mouse, a joystick, a jog shuttle, a stylus pen, or the like. In addition, the input means may correspond to a soft key implemented on the display.
출력수단은 디스플레이를 포함할 수 있으며, 스피커와 같은 음성출력수단을 포함할 수도 있다. 이때, 터치 필름, 터치 시트, 터치 패드 등의 터치 센서가 디스플레이에 구비되는 경우, 디스플레이는 터치 스크린으로 동작하며, 입력수단과 출력수단이 통합된 형태로 구현될 수 있다.The output means may include a display, and may include an audio output means such as a speaker. In this case, when a touch sensor such as a touch film, a touch sheet, or a touch pad is provided in the display, the display operates as a touch screen, and the input means and the output means are integrated.
이때, 디스플레이는 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 전계 방출 디스플레이(Feld Emission Display, FED), 3차원 디스플레이(3D Display) 중에서 적어도 하나를 포함할 수 있다.In this case, the display includes a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (Flexible Display). , a field emission display (FED), and a three-dimensional display (3D display) may include at least one.
또한, 디스플레이는 헤드업디스플레이(Head Up Display, HUD)를 포함할 수 있다.Also, the display may include a Head Up Display (HUD).
카메라(130)는 차량 내 영상을 촬영하는 장치로서, 운전자의 얼굴 영상을 촬영한다. 여기서, 카메라(130)는 단안 카메라로서, 운전자의 정면 하부 방향, 예를 들어, 스티어링 휠 또는 그 주변에 배치되는 것으로 한다.The
카메라(130)는 운전자 탑승 시나 주행 중 운전자의 얼굴 영상을 촬영하여 제어부(110)로 전달한다. 제어부(110)는 카메라(130)로부터 전달된 운전자의 얼굴 영상을 저장부(140)에 저장하고, 저장된 얼굴 영상을 눈 검출부(150), 반사점 검출부(160), 반사점 위치 계산부(170) 등으로 제공할 수 있다.The
발광부(135)는 카메라(130) 동작 시에 카메라(130)와 연계하여 동작하며, 카메라(130)를 통해 얼굴 영상 촬영 시 운전자의 얼굴 방향으로 광을 방출한다. 이때, 발광부(135)는 적외선 LED(IR_LED)를 포함할 수 있으나, 이에 한정되는 것은 아니다. The
발광부(135)는 카메라(130)와 별도의 장치 형태로 구현될 수 있으나, 카메라(130)와 일체로 형성될 수도 있다.The
저장부(140)는 운전자 상태 판단 장치(100)가 동작하는데 필요한 데이터 및/또는 알고리즘 등을 저장할 수 있다. The
저장부(140)는 카메라(130)에 의해 촬영된 운전자의 얼굴 영상이 저장될 수 있으며, 눈 검출, 반사점 검출, 반사점 위치 계산 및 시산 위치 판단을 위해 설정된 조건 정보 및 알고리즘 등이 저장될 수 있다. 또한, 저장부(140)는 운전자 상태 판단 결과에 따라 운전자의 주의를 환기시키기 위한 제어 명령 등이 저장될 수 있다.The
여기서, 저장부(140)는 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory)와 같은 저장매체를 포함할 수 있다.Here, the
눈 검출부(150)는 카메라(130)에 의해 촬영된 얼굴 영상으로부터 눈 영상을 추출하고, 추출한 눈 영상으로부터 눈을 검출할 수 있다. 여기서, 눈 검출부(150)는 운전자 눈의 중심점을 검출할 수 있다. 만일, 운전자가 안경을 착용한 경우, 눈 검출부(150)는 카메라(130)에 의해 촬영된 얼굴 영상으로부터 안경을 포함하는 눈 영상을 추출할 수 있다.The eye detector 150 may extract an eye image from the face image captured by the
이때, 반사점 검출부(160)는 눈 영상의 좌측 눈에 대한 제1 눈 중심점 및 우측 눈에 대한 제2 눈 중심점을 각각 검출한다.In this case, the
눈 검출부(150)는 눈 영상으로부터 제1 눈 중심점 및 제2 눈 중심점의 검출이 완료되면, 눈 중심점 검출 결과를 제어부(110) 및 반사점 위치 계산부(170)로 전달할 수 있다.When the detection of the first eye center point and the second eye center point from the eye image is completed, the eye detector 150 may transmit the eye center point detection result to the
반사점 검출부(160)는 운전자가 안경을 착용한 경우 안경을 포함하는 운전자의 눈 영상으로부터 운전자의 안경에 형성된 반사점을 검출한다. 눈 영상으로부터 반사점을 검출하는 실시예는 도 2a 및 도 2b를 참조하도록 한다.The
안경을 포함하는 운전자의 눈 영상은 도 2a와 같이 나타낼 수 있다. 반사점 검출부(160)는 도 2a에 도시된 눈 영상을 밝기 정도에 근거하여 이진화를 수행한다. 도 2a에 도시된 눈 영상을 밝기 정도에 근거하여 이진화한 결과 영상은 도 2b와 같이 나타낼 수 있다. 따라서, 반사점 검출부(160)는 도 2b에 도시된 이진화 영상에서 운전자의 눈 중심 위치 주변에 형성된 광원 패턴(211)을 검출하고, 검출한 광원 패턴(211)으로부터 반사점(또는 반사 중심점)을 검출할 수 있다. The driver's eye image including the glasses may be displayed as shown in FIG. 2A . The
이때, 반사점 검출부(160)는 눈 영상의 좌측 안경에 형성된 제1 반사점 및 우측 안경에 형성된 제2 반사점을 각각 검출한다.In this case, the
여기서, 반사점 검출을 위해 이용된 눈 영상은 눈 검출부(150)에서 운전자의 눈 중심점을 검출하는데 이용한 눈 영상과 같은 영상인 것으로 한다.Here, it is assumed that the eye image used for detecting the reflection point is the same image as the eye image used for detecting the center point of the driver's eye by the eye detector 150 .
반사점 검출부(160)는 눈 영상으로부터 제1 반사점 및 제2 반사점 검출이 완료되면, 반사점 검출 결과를 제어부(110) 및 반사점 위치 계산부(170)로 전달할 수 있다.When the detection of the first reflection point and the second reflection point from the eye image is completed, the reflection
반사점 위치 계산부(170)는 눈 검출부(150) 및 반사점 검출부(160)를 통해 검출한 눈 중심점 및 반사점의 위치를 비교하여 눈 영상 기반의 반사점 위치를 계산할 수 있다. 눈 영상 기반의 반사점 위치를 계산하는 실시예는 도 3을 참조하도록 한다.The reflection point
도 3에 도시된 바와 같이, 반사점 위치 계산부(170)는 눈 영상에서 눈 검출부(150)에 의해 검출된 제1 눈 중심점(311)과, 반사점 검출부(160)에 의해 검출된 제1 반사점(321)의 위치를 비교하고, 눈 영상에서 제1 눈 중심점(311)을 기준으로 하는 제1 반사점(321)의 상대 위치(거리 및 방향)를 계산한다. 또한, 반사점 위치 계산부(170)는 눈 영상에서 눈 검출부(150)에 의해 검출된 제2 눈 중심점(315)과, 반사점 검출부(160)에 의해 검출된 제2 반사점(325)의 위치를 비교하고, 눈 영상에서 제1 눈 중심점(315)을 기준으로 하는 제2 반사점(325)의 상대 위치(거리 및 방향)를 계산한다. As shown in FIG. 3 , the reflection point
반사점 위치 계산부(170)는 계산된 제1 반사점(321) 및 제2 반사점(325)의 상대 위치 정보를 시선 위치 판단부(180)로 제공한다.The reflection point
시선 위치 판단부(180)는 앞서 눈 중심점 및 반사점 검출을 위해 이용된 안경을 포함하는 눈 영상에서 안경 영역을 추출하여 복수 개의 영역으로 분할한다. 일 예로, 시선 위치 판단부(180)는 눈 영상의 안경 영역을 동일한 넓이를 갖는 복수 개의 영역으로 분할할 수 있다. 이에 대한 실시예는 도 4를 참조하도록 한다.The gaze position determiner 180 extracts a spectacle region from an eye image including glasses previously used for detecting the eye center point and the reflection point and divides the region into a plurality of regions. For example, the gaze position determiner 180 may divide the spectacles region of the eye image into a plurality of regions having the same area. For an embodiment of this, refer to FIG. 4 .
도 4에 도시된 바와 같이, 시선 위치 판단부(180)는 눈 영상에서 좌측 및 우측의 안경 영역(411, 421)을 가로×세로가 N×N 구조를 갖도록 분할할 수 있다. 여기서, N은 홀수인 것으로 한다. 일 예로, 시선 위치 판단부(180)는 눈 영상에서 좌측 및 우측의 안경 영역(411, 421)을 각각 3×3 구조를 갖는 아홉 개의 제1 영역 내지 제9 영역으로 분할할 수 있다. 이때, 시선 위치 판단부(180)는 3×3 구조로 된 각 분리 영역 중 가운데 영역을 제1 영역으로 정의하고, 제1 영역을 기준으로 그 테두리에 위치한 여덟 개 영역을 제2 영역 내지 제9 영역으로 정의할 수 있다. 물론, 이는 일 실시예일 뿐, 각 영역의 순서를 정하는 것은 실시 형태에 따라 다양하게 변경 가능함은 당연한 것이다.As shown in FIG. 4 , the gaze position determiner 180 may divide the left and
또한, 시선 위치 판단부(180)는 제1 내지 제9 영역에 대응하여 운전자의 시선 방향을 정의할 수 있다. 일 예로, 제1 영역은 카메라 정면 방향, 제2 영역은 카메라 우측 방향, 제3 영역은 카메라 우측 상단 방향, 제4 영역은 카메라 정면 상단 방향, 제5 영역은 카메라 좌측 상단 방향, 제6 영역은 카메라 좌측 방향, 제7 영역은 카메라 좌측 하단 방향, 제8 영역은 카메라 정면 하단 방향, 그리고 제9 영역은 카메라 우측 하단 방향으로 정의될 수 있다.Also, the gaze position determiner 180 may define the driver's gaze direction in response to the first to ninth regions. For example, the first area is in the front direction of the camera, the second area is in the right direction of the camera, the third area is in the upper right direction of the camera, the fourth area is in the front upper direction of the camera, the fifth area is in the upper left direction of the camera, and the sixth area is The camera left direction, the seventh area may be defined as a camera bottom left direction, the eighth area may be defined as a front bottom direction of the camera, and the ninth area may be defined as a camera right lower direction direction.
제1 영역 내지 제9 영역에 대응하는 시선 방향에 대한 실시예는 도 5a 내지 도 5g를 참조하도록 한다.Examples of gaze directions corresponding to the first to ninth regions will be described with reference to FIGS. 5A to 5G .
도 5a는 안경을 착용하고 카메라 정면을 주시하는 운전자의 영상을 나타낸 것이다. 도 5a와 같이 운전자가 카메라 정면을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제1 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5A illustrates an image of a driver who wears glasses and looks at the front of the camera. When the driver looks at the front of the camera as shown in FIG. 5A , a reflection point by the
도 5b는 안경을 착용하고 카메라 우측을 주시하는 운전자의 영상을 나타낸 것이다. 도 5b와 같이 운전자가 카메라 우측을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제2 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5B illustrates an image of a driver who wears glasses and looks at the right side of the camera. When the driver looks at the right side of the camera as shown in FIG. 5B , a reflection point by the
도 5c는 안경을 착용하고 카메라 정면 상단을 주시하는 운전자의 영상을 나타낸 것이다. 도 5c와 같이 운전자가 카메라 정면 상단을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제4 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5C shows an image of a driver wearing glasses and looking at the top of the front of the camera. As shown in FIG. 5C , when the driver gazes at the top of the front of the camera, a reflection point by the
도 5d는 안경을 착용하고 카메라 좌측을 주시하는 운전자의 영상을 나타낸 것이다. 도 5d와 같이 운전자가 카메라 좌측을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제6 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5D illustrates an image of a driver who wears glasses and looks at the left side of the camera. When the driver looks at the left side of the camera as shown in FIG. 5D , a reflection point by the
도 5e는 안경을 착용하고 카메라 좌측 하단을 주시하는 운전자의 영상을 나타낸 것이다. 도 5e와 같이 운전자가 카메라 좌측 하단을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제7 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5E illustrates an image of a driver wearing glasses and looking at the lower left corner of the camera. As shown in FIG. 5E , when the driver gazes at the lower left corner of the camera, a reflection point by the
도 5f는 안경을 착용하고 카메라 정면 하단을 주시하는 운전자의 영상을 나타낸 것이다. 도 5f와 같이 운전자가 카메라 정면 하단을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제8 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5F shows an image of a driver wearing glasses and looking at the lower front of the camera. As shown in FIG. 5F , when the driver looks at the lower front of the camera, a reflection point by the
도 5g는 안경을 착용하고 카메라 우측 하단을 주시하는 운전자의 영상을 나타낸 것이다. 도 5g와 같이 운전자가 카메라 우측 하단을 주시하는 경우, 안경을 포함하는 눈 영상의 제1 영역 내지 제9 영역 중 제9 영역에 발광부(135)에 의한 반사점이 형성될 수 있다.5G illustrates an image of a driver wearing glasses and looking at the lower right corner of the camera. When the driver looks at the lower right corner of the camera as shown in FIG. 5G , a reflection point by the
이와 같이, 시선 위치 판단부(180)는 눈 위치를 중심으로 하는 반사점의 상대 위치에 따라 반사점이 제1 영역 내지 제9 영역 중 어느 영역에 위치하는지를 판단할 수 있다. 이때, 시선 위치 판단부(180)는 제1 영역 내지 제9 영역 중 반사점이 위치하는 영역에 정의된 시선 방향을 기준으로 HUD에 대한 운전자의 응시 위치를 확인할 수 있다.As such, the gaze position determiner 180 may determine in which region the reflection point is located among the first to ninth regions according to the relative position of the reflection point with respect to the eye position. In this case, the gaze position determiner 180 may determine the driver's gaze position with respect to the HUD based on the gaze direction defined in the region where the reflection point is located among the first to ninth regions.
여기서, 시선 위치 판단부(180)는 제1 영역 내지 제9 영역 중 부주의 영역을 사전에 정의할 수 있다. 일 예로, 제1 영역 내지 제9 영역 중 제1 영역, 제2 영역, 제6 영역 내지 제9 영역을 부주의 영역으로 정의할 수 있다. 따라서, 시선 위치 판단부(180)는 제1 영역 내지 제9 영역 중 반사점이 위치하는 영역이 부주의 영역에 해당하면, 운전자가 부주의 상태인 것으로 판단하여 경보를 출력할 수 있다. 여기서, 운전자의 부주의 상태에 대한 경보를 출력하는 실시예는 도 6을 참조하도록 한다.Here, the gaze position determiner 180 may pre-define an inattentive region among the first to ninth regions. For example, the first region, the second region, and the sixth region to the ninth region among the first to ninth regions may be defined as careless regions. Accordingly, when the area in which the reflection point is located among the first to ninth areas corresponds to the careless area, the gaze position determiner 180 may determine that the driver is in a careless state and output an alert. Here, an embodiment of outputting an alert for the driver's careless state will be described with reference to FIG. 6 .
도 1에는 도시하지 않았으나, 운전자 상태 판단 장치(100)는 통신부(미도시)를 더 포함할 수 있다.Although not shown in FIG. 1 , the driver
통신부는 차량에 구비된 전장품 및/또는 제어유닛들과의 통신 인터페이스를 지원하는 통신모듈을 포함할 수 있다. 일 예로서, 통신모듈은 차량에 구비된 디스플레이 장치와 통신 연결되어 운전자의 상태 판단 결과 및 그에 따른 제어 명령을 디스플레이 장치로 송신할 수 있다. The communication unit may include a communication module that supports a communication interface with electronic devices and/or control units provided in the vehicle. As an example, the communication module may be communicatively connected with a display device provided in the vehicle to transmit a result of determining the driver's state and a corresponding control command to the display device.
여기서, 통신모듈은 CAN(Controller Area Network) 통신, LIN(Local Interconnect Network) 통신, 플렉스레이(Flex-Ray) 통신 등의 차량 네트워크 통신을 지원하는 모듈을 포함할 수 있다. 또한, 통신모듈은 무선 인터넷 접속을 위한 모듈 또는 근거리 통신(Short Range Communication)을 위한 모듈을 포함할 수도 있다.Here, the communication module may include a module supporting vehicle network communication such as CAN (Controller Area Network) communication, LIN (Local Interconnect Network) communication, and Flex-Ray communication. In addition, the communication module may include a module for wireless Internet access or a module for short range communication.
상기와 같이 구성되는 본 발명에 따른 장치의 동작 흐름을 보다 상세히 설명하면 다음과 같다.The operation flow of the device according to the present invention configured as described above will be described in more detail as follows.
도 7은 본 발명의 일 실시예에 따른 운전자 상태 판단 방법에 대한 동작 흐름을 도시한 도면이다. 도 7의 실시예는 운전자가 안경을 착용한 경우에 안경을 포함하는 눈 영상을 기준으로 운전자 상태를 판단하는 동작을 나타낸 것이다.7 is a diagram illustrating an operation flow of a method for determining a driver's condition according to an embodiment of the present invention. 7 illustrates an operation of determining a driver's state based on an eye image including glasses when the driver wears glasses.
도 7을 참조하면, 본 발명에 따른 운전자 상태 판단 장치(100)는 카메라(130)에 의해 촬영된 얼굴 영상으로부터 추출한 눈 영상으로부터 눈 중심점을 검출한다(S110).Referring to FIG. 7 , the driver
또한, 운전자 상태 판단 장치(100)는 눈 영상을 밝기 정도에 근거하여 이진화하고(S120), 'S120' 과정의 이진화 영상에서 운전자의 눈 중심 위치 주변에 형성된 광원 패턴으로부터 운전자의 안경에 형성된 반사점을 검출한다(S130).In addition, the driver
운전자 상태 판단 장치(100)는 눈 중심점 및 반사점이 검출되면, 검출된 눈 중심점 및 반사점의 위치를 비교하여, 눈 영상에서 눈 중심점을 기준으로 하는 반사점의 상대 위치(거리 및 방향)를 계산한다(S140). When the eye center point and the reflection point are detected, the driver
운전자 상태 판단 장치(100)는 'S140' 과정에서 계산된 반사점의 상대 위치를 토대로 운전자의 시선 위치를 판단한다. 여기서, 운전자 상태 판단 장치(100)는 눈 영상의 안경 영역을 동일한 넓이를 갖는 아홉 개의 영역으로 분할하고, 분할된 각 영역에 대응하는 시선 방향을 정의할 수 있다.The driver
운전자 상태 판단 장치(100)는 분할된 아홉 개의 영역 중 반사점이 위치하는 영역을 판단하고(S150), 해당 영역에 대해 정의된 시선 방향을 운전자의 시선 방향, 예를 들어, HUD의 응시 위치를 판단할 수 있다(S160).The driver
이후, 운전자 상태 판단 장치(100)는 운전자가 응시하는 위치가 부주의 영역인지 확인하고, 부주의 영역이면 운전자가 부주의 상태인 것으로 인식한다. 따라서, 운전자 상태 판단 장치(100)는 운전자가 부주의 상태인 것으로 확인되면(S170), 경보 알림을 통해 운전자의 주의를 환기시키도록 한다(S180).Thereafter, the driver
상기에서와 같이 동작하는 본 실시예에 따른 장치(100)는 독립적인 하드웨어 장치 형태로 구현될 수 있으며, 적어도 하나 이상의 프로세서(processor)로서 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다.The
도 8은 본 발명의 일 실시예에 따른 장치가 적용된 컴퓨팅 시스템을 도시한 도면이다.8 is a diagram illustrating a computing system to which an apparatus according to an embodiment of the present invention is applied.
도 8을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다. Referring to FIG. 8 , the
프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The
따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Accordingly, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be directly implemented in hardware, a software module executed by the
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
100: 운전자 상태 판단 장치 110: 제어부
120: 인터페이스부 130: 카메라
135: 발광부 140: 저장부
150: 눈 검출부 160: 반사점 검출부
170: 반사점 위치 계산부 180: 시선 위치 판단부100: driver state determination device 110: control unit
120: interface unit 130: camera
135: light emitting unit 140: storage unit
150: eye detection unit 160: reflection point detection unit
170: reflection point position calculation unit 180: gaze position determination unit
Claims (19)
상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 반사점 검출부;
상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하는 반사점 위치 계산부; 및
상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 시선 위치 판단부;
를 포함하고,
상기 시선 위치 판단부는,
상기 눈 영상에서 운전자의 좌측 눈 및 우측 눈을 기준으로 정해진 범위 내의 각 영역을 N이 홀수인 NХN 구조를 갖도록 분할하고, 분할된 상기 각 영역에 대응하는 운전자의 시선 방향을 정의하는 것을 특징으로 하는 운전자 상태 판단 장치.an eye detection unit that extracts an eye image from a driver's face image captured by a camera and detects an eye center point from the eye image;
a reflection point detection unit configured to detect a reflection point formed within a predetermined range based on the eye center point from the eye image;
a reflection point position calculation unit calculating a relative position of a reflection point with respect to the eye center point in the eye image by comparing the positions of the eye center point and the reflection point; and
a gaze position determination unit that determines a driver's gaze position based on the relative position of the calculated reflection point in the eye image, and determines the driver's inattention state according to the driver's gaze position;
including,
The gaze position determination unit,
In the eye image, each region within a predetermined range based on the driver's left eye and right eye is divided to have an NХN structure in which N is an odd number, and a driver's gaze direction corresponding to each of the divided regions is defined. Driver condition judgment device.
상기 눈 영상은,
상기 운전자가 착용한 안경 영역을 포함하며,
상기 반사점은,
상기 안경 영역 내에 형성된 것을 특징으로 하는 운전자 상태 판단 장치.The method according to claim 1,
The eye image is
It includes an area of glasses worn by the driver,
The reflection point is
Driver state determination device, characterized in that formed in the glasses area.
상기 반사점 검출부는,
상기 눈 영상을 밝기 정도에 근거하여 이진화 한 이진화 영상에서 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 광원 패턴을 검출하고, 상기 검출한 광원 패턴으로부터 반사점을 검출하는 것을 특징으로 하는 운전자 상태 판단 장치.3. The method according to claim 2,
The reflection point detection unit,
The apparatus for determining a driver's condition, characterized in that in the binarized image obtained by binarizing the eye image based on the brightness level, a light source pattern formed within a predetermined range with respect to the eye center point is detected, and a reflection point is detected from the detected light source pattern.
상기 시선 위치 판단부는,
상기 눈 영상에서 운전자의 좌측 눈 및 우측 눈을 기준으로 정해진 범위 내의 각 영역을 3×3 구조를 갖는 아홉 개의 영역으로 분할하는 것을 특징으로 하는 운전자 상태 판단 장치.The method according to claim 1,
The gaze position determination unit,
and dividing each region within a predetermined range based on the driver's left and right eyes in the eye image into nine regions having a 3×3 structure.
상기 시선 위치 판단부는,
상기 분할된 영역들 중 가운데 영역에 대응하는 시선 방향을 카메라의 정면 방향으로 정의하고, 상기 가운데 영역을 기준으로 테두리에 위치한 영역들에 대응하는 시선 방향을 각각 정의하는 것을 특징으로 하는 운전자 상태 판단 장치.The method according to claim 1,
The gaze position determination unit,
Driver state determination apparatus, characterized in that a gaze direction corresponding to a center region among the divided regions is defined as a front direction of the camera, and gaze directions corresponding to regions located at an edge with respect to the center region are respectively defined. .
상기 시선 위치 판단부는,
상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 상기 분할된 영역들 중 상기 반사점이 위치한 영역을 확인하고, 상기 확인된 영역에 대응하여 정의된 시선 방향에 기초하여 상기 운전자의 시선 위치를 판단하는 것을 특징으로 하는 운전자 상태 판단 장치.The method according to claim 1,
The gaze position determination unit,
A region in which the reflection point is located among the divided regions is identified based on the relative position of the calculated reflection point in the eye image, and the driver's gaze position is determined based on a gaze direction defined corresponding to the identified region Driver state determination device, characterized in that.
상기 시선 위치 판단부는,
상기 분할된 영역들에 각각 정의된 시선 방향에 기초하여 부주의 영역을 정의하고, 상기 반사점이 위치한 영역이 부주의 영역에 해당하는 경우 상기 운전자가 부주의 상태인 것으로 판단하는 것을 특징으로 하는 운전자 상태 판단 장치.9. The method of claim 8,
The gaze position determination unit,
The driver state determination apparatus of claim 1, wherein an inattention region is defined based on a gaze direction defined in each of the divided regions, and when the region in which the reflection point is located corresponds to the inattention region, it is determined that the driver is in an inattentive state.
상기 시선 위치 판단부는,
상기 운전자가 부주의 상태인 것으로 확인되면 경보를 출력하는 것을 특징으로 하는 운전자 상태 판단 장치.The method according to claim 1,
The gaze position determination unit,
Driver state determination device, characterized in that outputting an alarm when it is confirmed that the driver is in a careless state.
상기 눈 영상으로부터 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 반사점을 검출하는 단계;
상기 눈 영상에서 운전자의 좌측 눈 및 우측 눈을 기준으로 정해진 범위 내의 각 영역을 N이 홀수인 NХN 구조를 갖도록 분할하는 단계;
상기 눈 중심점 및 상기 반사점의 위치를 비교하여 상기 눈 영상에서 상기 눈 중심점을 기준으로 하는 반사점의 상대 위치를 계산하되, 상기 상대 위치가 상기 분할된 각 영역에 대응하는 것을 바탕으로 운전자의 시선 방향을 정의하는 단계; 및
상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 운전자의 시선 위치를 판단하고, 상기 운전자의 시선 위치에 따라 상기 운전자의 부주의 상태를 판단하는 단계;
를 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.extracting an eye image from a driver's face image captured by a camera and detecting an eye center point from the eye image;
detecting a reflection point formed within a predetermined range based on the eye center point from the eye image;
dividing each region within a predetermined range based on the driver's left and right eyes in the eye image to have an NХN structure in which N is an odd number;
By comparing the positions of the eye center point and the reflection point, the relative position of the reflection point with respect to the eye center point is calculated in the eye image, and the driver's gaze direction is determined based on the relative position corresponding to each of the divided regions. defining; and
determining the driver's gaze position based on the relative position of the calculated reflection point in the eye image, and determining the driver's careless state according to the driver's gaze position;
Driver status determination method comprising a.
상기 반사점을 검출하는 단계는,
상기 눈 영상을 밝기 정도에 근거하여 이진화를 수행하는 단계;
이진화 영상에서 상기 눈 중심점을 기준으로 정해진 범위 내에 형성된 광원 패턴을 검출하는 단계; 및
상기 검출한 광원 패턴으로부터 반사점을 검출하는 단계를 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.12. The method of claim 11,
The step of detecting the reflection point,
performing binarization of the eye image based on a brightness level;
detecting a light source pattern formed within a predetermined range based on the eye center point in the binarized image; and
and detecting a reflection point from the detected light source pattern.
상기 분할하는 단계는,
상기 눈 영상에서 운전자의 좌측 눈 및 우측 눈을 기준으로 정해진 범위 내의 각 영역을 3×3 구조를 갖는 아홉 개의 영역으로 분할하는 것을 특징으로 하는 운전자 상태 판단 방법.12. The method of claim 11,
The dividing step is
In the eye image, each area within a predetermined range based on the driver's left eye and right eye is divided into nine areas having a 3×3 structure.
상기 운전자의 시선 방향을 정의하는 단계는,
상기 분할된 영역들 중 가운데 영역에 대응하는 시선 방향을 카메라의 정면 방향으로 정의하는 단계; 및
상기 가운데 영역을 기준으로 테두리에 위치한 영역들에 대응하는 시선 방향을 각각 정의하는 단계를 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.12. The method of claim 11,
The step of defining the driver's gaze direction includes:
defining a gaze direction corresponding to a middle area among the divided areas as a front direction of the camera; and
and defining gaze directions corresponding to regions located at edges with respect to the center region, respectively.
상기 운전자의 부주의 상태를 판단하는 단계는,
상기 눈 영상에서 상기 계산된 반사점의 상대 위치를 근거로 상기 분할된 영역들 중 상기 반사점이 위치한 영역을 확인하는 단계; 및
상기 확인된 영역에 대응하여 정의된 시선 방향에 기초하여 상기 운전자의 시선 위치를 판단하는 단계를 더 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.12. The method of claim 11,
The step of determining the driver's careless state includes:
identifying an area in which the reflection point is located among the divided areas based on the calculated relative positions of the reflection points in the eye image; and
The method of claim 1, further comprising: determining a gaze position of the driver based on a gaze direction defined in response to the identified area.
상기 운전자의 부주의 상태를 판단하는 단계 이전에,
상기 분할된 영역들에 각각 정의된 시선 방향에 기초하여 부주의 영역을 정의하는 단계를 더 포함하고,
상기 운전자의 부주의 상태를 판단하는 단계는,
상기 반사점이 위치한 영역이 부주의 영역에 해당하는 경우 상기 운전자가 부주의 상태인 것으로 판단하는 것을 특징으로 하는 운전자 상태 판단 방법.12. The method of claim 11,
Prior to the step of determining the driver's careless state,
Further comprising the step of defining an inattentive region based on the gaze direction defined in each of the divided regions,
The step of determining the driver's careless state includes:
The driver state determination method, characterized in that, when the area where the reflection point is located corresponds to the careless area, it is determined that the driver is in the careless state.
상기 운전자가 부주의 상태인 것으로 확인되면 경보를 출력하는 단계를 더 포함하는 것을 특징으로 하는 운전자 상태 판단 방법.12. The method of claim 11,
and outputting an alarm when it is confirmed that the driver is in a careless state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160129279A KR102371591B1 (en) | 2016-10-06 | 2016-10-06 | Apparatus and method for determining condition of driver |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160129279A KR102371591B1 (en) | 2016-10-06 | 2016-10-06 | Apparatus and method for determining condition of driver |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180038316A KR20180038316A (en) | 2018-04-16 |
KR102371591B1 true KR102371591B1 (en) | 2022-03-07 |
Family
ID=62081921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160129279A KR102371591B1 (en) | 2016-10-06 | 2016-10-06 | Apparatus and method for determining condition of driver |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102371591B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108819900A (en) * | 2018-06-04 | 2018-11-16 | 上海商汤智能科技有限公司 | Control method for vehicle and system, vehicle intelligent system, electronic equipment, medium |
KR102236469B1 (en) * | 2019-03-08 | 2021-04-07 | 동국대학교 산학협력단 | Device and method for estimating driver's distraction |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002331850A (en) * | 2001-05-07 | 2002-11-19 | Nissan Motor Co Ltd | Driving behavior intention detector |
JP2002352229A (en) | 2001-05-30 | 2002-12-06 | Mitsubishi Electric Corp | Face region detector |
JP2005301727A (en) * | 2004-04-13 | 2005-10-27 | Honda Motor Co Ltd | Inattention determination apparatus |
JP2008123137A (en) | 2006-11-09 | 2008-05-29 | Aisin Seiki Co Ltd | On-vehicle image processor and control method therefor |
KR101619661B1 (en) * | 2014-12-08 | 2016-05-10 | 현대자동차주식회사 | Detection method of face direction of driver |
-
2016
- 2016-10-06 KR KR1020160129279A patent/KR102371591B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002331850A (en) * | 2001-05-07 | 2002-11-19 | Nissan Motor Co Ltd | Driving behavior intention detector |
JP2002352229A (en) | 2001-05-30 | 2002-12-06 | Mitsubishi Electric Corp | Face region detector |
JP2005301727A (en) * | 2004-04-13 | 2005-10-27 | Honda Motor Co Ltd | Inattention determination apparatus |
JP2008123137A (en) | 2006-11-09 | 2008-05-29 | Aisin Seiki Co Ltd | On-vehicle image processor and control method therefor |
KR101619661B1 (en) * | 2014-12-08 | 2016-05-10 | 현대자동차주식회사 | Detection method of face direction of driver |
Also Published As
Publication number | Publication date |
---|---|
KR20180038316A (en) | 2018-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10955970B2 (en) | Pointing direction determination system and method thereof | |
US10354449B2 (en) | Augmented reality lighting effects | |
KR101960644B1 (en) | Vehicle display device and vehicle display method | |
CN104331168A (en) | Display adjusting method and electronic equipment | |
US9367951B1 (en) | Creating realistic three-dimensional effects | |
US10019107B2 (en) | Correcting for parallax in electronic displays | |
US10002300B2 (en) | Apparatus and method for monitoring driver's concentrativeness using eye tracing | |
CN104335574A (en) | Head-mounted display | |
KR20200050515A (en) | Display apparatus and method for controlling the same | |
KR102402148B1 (en) | Electronic device and method for recognizing character thereof | |
KR101679265B1 (en) | Transparent display apparatus and the operation method thereof | |
KR102371591B1 (en) | Apparatus and method for determining condition of driver | |
KR102581179B1 (en) | Electronic device for perfoming biometric authentication and operation method thereof | |
JP2015129929A (en) | Method for displaying content and head mounted display | |
TW201624352A (en) | Optical fingerprint recognition apparatus | |
US20180130442A1 (en) | Anti-spy electric device and adjustable focus glasses and anti-spy method for electric device | |
US9811916B1 (en) | Approaches for head tracking | |
US20190025911A1 (en) | Non-transitory computer-readable storage medium, information processing apparatus, and information processing method | |
KR102233481B1 (en) | Method of controlling screen and display device having the same | |
CN106080136B (en) | Incident light intensity control method and device | |
SE536984C2 (en) | System and method for displaying information on a window pane a vehicle with a mirror mounted outside the pane | |
WO2020088156A1 (en) | Under-screen fingerprint module, electronic device and fingerprint image processing method | |
KR101476503B1 (en) | Interaction providing apparatus and method for wearable display device | |
KR20200056187A (en) | Apparatus and method for driver distraction warning control | |
US10742937B2 (en) | Watching apparatus, watching method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |