KR101610521B1 - Apparatus and method for tracking gaze - Google Patents

Apparatus and method for tracking gaze Download PDF

Info

Publication number
KR101610521B1
KR101610521B1 KR1020140137475A KR20140137475A KR101610521B1 KR 101610521 B1 KR101610521 B1 KR 101610521B1 KR 1020140137475 A KR1020140137475 A KR 1020140137475A KR 20140137475 A KR20140137475 A KR 20140137475A KR 101610521 B1 KR101610521 B1 KR 101610521B1
Authority
KR
South Korea
Prior art keywords
time frame
vehicle
camera
motion
gaze
Prior art date
Application number
KR1020140137475A
Other languages
Korean (ko)
Inventor
이석범
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140137475A priority Critical patent/KR101610521B1/en
Application granted granted Critical
Publication of KR101610521B1 publication Critical patent/KR101610521B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D41/00Fittings for identifying vehicles in case of collision; Fittings for marking or recording collision areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D9/00Recording measured values

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an apparatus and a method for tracking gaze. According to the present invention, the apparatus comprises: a camera detecting gaze of a vehicle driver; a movement detection unit detecting vehicle movement during a predetermined time frame, and a change in a camera pose based on an absolute coordinate system in accordance with the vehicle movement; a vector cone calculation unit calculating a gaze vector in each pose of the camera detected during the time frame, and calculating a cone with respect to the calculated gaze vector; and a control unit tracking a position wherein a cone area of the gaze vector in each pose of the camera is overlapped to determine a gaze coordinate of a driver.

Description

시선 추적 장치 및 방법{Apparatus and method for tracking gaze}[0001] APPARATUS AND METHOD FOR TRACKING [0002]

본 발명은 시선 추적 장치 및 방법에 관한 것으로, 차량 거동 및 카메라 포즈에 따른 시선 벡터의 변화를 이용하여 응시 좌표를 추출하는 기술에 관한 것이다.TECHNICAL FIELD The present invention relates to a gaze tracking apparatus and method, and more particularly, to a technique for extracting gaze coordinates using a change in a gaze vector depending on a vehicle behavior and a camera pose.

일반적인 시선 추적 기술은 시선 방향 벡터로서 운전자가 무엇을 응시하고 있는지를 판단한다.A common eye tracking technique is to determine what the driver is gazing at as a gaze direction vector.

일 예로, 시선 추적 기술은 시선 벡터에 위치하는 물체가 교차되는 점을 계산하여 응시점을 추정하는 방식이 있다. 하지만, 이러한 방식은 시선 추적 카메라를 기준으로 물체의 정확한 좌표를 알아야 한다. 또한, 이러한 방식은 시선 방향에 여러 물체가 있는 경우 어느 것을 응시하는지 판단하기 어렵다. 예를 들어, 사용자가 윈드쉴드를 보는 것인지 혹은 윈드쉴드 너머의 물체를 보는 것인지 판단하기 어렵다.For example, the gaze tracking technique includes a method of estimating a gaze point by calculating a point at which an object located in a gaze vector intersects. However, this method needs to know the exact coordinates of the object based on the eye tracking camera. In addition, it is difficult to judge which method to gaze when there are many objects in the direction of the eye. For example, it is difficult to determine whether a user is looking at a windshield or viewing an object beyond a windshield.

다른 예로, 시선 추적 기술은 양 눈의 시선 벡터가 교차되는 점을 계산하여 응시점을 추정하는 방식이 있다. 하지만, 이러한 방식은 양 눈 사이의 간격이 좁기 때문에 응시 대상이 가까이 있는 경우에만 정확한 결과를 추출할 수 있다.As another example, the gaze tracking technique is a method of estimating the gaze point by calculating the intersection point of the eye vectors of both eyes. However, since this method has a narrow gap between eyes, accurate results can be extracted only when the subject is close to the subject.

본 발명의 목적은, 차량의 진동 및 주행에 의한 움직임과, 시선 벡터의 이력을 이용하여 신뢰도 높은 응시 좌표를 추출하는 것이 가능한 시선 추적 장치 및 방법을 제공함에 있다.An object of the present invention is to provide a gaze tracking apparatus and method capable of extracting highly reliable gaze coordinates by using movement of vibration and running of a vehicle and history of a gaze vector.

상기의 목적을 달성하기 위한 본 발명에 따른 시선 추적 장치는, 차량 운전자의 시선을 감지하는 카메라, 미리 결정된 시간 프레임 동안의 차량 움직임 및 상기 차량 움직임에 따른 절대 좌표계 기반의 카메라 포즈의 변화를 검출하는 움직임 검출부, 상기 시간 프레임 동안 검출된 상기 카메라의 각 포즈별로 시선 벡터를 산출하고, 상기 산출된 시선 벡터에 대한 콘(cone)을 계산하는 시선 벡터 콘 계산부, 및 상기 카메라의 각 포즈별 시선 벡터의 콘 영역이 중첩되는 위치를 추적하여 운전자의 응시 좌표로 결정하는 제어부를 포함할 수 있다.According to an aspect of the present invention, there is provided a line-of-sight tracking apparatus for detecting a change of a camera pose based on an absolute coordinate system according to a vehicle motion and a vehicle motion for a predetermined time frame, A line of sight vector calculation unit for calculating a line of sight vector for each pose of the camera detected during the time frame and calculating a cone for the calculated line of sight vector, And a control unit for tracking the position where the cone region of the vehicle is overlapped and determining the coordinates as the driver's gaze coordinates.

본 발명에 따른 상기 시선 추적 장치는, 차량 움직임 및 상기 운전자의 얼굴 움직임 중 적어도 하나를 근거로 시간 프레임 크기를 결정하는 시간 프레임 크기 결정부를 더 포함하는 것을 특징으로 한다.The gaze tracking apparatus according to the present invention may further include a time frame size determining unit for determining a time frame size based on at least one of a vehicle motion and a face motion of the driver.

상기 시간 프레임 크기 결정부는, 상기 차량 움직임 및 상기 운전자의 얼굴 움직임이 검출되지 않으면 시간 프레임 크기를 기준값으로 초기화하는 것을 특징으로 한다.The time frame size determination unit may initialize the time frame size to a reference value if the vehicle motion and the face motion of the driver are not detected.

상기 시간 프레임 크기는, 차량의 속도, 조향각 및 차량 진동값에 반비례한 것을 특징으로 한다.The time frame size is characterized by being inversely proportional to the vehicle speed, the steering angle and the vehicle vibration value.

상기 움직임 검출부는, 미리 결정된 시간 프레임 동안 상기 차량의 횡방향, 종방향 및 수직방향에 대한 움직임을 검출하는 것을 특징으로 한다.And the motion detection section detects movement of the vehicle in the lateral direction, the longitudinal direction and the vertical direction for a predetermined time frame.

상기 움직임 검출부는, 미리 결정된 시간 프레임 동안 검출된 상기 차량의 움직임에 근거하여 변화된 각 위치 좌표에서 상기 카메라의 포즈를 검출하는 것을 특징으로 한다.Wherein the motion detection unit detects a pose of the camera in each positional coordinate changed based on the motion of the vehicle detected during a predetermined time frame.

상기 움직임 검출부는, 미리 결정된 시간 프레임 동안 검출된 상기 차량의 움직임에 대응하는 위치 변환 행렬을 이용하여 상기 카메라의 기준 위치 좌표를 변환하는 것을 특징으로 한다.Wherein the motion detecting unit transforms the reference position coordinates of the camera using a position conversion matrix corresponding to the motion of the vehicle detected for a predetermined time frame.

한편, 상기의 목적을 달성하기 위한 본 발명에 따른 시선 추적 방법은, 미리 결정된 시간 프레임 동안의 차량 움직임 및 상기 차량 움직임에 따른 절대 좌표계 기반의 시선 카메라에 대한 포즈 변화를 검출하는 단계, 상기 시간 프레임 동안 검출된 상기 시선 카메라의 각 포즈별로 시선 벡터를 산출하는 단계, 상기 산출된 시선 벡터에 대한 콘(cone)을 계산하는 단계, 및 상기 카메라의 각 포즈별 시선 벡터의 콘 영역이 중첩되는 위치를 추적하여 운전자의 응시 좌표로 결정하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a line-of-sight tracking method comprising: detecting a vehicle motion for a predetermined time frame and a pose change for a line-of-sight camera based on an absolute coordinate system according to the vehicle motion; Calculating a line-of-sight vector for each pose of the line-of-sight camera, calculating a cone for the calculated line-of-sight vector, and calculating a cone of the line-by- And determining the coordinates to be the driver's gaze coordinates.

본 발명에 따르면, 차량의 진동 및 주행에 의한 움직임과, 시선 벡터의 이력을 이용하여 응시 좌표를 추출함으로써 좌표 변화에 따른 응시점 판단 오차를 감소시켜 신뢰성을 향상시킬 수 있으며, 차량 움직임과 비례하여 추출 거리의 제한 없이 응시점을 추출할 수 있는 이점이 있다.According to the present invention, it is possible to improve the reliability by reducing the gaze point determination error according to the coordinate change by extracting the gaze coordinates using the movement of the vehicle by vibration and running and the history of the gaze vector, There is an advantage that the gazing point can be extracted without limiting the extraction distance.

또한, 본 발명에 따르면 응시점 판단을 위한 고가의 센서가 불필요하므로 원가 절감의 효과가 있다.Further, according to the present invention, an expensive sensor for judging the gazing point is unnecessary, thereby reducing the cost.

도 1은 본 발명에 따른 시선 추적 장치의 구성을 도시한 블록도이다.
도 2 및 도 3은 본 발명에 따른 시선 추적 장치의 차량 거동에 따른 카메라 포즈 검출 동작을 설명하는데 참조되는 예시도이다.
도 4 및 도 5는 본 발명에 따른 시선 추적 장치의 응시 좌표 추출 동작을 설명하는데 참조되는 예시도이다.
도 6 및 도 7은 본 발명에 따른 시선 추적 방법에 대한 동작 흐름을 도시한 순서도이다.
1 is a block diagram showing the configuration of a gaze tracking apparatus according to the present invention.
FIG. 2 and FIG. 3 are views for explaining a camera pose detecting operation according to the vehicle behavior of the eye tracking apparatus according to the present invention.
FIGS. 4 and 5 are diagrams for explaining the coordinate extraction operation of the gaze tracking apparatus according to the present invention.
FIGS. 6 and 7 are flowcharts illustrating an operation flow of the eye tracking method according to the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, and an overly comprehensive It should not be construed as meaning or overly reduced. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art can be properly understood. In addition, the general terms used in the present invention should be interpreted according to a predefined or context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. The term "comprising" or "comprising" or the like in the present invention should not be construed as necessarily including the various elements or steps described in the invention, Or may include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention and should not be construed as limiting the scope of the present invention.

도 1은 본 발명에 따른 시선 추적 장치의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a gaze tracking apparatus according to the present invention.

도 1을 참조하면, 본 발명에 따른 시선 추적 장치는 카메라(110), 입력부(120), 출력부(130), 통신부(140), 저장부(150), 움직임 검출부(160), 시간 프레임 크기 결정부(170), 시선 벡터 콘 계산부(180) 및 제어부(190)를 포함할 수 있다. 여기서, 제어부(190)는 시선 추적 장치의 각 부 간에 전달되는 신호를 제어할 수 있다.1, a gaze tracking apparatus according to the present invention includes a camera 110, an input unit 120, an output unit 130, a communication unit 140, a storage unit 150, a motion detection unit 160, A decision unit 170, a line vector cone calculation unit 180, and a control unit 190. Here, the control unit 190 may control signals transmitted between the respective units of the gaze tracking apparatus.

카메라(110)는 차량 내 운전석 주변에 배치되어 운전자의 얼굴 및/또는 눈 영상을 촬영한다. 이때, 카메라(110)는 운전자의 얼굴 방향, 홍채, 동공 등의 움직임을 촬영할 수 있다. 카메라(110)에 의해 촬영된 영상은 제어부(190)에 의해 움직임 검출부(160) 및/또는 시선 벡터 콘 계산부(180)로 제공될 수 있다.The camera 110 is disposed around the driver's seat in the vehicle and photographs the driver's face and / or eye image. At this time, the camera 110 can photograph the motion of the driver's face, iris, pupil, and the like. An image photographed by the camera 110 may be provided to the motion detector 160 and / or the line-of-sight vector cone calculator 180 by the controller 190.

여기서, 카메라(110)는 적외선 카메라일 수 있으며, 색상 카메라일 수도 있다. 또한, 카메라(110)는 단렌즈 카메라일 수도 있으며, 스테레오 카메라일 수도 있다. 이와 같이 카메라(110)는 운전자의 시선을 추적하는데 적용 가능한 것이라면 어느 적이든 적용 가능함은 당연한 것이다.Here, the camera 110 may be an infrared camera or a color camera. In addition, the camera 110 may be a single lens camera or a stereo camera. As such, it is a matter of course that the camera 110 can be applied to any one as long as it is applicable to track the driver's gaze.

입력부(120)는 사용자로부터의 제어 명령을 입력받기 위한 수단으로, 시선 추적 장치 외부에 구현되는 키 버튼이 해당 될 수 있으며, 시선 추적 장치의 화면상에 구현되는 소프트 키가 해당 될 수도 있다. 또한, 입력부(120)는 마우스, 조이스틱, 조그 셔틀, 스타일러스 펜과 같은 형태의 입력 수단일 수도 있다.The input unit 120 is a means for receiving a control command from a user, and may be a key button implemented outside the gaze tracking device, or may be a soft key implemented on the screen of the gaze tracking device. The input unit 120 may be an input unit such as a mouse, a joystick, a jog shuttle, or a stylus pen.

출력부(130)는 시선 추적 장치의 동작 상태 및 동작 수행 결과 등이 표시되는 디스플레이를 포함할 수 있다. 여기서, 디스플레이는 터치 동작을 감지하는 센서가 구비되는 경우, 출력 장치 이외에도 입력 장치로도 사용될 수 있다. 즉, 터치 필름, 터치 시트, 터치 패드 등의 터치 센서가 디스플레이에 구비되는 경우, 디스플레이는 터치 스크린으로 동작하며, 입력부(120)와 출력부(130)가 통합된 형태로 구현될 수 있다.The output unit 130 may include a display for displaying an operation state of the gaze tracking apparatus, an operation result, and the like. Here, the display may be used as an input device in addition to an output device when a sensor for sensing a touch operation is provided. That is, when a touch sensor such as a touch film, a touch sheet, or a touch pad is provided on the display, the display operates as a touch screen, and the input unit 120 and the output unit 130 may be integrated.

이때, 디스플레이부는 액정 디스플레이(Liquid Crystal Display, LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 플렉시블 디스플레이(Flexible Display), 전계 방출 디스플레이(Feld Emission Display, FED), 3차원 디스플레이(3D Display) 중에서 적어도 하나를 포함할 수 있다.The display unit may include a liquid crystal display (LCD), a thin film transistor liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, , A field emission display (FED), and a 3D display (3D display).

통신부(140)는 차량에 구비된 전장품 및/또는 제어유닛들과의 통신 인터페이스를 지원하는 통신모듈을 포함할 수 있다. 일 예로서, 통신부(140)는 운전자의 시선에 따라 차량을 제어하는 제어 유닛으로 시선 추적 결과를 송신할 수 있다. 여기서, 통신부(140)는 CAN(Controller Area Network) 통신, LIN(Local Interconnect Network) 통신, 플렉스레이(Flex-Ray) 통신 등의 차량 네트워크 통신을 지원하는 통신모듈을 포함할 수 있다.The communication unit 140 may include a communication module that supports communication interfaces with electrical components and / or control units provided in the vehicle. As an example, the communication unit 140 can transmit the gaze tracking result to the control unit that controls the vehicle according to the sight line of the driver. The communication unit 140 may include a communication module that supports vehicle network communication such as CAN (Controller Area Network) communication, LIN (Local Interconnect Network) communication, and Flex-Ray communication.

또한, 통신부(140)는 임의의 외부 단말과 유/무선 통신 기능을 수행할 수 있다. 이때, 통신부(140)는 무선 인터넷 접속을 위한 모듈 또는 근거리 통신(Short Range Communication)을 위한 모듈을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN : WLAN), 와이브로(Wireless Broadband : Wibro), 와이 파이(Wi-Fi), 와이맥스(World Interoperability for Microwave Access : Wimax), HSDPA(High Speed Downlink Packet Access) 등이 포함될 수 있고, 또한, 근거리 통신 기술로는 블루투스(Bluetooth), 지그비(ZigBee), UWB(Ultra Wideband), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association : IrDA) 등이 포함될 수 있다. 또한, 유선 통신 기술은, USB(Universal Serial Bus) 통신 등을 포함할 수 있다. Also, the communication unit 140 can perform a wired / wireless communication function with an arbitrary external terminal. At this time, the communication unit 140 may include a module for wireless Internet access or a module for short range communication. Here, the wireless Internet technology includes a wireless LAN (WLAN), a wireless broadband (Wibro), a Wi-Fi, a World Interoperability for Microwave Access (Wimax), a High Speed Downlink Packet Access ), Etc., and the short range communication technology may include Bluetooth, ZigBee, UWB (Ultra Wideband), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) have. The wired communication technology may include USB (Universal Serial Bus) communication and the like.

저장부(150)는 시선 추적 장치가 동작하는데 필요한 데이터와 프로그램 등을 저장할 수 있다. 일 예로서, 저장부(150)는 시선 추적 동작을 위한 설정값 및 시선 추적 장치의 시선 추적 결과가 저장될 수 있으며, 카메라(110)의 기준 위치 좌표를 변환하는 위치 변환 행렬 등이 저장될 수 있다.The storage unit 150 may store data and programs necessary for the gaze tracking apparatus to operate. For example, the storage unit 150 may store a set value for a gaze tracking operation and a gaze tracking result of the gaze tracking apparatus, and may store a position transformation matrix for transforming a reference position coordinate of the camera 110 have.

또한, 저장부(150)는 시선 추적 동작을 수행하는데 필요한 알고리즘이 저장될 수 있다. 이때, 저장부(150)는 차량 및 운전자 얼굴의 움직임을 검출하는 알고리즘이 저장될 수 있으며, 차량 움직임 및 운전자 얼굴 움직임에 따라 시간 프레임 크기를 결정하는 알고리즘, 시선 벡터를 계산하는 알고리점, 시선 벡터에 따른 시선 벡터 콘을 계산하는 알고리즘 등이 저장될 수 있다.In addition, the storage unit 150 may store an algorithm necessary for performing a gaze tracking operation. In this case, the storage unit 150 may store an algorithm for detecting the movement of the vehicle and the face of the driver, and may include an algorithm for determining the time frame size according to the vehicle movement and the driver's face motion, And an algorithm for calculating a line vector cone corresponding to the line vector vector can be stored.

여기서, 저장부(150)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), PROM(Programmable Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다.Here, the storage unit 150 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory A random access memory (SRAM), a read-only memory (ROM), a programmable read-only memory (PROM), an electrically erasable programmable read-only memory (EEPROM) Erasable Programmable Read-Only Memory).

움직임 검출부(160)는 미리 결정된 시간 프레임 동안의 차량 움직임을 검출한다. 일 예로서, 움직임 검출부(160)는 미리 결정된 시간 프레임 동안 차량의 횡방향, 종방향 및 수직방향에 대한 움직임을 검출할 수 있다.The motion detection unit 160 detects the vehicle motion for a predetermined time frame. As an example, the motion detector 160 may detect motion in the lateral, longitudinal and vertical directions of the vehicle for a predetermined time frame.

또한, 움직임 검출부(160)는 미리 결정된 시간 프레임 동안 검출된 차량의 움직임에 근거하여 변화된 각 위치 좌표에서 카메라(110)의 포즈를 검출한다. 여기서, 움직임 검출부(160)는 미리 결정된 시간 프레임 동안 검출된 차량의 움직임에 대응하는 위치 변환 행렬을 이용하여 카메라(110)의 기준 위치 좌표를 변환할 수 있다.In addition, the motion detection unit 160 detects a pose of the camera 110 at each position coordinate changed based on the motion of the vehicle detected for a predetermined time frame. Here, the motion detector 160 may convert the reference position coordinates of the camera 110 using a position transformation matrix corresponding to the detected motion of the vehicle for a predetermined time frame.

움직임 검출부(160)는 카메라(110)에 의해 촬영된 영상으로부터 운전자의 얼굴 움직임을 검출할 수 있으며, 운전자의 얼굴 방향을 검출할 수 있다.The motion detecting unit 160 can detect the face motion of the driver from the image photographed by the camera 110, and can detect the face direction of the driver.

시간 프레임 크기 결정부(170)는 움직임 검출부(160)에 의해 검출된 차량 움직임 및 운전자의 얼굴 움직임 중 적어도 하나를 근거로 시간 프레임 크기를 결정한다. 다시 말해, 시간 프레임 크기 결정부(170)는 차량이 움직이는 속도, 조향각 및 진동값 등에 근거하여 시간 프레임 크기를 결정하도록 한다. 이때, 시간 프레임 크기는 차량의 속도, 조향각 및 차량 진동값에 반비례한 것으로 한다. 마찬가지로, 시간 프레임 크기 결정부(170)는 운전자의 얼굴 움직임 속도, 회전각 등에 근거하여 시간 프레임 크기를 결정할 수 있다.The time frame size determination unit 170 determines a time frame size based on at least one of the vehicle motion detected by the motion detection unit 160 and the face motion of the driver. In other words, the time frame size determination unit 170 determines the time frame size based on the speed at which the vehicle moves, the steering angle, the vibration value, and the like. At this time, the time frame size is inversely proportional to the vehicle speed, the steering angle, and the vehicle vibration value. Similarly, the time frame size determining unit 170 may determine the time frame size based on the face movement speed, the rotation angle, and the like of the driver.

만일, 차량 움직임 및 운전자의 얼굴 움직임에 따라 시간 프레임 크기가 갱신된 경우, 움직임 검출부(160)는 갱신된 시간 프레임 크기 동안 차량의 움직임 및 차량 움직임에 따른 카메라 포즈의 변화를 검출할 수 있다.If the time frame size is updated according to the vehicle movement and the face movement of the driver, the motion detector 160 may detect a change in the camera pose according to the vehicle motion and the vehicle motion during the updated time frame size.

한편, 시간 프레임 크기 결정부(170)는 움직임 검출부(160)에 의해 차량 움직임 및 운전자의 얼굴 움직임이 검출되지 않으면 시간 프레임 크기를 기준값으로 초기화하도록 한다. 일 예로서, 시간 프레임 크기에 대한 기준값은 1이 될 수 있다. 이 경우, 시간 프레임 크기라 1로 초기화되면, 움직임 검출부(160)는 하나의 프레임에 대한 차량 위치를 기준으로 카메라 포즈를 검출하게 된다.On the other hand, the time frame size determining unit 170 initializes the time frame size to the reference value if the motion detecting unit 160 does not detect the vehicle motion and the face motion of the driver. As an example, the reference value for the time frame size may be one. In this case, when the time frame size is initialized to 1, the motion detector 160 detects the camera pose based on the vehicle position for one frame.

시선 벡터 콘 계산부(180)는 미리 정해진 혹은 시간 프레임 크기 결정부(170)에 의해 갱신된 시간 프레임 동안 검출된 카메라(110)의 각 포즈별로 시선 벡터를 산출한다.The line-of-sight vector cone calculation unit 180 calculates a line-of-sight vector for each pose of the camera 110 detected for a predetermined time frame or a time frame updated by the time-frame size determination unit 170.

이때, 시선 벡터 콘 계산부(180)는 카메라(110)의 각 포즈별로 촬영된 운전자의 얼굴 및/또는 눈 영상으로부터 눈동자의 위치를 추출하고, 추출된 눈 위치에 근거하여 시선 벡터를 산출한다. 카메라(110)를 통해 촬영된 얼굴 영상 및/또는 눈 영상으로부터 홍채, 동공 등의 눈동자 위치를 추적하여 시선벡터를 산출하는 기술은 일반적으로 알려진 기술을 이용하도록 하며, 이에 대한 구체적은 설명은 생략하도록 한다.At this time, the line-of-sight vector cone calculation unit 180 extracts the position of the pupil from the face and / or eye image of the driver photographed for each pose of the camera 110, and calculates the line-of-sight vector based on the extracted eye position. A technology for calculating eye-gaze vectors by tracking pupil positions of an iris, a pupil, etc. from a face image and / or an eye image photographed through the camera 110 uses a generally known technique, and a detailed description thereof will be omitted do.

또한, 시선 벡터 콘 계산부(180)는 카메라(110)의 각 포즈에서 촬영한 영상으로부터 산출된 시선 벡터에 대한 오차 범위 및 카메라 포즈의 오차 범위를 반영하여 시선 벡터 콘 영역을 계산하여 시선 벡터 콘(cone)을 생성한다.In addition, the line-of-sight vector cone calculation unit 180 calculates the line-of-sight vector cone region by reflecting the error range of the line-of-sight vector and the error range of the camera pose calculated from the images taken at the respective pose of the camera 110, (cone).

제어부(190)는 시선 벡터 콘 계산부(180)에 의해 생성된 각 카메라 포즈별 시선 벡터 콘을 차량 및 카메라(110)가 움직인 위치를 기준으로 배치하고, 이때 각 카메라 포즈별로 배치된 시선 벡터 콘이 서로 중첩되는 영역을 계산하도록 한다. 제어부(190)는 시선 벡터 콘이 중첩되는 영역의 위치를 추적하여 이를 운전자의 응시 좌표로 결정하도록 한다.
The control unit 190 disposes the line vector cone for each camera pose generated by the line vector cone calculation unit 180 on the basis of the position where the vehicle and the camera 110 have moved, Calculate the areas where the cones overlap each other. The control unit 190 tracks the position of the area where the line-of-sight vector cone is superimposed and determines it as the coordinates of the driver's gaze.

도 2 및 도 3은 본 발명에 따른 시선 추적 장치의 차량 거동에 따른 카메라 포즈 검출 동작을 설명하는데 참조되는 예시도이다.FIG. 2 and FIG. 3 are views for explaining a camera pose detecting operation according to the vehicle behavior of the eye tracking apparatus according to the present invention.

도 2는 차량 및 운전자 얼굴의 움직임이 없는 경우의 시선 벡터 콘을 나타낸 것이다. 도 2에 도시된 바와 같이, 차량이 움직이지 않는 상태, 즉, 정지 상태로 있는 경우 시선 추적 장치는 시간 프레임 크기를 초기화한다.2 shows a visual vector cone in the case where there is no motion of the vehicle and the driver's face. As shown in FIG. 2, the gaze tracking device initializes the time frame size when the vehicle is in a non-moving state, that is, in a stopped state.

이 경우, 시선 추적 장치는 하나의 시간 프레임에 대한 차량 위치 및 카메라 포즈를 기준으로 시선 벡터 콘을 생성하게 된다.In this case, the gaze tracking device generates a gaze vector cone based on the vehicle position and camera pose for one time frame.

한편, 도 3은 차량이 움직이는 경우의 시선 벡터를 나타낸 것이다. 도 3에 도시된 바와 같이, 차량이 이동하는 상태에서 시선 추적 장치는 차량의 속도, 조향각 및 차량 진동값에 근거하여 결정될 수 있다. 일 예로서, 차량의 속도가 증가하는 경우 시간 크레임 크기는 더 작은 크기로 결정될 수 있다.On the other hand, FIG. 3 shows a line-of-sight vector when the vehicle is moving. As shown in Fig. 3, in the state where the vehicle is moving, the gaze tracking device can be determined based on the vehicle speed, the steering angle, and the vehicle vibration value. As an example, if the speed of the vehicle increases, the time creel size may be determined to be a smaller size.

여기서, 하나의 프레임을 기준으로 산출된 시선 벡터는 도 3의 (a)와 같다. 이때, 결정된 시간 프레임 크기 동안 차량의 움직임을 계산하여, 도 3의 (b)와 같이 차량이 위치 이동된 만큼 카메라의 위치를 이동시킨 후 위치 이동된 카메라 포즈를 기준으로 시선 벡터를 산출하도록 한다.Here, the line of sight vector calculated based on one frame is shown in Fig. 3 (a). At this time, the movement of the vehicle is calculated during the determined time frame size, and the gaze vector is calculated on the basis of the position-moved camera pose after moving the camera as much as the vehicle is moved as shown in FIG.

따라서, 시선 추적 장치는 차량이 움직이는 경우 정해진 시간 프레임 크기 동안 차량이 움직임에 따라 위치 변환된 좌표에서 카메라 포즈에 대응하여 산출된 각 시선 벡터들을 결합하여, 중첩된 위치를 시선 응시 좌표로 산출할 수 있다.Therefore, the gaze tracking device can combine the gaze vectors calculated corresponding to the camera pose in the position-converted coordinates according to the movement of the vehicle for a predetermined time frame size when the vehicle is moving, and calculate the overlapped position as the gaze gaze coordinates have.

물론, 도 3에서는 시선 벡터 형태로 나타내었으나, 도 2와 같이 카메라 포즈의 오차 및 시선 벡터의 오차를 고려하여 시선 벡터 콘 형태로 나타낼 수도 있음은 당연한 것이다.
Although it is shown in FIG. 3 as a line vector shape, it is obvious that the line vector can be expressed in the form of a line vector cone considering the error of the camera pose and the error of the line vector as shown in FIG.

도 4 및 도 5는 본 발명에 따른 시선 추적 장치의 응시 좌표 추출 동작을 설명하는데 참조되는 예시도이다.FIGS. 4 and 5 are diagrams for explaining the coordinate extraction operation of the gaze tracking apparatus according to the present invention.

도 4는 정해진 시간 프레임 크기 동안 차량의 움직임 및 그에 따른 시선 벡터 콘을 나타낸 것이다.FIG. 4 shows the motion of the vehicle and the line of sight vector cone thereof during a predetermined time frame size.

먼저, 도 4의 (a)와 같이, 시작 프레임을 기준으로 한 차량의 위치에서 카메라 포즈에 대응하는 시선 벡터는 V1, V1의 오차를 고려하여 생성한 시선 벡터 콘은 C1과 같이 나타낼 수 있다. 도 4의 (b)와 같이, 다음 프레임을 기준으로 차량의 위치에서 카메라 포즈에 대응하는 시선 벡터는 V2, V2의 오차를 고려하여 생성한 시선 벡터 콘은 C2와 같이 나타낼 수 있다. 또한, 도 4의 (c)와 같이, 그 다음 프레임을 기준으로 차량의 위치에서 카메라 포즈에 대응하는 시선 벡터는 V3, V3의 오차를 고려하여 생성한 시선 벡터 콘은 C3과 같이 나타낼 수 있다.First, as shown in (a) of FIG. 4, a line vector corresponding to a camera pose at a vehicle position with respect to a start frame can be represented as C1 by considering an error of V1 and V1. As shown in FIG. 4B, the line vector corresponding to the camera pose at the position of the vehicle on the basis of the next frame can be expressed as C2, which is generated by considering the error of V2 and V2. Also, as shown in FIG. 4C, the line of sight vector corresponding to the camera pose at the position of the vehicle on the basis of the next frame can be represented by C3 such that the line vector cone generated considering the error of V3 and V3 is taken.

여기서, 시선 추적 장치는, 도 4의 (a), (b), (c)에서와 같이, 세 개의 시간 프레임 동안 차량의 움직임에 따라 카메라의 기준 위치를 변경한 상태에서 각 카메라 포즈별로 생성한 시선 벡터 콘 C1, C2, C3을 도 5와 같이 배치하고, 이때 도 5에 배치된 각 시선 벡터 콘 C1, C2, C3이 중첩되는 영역(Q)를 운전자의 응시 좌표로 검출하도록 한다.
Here, as shown in FIGS. 4A, 4B, and 4C, the gaze tracking device generates the gaze tracking device for each camera pose while changing the reference position of the camera according to the movement of the vehicle during three time frames 5 are arranged as shown in FIG. 5. At this time, the area Q in which the line-of-sight vector cones C1, C2, C3 arranged in FIG. 5 are overlapped is detected as the coordinates of the driver's gaze.

상기와 같이 구성되는 본 발명에 따른 시선 추적 장치의 동작 흐름을 보다 상세히 설명하면 다음과 같다.The operation of the eye-gaze tracking apparatus according to the present invention will now be described in detail.

도 6 및 도 7은 본 발명에 따른 시선 추적 방법에 대한 동작 흐름을 도시한 순서도이다.FIGS. 6 and 7 are flowcharts illustrating an operation flow of the eye tracking method according to the present invention.

도 6을 참조하면, 시선 추적 장치는 미리 정해진 시간 프레임 동안 미리 차량 거동을 측정하고(S110), 차량 움직임에 따라 위치 이동된 시선 카메라의 포즈를 계산한다(S120). 이때, 시선 추적 장치는 'S120' 과정에서 계산된 카메라 포즈에 대응하여 시선 벡터를 계산하고, 계산된 시선 벡터의 오차를 고려하여 시선 벡터 콘을 계산하도록 한다(S130).Referring to FIG. 6, the gaze tracking device measures the vehicle behavior in advance for a predetermined time frame (S110), and calculates a pose of the sighted camera moved according to the vehicle movement (S120). At this time, the gaze tracking apparatus calculates a gaze vector corresponding to the camera pose calculated in the process of 'S120', and calculates a gaze vector cone considering the calculated gaze vector error (S130).

'S110' 내지 'S130' 과정은 미리 정해진 시간 프레임 동안 반복 수행된다.Steps S110 to S130 are repeated for a predetermined time frame.

만일, 미리 정해진 시간 프레임 크기에 도달하면(S140), 시선 추적 장치는 미리 정해진 시간 프레임 동안 'S110' 내지 'S130' 과정을 통해 시선 카메라의 각 포즈별로 계산된 시선 벡터 콘의 교차 영역을 계산한다(S150). 이때, 시선 추적 장치는 'S150'과정에서 계산된 교차 영역을 운전자의 응시 좌표로 추출하도록 한다(S160).If the predetermined time frame size is reached (S140), the gaze tracking device calculates an intersection area of the gaze vector cone calculated for each pose of the gaze camera through the processes of S110 to S130 for a predetermined time frame (S150). At this time, the gaze tracking device extracts the intersection area calculated in the step 'S150' as the coordinates of the driver's gaze (S160).

'S160' 과정에서 추출된 운전자의 응시 좌표 정보는 차량 내부 및/또는 외부에서 운전자의 시선 정보를 활용하여 제어, 관리 등을 수행하는 유닛, 서버, 시스템 등으로 제공될 수 있다.
The coordinates information of the driver extracted in the process of 'S160' may be provided to a unit, a server, a system or the like which performs control, management, etc. using the sight line information of the driver inside and / or outside the vehicle.

여기서, 시선 추적 장치는 차량 움직임 및/또는 운전자의 얼굴 움직임에 따라 시간 프레임의 크기를 결정 및/또는 갱신할 수 있다. Here, the gaze tracking device may determine and / or update the size of the time frame according to the vehicle motion and / or the face motion of the driver.

다시 말해, 시선 추적 장치는 도 7에 도시된 바와 같이, 차량 움직임이 발생하면(S210), 차량 움직임, 예를 들어, 차량의 속도, 조향각, 진동값 등을 기준으로 시간 프레임 크기를 결정할 수 있다(S220).In other words, the gaze tracking device can determine the time frame size based on the vehicle motion, for example, the vehicle speed, the steering angle, the vibration value, etc., when the vehicle motion occurs (S210) (S220).

또한, 시선 추적 장치는 운전자의 얼굴 움직임이 발생하면(S230), 얼굴 움직임에 따른 시간 프레임 크기를 결정할 수 있다(S240). 여기서, 시선 추적 장치는 차량 움직임 및 운전자의 얼굴 움직임 중 적어도 하나가 발생하면, 그 움직임을 기준으로 시간 프레임 크기를 결정할 수 있다.In addition, if the driver's facial movement occurs (S230), the gaze tracking apparatus can determine the time frame size according to the facial motion (S240). Here, when at least one of the vehicle movement and the driver's face movement occurs, the gaze tracking device can determine the time frame size based on the movement.

반면, 시선 추적 장치는 차량 움직임 및 운전자의 얼굴 움직임이 모두 발생하지 않으면, 시간 프레임 크기를 기준값으로 초기화할 수 있다(S250). 일 예로서, 시선 추적 장치는 시간 프레임 크기를 1로 초기화할 수 있다.On the other hand, if the gaze tracking device does not generate both the vehicle motion and the driver's face motion, the time frame size can be initialized to the reference value (S250). As an example, the gaze tracking device may initialize the time frame size to one.

'S210' 내지 'S250' 과정을 통해 시간 프레임 크기가 결정되면, 결정된 시간 프레임 크기를 적용하여 도 6의 'S110' 이후 과정을 수행할 수 있다.
If the time frame size is determined through the process of 'S210' to 'S250', the process after 'S110' of FIG. 6 may be performed by applying the determined time frame size.

상기의 과정들은 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체, 즉, 메모리 및/또는 스토리지에 상주할 수도 있다. 예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.The above processes may be implemented directly in hardware, software modules executed by a processor, or a combination of the two. The software modules may reside in storage media, such as memory and / or storage, such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disks, removable disks, CD-ROMs. An exemplary storage medium is coupled to the processor, which is capable of reading information from, and writing information to, the storage medium. Alternatively, the storage medium may be integral with the processor. The processor and the storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and the storage medium may reside as discrete components in a user terminal.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the essential characteristics of the invention. Therefore, the spirit of the present invention should not be construed as being limited to the embodiments described, and all technical ideas which are equivalent to or equivalent to the claims of the present invention are included in the scope of the present invention .

110: 카메라 120: 입력부
130: 출력부 140: 통신부
150: 저장부 160: 움직임 검출부
170: 시간 프레임 크기 결정부 180: 시선 벡터 콘 계산부
190: 제어부
110: camera 120: input unit
130: output unit 140: communication unit
150: storage unit 160: motion detection unit
170: time frame size determination unit 180: eye line vector cone calculation unit
190:

Claims (13)

차량 운전자의 시선을 감지하는 카메라;
차량 움직임 및 운전자의 얼굴 움직임 중 적어도 하나를 근거로 시간 프레임 크기를 결정하는 시간 프레임 크기 결정부;
상기 시간 프레임 크기 결정부에 의해 미리 결정된 시간 프레임 동안의 차량 움직임 및 상기 차량 움직임에 따른 절대 좌표계 기반의 카메라 포즈의 변화를 검출하는 움직임 검출부;
상기 시간 프레임 동안 검출된 상기 카메라의 각 포즈별로 시선 벡터를 산출하고, 상기 산출된 시선 벡터에 대한 콘(cone)을 계산하는 시선 벡터 콘 계산부; 및
상기 카메라의 각 포즈별 시선 벡터의 콘 영역이 중첩되는 위치를 추적하여 운전자의 응시 좌표로 결정하는 제어부
를 포함하는 시선 추적 장치.
A camera for detecting a driver's vision;
A time frame size determining unit for determining a time frame size based on at least one of a vehicle motion and a driver's face motion;
A motion detector for detecting a vehicle motion for a predetermined time frame by the time frame size determining unit and a change of an absolute coordinate system based camera pose according to the vehicle motion;
A line of sight vector cone calculation unit for calculating a line of sight vector for each pose of the camera detected during the time frame and calculating a cone for the calculated line of sight vector; And
A control unit for tracking the position where the cone region of the eye vector of each pose of the camera overlaps to determine the coordinates of the driver's gaze
Wherein the gaze tracking device comprises:
삭제delete 청구항 1에 있어서,
상기 시간 프레임 크기 결정부는,
상기 차량 움직임 및 상기 운전자의 얼굴 움직임이 검출되지 않으면 시간 프레임 크기를 기준값으로 초기화하는 것을 특징으로 하는 시선 추적 장치.
The method according to claim 1,
The time frame size determination unit may determine,
Wherein if the vehicle motion and the face motion of the driver are not detected, the time frame size is initialized to a reference value.
청구항 1에 있어서,
상기 시간 프레임 크기는 차량의 속도, 조향각 및 차량 진동값에 반비례한 것을 특징으로 하는 시선 추적 장치.
The method according to claim 1,
Wherein the time frame size is inversely proportional to a vehicle speed, a steering angle, and a vehicle vibration value.
청구항 1에 있어서,
상기 움직임 검출부는,
미리 결정된 시간 프레임 동안 상기 차량의 횡방향, 종방향 및 수직방향에 대한 움직임을 검출하는 것을 특징으로 하는 시선 추적 장치.
The method according to claim 1,
Wherein the motion detection unit comprises:
And detects movement of the vehicle in the lateral direction, longitudinal direction and vertical direction for a predetermined time frame.
청구항 1에 있어서,
상기 움직임 검출부는,
미리 결정된 시간 프레임 동안 검출된 상기 차량의 움직임에 근거하여 변화된 각 위치 좌표에서 상기 카메라의 포즈를 검출하는 것을 특징으로 하는 시선 추적 장치.
The method according to claim 1,
Wherein the motion detection unit comprises:
And detects a pose of the camera in each positional coordinate changed based on the movement of the vehicle detected during a predetermined time frame.
청구항 6에 있어서,
상기 움직임 검출부는,
미리 결정된 시간 프레임 동안 검출된 상기 차량의 움직임에 대응하는 위치 변환 행렬을 이용하여 상기 카메라의 기준 위치 좌표를 변환하는 것을 특징으로 하는 시선 추적 장치.
The method of claim 6,
Wherein the motion detection unit comprises:
Wherein the reference position coordinates of the camera are converted using a position conversion matrix corresponding to the motion of the vehicle detected during a predetermined time frame.
차량 움직임 및 운전자의 얼굴 움직임 중 적어도 하나를 근거로 시간 프레임 크기를 결정하는 단계;
미리 결정된 시간 프레임 동안의 상기 차량 움직임 및 상기 차량 움직임에 따른 절대 좌표계 기반의 시선 카메라에 대한 포즈 변화를 검출하는 단계;
상기 시간 프레임 동안 검출된 상기 시선 카메라의 각 포즈별로 시선 벡터를 산출하는 단계;
상기 산출된 시선 벡터에 대한 콘(cone)을 계산하는 단계; 및
상기 카메라의 각 포즈별 시선 벡터의 콘 영역이 중첩되는 위치를 추적하여 운전자의 응시 좌표로 결정하는 단계
를 포함하는 시선 추적 방법.
Determining a time frame size based on at least one of a vehicle motion and a driver's face motion;
Detecting a change in pose with respect to the gaze camera based on the absolute coordinate system in accordance with the vehicle motion and the vehicle motion for a predetermined time frame;
Calculating a gaze vector for each pose of the gaze camera detected during the time frame;
Calculating a cone for the calculated eye vector; And
A step of tracking the position where the cone region of the eye vector of each pose of the camera is superimposed to determine the coordinate of the eye of the driver
/ RTI >
삭제delete 청구항 8에 있어서,
상기 시간 프레임 크기를 결정하는 단계는,
상기 차량 움직임 및 상기 운전자의 얼굴 움직임이 검출되지 않으면 시간 프레임 크기를 기준값으로 초기화하는 단계를 포함하는 것을 특징으로 하는 시선 추적 방법.
The method of claim 8,
Wherein determining the time frame size comprises:
And if the vehicle motion and the face motion of the driver are not detected, initializing the time frame size to a reference value.
청구항 8에 있어서,
상기 검출하는 단계는,
미리 결정된 시간 프레임 동안 상기 차량의 횡방향, 종방향 및 수직방향에 대한 움직임을 검출하는 단계를 포함하는 것을 특징으로 하는 시선 추적 방법.
The method of claim 8,
Wherein the detecting comprises:
And detecting movement of the vehicle in the lateral direction, the longitudinal direction and the vertical direction for a predetermined time frame.
청구항 8에 있어서,
상기 검출하는 단계는,
미리 결정된 시간 프레임 동안 검출된 상기 차량의 움직임에 근거하여 변화된 각 위치 좌표에서 상기 카메라의 포즈를 검출하는 단계를 포함하는 것을 특징으로 하는 시선 추적 방법.
The method of claim 8,
Wherein the detecting comprises:
And detecting a pose of the camera at each position coordinate changed based on the movement of the vehicle detected during a predetermined time frame.
청구항 12에 있어서,
상기 검출하는 단계는,
미리 결정된 시간 프레임 동안 검출된 상기 차량의 움직임에 대응하는 위치 변환 행렬을 이용하여 상기 카메라의 기준 위치 좌표를 변환하는 단계를 더 포함하는 것을 특징으로 하는 시선 추적 방법.
The method of claim 12,
Wherein the detecting comprises:
Further comprising transforming the reference position coordinates of the camera using a position transformation matrix corresponding to the motion of the vehicle detected during a predetermined time frame.
KR1020140137475A 2014-10-13 2014-10-13 Apparatus and method for tracking gaze KR101610521B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140137475A KR101610521B1 (en) 2014-10-13 2014-10-13 Apparatus and method for tracking gaze

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140137475A KR101610521B1 (en) 2014-10-13 2014-10-13 Apparatus and method for tracking gaze

Publications (1)

Publication Number Publication Date
KR101610521B1 true KR101610521B1 (en) 2016-04-07

Family

ID=55789995

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140137475A KR101610521B1 (en) 2014-10-13 2014-10-13 Apparatus and method for tracking gaze

Country Status (1)

Country Link
KR (1) KR101610521B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011039989A1 (en) * 2009-09-30 2011-04-07 パナソニック株式会社 Vehicle-surroundings monitoring device
JP2013252301A (en) * 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc Device and program for estimating eyeball center position

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011039989A1 (en) * 2009-09-30 2011-04-07 パナソニック株式会社 Vehicle-surroundings monitoring device
JP2013252301A (en) * 2012-06-07 2013-12-19 Toyota Central R&D Labs Inc Device and program for estimating eyeball center position

Similar Documents

Publication Publication Date Title
CN110167823B (en) System and method for driver monitoring
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
EP3134764B1 (en) Head mounted display and method for controlling the same
US9846486B2 (en) Systems and methods of direct pointing detection for interaction with a digital device
US11514650B2 (en) Electronic apparatus and method for controlling thereof
US20150116206A1 (en) Screen operation apparatus and screen operation method
US20160004321A1 (en) Information processing device, gesture detection method, and gesture detection program
US20140022159A1 (en) Display apparatus control system and method and apparatus for controlling a plurality of displays
US10394321B2 (en) Information acquiring method, information acquiring apparatus, and user equipment
US10817050B2 (en) Backchannel resilience for virtual, augmented, or mixed reality (xR) applications in connectivity-constrained environments
US10477155B2 (en) Driving assistance method, driving assistance device, and recording medium recording program using same
US10816341B2 (en) Backchannel encoding for virtual, augmented, or mixed reality (xR) applications in connectivity-constrained environments
CN110895676B (en) dynamic object tracking
US10852819B2 (en) Systems and methods for eye-gaze tracking (EGT) handoff
US10928899B2 (en) Handling multiple eye-gaze tracking (EGT) sources in virtual, augmented, or mixed reality (XR) applications
US20200241634A1 (en) ENCODING CONTENT FOR VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS IN CONNECTIVITY-CONSTRAINED ENVIRONMENTS
CN106201284B (en) User interface synchronization system and method
KR101257871B1 (en) Apparatus and method for detecting object based on vanishing point and optical flow
KR102518535B1 (en) Apparatus and method for processing image of vehicle
KR101610521B1 (en) Apparatus and method for tracking gaze
KR20130015740A (en) Method for estimating a center lane for lkas control and apparatus threof
KR102070870B1 (en) Apparatus and method for providing augmented reality
KR101500085B1 (en) Apparatus and Method for Tracing of Attention using Vector
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
KR101664620B1 (en) Apparatus and method for guiding curvature of road

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190327

Year of fee payment: 4