WO2016002986A1 - 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체 - Google Patents

시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체 Download PDF

Info

Publication number
WO2016002986A1
WO2016002986A1 PCT/KR2014/005868 KR2014005868W WO2016002986A1 WO 2016002986 A1 WO2016002986 A1 WO 2016002986A1 KR 2014005868 W KR2014005868 W KR 2014005868W WO 2016002986 A1 WO2016002986 A1 WO 2016002986A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
angle mode
wide
photographing unit
detected
Prior art date
Application number
PCT/KR2014/005868
Other languages
English (en)
French (fr)
Inventor
김계영
이희섭
이경주
윤병훈
Original Assignee
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교산학협력단 filed Critical 숭실대학교산학협력단
Priority to US15/320,720 priority Critical patent/US10264176B2/en
Publication of WO2016002986A1 publication Critical patent/WO2016002986A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Definitions

  • the present invention relates to a gaze tracking device and method, and a recording medium for performing the same, and more particularly, to a gaze tracking device and method for tracking the gaze of a person located within a certain range, and a recording medium for performing the same.
  • eye tracking technology detects eye movement by detecting eye movement, and detects eye movement through analysis of an image taken by a real-time camera, and detects eye movement based on a fixed position reflected by the cornea. Track a person's eyes by calculating the direction.
  • the eye of the person in the photographing range of the camera is conventionally tracked.
  • a person is out of the camera's shooting range while tracking the gaze of the camera, when a single camera is used, it is common to stop the operation, and when a gaze tracking operation using a plurality of cameras is performed, Human eyes are tracked by redetecting people by cameras that do not track their eyes, but this eye tracking technology requires a calibration process, which complicates the eye tracking process, and uses multiple cameras.
  • the unit price increases.
  • a gaze tracking device that can continuously track the eyes of a person.
  • the pupil center is detected primarily in the captured image, and the detected primary pupil center is detected.
  • a gaze tracking device is a gaze tracking device that tracks a gaze of a person using a plurality of switching modes that can be switched, and is set to a wide angle mode to capture a surrounding image in a wide angle field of view.
  • the wide angle mode of the photographing unit is switched to the narrow angle mode to track the eye of the person, and the narrow angle of the person's eye is being tracked.
  • a control unit configured to switch the photographing unit to the wide angle mode when the person is out of the narrow angle of view by the mode, and to rescan the person by moving in the direction away from the person in the state of being switched to the wide angle mode.
  • the control unit may further include: a face region detector detecting the face region, a mode switching unit switching the wide angle mode of the photographing unit to a narrow angle mode so as to capture an enlarged image of the detected face region, and in the state of switching to the wide angle mode.
  • a camera movement controller which controls the photographing unit to move in a direction away from the person in order to search for the person, an eye region detector which detects an eye region in the enlarged face region image, and detects pupils in the detected eye region, It may include a pupil detector for controlling the photographing unit to track the detected pupil.
  • the face area detector detects a face area using a feature that can distinguish a face area from a non-face area in the captured image, and the eye area detector can distinguish an eye area from a non-eye area.
  • Features can be used to detect eye areas.
  • the pupil detection unit may calculate a primary pupil center in the detected eye region, detect a secondary pupil center of the pupil using circle and edge information based on the calculated primary pupil center, The detected secondary pupil center can be tracked.
  • the primary pupil center is calculated by applying a variation projection function (VPF) to the detected eye region, detects an edge of the eye region based on the calculated primary pupil center, and among the detected edges.
  • An effective point may be calculated to accumulate vertical bisectors between the calculated effective points, detect intersection points of the accumulated vertical bisectors as the centers of secondary pupils of the pupils, and track the detected secondary pupils centers.
  • a gaze tracking method photographs a surrounding image in a wide angle field of view using a photographing unit set to a wide angle mode, detects a person from the captured image, and detects the person in the captured image.
  • the wide angle mode of the photographing unit is switched to the narrow angle mode in order to detect the face area of the person, and to track the gaze in the face area of the person, and to the narrow angle mode while tracking the eye of the person in the switched narrow mode.
  • the photographing unit is switched to the wide angle mode to rescan the person, and the person is re-searched by moving the photographing unit in the direction away from the person in the wide angle mode.
  • the detecting of the person in the captured image may include detecting a face region of the person when the person is detected in the captured image, and according to a predetermined shooting pattern when the person is not detected in the captured image.
  • the person may be detected by controlling the photographing unit.
  • switching the wide-angle mode of the photographing unit to the narrow angle mode in order to track the gaze in the face area of the person may include that the focal length of the photographing unit lens is changed in the wide-angle mode in which the focal length of the photographing unit lens is equal to or less than a predetermined reference value.
  • the narrow angle mode that is greater than or equal to a predetermined reference value, the detected face region may be enlarged and photographed.
  • obtaining an enlarged image of the detected face region may include:
  • the focal length of the lens of the photographing unit by the narrow angle mode may be adjusted to enlarge and capture the detected face area by the size of the surrounding image in the wide-angle field of view.
  • the present invention not only can track the gaze of a person in the shooting range by switching between the wide angle mode and the narrow angle mode of a single camera, but also the wide angle mode of the camera even when a person leaves the shooting range. And by switching between the narrow angle mode, the person can be searched again to track the eyes.
  • the pupil center is calculated and the secondary pupil center is detected based on the calculated primary pupil center to track the eyes of the person, the pupil is incorrectly detected by noise such as glasses or lighting reflected from the pupil. Can be solved.
  • FIG. 1 is a control block diagram of an eye tracking apparatus according to an exemplary embodiment of the present invention.
  • FIG. 2 is a detailed block diagram of the controller shown in FIG. 1.
  • 3A and 3B are views illustrating an example of the face region detector illustrated in FIG. 2.
  • FIG. 4 is a diagram illustrating an example of the mode switching unit illustrated in FIG. 2.
  • FIG. 5 is a diagram illustrating an example of an eye region detector illustrated in FIG. 2.
  • 6A, 6B, and 6C illustrate an example of a primary pupil center detector illustrated in FIG. 2.
  • 7A, 7B, 7C, 7D, 7E, 7F, 7G, and 7H illustrate an example of a secondary pupil center detector illustrated in FIG. 2.
  • 8A and 8B illustrate an example of the mode switching unit and the camera movement control unit shown in FIG. 2.
  • FIG. 9 is a flowchart illustrating a gaze tracking method according to an exemplary embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a gaze tracking method according to an exemplary embodiment of the present invention.
  • FIG. 11 is a flowchart illustrating a method of detecting a pupil of a person in a face area according to an exemplary embodiment.
  • FIG. 12 is a flowchart illustrating a primary pupil center detection method according to an embodiment of the present invention.
  • FIG. 13 is a flowchart illustrating a method for detecting secondary pupil centers according to an embodiment of the present invention.
  • FIG. 1 is a control block diagram of an eye tracking apparatus according to an exemplary embodiment of the present invention.
  • the eye gaze tracking device 1 may include a photographing unit 100, a control unit 200, an output unit 300, and a memory unit 400. 1 shows a line of sight tracking device 1 having various components. However, not all illustrated components are essential components. The eye tracking apparatus 1 may be implemented by more components than the components shown, and the eye tracking apparatus 1 may be implemented by fewer components. Hereinafter, the above-described components will be described in detail.
  • the photographing unit 100 may include a camera capable of photographing a surrounding background or a person.
  • the photographing unit 100 may be configured as a single camera, and the single camera may perform an enlargement / reduction operation of an image using a movement and zoom function in up, down, left, and right directions.
  • the photographing unit 100 may be set to a wide angle mode and a narrow angle mode by the controller 200 to capture an image.
  • the wide angle mode refers to a mode in which a focal length of the lens of the photographing unit 100 is set to be equal to or less than a predetermined reference value, so that a relatively narrow field of view can be taken, and the narrow angle mode is a predetermined focal length of the lens of the photographing unit 100 It means a mode that can be set above the reference value to take a relatively narrow field of view.
  • the focal length is set to 50 mm or less to move up, down, left, and right to capture a wide field of view
  • the narrow angle mode the focal length is set to 50 mm or more to enlarge and capture a specific area.
  • the focal length of the wide-angle mode is 24 ⁇ 50mm
  • the focal length of the narrow angle mode can be set to 80 ⁇ 120mm, can be changed by the setting, of course.
  • the surrounding image in the wide-angle field of view may be photographed, a person may be detected from the captured surrounding image, and the detected face region may be detected.
  • the detected face region may be enlarged and photographed by adjusting the focal length.
  • the controller 200 may control to track the eyes of the person by controlling the photographing unit 100.
  • the controller 200 may track the eyes of a person by adjusting a plurality of photographing modes of the photographing unit 100.
  • the controller 200 may track the eyes of the person by controlling the photographing unit 100 to be set to one of the wide angle mode and the narrow angle mode.
  • the controller 200 may control the photographing unit 100 to be set to the wide angle mode to capture the surrounding image in the wide angle field of view.
  • the controller 200 may detect a person from an image photographing an area in a wide angle field of view. When a person is detected in the image of the surrounding image in the wide-angle field of view, the face region of the detected person may be detected. If the person is not detected in the captured image, the photographing unit 100 moves according to a predetermined shooting pattern. Control to detect a person.
  • the controller 200 may control the photographing unit 100 to capture an enlarged image of the detected face region in order to solve the problem that the detection target is small and the accuracy of the detection is low.
  • the controller 200 may control to switch the wide angle mode of the capturing unit 100 to the narrow angle mode in order to capture the enlarged image of the detected face region.
  • the controller 200 switches the photographing mode of the photographing unit 100 to the narrow angle mode, and adjusts the focal length of the lens of the photographing unit 100 according to the size ratio of the face region to the entire image before magnification. You can shoot an enlarged image.
  • the controller 200 may detect an eye region in the enlarged face region image, detect a pupil in the detected eye region, and track a person's eyes by tracking the movement of the detected pupil center.
  • the controller 200 tracks the eye of the person in the image captured in the narrow angle mode, and when the person deviates from the range of the image captured in the narrow angle mode, the controller 200 changes the shooting mode from the narrow angle mode to the wide angle mode. You can switch to rediscover a person.
  • the controller 200 changes the photographing unit 100 to the wide angle mode when the person leaves the range of the image photographed in the narrow angle mode, and detects the face region of the person again when a person is detected in the wide angle field of view. And if the person is not detected in the wide-angle field of view can be re-discovered by controlling the photographing unit 100 to move in the direction away from the person.
  • the output unit 300 may output an image indicating a process of tracking the eyes of a person under the control of the controller 200.
  • An image showing a process of tracking a person's eyes may include an image taken in a wide angle field of view, an image in which a human face area is enlarged, an image in which a person is out of a narrow angle field of view, an image of detecting a human eye, and the like. Can be.
  • the output unit 300 may use various types of display means such as a liquid crystal display (LCD), an organic light emitting display panel (OLED), an electrophoretic display panel (EDD), or a touch screen.
  • LCD liquid crystal display
  • OLED organic light emitting display panel
  • EDD electrophoretic display panel
  • the memory unit 400 may perform a function for storing information capable of detecting the face area and the eye area.
  • the memory unit 400 stores a face area image and an image of an area other than the face area, and features a face area capable of distinguishing a non-face area from a face area. You can save them.
  • an image of the detected face region may be updated and stored.
  • the memory unit 400 when detecting the eye region in the detected face region, stores an eye region image and an image of a region other than the eye region, and may distinguish the non-eye region from the portion of the face region. Can store features for. In addition, whenever an eye region is detected, an image of the detected eye region may be updated and stored.
  • FIG. 2 is a detailed block diagram of the controller shown in FIG. 1, and FIGS. 3A and 3B are diagrams illustrating an example of the face region detector illustrated in FIG. 2, and FIG. 4 is an example of a mode switch illustrated in FIG. 2.
  • 5 is a diagram illustrating an example of an eye region detector illustrated in FIG. 2, and FIGS. 6A, 6B, and 6C illustrate an example of a primary pupil center detector illustrated in FIG. 2.
  • 7A, 7B, 7C, 7D, 7E, 7F, 7G, and 7H illustrate an example of a secondary pupil center detector shown in FIG. 2.
  • the controller 200 may include a face region detector 210, a mode switch 220, a camera movement controller 230, an eye region detector 240, and a primary pupil center detector. 250, a secondary pupil center detector 260, and a pupil tracker 270.
  • control unit 200 shows a control unit 200 having various components.
  • the controller 200 may be implemented by more components than the illustrated components, and the controller 200 may be implemented by fewer components.
  • the above-described components will be described in detail.
  • the face area detector 210 detects a person from a surrounding image in a wide angle field of view captured by the photographing unit 100 set to the wide angle mode, and when a person is detected from the captured image, Can detect the face area.
  • the camera movement controller 230 may control the photographing unit 100 to capture an image of the next photographing zone determined according to a predetermined photographing pattern.
  • the face region detector 210 extracts a feature that can distinguish the face from all images other than the face using an image composed only of a face previously stored in the memory unit 400 and all images except the face.
  • the face region may be detected in the captured image by using a face classifier generated through machine learning that is repeatedly performed.
  • the face classifier may include an Adaboost learning classifier.
  • the Adaboost learning classifier is a classifier that uses a method of detecting objects by classifying feature values as a kind of template matching.
  • the Adaboost learning classifier may include a learning phase and an execution phase.
  • feature values may be extracted from an image including the face region and an image not including the face region, and the extracted feature values may be configured as a classifier and used to detect the face region.
  • a plurality of classifiers configured according to matching probabilities of the extracted feature values may be applied to reduce the false detection rate of the face area.
  • the face region may be detected by applying the classifier configured in the learning step to the input image.
  • a high resolution image may be required for the detected face area.
  • the mode switching unit 220 controls to switch the shooting mode of the photographing unit 100 from the wide angle mode to the narrow angle mode, so as to obtain an enlarged image of the face region as shown in FIG. 4.
  • the face area may be enlarged by adjusting the focal length of the lens of the photographing unit 100 to a predetermined reference value or more.
  • the focal length of the narrow angle mode may be varied within a predetermined range, and may be determined according to the ratio of the size of the face region to the entire image before magnification.
  • enlarging the face area may enlarge the face area by the size of the entire image before the enlargement.
  • the size ratio of the face area to the entire image before the enlargement is calculated, the enlargement magnification of the face area is calculated according to the calculated size ratio, and the face area is adjusted by adjusting the focal length of the narrow angle mode according to the calculated magnification ratio.
  • the face area can be enlarged by the size of the entire image before the enlargement.
  • the size of the face area is enlarged by the size of the entire image, for example, it is possible to enlarge to various sizes, such as to enlarge by 50% of the entire image.
  • the size ratio of the enlarged face area can be adjusted to a specification that can track the eyes of itself.
  • the eye region detector 240 may detect the eye region from the enlarged face region image as shown in FIG. 5.
  • the eye region detector 240 may detect an eye region using an eye classifier.
  • the eye classifier extracts and stores a feature that can distinguish the eye from all the images using only the eyes and all the images except the eyes, and then repeatedly performs the machine learning. Can be generated.
  • the eye classifier may include an Adaboost learning classifier.
  • the Adaboost learning classifier is a type of template matching that detects objects by classifying feature values.
  • the Adaboost learning classifier may include a learning phase and an execution phase.
  • feature values may be extracted from an image including an eye region and an image not including an eye region, and the extracted feature values may be configured as a classifier and used to detect a face region.
  • a plurality of classifiers configured according to matching probabilities of the extracted feature values may be applied to reduce the false detection rate of the face region.
  • the weak classifier configured in the learning stage may be applied to the input image, and the eye region may be detected by applying the strong classifier in stages.
  • the primary pupil center detector 250 detects the primary pupil center in the eye region.
  • detecting the primary pupil center in the eye region a variety of known methods can be used, the following describes a method of detecting the primary pupil center by applying a VPF (Variance Projection Function).
  • VPF Very Projection Function
  • VPF is a function of measuring the change in contrast.
  • the contrast value is measured for each pixel of the input image, and the average contrast value of all pixels is compared with the contrast value of the corresponding pixels. The difference between the contrast value and the contrast value of the corresponding pixel can be measured.
  • the VPF is applied to the input image, if the contrast value of the corresponding pixel is significantly different from the average contrast value of all pixels, the value of VPF may appear large. If the value of the VPF is similar to the average contrast value, the value of VPF may appear small. have.
  • the primary pupil center detector 250 may detect VPF values in the vertical and horizontal directions of the eye area by applying VPF to the eye area in the vertical and horizontal directions.
  • the primary pupil center can be detected according to the value of VPF.
  • the value of VPF may appear relatively large. Accordingly, when the VPF is applied in the vertical and horizontal directions to the eye region, the region in which the value of the VPF is large in the vertical and horizontal directions may indicate an area where the pupil is located. In addition, the region where the region where the value of VPF is large in the vertical and horizontal directions intersect may indicate the region where the pupil is located.
  • the value of VPF when the VPF is applied to the eye region in the horizontal direction, the value of VPF is large in the region located between the dotted lines, and this region may represent the region where the pupil is located.
  • the value of VPF when the VPF is applied to the eye region in the vertical direction, the value of VPF is large in the region located between the dotted lines, and this region may represent the region where the pupil is located.
  • the center point of the crossing area since an area where a large VPF value crosses in the vertical and horizontal directions may indicate an area where the pupil is located, the center point of the crossing area may be detected as the primary pupil center. .
  • the center point of the intersecting area may be the coordinate center of the intersecting area and may be the center of gravity of the intersecting area.
  • the edge point is searched again using Equation (7).
  • the rescanned edge point The average position of the primary pupil Recalculate.
  • AVERAGE is a function that calculates the average position of edge points. As shown in Figure 7e, Calculate the distance between each edge point based on the To filter.
  • the vertical bisector of the chord of the circle must be past the center of the circle with respect to the filtered effective points. Can be.
  • the centers of the positions corresponding to the top 5% of the cumulative arrangement may be detected as the center of the pupil.
  • 8A and 8B illustrate an example of the mode switching unit and the camera movement control unit shown in FIG. 2.
  • the mode switching unit 220 moves the photographing unit 100 from the narrow angle mode to the wide angle mode.
  • the camera movement controller 230 may rescan the person by moving the photographing direction of the photographing unit 100 in the direction away from the person.
  • the eye tracking unit 270 may track the eyes of the person by tracking the detected second eye center.
  • FIG. 9 is a flowchart illustrating a gaze tracking method according to an exemplary embodiment of the present invention.
  • the gaze tracking device 1 sets the photographing unit 100 to the wide angle mode (510).
  • the photographing unit 100 set to the wide angle mode photographs the surrounding image in the wide angle view (520).
  • the eye tracking apparatus 1 detects a face area of the person (540).
  • the photographing mode 100 switches from the wide angle mode to the narrow angle mode in operation 550.
  • the photographing unit 100 is moved according to a predetermined photographing pattern to photograph the surrounding image in the wide-angle field of view and detect the person.
  • the photographing unit 100 switched to the narrow angle mode enlarges and captures the detected face region by adjusting the photographing magnification, and detects and tracks the eyes of the person from the enlarged photographed face region image (560 to 570).
  • the eye tracking apparatus 1 detects a face region by matching a face region feature capable of detecting a face region with a captured image, thereby detecting the face region in the captured image.
  • switching the photographing mode of the photographing unit 100 from the wide angle mode to the narrow angle mode may require a high resolution image of the face area in order to more accurately track the eyes of the person from the face area.
  • the focusing distance of the lens of the photographing unit 100 may be adjusted to a predetermined reference value or more by switching the photographing mode of the photographing unit 100 from the wide angle mode to the narrow angle mode.
  • the focal length of the lens of the photographing unit 100 is adjusted so that the face region is enlarged by the size of the captured image of the surrounding image in the wide-angle field of view.
  • FIG. 10 is a flowchart illustrating a gaze tracking method according to an exemplary embodiment of the present invention.
  • the eye tracking apparatus 1 may track a person's eyes by re-searching a person through the control of the photographing unit 100 when a person deviates from the narrow angle view of the narrow angle mode. Can be.
  • operation 610 it is determined whether a person deviates from the narrow view of the narrow mode. If the person does not deviate from the narrow angle field of view in the narrow mode, the human eye is detected and tracked in the magnified face region image (570).
  • the photographing mode 100 switches to the wide angle mode in the narrow mode of the photographing unit 630, and captures the surrounding image in the wide angle of view in the state of being switched to the wide angle mode. (640).
  • the photographing mode of the photographing unit 100 is switched to the narrow angle mode to enlarge the face area, and the enlarged photographing.
  • the human eye is detected and tracked in one face area (540).
  • the image is moved by the photographing unit 100 in a direction away from the person 660, and the image is moved.
  • the photographing unit 100 is switched to the narrow angle mode to enlarge and photograph the face region to detect and track the eyes of the person (540).
  • the gaze tracking process ends.
  • FIG. 11 is a flowchart illustrating a method of detecting a pupil of a person in a face area according to an exemplary embodiment.
  • the eye region is detected from the enlarged face region image in operation 710.
  • the eye region can be detected by matching the eye region feature that can detect the eye region to the face region image.
  • the eye when a person looks at a specific point, the eye is controlled so that the specific point is located at the center of the eye. Accordingly, the center of the pupil is detected to track the eyes of the person in the detected eye region.
  • detecting the pupil center in the detected eye region detects the pupil center in the first and second order, which takes into account the case where the pupil center is incorrectly calculated by noise such as glasses or illumination of the pupil. will be.
  • the primary pupil center is detected 720 by applying a variation projection function (VPF) in the detected eye region, and the secondary pupil center is detected based on the detected primary pupil center (730). Then, by tracking the detected secondary pupil center 740, the human eye is tracked.
  • VPF variation projection function
  • FIG. 12 is a flowchart illustrating a primary pupil center detection method according to an embodiment of the present invention.
  • the primary pupil center can be detected by applying a variation projection function (VPF), which is a function of measuring the intensity change of pixels, to the eye region, and in order to detect the primary pupil center more accurately, the vertical and horizontal directions
  • VPF Variance Projection Function
  • the primary pupil center can be detected.
  • the contrast value of the corresponding pixel of the VPF is significantly different from the average contrast value of the entire image, the value of VPF appears large. The eye center can be detected.
  • a VPF (Variance Projection Function) is applied to the detected eye region in the vertical direction to detect the value of the VPF in the vertical direction (711).
  • VPF Very Projection Function
  • the region where the value of VPF is high among the values of VPF in the vertical and horizontal directions may mean an area where the pupils are located in the vertical and horizontal directions, and the region where the value of VPF is high in the vertical and horizontal directions. This intersecting area can be detected as a pupil area.
  • an area where the region where the value of the VPF is high in the vertical and horizontal directions intersects is detected (713), and the center of the intersecting region is calculated as the primary pupil center (714).
  • FIG. 13 is a flowchart illustrating a method for detecting secondary pupil centers according to an embodiment of the present invention.
  • the edge point is searched in a linear direction while rotating by ⁇ ° based on the detected primary pupil center (721).
  • the effective point is filtered out through the predetermined method among the detected edge points (722).
  • Such a technique for tracking the gaze of a person may be implemented in the form of program instructions that may be implemented by an application or executed through various computer components, and recorded on a computer-readable recording medium.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the computer-readable recording medium are those specially designed and configured for the present invention, and may be known and available to those skilled in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical recording media such as CD-ROMs, DVDs, and magneto-optical media such as floptical disks. media), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules to perform the process according to the invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체가 개시된다. 시선 추적 장치는 시선 추적 장치가 위치한 구역에 있는 사람의 시선을 추적하는 장치로서, 시선 추적 장치의 촬영부를 광각 모드로 설정하고, 촬영부의 광각 시야에 있는 구역을 촬영하고, 촬영한 영상에서 사람을 감지하고, 촬영한 영상에서 사람을 감지하면, 촬영부의 광각 모드를 협각 모드로 전환하여 사람의 시선을 추적하되, 촬영부의 광각 모드를 협각 모드로 전환하여 사람의 시선을 추적하는 것은, 촬영부의 협각 모드에서 사람의 시선을 추적하는 중 협각 모드의 촬영 범위에서 사람이 벗어나면, 촬영부를 협각 모드에서 광각 모드로 전환하여 사람을 재탐색하여 사람의 시선을 추적한다.

Description

시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
본 발명은 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체에 관한 것으로서, 보다 상세하게는 일정 범위 내에 위치한 사람의 시선을 추적하는 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체에 관한 것이다.
일반적으로 시선 추적 기술은 눈동자의 움직임을 감지하여 시선의 위치를 추적하는 기술로서, 실시간 카메라에 의해 촬영된 영상의 분석을 통해 눈동자의 움직임을 검출하고, 각막에 반사된 고정 위치를 기준으로 시선의 방향을 계산함으로써 사람의 시선을 추적한다.
이에 따라, 종래에는 카메라의 촬영범위에 있는 사람의 시선을 추적하였다. 그러나, 카메라의 시선 추적 중 사람이 카메라의 촬영 범위를 벗어나는 경우, 단일 카메라를 사용하는 경우에는 해당 동작을 정지하는 것이 일반적이었고, 복수 개의 카메라를 이용하여 시선을 추적하는 동작을 수행하는 경우에는 사람의 시선을 추적하지 않는 카메라에 의해 사람을 재검출하여 사람의 시선을 추적하였으나, 이러한 시선 추적 기술은 캘리브레이션을 수행하는 단계를 거쳐야하므로 시선 추적 처리단계가 복잡해지며, 복수 개의 카메라를 사용하므로 제품의 단가가 늘어나는 단점이 있다.
본 발명의 일측면에 의하면, 단일의 카메라를 사용하여 사람의 시선 추적 시, 카메라의 광각 모드 또는 협각 모드간의 전환을 통해, 사람의 시선을 추적하는 중 사람이 카메라의 촬영 범위를 벗어나게 되는 경우에도 사람의 시선을 계속적으로 추적할 수 있는 시선 추적 장치를 제공한다.
본 발명의 일측면에 의하면, 안경이나 눈동자에 비친 조명 등의 잡음에 의해 눈동자가 잘못 검출되는 문제를 해결하기 위해, 촬영한 영상에서 1차적으로 눈동자 중심을 검출하고, 검출한 1차 눈동자 중심을 기준으로 2차 눈동자 중심을 검출하여 사람의 시선을 추적하는 시선 추적 방법을 제공한다.
본 발명의 일 측면은 따른 시선 추적 장치는 전환이 가능한 복수의 촬영 모드를 사용하여 사람의 시선을 추적하는 시선 추적 장치로서, 광각 모드로 설정되어 광각 시야에 있는 주변 영상을 촬영하는 촬영부, 상기 광각 모드에서 촬영된 영상에 사람이 검출되면, 상기 사람의 얼굴 영역을 검출하고, 상기 촬영부의 광각 모드를 협각 모드로 전환하여 상기 사람의 시선을 추적하며, 상기 사람의 시선을 추적하는 중 상기 협각 모드에 의한 협각 시야에서 상기 사람이 벗어나면 상기 촬영부를 광각 모드로 전환하고, 상기 광각 모드로 전환된 상태에서 상기 사람이 벗어난 방향으로 이동시켜 상기 사람을 재탐색하도록 제어하는 제어부를 포함한다.
또한, 제어부는, 상기 얼굴 영역을 검출하는 얼굴 영역 검출부, 상기 검출한 얼굴 영역의 확대된 영상을 촬영하도록 상기 촬영부의 광각 모드를 협각 모드로 전환하는 모드 전환부, 상기 광각 모드로 전환된 상태에서 상기 사람을 재탐색하기 위해 상기 사람이 벗어난 방향으로 촬영부가 이동하도록 제어하는 카메라 이동 제어부, 상기 확대된 얼굴 영역 영상에서 눈 영역을 검출하는 눈 영역 검출부, 상기 검출한 눈 영역에서 눈동자를 검출하고, 검출한 눈동자를 추적하도록 상기 촬영부를 제어하는 눈동자 검출부를 포함할 수 있다.
또한, 상기 얼굴 영역 검출부는 상기 촬영한 영상에 얼굴 영역과 얼굴 영역이 아닌 영역을 구분할 수 있는 특징을 사용하여 얼굴 영역을 검출하고, 상기 눈 영역 검출부는 눈 영역과 눈 영역이 아닌 영역을 구분할 수 있는 특징을 사용하여 눈 영역을 검출할 수 있다.
또한, 상기 눈동자 검출부는 상기 검출한 눈 영역에서 1차 눈동자 중심을 산출하고, 상기 산출한 1차 눈동자 중심을 기준으로 원과 에지 정보를 이용하여, 상기 눈동자의 2차 눈동자 중심을 검출하고, 상기 검출한 2차 눈동자 중심을 추적할 수 있다.
또한, 상기 1차 눈동자 중심은 상기 검출한 눈 영역에 VPF(Variance Projection Function)를 적용하여 산출하며, 상기 산출한 1차 눈동자 중심을 기준으로 상기 눈 영역의 에지를 검출하고, 상기 검출한 에지 중 유효점을 산출하여, 상기 산출한 유효점 간의 수직이등분선을 누적하고, 상기 누적한 수직이등분선의 교차점을 상기 눈동자의 2차 눈동자 중심으로 검출하여, 상기 검출한 2차 눈동자 중심을 추적할 수 있다.
본 발명의 다른 측면에 따른 시선 추적 방법은 광각 모드로 설정된 촬영부를 이용하여 광각 시야에 있는 주변 영상을 촬영하고, 상기 촬영한 영상에서 사람을 검출하고, 상기 촬영한 영상에 상기 사람이 검출되면, 상기 사람의 얼굴 영역을 검출하고, 상기 사람의 얼굴 영역에서 시선을 추적하기 위해 상기 촬영부의 광각 모드를 협각 모드로 전환하고, 상기 전환된 협각 모드에서 상기 사람의 시선을 추적하는 중 상기 협각 모드에 의한 협각 시야에서 상기 사람이 벗어나면, 상기 사람을 재탐색하기 위해 상기 촬영부를 광각 모드로 전환하며, 상기 광각 모드에서 상기 사람이 벗어난 방향으로 상기 촬영부를 이동시켜 상기 사람을 재탐색한다.
또한, 상기 촬영한 영상에서 상기 사람을 검출하는 것은, 상기 촬영한 영상에서 상기 사람이 검출되면 상기 사람의 얼굴 영역을 검출하고, 상기 촬영한 영상에서 상기 사람이 검출되지 않으면 미리 정해진 촬영 패턴에 따라 상기 촬영부를 제어하여 상기 사람을 검출할 수 있다.
또한, 상기 사람의 얼굴 영역에서 시선을 추적하기 위해 상기 촬영부의 광각 모드를 협각 모드로 전환하는 것은, 상기 촬영부 렌즈의 초점 거리가 미리 정해진 기준값 이하인 상기 광각 모드에서 상기 촬영부 렌즈의 초점 거리가 미리 정해진 기준값 이상인 상기 협각 모드로 전환하여, 상기 검출한 얼굴 영역을 확대하여 촬영할 수 있다.
또한, 상기 검출한 얼굴 영역에 대한 확대된 영상을 획득하는 것은,
상기 촬영한 광각 시야에 있는 주변 영상의 크기만큼 상기 검출한 얼굴 영역을 확대하여 촬영하도록 상기 협각 모드에 의한 상기 촬영부 렌즈의 초점 거리를 조절할 수 있다.
상술한 본 발명의 일측면에 따르면, 단일 카메라의 광각 모드 및 협각 모드 간의 전환을 통해 촬영 범위에 있는 사람의 시선을 추적할 수 있을 뿐만 아니라, 사람이 촬영 범위를 이탈하는 경우에도 카메라의 광각 모드 및 협각 모드 간의 전환을 통해 사람을 재탐색하여 시선을 추적할 수 있다.
또한, 1차 눈동자 중심을 산출하고, 상기 산출한 1차 눈동자 중심을 기준으로 2차 눈동자 중심을 검출하여 사람의 시선을 추적하므로, 안경이나 눈동자에 비친 조명등의 잡음에 의해 눈동자가 잘못 검출되는 문제를 해결할 수 있다.
도 1 은 본 발명의 일 실시예에 따른 시선 추적 장치의 제어 블록도이다.
도 2 는 도 1 에 도시된 제어부의 세부 블록도이다.
도 3a, 3b 는 도 2 에 도시된 얼굴 영역 검출부의 일 예를 도시한 도면이다.
도 4 는 도 2 에 도시된 모드 전환부의 일 예를 도시한 도면이다.
도 5 는 도 2 에 도시된 눈 영역 검출부의 일 예를 도시한 도면이다.
도 6a, 6b, 6c 는 도 2 에 도시된 1차 눈동자 중심 검출부의 일 예를 도시한 도면이다.
도 7a, 7b, 7c, 7d, 7e, 7f, 7g, 7h 는 도 2 에 도시된 2차 눈동자 중심 검출부의 일 예를 도시한 도면이다.
도 8a, 8b 는 도 2 에 도시된 모드 전환부 및 카메라 이동 제어부의 일 예를 도시한 도면이다.
도 9 는 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기 위한 흐름도이다.
도 10 은 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기 위한 흐름도이다.
도 11 은 본 발명의 일 실시예에 따른 얼굴 영역에서 사람의 눈동자 검출 방법을 설명하기 위한 흐름도이다.
도 12 는 본 발명의 일 실시예에 따른 1차 눈동자 중심 검출 방법을 설명하기 위한 흐름도이다.
도 13 은 본 발명의 일 실시예에 따른 2차 눈동자 중심 검출 방법을 설명하기 위한 흐름도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1 은 본 발명의 일 실시예에 따른 시선 추적 장치의 제어 블록도이다.
시선 추적 장치(1)는 촬영부(100), 제어부(200), 출력부(300), 메모리부(400)를 포함할 수 있다. 도 1 은 다양한 구성요소를 가지고 있는 시선 추적 장치(1)를 도시하고 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 시선 추적 장치(1)가 구현될 수 있고, 그보다 적은 구성요소에 의해 시선 추적 장치(1)가 구현될 수 있다. 이하, 상술한 구성요소들에 대해 구체적으로 살펴본다.
촬영부(100)는 주변 배경 또는 사람을 촬영할 수 있는 카메라를 포함할 수 있다. 촬영부(100)는 단일의 카메라로 구성되며, 단일의 카메라는 상하좌우 방향으로 이동 및 줌(zoom) 기능을 이용한 영상의 확대/축소 동작 등을 수행할 수 있다.
또한, 촬영부(100)는 제어부(200)에 의해 광각 모드 및 협각 모드로 설정되어 영상을 촬영할 수 있다.
여기서, 광각 모드는 촬영부(100) 렌즈의 초점 거리가 미리 정해진 기준값 이하로 설정되어 상대적으로 넒은 시야를 촬영할 수 있는 모드를 의미하며, 협각 모드는 촬영부(100) 렌즈의 초점 거리가 미리 정해진 기준값 이상으로 설정되어 상대적으로 좁은 시야를 촬영할 수 있는 모드를 의미한다. 예를 들어, 광각 모드는 초점 거리가 50mm 이하로 설정되어, 상하 좌우로 이동하며 넓은 시야를 촬영할 수 있으며, 협각 모드는 초점 거리가 50mm 이상으로 설정되어 특정 영역을 확대하여 촬영할 수 있다. 일반적으로, 광각 모드의 초점 거리는 24~50mm 이며, 협각 모드의 초점 거리는 80~120mm 로 설정될 수 있으며, 설정에 의해 변경될 수 있음은 물론이다.
본 발명의 일 실시예에 따르면, 광각 모드에서는 광각 시야에 있는 주변 영상을 촬영하고, 촬영한 주변 영상에서 사람을 검출할 수 있으며, 검출한 사람의 얼굴 영역을 검출할 수 있다. 또한, 협각 모드에서는 얼굴 영역이 검출되면, 초점 거리를 조절하여 검출한 얼굴 영역을 확대하여 촬영할 수 있다.
제어부(200)는 촬영부(100)를 제어하여 사람의 시선을 추적하도록 제어할 수 있다.
또한, 제어부(200)는 촬영부(100)의 복수 개의 촬영 모드를 조정하여 사람의 시선을 추적할 수 있다. 제어부(200)는 촬영부(100)를 광각 모드 또는 협각 모드 중 어느 하나의 모드로 설정되도록 제어하여 사람의 시선을 추적할 수 있다.
제어부(200)는 촬영부(100)를 광각 모드로 설정하여 광각 시야에 있는 주변 영상을 촬영하도록 제어할 수 있다. 제어부(200)는 광각 시야에 있는 구역을 촬영한 영상에서 사람을 검출할 수 있다. 광각 시야에 있는 주변 영상을 촬영한 영상에서 사람이 검출되면, 검출한 사람의 얼굴 영역을 검출할 수 있으며, 촬영한 영상에서 사람이 검출되지 않으면 미리 정해진 촬영 패턴에 따라 촬영부(100)가 이동하도록 제어하여 사람을 검출할 수 있다.
또한, 제어부(200)는 검출 대상 크기가 작아 검출의 정확도가 떨어지는 문제를 해결하기 위해, 검출한 얼굴 영역에 대한 확대된 영상을 촬영하도록 촬영부(100)를 제어할 수 있다. 제어부(200)는 검출한 얼굴 영역에 대한 확대된 영상을 촬영하기 위해, 촬영부(100)의 광각 모드를 협각 모드로 전환하도록 제어할 수 있다.
이때, 제어부(200)는 촬영부(100)의 촬영 모드를 협각 모드로 전환함으로써, 확대 전 전체 영상 대비 얼굴 영역의 크기 비율에 따라 촬영부(100) 렌즈의 초점 거리를 조절하여 얼굴 영역에 대한 확대된 영상을 촬영할 수 있다.
또한, 제어부(200)는 확대한 얼굴 영역 영상에서 눈 영역을 검출하고, 검출한 눈 영역에서 눈동자를 검출할 수 있으며, 검출한 눈동자 중심의 움직임을 추적함으로써 사람의 시선을 추적할 수 있다.
또한, 제어부(200)는 협각 모드에서 촬영한 영상에서 사람의 시선을 추적하는 중 사람이 협각 모드에서 촬영한 영상의 범위를 이탈하면, 촬영부(100)의 촬영 모드를 협각 모드에서 광각 모드로 전환하여 사람을 재탐색할 수 있다.
이때, 제어부(200)는 사람이 협각 모드에서 촬영한 영상의 범위를 이탈하면 촬영부(100)를 광각 모드로 전환하고, 광각 시야에 사람이 검출되면 사람의 얼굴 영역을 다시 검출하여 시선 추적 과정을 재수행하고, 광각 시야에서 사람이 검출되지 않으면 사람이 이탈한 방향으로 촬영부(100)가 이동하도록 제어하여 사람을 재탐색 할 수 있다.
출력부(300)는 제어부(200)의 제어에 따라 사람의 시선이 추적되는 과정을 나타내는 영상을 출력할 수 있다. 사람의 시선이 추적되는 과정을 나타내는 영상은, 광각 시야에서 촬영한 영상, 사람의 얼굴 영역을 확대한 영상, 사람이 협각 시야의 범위를 이탈하는 영상, 사람의 눈동자를 검출하는 영상 등을 포함할 수 있다. 또한, 출력부(300)는, LCD(Liquid Crystal Display), 유기 발광 디스플레이 패널(OLED), 전기 영동 디스플레이 패널(EDD) 또는 터치스크린 등 다양한 형태의 디스플레이 수단이 사용될 수 있다.
메모리부(400)는 제어부(200)에서 얼굴 영역 및 눈 영역을 검출할 때, 얼굴 영역 및 눈 영역을 검출할 수 있는 정보의 저장을 위한 기능을 수행할 수 있다.
이러한 메모리부(400)는 얼굴 영역을 검출 시, 얼굴 영역 영상 및 얼굴 영역이 아닌 영역의 영상을 저장하고, 얼굴 영역이 아닌 부분과 얼굴 영역인 부분을 구분할 수 있는 얼굴 영역에 대한 특징(feature)들을 저장할 수 있다. 또한, 얼굴 영역을 검출할 때마다 검출한 얼굴 영역에 대한 영상을 업데이트(update)하여 저장할 수 있다.
또한, 메모리부(400)는 검출한 얼굴 영역에서 눈 영역을 검출 시, 눈 영역 영상 및 눈 영역이 아닌 영역의 영상을 저장하고, 눈 영역이 아닌 부분과 얼굴 영역인 부분을 구분할 수 있는 눈 영역에 대한 특징(feature)들을 저장할 수 있다. 또한, 눈 영역을 검출할 때마다 검출한 눈 영역에 대한 영상을 업데이트(update)하여 저장할 수 있다.
도 2 는 도 1 에 도시된 제어부의 세부 블록도이며, 도 3a, 3b 는 도 2 에 도시된 얼굴 영역 검출부의 일 예를 도시한 도면이며, 도 4 는 도 2 에 도시된 모드 전환부의 일 예를 도시한 도면이며, 도 5 는 도 2 에 도시된 눈 영역 검출부의 일 예를 도시한 도면이며, 도 6a, 6b, 6c 는 도 2 에 도시된 1차 눈동자 중심 검출부의 일 예를 도시한 도면이며, 도 7a, 7b, 7c, 7d, 7e, 7f, 7g, 7h 는 도 2 에 도시된 2차 눈동자 중심 검출부의 일 예를 도시한 도면이다.
도 2 를 참조하면, 본 일실시예에 따른 제어부(200)는 얼굴 영역 검출부(210), 모드 전환부(220), 카메라 이동 제어부(230), 눈 영역 검출부(240), 1차 눈동자 중심 검출부(250), 2차 눈동자 중심 검출부(260), 및 눈동자 추적부(270)를 포함한다.
도 2 는 다양한 구성요소를 가지고 있는 제어부(200)를 도시하고 있다. 그러나 도시된 구성요소보다 많은 구성요소에 의해 제어부(200)가 구현될 수 있고, 그보다 적은 구성요소에 의해 제어부(200)가 구현될 수 있다. 이하, 상술한 구성요소들에 대해 구체적으로 살펴본다.
도 3a, 3b 를 참조하면, 얼굴 영역 검출부(210)는 광각 모드로 설정된 촬영부(100)에 의해 촬영된 광각 시야에 있는 주변 영상에서 사람을 감지하고, 촬영된 영상에서 사람이 감지되면, 사람의 얼굴 영역을 검출할 수 있다.
이때, 촬영한 영상에서 사람이 감지되지 않으면, 카메라 이동 제어부(230)에 의해 미리 정해진 촬영 패턴에 따라 정해진 다음 촬영 구역의 영상을 촬영하도록 촬영부(100)를 제어할 수 있다.
또한, 얼굴 영역 검출부(210)는 메모리부(400)에 기저장된 얼굴로만 이루어진 영상과 얼굴을 제외한 모든 영상을 이용하여 얼굴과 얼굴이 아닌 모든 영상을 구분할 수 있는 특징(feature)을 추출하고, 이를 반복적으로 수행하는 기계학습(machine learning)을 통해 생성된 얼굴 분류기를 사용하여 촬영한 영상에서 얼굴 영역을 검출할 수 있다.
한편, 얼굴 분류기는 아다부스트(Adaboost) 학습 분류기는 포함할 수 있다. 아다부스트(Adaboost) 학습 분류기는 일종의 템플릿 매칭의 한 종류로 특징 값들을 분류하여 물체를 검출하는 방식을 사용하는 분류기이다. 아다부스트(Adaboost) 학습 분류기는 학습단계와 실행단계를 포함할 수 있다. 학습단계에서는 얼굴 영역을 포함하는 영상과 얼굴 영역을 포함하고 있지 않는 영상에서 특징 값들을 추출하고, 추출한 특징 값들을 분류기로 구성하여 얼굴 영역을 검출하는데 사용할 수 있다. 이때, 얼굴 영역의 오검출율을 낮추기 위해 추출한 특징 값들의 매칭 확률에 따라 구성된 다수개의 분류기가 적용될 수 있다. 실행단계에서는 입력된 영상에 학습단계에서 구성한 분류기를 적용하여 얼굴 영역을 검출할 수 있다.
한편, 검출한 얼굴 영역에서 보다 정확하게 사람의 시선을 추적하기 위해, 검출한 얼굴 영역에 대해 고해상도의 영상을 필요로 할 수 있다.
이에 따라, 모드 전환부(220)는 촬영부(100)의 촬영 모드를 광각 모드에서 협각 모드로 전환하도록 제어하여, 도 4 와 같이, 얼굴 영역에 대한 확대한 영상을 획득할 수 있다.
협각 모드는 촬영부(100) 렌즈의 초점 거리를 미리 정해진 기준값 이상으로 조정하여 얼굴 영역을 확대 촬영할 수 있다.
이때, 협각 모드의 초점 거리는 미리 정해진 범위 내에서 가변될 수 있으며, 확대 전 전체 영상 대비 얼굴 영역의 크기 비율에 따라 정해질 수 있다. 또한, 얼굴 영역을 확대하는 것은, 확대 전 전체 영상의 크기만큼 얼굴 영역을 확대할 수 있다.
구체적으로, 확대 전 전체 영상 대비 얼굴 영역의 크기 비율을 산출하고, 산출한 크기 비율에 따라 얼굴 영역의 확대할 확대 배율을 산출하고, 산출한 확대 배율에 따라 협각 모드의 초점 거리를 조절하여 얼굴 영역을 확대 촬영할 수 있다. 예를 들어, 확대 전 전체 영상 대비 얼굴 영역의 크기 비율이 20%로 산출되면, 얼굴 영역의 크기를 확대 전 전체 영상의 크기만큼 확대하기 위한 확대 배율은 5배율로 산출되며, 협각 모드는 5배율에 해당하는 초점 거리를 산출하여 조정함으로써 얼굴 영역을 확대 전 전체 영상의 크기만큼 확대할 수 있다. 한편, 협각 모드로 전환하면서, 얼굴 영역의 크기를 전체 영상의 크기만큼 확대하는 것을 일 예이며, 전체 영상의 50%만큼 확대하는 등 다양한 크기로 확대가 가능함은 물론이다. 즉, 확대되는 얼굴 영역의 크기 비율은 자체적으로 눈동자를 추적할 수 있는 스펙으로 조정될 수 있다.
눈 영역 검출부(240)는 도 5 와 같이, 확대한 얼굴 영역 영상에서 눈 영역을 검출할 수 있다.
구체적으로, 눈 영역 검출부(240)는 눈 분류기를 이용하여 눈 영역을 검출할 수 있다. 눈 분류기는 눈으로만 이루어진 영상과 눈을 제외한 모든 영상을 이용해 눈과 눈이 아닌 모든 영상을 구분할 수 있는 특징(feature)을 추출하여 저장하고, 이를 반복적으로 수행하는 기계학습(machine learning)을 통해 생성될 수 있다.
한편, 눈 분류기는 아다부스트(Adaboost) 학습 분류기를 포함할 수 있다.
이때의 아다부스트(Adaboost) 학습 분류기는 일종의 템플릿 매칭의 한 종류로 특징 값들을 분류하여 물체를 검출하는 방식이다. 아다부스트(Adaboost) 학습 분류기는 학습단계와 실행단계를 포함할 수 있다. 학습단계에서는 눈 영역을 포함하는 영상과 눈 영역을 포함하고 있지 않는 영상에서 특징 값들을 추출하고, 추출한 특징 값들을 분류기로 구성하여 얼굴 영역을 검출하는데 사용할 수 있다. 이때, 얼굴 영역의 오검출율을 낮추기 위해 상기 추출한 특징 값들의 매칭 확률에 따라 구성된 다수개의 분류기가 적용될 수 있다. 실행단계에서는 입력된 영상에 학습단계에서 구성한 약 분류기를 적용하고, 단계적으로 강 분류기를 적용하여 눈 영역을 검출할 수 있다.
1차 눈동자 중심 검출부(250)는 눈 영역에서 1차 눈동자 중심을 검출한다.
한편, 눈 영역에서 1차 눈동자 중심을 검출하는 것은, 공지된 여러가지 방법이 사용될 수 있으며, 이하 일 예인 VPF(Variance Projection Function)를 적용하여 1차 눈동자 중심을 검출하는 방법을 설명한다.
이때, VPF는 명암 변화를 측정하는 함수로, 입력 영상에 VPF를 적용하면 입력된 영상의 픽셀마다 명암값을 측정하고, 전체 픽셀의 평균 명암값과 해당 픽셀의 명암값을 비교하여 전체 픽셀의 평균 명암값 대비 해당 픽셀의 명암값의 차이를 측정할 수 있다. 또한, VPF를 입력 영상에 적용했을 때, 해당 픽셀의 명암값이 전체 픽셀의 평균 명암값과 큰 차이를 보이면 VPF의 값이 크게 나타날 수 있으며, 평균 명암값과 비슷하면 VPF의 값이 작게 나타날 수 있다.
구체적으로, 1차 눈동자 중심 검출부(250)는 눈 영역에 수직 및 수평 방향으로 VPF을 적용하여 눈 영역의 수직 및 수평 방향에 대한 VPF의 값을 검출할 수 있으며, 검출한 수직 및 수평 방향에 대한 VPF의 값에 따라 1차 눈동자 중심을 검출할 수 있다.
이때, 눈 영역에서 눈동자가 위치한 영역은 다른 영역에 비해 상대적으로 어둡기 때문에 상대적으로 VPF의 값이 크게 나타날 수 있다. 이에 따라, 눈 영역에 수직 및 수평 방향으로 VPF를 적용했을 때, 수직 및 수평 방향으로 VPF의 값이 크게 나타난 영역은 눈동자가 위치한 영역을 나타낼 수 있다. 또한, 수직 및 수평 방향에 대해 VPF의 값이 크게 나타나는 영역이 교차하는 영역은 눈동자가 위치한 영역을 나타낼 수 있다.
도 6a 를 참조하면, 눈 영역에 수평 방향으로 VPF를 적용하였을 때, 점선 사이에 위치한 영역에서 VPF의 값이 크게 나타나며, 이 영역은 눈동자가 위치한 영역을 나타낼 수 있다. 도 6b 를 참조하면, 눈 영역에 수직 방향으로 VPF를 적용하였을 때, 점선 사이에 위치한 영역에서 VPF의 값이 크게 나타나며, 이 영역은 눈동자가 위치한 영역을 나타낼 수 있다. 또한, 도 6c 를 참조하면, 수직 및 수평 방향에 대해 VPF의 값이 크게 나온 영역이 교차하는 영역은 눈동자가 위치한 영역을 나타낼 수 있으므로, 교차하는 영역의 중심점을 1차 눈동자 중심으로 검출할 수 있다.
한편, 교차하는 영역의 중심점은 교차하는 영역에 대한 좌표 중심일 수 있으며, 교차하는 영역의 무게 중심일 수 있다.
이때, 수직 및 수평 방향의 VPF의 값은 식 (1), (2)를 통해 계산된다.
Figure PCTKR2014005868-appb-I000001
(1)
Figure PCTKR2014005868-appb-I000002
(2)
Figure PCTKR2014005868-appb-I000003
(3)
Figure PCTKR2014005868-appb-I000004
(4)
Figure PCTKR2014005868-appb-I000005
,
Figure PCTKR2014005868-appb-I000006
는 각각 수직 및 수평 방향의 VPF의 값이며, I는 그레이(gray) 스케일 영상을 의미하고,
Figure PCTKR2014005868-appb-I000007
는 각 x, y방향의 명암도의 합을 나타낸다. 수직 및 수평 VPF에서 가장 작은 valley를 찾아 1차 눈동자 중심좌표
Figure PCTKR2014005868-appb-I000008
를 계산한다.
Figure PCTKR2014005868-appb-I000009
(5)
Figure PCTKR2014005868-appb-I000010
(6)
Figure PCTKR2014005868-appb-I000011
,
Figure PCTKR2014005868-appb-I000012
는 수직 VPF의 Valley이고
Figure PCTKR2014005868-appb-I000013
,
Figure PCTKR2014005868-appb-I000014
는 수평 VPF의 Valley이다.
2차 눈동자 중심 검출부(260)는, 도 7a, 7b 와 같이, 검출한 1차 눈동자 중심
Figure PCTKR2014005868-appb-I000015
을 기준으로 α°씩 회전하면서 직선 방향으로 에지점
Figure PCTKR2014005868-appb-I000016
을 탐색할 수 있다.(i=1…N, N : 찾아진 에지점의 개수)
Figure PCTKR2014005868-appb-I000017
(7)
Figure PCTKR2014005868-appb-I000018
Figure PCTKR2014005868-appb-I000019
을 중심으로 탐색되어지는
Figure PCTKR2014005868-appb-I000020
번째 직선의 좌표이고,
Figure PCTKR2014005868-appb-I000021
는 임계값을 의미한다. 해당 위치의 명암값이 임계값보다 클 경우 해당 위치를 에지점으로 한다. 임계값은
Figure PCTKR2014005868-appb-I000022
로부터 탐색되어지는
Figure PCTKR2014005868-appb-I000023
까지의 평균 명암값으로 한다.
도 7c, 7d 와 같이, 탐색한 에지점을 시작으로 식 (7)을 이용하여 에지점을 재탐색한다. 상기 재탐색한 에지점
Figure PCTKR2014005868-appb-I000024
의 평균 위치를 이용해 1차 눈동자 중심인
Figure PCTKR2014005868-appb-I000025
를 다시 계산한다.
Figure PCTKR2014005868-appb-I000026
(8)
AVERAGE는 에지점들의 평균 위치를 계산하는 함수이다. 도 7e 와 같이,
Figure PCTKR2014005868-appb-I000027
을 기준으로 각 에지점들 간의 거리를 계산한 후에 아래의 조건을 만족하는 점을 유효점
Figure PCTKR2014005868-appb-I000028
으로 걸러낸다.
Figure PCTKR2014005868-appb-I000029
(9)
Figure PCTKR2014005868-appb-I000030
는 임계값으로
Figure PCTKR2014005868-appb-I000031
Figure PCTKR2014005868-appb-I000032
간의 평균 거리로 구한다.
도 7f 와 같이, 걸러진 유효한 점들을 대상으로 원의 현의 수직이등분선은 반드시 원의 중심을 지난다는 법칙을 이용하여, 도 7g 와 같이, 각 점들간의 수직 이등분선을 계산한 후 2차원 배열에 누적할 수 있다.
마지막으로 도 7h 와 같이, 누적 배열의 상위 5%에 해당하는 위치들의 중심을 눈동자의 중심으로 검출할 수 있다.
도 8a, 8b 는 도 2 에 도시된 모드 전환부 및 카메라 이동 제어부의 일 예를 도시한 도면이다.
도 8a 를 참조하면, 협각 모드로 전환된 촬영부에 의해 확대하여 촬영된 얼굴 영역 영상에서 사람이 촬영 범위 밖으로 이탈하면, 모드 전환부(220)는 촬영부(100)를 협각 모드에서 광각 모드로 전환하고, 도 8b 와 같이, 카메라 이동 제어부(230)는 사람이 이탈한 방향으로 촬영부(100)의 촬영 방향을 이동시켜 사람을 재탐색할 수 있다.
눈동자 추적부(270)는 검출한 2차 눈동자 중심을 추적하여 사람의 시선을 추적할 수 있다.
도 9 는 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기 위한 흐름도이다.
시선 추적 장치(1)는 시선을 추적하는 과정이 시작되면, 촬영부(100)를 광각 모드로 설정한다(510).
광각 모드로 설정된 촬영부(100)는 광각 시야에 있는 주변 영상을 촬영한다(520). 촬영한 영상에서 사람이 있는지 여부를 확인한다(530).
또한, 시선 추적 장치(1)는 촬영한 영상에 사람이 감지되면, 사람의 얼굴 영역을 검출한다(540). 사람의 얼굴 영역이 검출되면, 촬영부(100)의 촬영 모드를 광각 모드에서 협각 모드로 전환한다(550).
한편, 촬영한 영상에서 사람이 감지되지 않으면, 미리 정해진 촬영 패턴에 따라 촬영부(100)를 이동시켜 광각 시야에 있는 주변 영상을 촬영하고, 사람을 검출한다.
협각 모드로 전환된 촬영부(100)는 촬영 배율을 조절하여 검출한 얼굴 영역을 확대 촬영하고, 확대 촬영한 얼굴 영역 영상에서 사람의 눈동자를 검출 및 추적한다(560~570).
한편, 시선 추적 장치(1)는 촬영한 영상에 얼굴 영역을 검출할 수 있는 얼굴 영역 특징(feature)을 매칭하여 얼굴 영역을 검출함으로써, 촬영한 영상에서 얼굴 영역이 검출할 수 있다.
한편, 촬영부(100)의 촬영 모드를 광각 모드에서 협각 모드로 전환하는 것은, 얼굴 영역으로부터 보다 정확하게 사람의 시선을 추적하기 위해 얼굴 영역에 대해 고해상도의 영상이 필요할 수 있다. 이에 따라, 촬영부(100)의 촬영 모드를 광각 모드에서 협각 모드로 전환하여 촬영부(100) 렌즈의 초점 거리를 미리 정해진 기준값 이상으로 조정할 수 있다. 촬영부(100) 렌즈의 초점 거리는 얼굴 영역이 광각 시야에 있는 주변 영상을 촬영한 영상의 크기만큼 확대되도록 조정한다.
도 10 은 본 발명의 일 실시예에 따른 시선 추적 방법을 설명하기 위한 흐름도이다.
시선 추적 장치(1)는 협각 모드의 협각 시야에서 사람의 시선을 추적 시, 협각 모드의 협각 시야에서 사람이 이탈할 경우 촬영부(100) 제어를 통해 사람을 재탐색하여 사람의 시선을 추적할 수 있다.
협각 모드의 협각 시야에서 사람이 이탈하는지 여부를 확인한다(610). 사람이 협각 모드의 협각 시야에서 벗어나지 않으면, 확대하여 촬영한 얼굴 영역 영상에서 사람의 눈동자를 검출 및 추적한다(570).
또한, 사람이 협각 모드의 협각 시야에서 벗어나면, 촬영부(100)의 촬영 모드를 협각 모드에 광각 모드로 전환(630)하고, 광각 모드로 전환된 상태에서 광각 시야에 있는 주변 영상을 촬영한다(640).
또한, 촬영한 광각 시야에 있는 주변 영상에서 사람이 감지(650)되면, 사람의 얼굴 영역을 검출하고, 촬영부(100)의 촬영 모드를 협각 모드로 전환하여 얼굴 영역을 확대 촬영하며, 확대 촬영한 얼굴 영역에서 사람의 눈동자를 검출 및 추적한다(540).
또한, 촬영한 광각 시야에 있는 주변 영상에서 사람이 감지(650)되지 않으면, 사람이 이탈한 방향으로 촬영부(100)를 이동시켜 영상을 촬영(660)하고, 촬영부(100)를 이동시켜 촬영한 영상에서 사람이 감지(670)되면 사람의 얼굴 영역을 검출하고, 촬영부(100)를 협각 모드로 전환하여 얼굴 영역을 확대 촬영하여 사람의 시선을 검출 및 추적한다(540).
또한, 촬영부(100)를 이동시켜 촬영한 영상에서 사람이 감지되지 않으면 시선 추적 과정을 종료한다.
도 11 은 본 발명의 일 실시예에 따른 얼굴 영역에서 사람의 눈동자 검출 방법을 설명하기 위한 흐름도이다.
확대 촬영한 얼굴 영역 영상에서 눈 영역을 검출한다(710).
한편, 확대 촬영한 얼굴 영역 영상에서 눈 영역을 검출하는 것은, 확대 촬영한 얼굴 영역 영상에 눈 영역을 검출할 수 있는 눈 영역 특징을 얼굴 영역 영상에 매칭하여 눈 영역을 검출할 수 있다.
또한, 일반적으로 사람이 특정 점을 주시할 때는 특정 점이 눈동자의 중심에 위치하도록 안구가 조절된다. 이에 따라, 검출한 눈 영역에서 사람의 시선을 추적하기 위해 눈동자 중심을 검출한다.
한편, 검출한 눈 영역에서 눈동자 중심을 검출하는 것은, 1, 2차에 걸쳐 눈동자 중심을 검출하는 데, 이는 안경이나 눈동자에 비친 조명 등의 잡음에 의해 눈동자 중심이 잘못 계산되어지는 경우를 고려하는 것이다.
검출한 눈 영역에서 VPF(Variance Projection Function)을 적용하여 1차 눈동자 중심을 검출(720)하고, 검출한 1차 눈동자 중심을 기준으로 2차 눈동자 중심을 검출한다(730). 이후, 검출한 2차 눈동자 중심을 추적(740)함으로써, 사람의 시선을 추적한다.
도 12 는 본 발명의 일 실시예에 따른 1차 눈동자 중심 검출 방법을 설명하기 위한 흐름도이다.
이때, 픽셀의 명암 변화를 측정하는 함수인 VPF(Variance Projection Function)을 눈 영역에 적용하여 1차 눈동자 중심을 검출할 수 있으며, 보다 정확하게 1차 눈동자 중심을 검출하기 위해 눈 영역에 수직 및 수평 방향으로 VPF(Variance Projection Function)을 적용하여 1차 눈동자 중심을 검출할 수 있다. 또한, VPF(Variance Projection Function)의 해당 픽셀의 명암값이 영상 전체의 평균 명암값과 큰 차이를 보이면 VPF의 값은 크게 나타나며, 평균 명암값과 비슷하면 VPF의 값이 작게 나온다는 것을 이용하여 1차 눈동자 중심을 검출할 수 있다.
검출한 눈 영역에 수직 방향으로 VPF(Variance Projection Function)를 적용하여, 수직 방향에 대한 VPF의 값을 검출한다(711).
또한, 검출한 눈 영역에 수평 방향으로 VPF(Variance Projection Function)를 적용하여, 수평 방향에 대한 VPF의 값을 검출한다(712).
이때, 눈 영역에서 눈동자 영역은 다른 영역에 비해 어둡기 때문에 명암 변화가 크게 나타날 수 있다. 이에 따라, 수직 및 수평 방향에 대한 VPF의 값 중 VPF의 값이 높게 나온 영역은 수직 및 수평 방향에 대한 눈동자가 위치한 영역을 의미할 수 있으며, 수직 및 수평 방향에 대해 VPF의 값이 높게 나온 영역이 교차하는 영역을 눈동자 영역으로 검출할 수 있다.
또한, 수직 및 수평 방향에 대해 VPF의 값이 높게 나온 영역이 교차하는 영역을 검출(713)하고, 교차하는 영역의 중심을 1차 눈동자 중심으로 산출한다(714).
도 13 은 본 발명의 일 실시예에 따른 2차 눈동자 중심 검출 방법을 설명하기 위한 흐름도이다.
검출한 1차 눈동자 중심을 기준으로 α°씩 회전하면서 직선 방향으로 에지점을 탐색한다(721). 검출한 에지점 중 미리 정해진 방식을 통해 유효점을 걸러낸다(722).
걸러진 유효한 점들을 대상으로 원의 현의 수직이등분선이 반드시 원의 중심을 지난다는 법칙을 이용하여, 각 점들간의 수직 이등분선을 계산한 후 2차원 배열에 누적한다(723).
마지막으로 누적 배열의 상위 5%에 해당하는 위치들을 검출하고, 상위 5%에 해당하는 위치들의 중심을 2차 눈동자의 중심으로 산출한다(724).
이와 같은, 사람의 시선을 추적하는 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
[부호의 설명]
1: 시선 추적 장치
100: 촬영부
200: 제어부
300: 출력부
400: 메모리부

Claims (9)

  1. 광각 모드로 설정되어 광각 시야에 있는 주변 영상을 촬영하는 촬영부;
    상기 촬영부의 광각 모드에서 촬영된 영상에 사람이 검출되면, 상기 사람의 얼굴 영역을 검출하고, 상기 촬영부의 광각 모드를 협각 모드로 전환하여 상기 사람의 시선을 추적하며, 상기 사람의 시선을 추적하는 중 상기 협각 모드에 의한 협각 시야에서 상기 사람이 벗어나면 상기 촬영부를 광각 모드로 전환하여 상기 사람을 재탐색하고, 재탐색에 의해 상기 사람이 검출되지 않으면, 상기 광각 모드로 전환된 상태에서 상기 사람이 벗어난 방향으로 이동하여 상기 사람을 재탐색하도록 제어하는 제어부를 포함하는 시선 추적 장치.
  2. 제 1 항에 있어서,
    상기 제어부는 상기 사람의 얼굴 영역을 검출하는 얼굴 영역 검출부;
    상기 얼굴 영역의 확대된 영상을 촬영하도록 상기 촬영부의 광각 모드를 협각 모드로 전환하는 모드 전환부;
    상기 광각 모드로 전환된 상태에서 상기 사람을 재탐색하기 위해 상기 사람이 벗어난 방향으로 촬영부가 이동하도록 제어하는 카메라 이동 제어부;
    상기 확대 촬영한 얼굴 영역 영상에서 눈 영역을 검출하는 눈 영역 검출부; 및
    상기 눈 영역에서 눈동자를 검출하고, 상기 눈동자를 추적하도록 상기 촬영부를 제어하는 눈동자 검출부를 포함하여 상기 사람의 시선을 추적하는 시선 추적 장치.
  3. 제 2 항에 있어서,
    상기 눈동자 검출부는 상기 눈 영역에서 1차 눈동자 중심을 산출하고, 상기 1차 눈동자 중심을 기준으로 원과 에지 정보를 이용하여, 상기 눈동자의 2차 눈동자 중심을 검출하고, 상기 2차 눈동자 중심을 추적하는 것을 특징으로 하는 시선 추적 장치.
  4. 제 3 항에 있어서,
    상기 1차 눈동자 중심은 상기 눈 영역에 VPF(Variance Projection Function)를 적용하여 산출하며, 상기 1차 눈동자 중심을 기준으로 상기 눈 영역의 에지점을 검출하고, 상기 에지점 중 유효점을 산출하며, 상기 유효점 간의 수직이등분선을 누적하고, 상기 수직이등분선의 교차점을 상기 눈동자의 2차 눈동자 중심으로 검출하여 상기 2차 눈동자 중심을 추적하는 것을 특징으로 하는 시선 추적 장치.
  5. 광각 모드로 설정된 촬영부를 이용하여 광각 시야에 있는 주변 영상을 촬영하고,
    상기 광각 시야에 있는 주변 영상에서 사람을 검출하고,
    상기 광각 시야에 있는 주변 영상에서 상기 사람이 검출되면, 상기 사람의 얼굴 영역을 검출하고,
    상기 얼굴 영역에서 시선을 추적하기 위해 상기 촬영부의 광각 모드를 협각 모드로 전환하고,
    상기 협각 모드에서 상기 사람의 시선을 추적하는 중 상기 협각 모드에 의한 협각 시야에서 상기 사람이 벗어나면, 상기 사람을 재탐색하기 위해 상기 촬영부를 광각 모드로 전환하며, 상기 광각 모드에서 상기 사람이 벗어난 방향으로 상기 촬영부를 이동시켜 상기 사람을 재탐색하는 시선 추적 방법.
  6. 제 5 항에 있어서,
    상기 광각 시야에 있는 주변 영상에서 상기 사람을 검출하는 것은,
    상기 광각 시야에 있는 주변 영상에서 상기 사람이 검출되면 상기 사람의 얼굴 영역을 검출하고,
    상기 광각 시야에 있는 주변 영상에서 상기 사람이 검출되지 않으면 미리 정해진 촬영 패턴에 따라 상기 촬영부를 제어하여 상기 사람을 검출하는 시선 추적 방법.
  7. 제 5 항에 있어서,
    상기 사람의 얼굴 영역에서 시선을 추적하기 위해 상기 촬영부의 광각 모드를 협각 모드로 전환하는 것은,
    상기 촬영부 렌즈의 초점 거리가 미리 정해진 기준값 이하인 상기 광각 모드에서 상기 촬영부 렌즈의 초점 거리가 미리 정해진 기준값 이상인 상기 협각 모드로 전환하여, 상기 얼굴 영역을 확대하여 촬영하는 시선 추적 방법.
  8. 제 7 항에 있어서,
    상기 얼굴 영역에 대한 확대된 영상을 획득하는 것은,
    상기 광각 시야에 있는 주변 영상의 크기만큼 상기 얼굴 영역을 확대하여 촬영하도록 상기 협각 모드에 의한 상기 촬영부 렌즈의 초점 거리를 조절하는 시선 추적 방법.
  9. 제 5 항 내지 제 8 항 중 어느 하나의 항에 따른 시선 추적 방법을 실행하기 위한, 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
PCT/KR2014/005868 2014-06-30 2014-07-01 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체 WO2016002986A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/320,720 US10264176B2 (en) 2014-06-30 2014-07-01 Gaze tracking device and method and recording medium for performing the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140081280A KR101533686B1 (ko) 2014-06-30 2014-06-30 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
KR10-2014-0081280 2014-06-30

Publications (1)

Publication Number Publication Date
WO2016002986A1 true WO2016002986A1 (ko) 2016-01-07

Family

ID=53792298

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/005868 WO2016002986A1 (ko) 2014-06-30 2014-07-01 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체

Country Status (3)

Country Link
US (1) US10264176B2 (ko)
KR (1) KR101533686B1 (ko)
WO (1) WO2016002986A1 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9807316B2 (en) * 2014-09-04 2017-10-31 Htc Corporation Method for image segmentation
KR101706992B1 (ko) * 2016-01-27 2017-02-15 숭실대학교산학협력단 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
KR102526544B1 (ko) * 2016-01-29 2023-04-27 한국전자통신연구원 멀티 어레이 기반의 시선추적 장치 및 방법
KR102596487B1 (ko) * 2016-04-06 2023-11-01 한화비전 주식회사 표시 제어 시스템, 방법 및 컴퓨터 판독 가능한 기록 매체
KR20180020689A (ko) * 2016-08-19 2018-02-28 엘지전자 주식회사 이동 단말기
KR102476897B1 (ko) * 2016-10-05 2022-12-12 삼성전자주식회사 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치
US10176375B2 (en) * 2017-03-29 2019-01-08 Raytheon Canada Limited High speed pupil detection system and method
WO2018199890A1 (en) * 2017-04-24 2018-11-01 Truthvision, Inc. A system and method for measuring pupillary distance
CN111512625B (zh) * 2017-12-18 2022-04-12 佳能株式会社 摄像设备及其控制方法和存储介质
JP7233162B2 (ja) * 2017-12-18 2023-03-06 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
TWI693828B (zh) * 2018-06-28 2020-05-11 圓展科技股份有限公司 顯示擷取裝置與其操作方法
EP3766040A4 (en) * 2018-07-20 2021-04-28 Samsung Electronics Co., Ltd. METHOD AND ELECTRONIC DEVICE FOR RECOMMENDING AN IMAGE CAPTURE MODE
JP7222683B2 (ja) * 2018-12-06 2023-02-15 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
US10948986B2 (en) * 2019-04-09 2021-03-16 Fotonation Limited System for performing eye detection and/or tracking
US11046327B2 (en) 2019-04-09 2021-06-29 Fotonation Limited System for performing eye detection and/or tracking
JP6717477B1 (ja) * 2019-09-13 2020-07-01 株式会社スワローインキュベート 画像処理方法、画像処理装置、及び画像処理プログラム
JP6757949B1 (ja) * 2020-05-28 2020-09-23 株式会社スワローインキュベート 画像処理方法、画像処理装置、及び画像処理プログラム
GB2595909B (en) * 2020-06-11 2022-08-24 Sony Interactive Entertainment Inc Gaze tracking apparatus and systems
CN114079729A (zh) * 2020-08-19 2022-02-22 Oppo广东移动通信有限公司 拍摄控制方法、装置、电子设备及存储介质
CN114596822B (zh) * 2020-12-04 2024-01-19 福州京东方光电科技有限公司 显示方法、显示优化装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020028406A (ko) * 2000-10-09 2002-04-17 정인수 홍채 영상 포착 장치 및 고인식률의 홍채 인식 방법
US6734911B1 (en) * 1999-09-30 2004-05-11 Koninklijke Philips Electronics N.V. Tracking camera using a lens that generates both wide-angle and narrow-angle views

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101179131B1 (ko) 2010-07-20 2012-09-07 허병도 팬/틸트/줌 기능 일체형 동시감시카메라를 이용한 감시시스템
KR20120057033A (ko) 2010-11-26 2012-06-05 한국전자통신연구원 Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6734911B1 (en) * 1999-09-30 2004-05-11 Koninklijke Philips Electronics N.V. Tracking camera using a lens that generates both wide-angle and narrow-angle views
KR20020028406A (ko) * 2000-10-09 2002-04-17 정인수 홍채 영상 포착 장치 및 고인식률의 홍채 인식 방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
H. R. CHENNAMMA: "A SURVEY ON EYE-GAZE TRACKING TECHNIQUES", INDIAN JOURNAL OF COMPUTER SCIENCE AND ENGINEERING (IJCSE, vol. 4, no. 5, October 2013 (2013-10-01), XP055250317, ISSN: 0976-5166, Retrieved from the Internet <URL:http://arxiv.org/ftp/arxiv/papers/1312/1312.6410.pdf> *
KIM, YUN HWAN: "Technology for Tracking Device of Electrical and Electronic Moving Object", KIPA, 12 October 2011 (2011-10-12), Retrieved from the Internet <URL:http://www.ipmarket.or.kr/2013/iptip_tech/sale/tech_sel_trade_dsp.jsp?sel_seq=33703&Page=1039&schSort=&seed=00> *
PARK, KANG RYOUNG: "Gaxe Detection System by Wide and Narrow View Camera", THE JOURNAL OF KOREAN INSTITUTE OF COMMUNICATIONS AND INFORMATION SCIENCES, vol. 28, no. 12C, December 2003 (2003-12-01), pages 1239 - 1249, XP055250307, Retrieved from the Internet <URL:http://www.dbpia.co.kr/Journal/ArticleDetail/338607> *

Also Published As

Publication number Publication date
KR101533686B1 (ko) 2015-07-09
US20170134643A1 (en) 2017-05-11
US10264176B2 (en) 2019-04-16

Similar Documents

Publication Publication Date Title
WO2016002986A1 (ko) 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
US8831282B2 (en) Imaging device including a face detector
WO2017014415A1 (en) Image capturing apparatus and method of operating the same
KR101706992B1 (ko) 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
WO2019050360A1 (en) ELECTRONIC DEVICE AND METHOD FOR AUTOMATICALLY SEGMENTING TO BE HUMAN IN AN IMAGE
WO2014058248A1 (ko) 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법
WO2011013862A1 (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
US8130282B2 (en) Image capture device
WO2021095916A1 (ko) 객체의 이동경로를 추적할 수 있는 추적시스템
JP5887508B2 (ja) 露光制御装置、撮像装置、画像表示装置及び露光制御方法
JP2006101186A (ja) カメラ
WO2019004530A1 (ko) 영상에서 처리 대상 객체를 제거하는 방법 및 이러한 방법을 수행하는 장치
JP2012039591A (ja) 撮像装置
WO2018030795A1 (ko) 카메라 장치, 디스플레이 장치 및 그 장치에서 움직임을 보정하는 방법
WO2018164316A1 (ko) 전방향 영상 촬상 방법 및 이러한 방법을 수행하는 장치
WO2021201569A1 (ko) 강화학습 기반 신호 제어 장치 및 신호 제어 방법
WO2022124518A1 (ko) 홍채인식범위 확장을 위한 홍채 영상 획득시스템
WO2012015156A2 (ko) 열적외선을 이용한 환경독립형 교통검지시스템
WO2021221341A1 (ko) 증강 현실 장치 및 그 제어 방법
WO2021157904A1 (en) Electronic apparatus and controlling method thereof
JP2003196017A (ja) データ入力方法及び同装置等
WO2023149603A1 (ko) 다수의 카메라를 이용한 열화상 감시 시스템
JPH0793558A (ja) 画像監視装置
WO2014017733A1 (en) Digital photographing apparatus and method of controlling same
WO2017034321A1 (ko) 카메라를 구비하는 장치에서 사진 촬영 지원 기법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14896592

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15320720

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14896592

Country of ref document: EP

Kind code of ref document: A1