WO2018207959A1 - Image processing device and method - Google Patents

Image processing device and method Download PDF

Info

Publication number
WO2018207959A1
WO2018207959A1 PCT/KR2017/004881 KR2017004881W WO2018207959A1 WO 2018207959 A1 WO2018207959 A1 WO 2018207959A1 KR 2017004881 W KR2017004881 W KR 2017004881W WO 2018207959 A1 WO2018207959 A1 WO 2018207959A1
Authority
WO
WIPO (PCT)
Prior art keywords
outline
target object
image
elliptic equation
shape information
Prior art date
Application number
PCT/KR2017/004881
Other languages
French (fr)
Korean (ko)
Inventor
채용욱
최태준
Original Assignee
주식회사 룩시드랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 룩시드랩스 filed Critical 주식회사 룩시드랩스
Priority to PCT/KR2017/004881 priority Critical patent/WO2018207959A1/en
Priority to KR1020197025494A priority patent/KR20190107738A/en
Publication of WO2018207959A1 publication Critical patent/WO2018207959A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the present specification relates to an image processing apparatus and method for eye tracking, and more particularly, to an image processing apparatus and method for estimating the size of a pupil or an iris from an eye image.
  • the pupil is a hollow, circular space located in the center of the iris, through which external light is transmitted to the retina.
  • the main function of these pupils is to reduce chromatic and spherical aberration by adjusting the amount of light reaching the retina and maximizing the depth of focus to maximize visual perception.
  • the pupil is enlarged to detect a lot of light in the dark place, and the pupil size is reduced in order to reduce the amount of light reaching the retina in the bright place to make a clearer image.
  • the pupil size changes due to the change of emotion, but the pupil size increases due to fear, surprise, and pain.
  • the size of the pupil is closely correlated with various cognitive neuroscientific phenomena such as changes in light brightness, attention, cognitive load, and emotion, and is widely used in research in related fields. .
  • various cognitive neuroscientific phenomena such as changes in light brightness, attention, cognitive load, and emotion
  • the present specification provides an image processing method for estimating the size of an iris or a pupil from an eye image.
  • the present specification provides an image processing method for performing an elliptic equation evaluation process to calculate an accurate elliptic equation for the iris or pupil covered by the eyelid, to accurately estimate the size of the pupil or iris.
  • the present disclosure provides a method for accurately estimating the size of the iris or the pupil by performing a process of correcting the outline of the iris image or the pupil image using a Fourier descriptor to remove the portion covered by the eyelid.
  • Image processing method comprises the steps of obtaining an eye image (eye image); Detecting an outline of an image of a target object corresponding to a pupil or an iris from the eye image; Calculating an elliptic equation for the target object based on the outline, and determining whether the elliptic equation is recognized as a final elliptic equation for the target object; If the elliptic equation is not recognized as the final elliptic equation, correcting an outline of the target object image using a Fourier descriptor, wherein the Fourier descriptor is shape information indicating a shape characteristic of the target object image. Obtained from; And when the elliptic equation is recognized as the final elliptic equation, acquiring information on at least one of an area, a shape, or a location of the target object using the final elliptic equation. It may include.
  • determining whether the final elliptic equation is recognized may be calculated by recalculating an elliptic equation for the target object based on the corrected outline. It can be determined whether or not it is recognized as a final elliptic equation for the target object.
  • determining whether the final elliptic equation is recognized may include: calculating an error rate based on a distance between each outline point constituting the outline and an ellipse having the elliptic equation, and based on the error rate And determining whether the elliptic equation is a final elliptic equation for the target object.
  • the shape information may be obtained based on a radial distance between the center of gravity of the outline points constituting the outline and each outline point.
  • the step of correcting an outline of the target object image may include: removing noise on the shape information by using the Fourier descriptor; And removing a part associated with a neighboring object image covering the target object image from the outline by using a slope characteristic of the shape information.
  • the removing of the noise on the shape information may include extracting a low frequency region of the Fourier descriptor; And restoring the shape information by inverse Fourier transforming the low frequency region.
  • the low frequency region may be a frequency region including frequency components lower than a reference frequency.
  • the removing of the part associated with the surrounding object image may include: dividing the outline of the target object image and the graph of the shape information into a plurality of parts based on a peak value of the graph representing the shape information; Calculating a max-min gradient for each part; And removing the part having the largest value of the maximum-minimum gradient.
  • An image processing apparatus comprising: a memory for storing data; And a processor coupled to a memory, the processor comprising: obtaining an eye image, detecting an outline of an image of a target object corresponding to the pupil or iris from the eye image, Calculate an elliptic equation for the target object based on the above, determine whether the elliptic equation is recognized as the final elliptic equation for the target object, and if the elliptic equation is not recognized as the final elliptic equation, a Fourier descriptor (correcting the outline of the target object image using a fourier descriptor, wherein the Fourier descriptor is obtained from shape information indicating shape characteristics of the target object image, and when the elliptic equation is recognized as the final elliptic equation, Using an elliptic equation Group may obtain information about at least one of the size of the target object (area), shape (shape) or a position (location).
  • an elliptic equation for the iris or the pupil may be calculated by performing an evaluation process of the elliptic equation for the iris or the pupil, and the size of the iris or the pupil obscured by the eyelid may be accurately estimated.
  • the present specification can remove the portion covered by the eyelid by performing the correction process of the outline of the iris image or the pupil image using the Fourier descriptor, through which the size of the iris or pupil covered by the eyelid can be accurately estimated. .
  • FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
  • FIG 2 is an exemplary view of an eye image processed by an image processing apparatus according to an embodiment of the present invention.
  • FIG 3 is an enlarged view of an eye image processed by an image processing apparatus according to an embodiment of the present invention.
  • FIG. 4 is a flowchart of an image processing method by an image processing apparatus according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a process of evaluating an elliptic equation by an image processing apparatus according to an embodiment of the present invention.
  • FIG. 6 shows shape information and Fourier descriptor for an elliptic equation according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating an operation of correcting an outline of a target object image by an image processing apparatus according to an exemplary embodiment.
  • FIG. 8 is an example of a graph showing detailed steps of outline correction of FIG. 7.
  • 9 and 10 illustrate changes in an ellipse calculated based on an outline before or after the image processing apparatus according to an embodiment of the present invention performs outline correction.
  • 11 is a comparison of results obtained by estimating the size of a target object based on an elliptic equation according to an elliptic equation evaluation and an outline correction according to an embodiment of the present invention.
  • FIG. 12 illustrates a calculation time for an image processing method of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 13 illustrates an iBrain interface system according to an exemplary embodiment of the present invention.
  • FIG. 14 is a block diagram of a host device and a slave device according to an embodiment of the present invention.
  • FIG. 15 illustrates an iBrain interface (EBI) device according to an embodiment of the present invention.
  • 16 is a block diagram of an EBI device in accordance with an embodiment of the present invention.
  • FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
  • an image processing apparatus 1 may include a processor 10 and a memory 20.
  • the processor 10 may be configured to perform an operation according to various embodiments of the present disclosure.
  • the processor 10 may be configured to perform image processing on an eye image.
  • the processor 10 may be configured to perform an elliptic equation evaluation and outline correction process to be described later. In this way, the processor 10 may accurately estimate the size of a target object corresponding to the pupil or the iris in real time from the eye image. This will be described in detail below with reference to FIGS. 2 to 12.
  • At least one of a module, data, a program, or software for implementing an operation of the image processing apparatus 1 according to various embodiments of the present disclosure may be stored in the memory 20 and executed by the processor 10.
  • the processor 10 may control other configurations.
  • the memory 20 is connected to the processor 10 and stores various information / data for driving the processor 10.
  • the memory 20 may be included in the processor 10 or installed outside the processor 10 and connected to the processor 10 by a known means.
  • the specific configuration of the image processing apparatus 1 of FIG. 1 may be implemented such that various embodiments of the present invention described below are applied independently or two or more embodiments are applied together.
  • the image processing apparatus 1 may be included as a module in a device or a system having a photographing function or a gaze tracking function for an eye image, or may be implemented as a separate device. If the image processing apparatus 1 is implemented as a separate device, the image processing apparatus 1 further includes a unit for obtaining an eye image from another device, for example, a communication unit for receiving an eye image from another device, and the like. can do. In addition, embodiments of another apparatus or system including the image processing apparatus 1 will be described below with reference to FIGS. 13 to 17.
  • FIG 2 is an exemplary view of an eye image processed by an image processing apparatus according to an embodiment of the present invention.
  • the image processing apparatus may estimate the size of the pupil or the iris by processing the eye image.
  • the eye image may include images of both eyes or one eye.
  • the eye image processed by the image processing apparatus may be a low resolution eye image.
  • the eye image may be a low resolution camera (eg, a head mounted display (HMD) device, an eye brain interface (EBI) system / device, etc.) worn by a user.
  • a low-resolution user's eye image captured by a 640 * 480 resolution camera).
  • the eye image may be an eye image of a low resolution user photographed at a distance.
  • the contour of this object image will generally consist of a small number of contour points.
  • all of the individual outline points constituting this outline have a significant meaning, so the precise processing thereof is very important to increase the accuracy of image processing.
  • small processing errors can have a big impact on the image processing results, so sophisticated processing of individual outline points is important.
  • an ellipse equation for a pupil is estimated based on the outline points of the pupil image to estimate the actual size of the pupil
  • the precise processing of the individual outline points constituting the pupil image by the image processing device is performed.
  • the treatment is very important.
  • the pupil image is obscured by an image of another surrounding object (e.g., eyelid image, etc.)
  • elaborate removal of the outline points of the obscured or obscured portion of the image processing device yields an accurate elliptic equation for the pupil. It is one of the very important factors for.
  • An image processing apparatus may be a device suitable for processing such a low resolution eye image.
  • various embodiments of the present disclosure will be described, with the eye image processed by the image processing apparatus as a low resolution image.
  • the high resolution eye image may be processed by the image processing apparatus through the same or similar processing.
  • the following mainly describes the image processing process for the pupil portion mainly, but the same or similar description can be easily applied to the image processing process for the iris portion including the pupil it will be readily understood by those skilled in the art. Can be.
  • the pupil and iris images in the eye image are hidden by the eyelid image. That is, the eye image of the embodiment of FIG. 3 may be an image showing the eye in a state where the pupil and the iris are covered by the eyelid.
  • the pupil image may be an image of the pupil or an image associated with the pupil part, and may indicate the shape of the pupil.
  • the iris image is an image associated with the iris portion or the image of the iris, it may represent the shape of the iris.
  • the eyelid image is an image of the eyelid or an image associated with the eyelid portion, which may represent the shape of the eyelid.
  • the pupil image 31 in the eye image may be covered by the eyelid image.
  • the actual pupil (or iris) is circular in shape, but since the eye ball is spherical, the image of the pupil (or iris) on the photographed image is generally seen as elliptical.
  • the contour of the pupil image (or iris image) is in the form of an ellipse.
  • the outline of the pupil image may not have the shape of an intact ellipse.
  • the outline 32 of the pupil image detected from the eye image of FIG. 3A may be as shown in FIG. 3B.
  • the image processing apparatus may calculate an elliptic equation for the pupil based on the outline 32 of the pupil image in order to estimate the size of the pupil. This will be described in detail below with reference to FIG. 4.
  • the outline 33 of the ellipse having the elliptic equation thus calculated may be as shown in FIGS. 3 (c) and 3 (d). Specifically, FIG. 3 (c) shows the outline 32 of the pupil image and the outline 33 of the ellipse having the calculated elliptic equation, and FIG. 3 (d) shows the outline of the ellipse having the calculated elliptic equation. (33) is shown.
  • the image processing apparatus has calculated an elliptic equation for the pupil based on the outline of the pupil image including the part obscured by the eyelid image.
  • the shape of the ellipse represented by the calculated elliptic equation and the actual shape of the pupil differ. That is, the calculated elliptic equation cannot represent the exact size of the pupil.
  • the image processing apparatus may perform an image processing process of removing a portion of the pupil image, which is covered by the eyelid image, in order to calculate an accurate elliptic equation. That is, an outline correction process may be performed to remove the hidden portion, which will be described below in detail with reference to FIG. 7.
  • the image processing apparatus may again calculate an accurate elliptic equation for the pupil, and determine this as the final elliptic equation for the pupil.
  • An elliptic equation evaluation process will be described in detail below with reference to FIG. 5.
  • the outline 34 of the ellipse having the elliptic equation thus recalculated may be as shown in FIGS. 3 (e) and 3 (f). Specifically, FIG. 3 (e) shows an outline 34 of an ellipse having an elliptic equation calculated again, and FIG. 3 (f) shows an ellipse (ellipse of FIG. 3 (d)) having an elliptic equation calculated first.
  • the outline 33 is compared with the outline 34 of an ellipse (ellipse of FIG. 3 (e)) having an elliptic equation calculated again.
  • the image processing apparatus is based on the outline of the pupil image from which the portion covered by the eyelid image has been removed. Since the elliptic equation for the pupil is calculated, the shape of the ellipse represented by the calculated elliptic equation and the actual shape of the pupil may be substantially the same. That is, the calculated elliptic equation may represent the exact size of the pupil. Thus, this elliptic equation is the final elliptic equation and can be used to obtain geometric information about the pupil.
  • FIG. 4 is a flowchart of an image processing method by an image processing apparatus according to an embodiment of the present invention.
  • FIG. 4 illustrates a method of estimating the size of a pupil or an iris from an eye image by an image processing apparatus according to an exemplary embodiment.
  • Each step of FIG. 4 may be performed by the image processing apparatus or the processor of the image processing apparatus described above with reference to FIG. 2.
  • the image processing apparatus may acquire an eye image (S410).
  • the eye image may include an image of the target object (target object image) and / or an image of a surrounding object covering the target object (a peripheral object image).
  • the target object may be a pupil or an iris.
  • the surrounding object may be an eyelid that hides the pupil or iris (eg, the upper eyelid).
  • various embodiments of the present invention will be described with a focus on the case where the target object is the pupil or the iris and the surrounding object is the eyelid.
  • the image processing apparatus may detect an outline of an image of the target object from the eye image (S420). For example, the image processing apparatus may detect an outline of a pupil image or an iris image that is a target object image from the eye image. That is, the image processing apparatus may detect the outline of the image portion associated with the pupil or iris which is the target object from the eye image.
  • a method of detecting the outline of the image of the target object there are a variety of methods depending on the type of image, the resolution, the type of the target object, and the like.
  • the image processing apparatus may detect the outline of the image of the target object from the eye image using one or more of these known methods.
  • the outline of the detected target object image may be as shown in FIG. 3 (b).
  • the outline of the detected target object image may include a plurality of outline points. That is, the detected outline may be composed of a plurality of outline points.
  • the number of outline points constituting the outline may vary according to the resolution of the image. For example, in the case of a low resolution image, the outline may consist of a relatively small number of outline points. Therefore, in the case of low resolution images, the processing of one outline point is very important as described above. Meanwhile, in the case of a high resolution image, the outline may be configured by a relatively large number of outline points.
  • the outline of the detected target object image may include a portion associated with the image of the surrounding object covering the target object.
  • the outline of the detected pupil image or iris image may include a portion associated with the eyelid image that obscures the pupil image or iris image.
  • some of the plurality of outline points that make up the outline may be associated with an eyelid image that masks the pupil or iris. That is, some of the outline points may be outline points that indicate portions of the eyelid image. This has been described above with reference to FIG. 3.
  • the image processing apparatus may calculate an elliptic equation for the target object based on the outline of the target object image (S430).
  • the image processing apparatus may calculate an elliptic equation for the target object based on the plurality of outline points constituting the outline of the target object image.
  • the image processing apparatus may calculate parameters of the elliptic equation for the iris or pupil (eg, the center of the ellipse, the long axis, the length of the short axis, the slope, etc.) using the outline points of the iris image or the pupil image. .
  • the elliptic equation and its parameters may be as shown in Equation 1 below.
  • Xc and Yc represent the center point of an ellipse
  • a and b represent the length of a long axis and a short axis, respectively
  • (theta) represents a slope
  • the image of the target object on the photographed eye image is generally seen as an ellipse. Therefore, the elliptic equation calculated based on the outline of the target object image may be used as an equation for representing the shape or size of the target object.
  • the image processing apparatus may determine whether the calculated elliptic equation is recognized as the final elliptic equation for the target object (S440). This will be described below in detail with reference to FIG. 5.
  • the final elliptic equation may be an elliptic equation used to obtain or estimate geometric information about the target object.
  • the final elliptic equation may be an elliptic equation used to obtain information about at least one of an area, shape or location of the target object.
  • the image processing apparatus uses the final elliptic equation to provide information on at least one of the area, shape or location of the target object. It can be obtained (S450). That is, the image processing apparatus may obtain at least one of size information indicating the size of the target object, shape information indicating the shape of the target object, or location information indicating the location of the target object. Through this, the actual size of the target object may be estimated.
  • Information about the estimated size and size of the pupil may be used to acquire information such as brightness change of the light, user's attention, cognitive load, and emotion change / analysis in real time.
  • the estimated information may be used for gaze recognition and estimation.
  • the image processing apparatus may correct an outline of the target object image by using a Fourier descriptor (S460).
  • the Fourier descriptor may be obtained from shape information / data indicative of the shape characteristic of the target object image. This will be described below in detail with reference to FIGS. 6 to 7.
  • the image processing apparatus may repeat the above-described steps S430 to S460 on the corrected outline. For example, the image processing apparatus may recalculate an elliptic equation based on the corrected outline of the target object image, and determine whether the calculated elliptic equation is recognized as the final elliptic equation for the target object. When the calculated elliptic equation is recognized as the final elliptic equation for the target object, the image processing apparatus may acquire size information and the like of the target object using the elliptic equation. If the recalculated elliptic equation is not recognized as the final elliptic equation for the target object, the image processing apparatus may recorrect the outline of the target object image using the Fourier descriptor. In this case, the above-described process may be repeated until the calculated elliptic equation is recognized as the final elliptic equation for the target object.
  • the elliptic equation evaluation process may correspond to step S440 of FIG. 4. That is, the elliptic equation evaluation process may be a step in which the image processing apparatus determines whether the elliptic equation is recognized as the final elliptic equation for the target object.
  • Each step of FIG. 5 may be performed by a processor of the image processing apparatus or the image processing apparatus described above with reference to FIG. 2.
  • the target object may be covered by the surrounding object.
  • the outline of the target object image may include a portion that is covered by the surrounding object image having different shape characteristics. Therefore, the elliptic equation calculated based on this outline is difficult to accurately estimate the size of the target object and the like. Therefore, before the image processing apparatus obtains the size information and the like of the target object using the calculated elliptic equation, whether the calculated elliptic equation can be recognized as the final elliptic equation that can be used to estimate the size and the like of the target object. An elliptic equation evaluation process can be performed. In this way, the image processing apparatus may acquire accurate size information of the target object based on the exact elliptic equation, without unnecessary calculation process of estimating the size of the target object based on the incorrect elliptic equation.
  • the image processing apparatus calculates an error ratio based on the distance between each outline point constituting the outline and an ellipse having an elliptic equation, and determines whether the elliptic equation is the final elliptic equation for the target object according to the error ratio.
  • the elliptic equation can be evaluated in this way. Hereinafter, this will be described in detail with reference to FIG. 5.
  • the error rate may be a value representing a ratio of the outline points whose distance to the ellipse among the entire outline points exceeds the reference distance. That is, the error rate may be a value representing the ratio of the outline points corresponding to the ellipse equation, that is, the reference point spaced apart by a reference distance or more from the ellipse represented by the elliptic equation.
  • the image processing apparatus may calculate a distance from an ellipse having an elliptic equation with respect to each outline point constituting the outline (S510). That is, the image processing apparatus may calculate a distance (eg, a minimum distance) between each outline point and an ellipse. For example, the distance d between each outline point and an ellipse may be calculated using Equation 2 below.
  • the image processing apparatus may calculate an error rate based on the distance d between each outline point and the ellipse.
  • the image processing apparatus may calculate a ratio of outline points whose absolute value of the distance d is equal to or less than a reference value (for example, 0.1), and calculate an error ratio based on the ratio (S520). In this case, whether the absolute value of the distance d is less than or equal to the reference value may be determined using Equation 3 below.
  • the image processing apparatus may determine whether the elliptic equation is the final elliptic equation for the target object based on the error ratio (S530). For example, the image processing apparatus may determine that the elliptic equation is the final elliptic equation for the target object when the error rate is less than the reference ratio (eg, 0.1). That is, when the ratio of the outline points whose distance to the ellipse among the entire outline points exceeds the reference distance is less than the reference ratio, the image processing apparatus may determine that the elliptic equation is the final elliptic equation for the target object. Alternatively, the image processing apparatus may determine that the elliptic equation is not the final elliptic equation for the target object when the error rate is less than the reference ratio (eg, 0.1).
  • the reference ratio eg, 0.1
  • FIG. 3 (d) An embodiment in which an elliptic equation whose error rate is less than the reference ratio is calculated is shown in FIG. 3 (d), and an embodiment in which an elliptic equation in which the error rate is less than the reference ratio is calculated is shown in FIG.
  • the image processing apparatus checks to what extent the outline points exist on or within the reference distance of the ellipse calculated by the outline points, i.e., how well the outline points and the ellipse fit. Based on this, it can be determined whether the elliptic equation can be recognized as the final elliptic equation for the target object.
  • the image processing apparatus can evaluate the elliptic equation at a high processing speed.
  • FIG. 6 shows shape information and Fourier descriptor for an elliptic equation according to an embodiment of the present invention.
  • the Fourier descriptor is an outline-based such as a wavelet-based shape descriptor, a triangle-based shape descriptor, an ellipse-based shape descriptor.
  • the contour-based shape descriptors it may be referred to as a Fourier shape descriptor or a Fourier-based shape descriptor.
  • Such a Fourier descriptor can be obtained from shape information / data that represents a characteristic (shape characteristic or shape signature) for the shape of a particular object.
  • the shape information may be obtained from the coordinates of the outline points of the particular object or image of the particular object.
  • shape information may be obtained from a radial distance between the outline points of a particular object or object image and the center of gravity (or centroid) of the outline points.
  • the radial distance may be information indicating the distance between the center point and the outer line point according to the angle change (eg, the counterclockwise angle change).
  • the shape information may be in the form of a distance function indicating a radius distance according to the change in angle. That is, the shape information may be information expressed as a distance function indicating a radius distance according to the angle change.
  • shape information may be referred to as a shape function, a distance function, or the like.
  • shape information about an ellipse and a Fourier descriptor will be described by way of example.
  • the shape information is information represented by the distance function / information representing the above-described radial distance.
  • the elliptic equation of the ellipse is as shown in Equation 5 below.
  • the radial distance of the specific coordinates (xi, yi) on the ellipse may be calculated through Equation 6 below.
  • Shape information can be calculated based on this radial distance information (or function).
  • the graph of the shape information thus calculated may be as shown in FIG. 6 (b).
  • the point with the maximum peak value and the point with the minimum peak value are It may be an edge or an inflection point (eg, points a, b, c, d) in the object.
  • the Fourier descriptor can be obtained by Fourier transforming this shape information.
  • the graph of the Fourier descriptor thus obtained may be as shown in FIG. 6 (c).
  • Such a Fourier descriptor may represent shape information / characteristics of a corresponding object or object image for each frequency component.
  • the high frequency component of the Fourier descriptor for a specific object may be treated as a noise component.
  • the high frequency component of the Fourier descriptor may be treated as noise. Therefore, when the high frequency component is removed through the high-pass filter, the noise component of the object is removed. Accordingly, the object having the outline from which the noise is removed may be restored by inverse Fourier transform.
  • the object can be simplified with more and more major shape features only. As such, the Fourier descriptor can be used to remove the noise portion of a particular object or object image while maintaining its original shape characteristics.
  • the image processing apparatus may perform outline correction to calculate an accurate elliptic equation. To this end, the image processing apparatus may use the above-described Fourier descriptor.
  • FIG. 7 is a flowchart illustrating an operation of correcting an outline of a target object image by an image processing apparatus according to an exemplary embodiment.
  • FIG. 8 is an example of a graph showing detailed steps of outline correction of FIG. 7. In the embodiment of FIG. 8, it is assumed that the target object is a pupil.
  • Each step of FIGS. 7 to 8 may be performed by the image processing apparatus or the processor of the image processing apparatus described above with reference to FIG. 2.
  • the correcting the outline of the image of the target object may be the step S460 of FIG. 4. That is, the step of correcting the outline of the image of the target object may be a step of correcting the outline of the target object image using a Fourier descriptor when the calculated elliptic equation is not recognized as the final elliptic equation for the target object.
  • the Fourier descriptor may be obtained from shape information / data indicative of the shape characteristic of the target object image.
  • the process of adjusting the outline may include removing noise on the shape information using a Fourier descriptor and removing a part associated with the surrounding object image covering the target object image from the outline using a slope characteristic of the shape information. can do.
  • a process of removing noise will be described with reference to steps S710 to S730, and a process of removing a part associated with the surrounding object image will be described with reference to steps S740 to S770.
  • the image processing apparatus may acquire shape information about the target object image (S710).
  • the shape information may provide information about shape characteristics of the target object image. This is the same as described above with reference to FIG. 6.
  • the image processing apparatus may obtain shape information about the target object image based on coordinate information of outline points of the target object image.
  • the image processing apparatus may obtain shape information about the pupil image based on the coordinate information of the outline points of the pupil image.
  • the image processing apparatus may obtain shape information about the target object image based on a radial distance between each outline point of the target object image and the center of gravity of the outline points.
  • the image processing apparatus may obtain shape information about the pupil image based on a radius distance between each outline point of the pupil image and the center of the outline points.
  • a graph representing shape information of the pupil image obtained from the eye image of FIG. 3A may be the same as that of FIG. 8A.
  • the x-axis of the graph of shape information may represent an angle and the y-axis may represent a radial distance. That is, in this case, the shape information may be in the form of a distance function representing the distance according to the angle change.
  • the image processing apparatus may obtain a Fourier descriptor by Fourier transforming the shape information (S720).
  • the Fourier descriptor may represent the shape characteristic / information of the target object image for each frequency component.
  • the Fourier descriptor may provide shape characteristics / information for each frequency component of the pupil image.
  • the graph representing the Fourier descriptor thus obtained may be as shown in FIG. 8 (b).
  • the x-axis of the graph of this Fourier descriptor may represent frequency and the y-axis may represent magnitude.
  • the Fourier descriptor for the pupil image shows a form in which amplitudes are concentrated on frequency components below a specific frequency. That is, the Fourier descriptor for the elliptical pupil image may have a shape in which the size is concentrated in the low frequency component.
  • the image processing apparatus may recover the shape information by extracting the low frequency region of the Fourier descriptor and inversely transforming the low frequency region (S730). Through this, noise on shape information may be removed.
  • the low frequency region means a frequency region including frequency components lower than a preset reference frequency.
  • the reference frequency may be a frequency that allows the recovered shape information to remain sufficiently free of noise while maintaining the original shape characteristics.
  • the reference frequency may be set differently according to, for example, the type of the target object, the resolution of the image, and various other factors. That is, the reference frequency can be variable or flexible.
  • the image processing apparatus may include a portion of the low frequency region from the lowest frequency component of the Fourier descriptor information to a frequency component lower than the reference frequency (eg, the 16th lowest frequency component).
  • the shape information can be recovered by extracting the inverse Fourier transform.
  • the reconstructed shape information may be in a state where noise is removed while maintaining original shape characteristics.
  • the graph showing the shape information from which the noise is removed may be as shown in FIG. FIG. 8 (c) shows a graph showing the shape information of FIG. 8 (a) and a graph showing the shape information from which noise is removed.
  • the image processing apparatus may divide the outline of the target object image and the graph of the shape information into a plurality of parts based on the peak value of the graph representing the shape information (S740). In an embodiment, the image processing apparatus may subdivide the outline and the graph of the target object image into a plurality of parts based on the maximum peak value of the graph representing the shape information. For example, the image processing apparatus may subdivide the graph of the outline of the pupil image and the shape information into a plurality of parts based on the maximum peak value of the graph representing the restored shape information as shown in FIG.
  • each part of the outline of the target object image may be matched one-to-one with each part of the graph of shape information. That is, parts (1) to (6) of the outline of the left view of FIG. 8 (d) may correspond to parts (a) to (f) of the graph of the right view of FIG. 8 (d).
  • the part (part (a)) covered by the linear eyelid image in the outline of the oval pupil image is located far from the center of gravity. Therefore, since part (a) has a maximum peak value, as shown in the left figure of FIG. 8 (d), part (a) may correspond to part (1) having the maximum peak value of the shape information graph.
  • the image processing apparatus may correspond one-to-one to each part of the outline of the target object image and each part of the graph of the shape information.
  • the image processing apparatus may calculate a first order gradient of a graph representing shape information (S750).
  • the graph of the primary gradient thus calculated may be as shown in FIG. 8 (e).
  • the image processing apparatus may calculate a max-min gradient for each part (S760). That is, the image processing apparatus may calculate a difference between the maximum gradient and the minimum gradient for each part.
  • the maximum-minimum gradient thus calculated may be as indicated by the arrow in FIG. 8 (e). In this case, as shown in FIG. 8E, the part (part 1) covered by the eyelid image is almost straight, and thus may have the largest maximum-minimum gradient value.
  • the image processing apparatus may remove the part having the largest maximum-minimum gradient from the outline of the target object image (S770).
  • the image processing apparatus may remove all or some of the outline points associated with the part having the largest minimum-minimum gradient, thereby removing the part having the largest maximum-minimum gradient from the outline of the target object image. In this way, the image processing apparatus may correct the outline of the target object image.
  • the image processing apparatus may use all of the portions that are covered by the peripheral object image having the shape characteristics different from the target object image from the outline of the target object image, using the slope characteristic (eg, the primary gradient value) of the shape information. Some can be removed.
  • the outline of the corrected target object image may be as shown in FIG. 8 (f).
  • the corrected outline of the pupil image may be a state in which part or all of the part (part (a)) covered by the eyelid image is removed.
  • FIG. 9 and 10 illustrate changes in an ellipse calculated based on an outline before or after the image processing apparatus according to an embodiment of the present invention performs outline correction. Meanwhile, FIG. 9 shows a change of an ellipse on the eye image, and FIG. 10 shows a change of an ellipse on the outline of the target object image.
  • 9 (a) and 10 (a) show an ellipse a1 (or an outline of an ellipse) calculated based on an outline a3 of an ellipse object image before the image processing apparatus performs outline correction of the target object image.
  • the calculated ellipse a1 does not substantially coincide with the outline a3 of the target object image. As described above, this is because the outline includes a part that is covered by the surrounding object rather than an ellipse. Therefore, the image processing apparatus may not recognize the calculated elliptic equation as the final elliptic equation for the target object, and may perform outline correction of the target object image.
  • the image processing apparatus may recalculate an elliptic equation based on the corrected outline of the target object image, and determine whether the recalculated elliptic equation may be recognized as the final elliptic equation for the target object.
  • the ellipse a2 (or the outline of the ellipse) represented by the elliptic equation thus calculated may be the same as in FIGS. 9B and 10B.
  • FIGS. 9B and 10B illustrate an ellipse a2 calculated based on an outline a4 of an ellipse object image after the image processing apparatus performs outline correction of the target object image.
  • the recalculated ellipse a2 may substantially coincide with the outline a4 of the target object image. As described above, this is because the part whose outline is covered by the surrounding object is corrected to be removed. Accordingly, the image processing apparatus may recognize the calculated elliptic equation as the final elliptic equation for the target object, and acquire information on at least one of the size, shape, or position of the target object by using the final elliptic equation. Meanwhile, whether or not the calculated ellipse substantially coincides with the outline of the target object image may be confirmed by evaluating the elliptic equation described above with reference to FIG. 5.
  • FIG. 9 (c) is a diagram comparing the calculated ellipses before or after the image processing apparatus performs outline correction of the target object image. As shown in FIG. 9C, the ellipse a2 calculated after the outline correction is more closely matched to the outline of the target object image compared to the ellipse a1 calculated before the outline correction is performed. You can check it.
  • the target object is a pupil.
  • the size of the target object may be the area / area of the pupil.
  • the area of the pupil can be calculated through the equation below.
  • a and b represent the length of the long axis and short axis of the ellipse, respectively.
  • series 1 shows a result graph when elliptic equation evaluation and outline correction are not performed
  • series 2 shows a result graph when elliptic equation evaluation and outline correction are performed.
  • the x-axis of the graph represents the frame number of the video image
  • the y-axis represents the width of the pupil.
  • the graph may be a graph using a median filter for each of 10 frames.
  • a change in the area of an actual pupil may be represented more accurately than in the case of series 1. That is, when elliptic equation evaluation and outline correction are performed, it is possible to more accurately obtain information about the actual change in the pupil area.
  • FIG. 12 illustrates a calculation time for an image processing method of an image processing apparatus according to an embodiment of the present invention.
  • the image processing apparatus may estimate the shape of the pupil or the iris in real time.
  • FIGS. 13 to 17 an exemplary apparatus or system including the image processing apparatus described above or corresponding to the image processing apparatus will be described.
  • the EBI device or EBI system of the embodiment of FIGS. 13 to 17 is merely an example of an apparatus or system that may include or correspond to an image processing apparatus, and the image processing apparatus may be included in various other apparatuses, Or other device.
  • FIG. 13 illustrates an iBrain interface system according to an exemplary embodiment of the present invention.
  • FIG. 14 is a block diagram of a host device and a slave device according to an embodiment of the present invention.
  • an EyeBrain Interface (EBI) system may include a host device 150 and a slave device 100.
  • the slave device 100 may represent various types of wearable devices that can be worn by a user.
  • the slave device 100 may represent a device that contacts / wears on a user's body part such as a head mounted display (HMD), a headset, a smart ring, a smart watch, an earset, an earphone, and the like.
  • the slave device 100 may include at least one sensor to sense the biosignal of the user through a body part of the user.
  • the biosignal may represent various signals generated from the user's body according to the user's conscious and / or unconscious (eg, breathing, heartbeat, metabolism, etc.) behavior such as pulse, blood pressure, brain wave, and the like.
  • the slave device 100 may sense the brain wave of the user as the biosignal of the user and transmit the sensing result to the host device 150.
  • the host device 150 may represent a device operating based on a sensing result of the biosignal received from the slave device 100.
  • the host device 150 may be various electronic devices that receive a biosignal sensing result of the user from the slave device 100 and perform various operations based on the received sensing result.
  • the host device 150 may be, for example, various electronic devices such as a TV, a smartphone, a tablet PC, a smart car, a PC, a laptop, and the like.
  • the EBI system includes a slave device 100 and a host device 150 to provide a control scheme based on a biosignal of a user.
  • the system directly senses the user's intention by sensing the user's biosignal and is controlled accordingly.
  • the EBI system provides the user with a more convenient and intentional control method.
  • the configuration of the slave device 100 and the host device 150 will be described in more detail.
  • the slave device 100 includes a position marker unit 120, a gaze tracking unit 130, an EEG sensing unit 110, a sensor unit 260, a communication unit 250, and a processor 240. ) May be included.
  • the position marker unit 120 may include at least one light emitting device (eg, an infrared LED) that emits light.
  • the host device 150 may track the position marker unit of the slave device 100 in real time, whereby the position of the user wearing the slave device 100, the position, the distance between the host device 150 and the user, and The relative position, etc. (hereinafter, 'user's position') can be detected.
  • the plurality of light emitting elements may be positioned in the position marker unit 120 spaced apart by a predetermined distance.
  • the host device 150 may detect the relative distance between the host device 150 and the user by tracking the light emitting elements of each position marker unit 120 and measuring the separation distance between the light emitting elements in real time. Can be. For example, when the position marker unit 120 moves away from the host device 150, the separation distance between the light emitting elements measured in the host device 150 is reduced, and the position marker unit 120 is connected to the host device 150. When approaching, the separation distance between the light emitting devices measured by the host device 150 may increase.
  • the host device 150 calculates a ratio between the separation distance between the light emitting devices measured in real time and the predetermined separation distance between the actual light emitting devices, and thereby calculates the relative distance between the host device 150 and the user. The distance can be calculated.
  • the position marker unit 120 for tracking a user's position may be included in the slave device 100 in various forms, and the host device 150 includes the position, size, and location of these position marker units 120. The position of the user may be detected based on the number, location, and separation distance of the light emitting devices.
  • the gaze tracking unit 130 may track the gaze of the user.
  • the gaze tracking unit 130 may be provided in the slave device 100 to be positioned around the eyes of the user to track the eyes of the user (eye movement) in real time.
  • the eye tracking unit 130 may include a light emitting device (eg, an infrared LED) that emits light and a camera sensor that receives (or senses) the light emitted from the light emitting device.
  • the gaze tracking unit 130 may photograph light reflected from the user's eyes with a camera sensor and transmit the photographed image to the processor 240 (video analysis method).
  • video analysis method video analysis method
  • the eye tracking unit 130 may include a contact lens method (mirror built-in contact) in addition to the above-described video analysis method.
  • User's eyes using the reflected light of the lens, the eye tracking method using the magnetic field of the coiled contact lens) or the sensor attachment method (the eye tracking method using the electric field according to the eye movement by attaching the sensor around the eyes) Can be tracked.
  • the EEG sensing unit 110 may sense the EEG of the user.
  • the EEG sensing unit 110 may include at least one electroencephalogram (EGE) sensor and / or a magnettoencephalography (MEG) and a near-infrared spectrometer (NIRS).
  • EGE electroencephalogram
  • MEG magnettoencephalography
  • NIRS near-infrared spectrometer
  • the brain wave sensing unit 110 may be provided at a body (eg, head) contact position where the brain wave of the user may be measured when the user wears the slave device 100, and measure the brain wave of the user.
  • the EEG sensing unit 110 measures an electrical / optical frequency that varies according to the EEG of the various frequencies generated from the body part of the contacted user or the activation state of the brain.
  • EEG is a biosignal
  • simply extracting the brain waves of the user and analyzing them on a uniform basis is less accurate in distinguishing the user's current cognitive state. Therefore, in order to accurately measure the cognitive state of the user based on the EEG, the present disclosure provides a calibration method of the EEG according to the current cognitive state for each user.
  • the sensor unit 260 may include at least one sensing means, and may sense the surrounding environment of the device 100 using the sensing means. In addition, the sensor unit 260 may transmit the sensing result to the processor. In particular, in the present specification, the sensor unit may sense a movement, a movement, and the like of the slave device 100 and transmit a sensing result to the processor 240.
  • the sensor unit 260 is an inertia measurement unit (IMU) sensor, a gravity sensor, a geomagnetic sensor, a motion sensor, a gyro sensor, an accelerometer, a magnetometer, an acceleration sensor, an infrared ray as a sensing means.
  • the sensor may include an inclination sensor, an altitude sensor, an infrared sensor, an illuminance sensor, a global positioning system (GPS) sensor, and the like.
  • GPS global positioning system
  • the sensor unit 260 collectively refers to the various sensing means described above.
  • the sensor unit 260 may sense various user inputs and environment of the device, and may transmit a sensing result to allow the processor to perform an operation accordingly.
  • the above-described sensing means may be included in the slave device 100 as a separate element or integrated into at least one or more elements.
  • the communication unit 250 may communicate with an external device using various protocols, and may transmit / receive data through the communication unit 250.
  • the communication unit 250 may connect to a network by wire or wirelessly to transmit / receive various signals and / or data.
  • the slave device 100 may perform pairing with the host device 150 using the communication unit 250.
  • the slave device 100 may transmit / receive various signals / data with the host device 150 using the communication unit 250.
  • the processor 240 may control the position marker unit 120, the eye tracking unit 130, the brain wave sensing unit 110, the sensor unit 260, and the communication unit 250.
  • the processor 240 may control transmission / reception of signals (or data) between the above-described units.
  • the processor 240 may transmit a sensing result received from at least one sensor provided in the slave device 100 to the host device 150.
  • the sensing result may refer to raw data obtained by using at least one sensor included in the slave device 100 or data processed through a predetermined algorithm.
  • processor 240 may perform various operations for calibrating the user's gaze and brain waves, which will be described in detail later with reference to FIGS. 6 to 13.
  • the slave device 100 may optionally include some of the configuration units shown in FIGS. 1 and 2, and in addition, various units required for the purpose and operation of the device, such as a memory unit, a camera unit, and a power supply unit. May be further included.
  • the host device 150 may include a camera unit 140, a display unit 210, a communication unit 230, and a processor 220.
  • the camera unit 140 may photograph the position marker unit 120 of the slave device 100.
  • the camera unit 140 may capture the position marker unit 120 of the slave device 100 to obtain a captured image of the position marker unit 120.
  • the camera unit 140 may transmit the acquired captured image to the processor 220, and the processor 220 may process the captured image to acquire a position of a user wearing the slave device 100.
  • the processor 220 may acquire the position of the user by analyzing the position and size of the position marker units 120, the number of the light emitting elements included therein, the position, and the separation distance.
  • the camera unit 140 may be configured as a wide angle camera having an angle of view of about 60 degrees or more.
  • the camera unit 140 is configured as a general camera (camera having an angle of view of less than 60 degrees), the left and right angles of about 60 degrees in front of the host device 150, about 60 to about between the slave device 100 and the host device 150. You can track your position in the 90cm range.
  • the camera unit 140 is configured with a wide angle camera (camera having an angle of view of 60 degrees or more), the left and right angles of about 170 degrees in front of the host device 150, and between the slave device 100 and the host device 150 Position tracking is possible up to a distance of about 3m.
  • the camera unit 140 of the present invention can be configured as a wide angle camera to obtain more accurate position data of the user.
  • the display unit 210 may display an image.
  • the image may represent a still image, a moving image, text, a virtual reality (VR) image, an AR (Augment Reality) image, or various other visual expressions including the same, which may be displayed on the screen.
  • the display unit 210 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode (OLED), a 3D display, a transparent It may include at least one of a transparent OLED (TOLED).
  • the display unit 210 may be made of a metal foil, very thin grass, or a plastic substrate.
  • a plastic substrate a PC substrate, a PET substrate, a PES substrate, a PI substrate, a PEN substrate, an AryLite substrate, or the like may be used.
  • the communication unit 230 may communicate with an external device using various protocols, and may transmit / receive data through the communication device 230.
  • the communication unit 230 may connect to a network by wire or wirelessly to transmit / receive various signals and / or data.
  • the host device 150 may perform pairing with the slave device 100 using the communication unit 230. In addition, the host device 150 may transmit / receive various signals / data with the slave device 100 using the communication unit 230.
  • the processor 220 may control the camera unit 140, the display unit 210, and the communication unit 230.
  • the processor 220 may control transmission / reception of signals (or data) between the above-described units.
  • the processor 220 may perform various commands (or operations) corresponding to the sensing result received from the slave device 100. For example, when the gaze coordinates of the user are received as a result of sensing, the processor 220 may execute a command for selecting a visual object (eg, an icon) at a specific position on the display unit 210 mapped to the gaze coordinates. Can be done. In addition, when user EEG data corresponding to the “focused” state is received as the sensing result, the processor 220 may execute a command for executing the selected visual object (eg, executing an application corresponding to the selected icon). have.
  • a visual object eg, an icon
  • the EEG calibration for mapping the specific cognitive state of the user and the EEG of a specific frequency also needs to be preceded. Accordingly, the present invention can provide an EBC (Eye Brain Calibration) interface for simultaneously calibrating the user's gaze and brain waves.
  • EBC Eye Brain Calibration
  • the host device 150 may optionally include some of the configuration units shown in FIGS. 13 and 14, and in addition, various units required for the purpose and operation of the device, such as a sensor unit, a memory unit, and a power supply unit. May be further included.
  • FIG. 15 illustrates an iBrain interface (EBI) device according to an embodiment of the present invention.
  • EBI iBrain interface
  • the EBI device 400 may represent a device in which the slave device 100 and the host device 150 described above with reference to FIGS. 1 to 3 are integrated into one device. Therefore, the EBI device 400 may directly sense the biosignal and perform various operations based on the sensing result.
  • the EBI device 400 may be configured in the form of a wearable device that can be worn on a user's body.
  • the EBI device 400 may include an EEG sensing unit 500, a gaze tracking unit 510, a communication unit 530, a display unit 540, and a processor 520. Since the description of the units included in the EBI device 400 overlaps with the description above with reference to FIG. 14, the following description will focus on the differences.
  • the EEG sensing unit 500 may sense the EEG of the user.
  • the EEG sensing unit 500 may include at least one electroencephalogram (EGE) sensor and / or a magnettoencephalography (MEG).
  • EGE electroencephalogram
  • MEG magnettoencephalography
  • the brain wave sensing unit 500 may be provided at a body (eg, head) contact position where the user's brain wave may be measured when the user wears the EBI device, and measure the brain wave of the user.
  • the gaze tracking unit 510 may track the eyes of the user.
  • the gaze tracking unit 510 may be provided in the EBI device 400 to be positioned around the eyes of the user to track the eyes of the user (eye movement) in real time.
  • the gaze tracking unit 510 may include a light emitting device (eg, an infrared LED) that emits light and a camera sensor that receives (or senses) the light emitted from the light emitting device.
  • the eye image photographed by the eye tracking unit 51 may be as shown in FIG. 15C. This is the same as described above with reference to FIG. 2.
  • the communication unit 530 may communicate with an external device using various protocols, and may transmit / receive data through the communication unit 530.
  • the communication unit 530 may connect to a network by wire or wirelessly to transmit / receive various signals and / or data.
  • the display unit 540 may display an image.
  • the image may represent a still image, a moving image, text, a virtual reality (VR) image, an AR (Augment Reality) image, or various other visual expressions including the same, which may be displayed on the screen.
  • VR virtual reality
  • AR Augment Reality
  • the processor 520 may control the EEG sensing unit 500, the eye tracking unit 510, the communication unit 530, the display unit 540, and the communication unit 530.
  • the processor 520 may control transmission / reception of signals (or data) between the above-described units.
  • the processor 520 may perform various operations corresponding to the sensing result received from the EEG sensing unit 500 and / or the gaze tracking unit 510.
  • the EBI device 400 may optionally include some of the component units shown in FIG. 16.
  • the EBI device 400 may further include various sensors required for the purpose and operation of the device 400 such as a sensor unit, a memory unit, and a power supply unit. Units may be further included.
  • the drawings are divided and described, but the embodiments described in each drawing may be merged to implement a new embodiment.
  • the display device is not limited to the configuration and method of the embodiments described as described above, the above embodiments are configured by selectively combining all or some of the embodiments so that various modifications can be made May be

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

An image processing method, according to one embodiment of the present invention, comprises the steps of: acquiring an eye image; detecting a contour of an image of a target object corresponding to a pupil or an iris from the eye image; calculating an elliptic equation for the target object on the basis of the contour and determining whether the elliptic equation is admitted as a final elliptic equation for the target object; and correcting the contour of the target object image by using a Fourier descriptor when the elliptic equation is not admitted as the final elliptic equation, wherein the Fourier descriptor can be acquired from shape information indicating shape characteristics of the target object image.

Description

이미지 처리 장치 및 방법Image processing apparatus and method
본 명세서는 시선 추적(eye tracking)을 위한 이미지 처리 장치 및 방법에 관한 것으로서, 보다 상세하게는 눈 이미지(eye image)로부터 동공 또는 홍채의 크기 등을 추정하기 위한 이미지 처리 장치 및 방법에 관한 것이다.The present specification relates to an image processing apparatus and method for eye tracking, and more particularly, to an image processing apparatus and method for estimating the size of a pupil or an iris from an eye image.
동공(pupil)은 홍채(iris)의 중심에 위치한 원모양의 빈 공간으로서, 이 부분을 통해 외부의 빛이 망막까지 전해진다. 이러한 동공의 주된 기능은 시각인지를 최대화하기 위하여 망막으로 도달 되는 빛의 양을 조절하고 초점의 심도를 높여 색수차 및 구면수차를 줄이는 것이다. 즉, 어두운 곳에 있으면 많은 빛을 감지할 수 있도록 동공이 커지게 되고 밝은 곳에 있을 때에는 망막에 도달하는 빛의 양을 줄여 보다 선명한 상을 나타나게 하기 위해 동공의 크기가 줄어들게 된다. 또한, 감정의 변화에 의해서도 동공의 크기가 변하는데 공포, 놀람, 고통 등에 의해서 동공의 크기가 커진다.The pupil is a hollow, circular space located in the center of the iris, through which external light is transmitted to the retina. The main function of these pupils is to reduce chromatic and spherical aberration by adjusting the amount of light reaching the retina and maximizing the depth of focus to maximize visual perception. In other words, the pupil is enlarged to detect a lot of light in the dark place, and the pupil size is reduced in order to reduce the amount of light reaching the retina in the bright place to make a clearer image. In addition, the pupil size changes due to the change of emotion, but the pupil size increases due to fear, surprise, and pain.
이와 같이, 동공의 크기는 빛의 밝기 변화, 인지 능력(attention), 인지 부하(cognitive load), 감정 변화와 같은 다양한 인지 신경과학적 현상과 밀접한 상관관계가 있어, 관련 분야의 연구에 많이 활용되고 있다. 특히, 시선 인식 및 추적 분야에서는 얼굴 또는 눈 이미지로부터 동공 또는 동공을 포함하는 홍채의 정확한 크기를 추정하는 것이 중요하다.As such, the size of the pupil is closely correlated with various cognitive neuroscientific phenomena such as changes in light brightness, attention, cognitive load, and emotion, and is widely used in research in related fields. . In particular, in the field of eye recognition and tracking, it is important to estimate the exact size of the pupil or the iris containing the pupil from the face or eye image.
본 명세서는 눈 이미지로부터 홍채 또는 동공의 크기를 추정하는 이미지 처리 방법을 제공한다.The present specification provides an image processing method for estimating the size of an iris or a pupil from an eye image.
또한, 본 명세서는 타원 방정식 평가 과정을 수행하여 눈꺼풀에 의해 가려진 홍채 또는 동공에 대한 정확한 타원 방정식을 산출하여, 동공 또는 홍채의 크기를 정확하게 추정하는 이미지 처리 방법을 제공한다.In addition, the present specification provides an image processing method for performing an elliptic equation evaluation process to calculate an accurate elliptic equation for the iris or pupil covered by the eyelid, to accurately estimate the size of the pupil or iris.
또한, 본 명세서는 푸리에 디스크립터를 이용한 홍채 이미지 또는 동공 이미지의 외곽선의 보정 과정을 수행하여 눈꺼풀에 의해 가려진 부분을 제거하여, 홍채 또는 동공의 크기를 정확하게 추정하는 방법을 제공한다.In addition, the present disclosure provides a method for accurately estimating the size of the iris or the pupil by performing a process of correcting the outline of the iris image or the pupil image using a Fourier descriptor to remove the portion covered by the eyelid.
본 발명의 일 실시예에 따른 이미지 처리 방법은 눈 이미지(eye image)를 획득하는 단계; 상기 눈 이미지로부터 동공 또는 홍채에 해당하는 타겟 오브젝트의 이미지의 외곽선(contour)을 검출하는 단계; 상기 외곽선에 기초하여 상기 타겟 오브젝트에 대한 타원 방정식을 산출하고, 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정하는 단계; 상기 타원 방정식이 상기 최종 타원 방정식으로 인정되지 않는 경우, 푸리에 디스크립터(fourier descriptor)를 이용하여 상기 타겟 오브젝트 이미지의 외곽선을 보정하는 단계로서, 상기 푸리에 디스크립터는 상기 타겟 오브젝트 이미지의 모양 특성을 나타내는 모양 정보로부터 획득되고; 및 상기 타원 방정식이 상기 최종 타원 방정식으로 인정되는 경우, 상기 최종 타원 방정식을 이용하여 상기 타겟 오브젝트의 크기(area), 모양(shape) 또는 위치(location) 중 적어도 하나에 대한 정보를 획득하는 단계를 포함할 수 있다.Image processing method according to an embodiment of the present invention comprises the steps of obtaining an eye image (eye image); Detecting an outline of an image of a target object corresponding to a pupil or an iris from the eye image; Calculating an elliptic equation for the target object based on the outline, and determining whether the elliptic equation is recognized as a final elliptic equation for the target object; If the elliptic equation is not recognized as the final elliptic equation, correcting an outline of the target object image using a Fourier descriptor, wherein the Fourier descriptor is shape information indicating a shape characteristic of the target object image. Obtained from; And when the elliptic equation is recognized as the final elliptic equation, acquiring information on at least one of an area, a shape, or a location of the target object using the final elliptic equation. It may include.
실시예로서, 상기 타겟 오브젝트 이미지의 외곽선이 보정된 경우, 상기 최종 타원 방정식으로 인정되는지 여부를 결정하는 단계는 상기 보정된 외곽선 기초하여 상기 타겟 오브젝트에 대한 타원 방정식을 다시 산출하고, 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정할 수 있다.In an embodiment, when the outline of the target object image is corrected, determining whether the final elliptic equation is recognized may be calculated by recalculating an elliptic equation for the target object based on the corrected outline. It can be determined whether or not it is recognized as a final elliptic equation for the target object.
실시예로서, 상기 최종 타원 방정식으로 인정되는지 여부를 결정하는 단계는: 상기 외곽선을 구성하는 각 외곽선 포인트와 상기 타원 방정식을 갖는 타원 간의 거리에 기초하여 에러 비율을 산출하고, 상기 에러 비율에 기초하여 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식인지 여부를 결정하는 단계를 포함할 수 있다.As an example, determining whether the final elliptic equation is recognized may include: calculating an error rate based on a distance between each outline point constituting the outline and an ellipse having the elliptic equation, and based on the error rate And determining whether the elliptic equation is a final elliptic equation for the target object.
실시예로서, 상기 모양 정보는 상기 외곽선을 구성하는 외곽선 포인트들의 무게 중심과 각 외각선 포인트 간의 반경 거리(radial distance)에 기초하여 획득될 수 있다.In an embodiment, the shape information may be obtained based on a radial distance between the center of gravity of the outline points constituting the outline and each outline point.
실시예로서, 상기 타겟 오브젝트 이미지의 외곽선을 보정하는 단계는: 상기 푸리에 디스크립터를 이용하여 상기 모양 정보에 대한 노이즈를 제거하는 단계; 및 상기 모양 정보의 기울기 특성을 이용하여 상기 외곽선으로부터 상기 타겟 오브젝트 이미지를 가리는 주변 오브젝트 이미지와 연관된 파트를 제거하는 단계를 포함할 수 있다.In an embodiment, the step of correcting an outline of the target object image may include: removing noise on the shape information by using the Fourier descriptor; And removing a part associated with a neighboring object image covering the target object image from the outline by using a slope characteristic of the shape information.
실시예로서, 상기 모양 정보에 대한 노이즈를 제거하는 단계는 상기 푸리에 디스크립터의 저주파 영역을 추출하는 단계; 및 상기 저주파 영역을 역푸리에 변환하여 상기 모양 정보를 복원하는 단계를 포함할 수 있다.In an embodiment, the removing of the noise on the shape information may include extracting a low frequency region of the Fourier descriptor; And restoring the shape information by inverse Fourier transforming the low frequency region.
실시예로서, 상기 저주파 영역은 기준 주파수 보다 낮은 주파수 성분들을 포함하는 주파수 영역일 수 있다.In an embodiment, the low frequency region may be a frequency region including frequency components lower than a reference frequency.
실시예로서, 상기 주변 오브젝트 이미지와 연관된 파트를 제거하는 단계는: 상기 모양 정보를 나타내는 그래프의 피크 값에 기초하여 상기 타겟 오브젝트 이미지의 외곽선과 상기 모양 정보의 그래프를 복수 개의 파트로 구분하는 단계; 각 파트 별로 최대-최소 그래디언트(max-min gradient)를 산출하는 단계; 및 상기 최대-최소 그래디언트의 값이 가장 큰 파트를 제거하는 단계를 포함할 수 있다.The removing of the part associated with the surrounding object image may include: dividing the outline of the target object image and the graph of the shape information into a plurality of parts based on a peak value of the graph representing the shape information; Calculating a max-min gradient for each part; And removing the part having the largest value of the maximum-minimum gradient.
본 발명의 일 실시예에 따른 이미지 처리 장치에 있어서, 데이터를 저장하는 메모리; 및 메모리에 연결되는 프로세서를 포함하고, 상기 프로세서는: 눈 이미지(eye image)를 획득하고, 상기 눈 이미지로부터 동공 또는 홍채에 해당하는 타겟 오브젝트의 이미지의 외곽선(contour)을 검출하고, 상기 외곽선에 기초하여 상기 타겟 오브젝트에 대한 타원 방정식을 산출하고, 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정하고, 상기 타원 방정식이 상기 최종 타원 방정식으로 인정되지 않는 경우, 푸리에 디스크립터(fourier descriptor)를 이용하여 상기 타겟 오브젝트 이미지의 외곽선을 보정하되, 상기 푸리에 디스크립터는 상기 타겟 오브젝트 이미지의 모양 특성을 나타내는 모양 정보로부터 획득되고, 상기 타원 방정식이 상기 최종 타원 방정식으로 인정되는 경우, 상기 최종 타원 방정식을 이용하여 상기 타겟 오브젝트의 크기(area), 모양(shape) 또는 위치(location) 중 적어도 하나에 대한 정보를 획득할 수 있다.An image processing apparatus according to an embodiment of the present invention, comprising: a memory for storing data; And a processor coupled to a memory, the processor comprising: obtaining an eye image, detecting an outline of an image of a target object corresponding to the pupil or iris from the eye image, Calculate an elliptic equation for the target object based on the above, determine whether the elliptic equation is recognized as the final elliptic equation for the target object, and if the elliptic equation is not recognized as the final elliptic equation, a Fourier descriptor ( correcting the outline of the target object image using a fourier descriptor, wherein the Fourier descriptor is obtained from shape information indicating shape characteristics of the target object image, and when the elliptic equation is recognized as the final elliptic equation, Using an elliptic equation Group may obtain information about at least one of the size of the target object (area), shape (shape) or a position (location).
본 명세서의 일 실시예에 따르면, 홍채 또는 동공에 대한 타원 방정식의 평가 과정을 수행하여 홍채 또는 동공에 대한 정확한 타원 방정식을 산출할 수 있고, 눈꺼풀에 의해 가려진 홍채 또는 동공의 크기를 정확하게 추정할 수 있다.According to one embodiment of the present specification, an elliptic equation for the iris or the pupil may be calculated by performing an evaluation process of the elliptic equation for the iris or the pupil, and the size of the iris or the pupil obscured by the eyelid may be accurately estimated. have.
또한, 본 명세서는 푸리에 디스크립터를 이용한 홍채 이미지 또는 동공 이미지의 외곽선의 보정 과정을 수행하여 눈꺼풀에 의해 가려진 부분을 제거할 수 있고, 이를 통해 눈꺼풀에 의해 가려진 홍채 또는 동공의 크기를 정확하게 추정할 수 있다.In addition, the present specification can remove the portion covered by the eyelid by performing the correction process of the outline of the iris image or the pupil image using the Fourier descriptor, through which the size of the iris or pupil covered by the eyelid can be accurately estimated. .
이외에, 본 발명의 실시예들에 따른 다양한 효과는 이하 도면을 참조하여 상세히 후술하기로 한다.In addition, various effects according to embodiments of the present invention will be described later in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 이미지 처리 장치의 블록도이다.1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 이미지 처리 장치에 의해 처리되는 눈 이미지의 예시도이다.2 is an exemplary view of an eye image processed by an image processing apparatus according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 이미지 처리 장치에 의해 처리되는 눈 이미지의 확대도이다. 3 is an enlarged view of an eye image processed by an image processing apparatus according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 이미지 처리 장치에 의한 이미지 처리 방법의 순서도이다. 4 is a flowchart of an image processing method by an image processing apparatus according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 이미지 처리 장치가 타원 방정식을 평가하는 과정을 나타내는 순서도이다. 5 is a flowchart illustrating a process of evaluating an elliptic equation by an image processing apparatus according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 타원 방정식에 대한 모양 정보 및 푸리에 디스크립터를 나타낸다. 6 shows shape information and Fourier descriptor for an elliptic equation according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 이미지 처리 장치가 타겟 오브젝트 이미지의 외곽선을 보정하는 단계를 나타내는 순서도이다. 7 is a flowchart illustrating an operation of correcting an outline of a target object image by an image processing apparatus according to an exemplary embodiment.
도 8은 도 7의 외곽선 보정의 세부 단계를 나타내는 그래프의 예시이다. FIG. 8 is an example of a graph showing detailed steps of outline correction of FIG. 7.
도 9 및 10은 본 발명의 일 실시예에 따른 이미지 처리 장치가 외곽선 보정을 수행하기 이전 또는 이후의 외곽선에 기초하여 산출된 타원의 변화를 나타낸다. 9 and 10 illustrate changes in an ellipse calculated based on an outline before or after the image processing apparatus according to an embodiment of the present invention performs outline correction.
도 11은 본 발명의 일 실시예에 따른 타원 방정식 평가 및 외곽선 보정의 수행 유무에 따라 타원 방적식에 기초하여 타겟 오브젝트의 크기를 추정한 결과의 비교를 보여준다. 11 is a comparison of results obtained by estimating the size of a target object based on an elliptic equation according to an elliptic equation evaluation and an outline correction according to an embodiment of the present invention.
도 12는 본 발명의 일 실시예에 따른 이미지 처리 장치의 이미지 처리 방법에 대한 연산 시간을 보여준다.12 illustrates a calculation time for an image processing method of an image processing apparatus according to an embodiment of the present invention.
도 13은 본 발명의 일 실시예에 따른 아이브레인 인터페이스 시스템을 도시한 도면이다.FIG. 13 illustrates an iBrain interface system according to an exemplary embodiment of the present invention. FIG.
도 14는 본 발명의 일 실시예에 따른 호스트 디바이스 및 슬레이브 디바이스의 블록도이다.14 is a block diagram of a host device and a slave device according to an embodiment of the present invention.
도 15는 본 발명의 일 실시예에 따른 아이브레인 인터페이스(EBI) 디바이스를 도시한 도면이다.FIG. 15 illustrates an iBrain interface (EBI) device according to an embodiment of the present invention.
도 16는 본 발명의 일 실시예에 따른 EBI 디바이스의 블록도이다.16 is a block diagram of an EBI device in accordance with an embodiment of the present invention.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 아닌 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.The terminology used herein is a general term that has been widely used as far as possible in consideration of the functions in the present specification, but may vary according to the intention of a person skilled in the art, convention or the emergence of a new technology. In addition, in certain cases, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in the description of the corresponding embodiment. Therefore, it is to be understood that the terminology used herein is to be interpreted based not on the name of the term but on the actual meaning and contents throughout the present specification.
더욱이, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 실시예들에 의해 제한되거나 한정되는 것은 아니다.Moreover, although the embodiments will be described in detail with reference to the accompanying drawings and the contents described in the accompanying drawings, the present invention is not limited or restricted to the embodiments.
이하, 첨부한 도면들을 참조하여 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 이미지 처리 장치의 블록도이다.1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 이미지 처리 장치(1)는 프로세서(10) 및 메모리(20)를 포함할 수 있다.Referring to FIG. 1, an image processing apparatus 1 according to an embodiment of the present invention may include a processor 10 and a memory 20.
프로세서(10)는 본 발명의 다양한 실시예에 따른 동작을 수행하도록 구성될 수 있다. 예를 들면, 프로세서(10)는 눈 이미지에 대한 이미지 처리를 수행하도록 구성될 수 있다. 특히, 프로세서(10)는 후술할 타원 방정식 평가 및 외곽선 보정 과정을 수행하도록 구성될 수 있다. 이를 통해, 프로세서(10)는 눈 이미지로부터 동공 또는 홍채에 해당하는 타겟 오브젝트의 크기 등을 실시간으로 정확하게 추정할 수 있다. 이에 대하여는 도 2 내지 12를 참조하여 이하에서 상세히 설명한다.The processor 10 may be configured to perform an operation according to various embodiments of the present disclosure. For example, the processor 10 may be configured to perform image processing on an eye image. In particular, the processor 10 may be configured to perform an elliptic equation evaluation and outline correction process to be described later. In this way, the processor 10 may accurately estimate the size of a target object corresponding to the pupil or the iris in real time from the eye image. This will be described in detail below with reference to FIGS. 2 to 12.
또한, 본 발명의 다양한 실시예에 따른 이미지 처리 장치(1)의 동작을 구현하는 모듈, 데이터, 프로그램 또는 소프트웨어 중 적어도 하나가 메모리(20)에 저장되고, 프로세서(10)에 의하여 실행될 수 있다. 또한, 프로세서(10)는 기타 다른 구성들을 제어할 수 있다.In addition, at least one of a module, data, a program, or software for implementing an operation of the image processing apparatus 1 according to various embodiments of the present disclosure may be stored in the memory 20 and executed by the processor 10. In addition, the processor 10 may control other configurations.
메모리(20)는 프로세서(10)와 연결되어, 프로세서(10)를 구동하기 위한 다양한 정보/데이터를 저장한다. 메모리(20)는 프로세서(10)의 내부에 포함되거나 또는 프로세서(10)의 외부에 설치되어 프로세서(10)와 공지의 수단에 의해 연결될 수 있다.The memory 20 is connected to the processor 10 and stores various information / data for driving the processor 10. The memory 20 may be included in the processor 10 or installed outside the processor 10 and connected to the processor 10 by a known means.
도 1의 이미지 처리 장치(1)의 구체적인 구성은, 후술한 본 발명의 다양한 실시예들이 독립적으로 적용되거나 또는 2 이상의 실시예가 함께 적용되도록 구현될 수 있다.The specific configuration of the image processing apparatus 1 of FIG. 1 may be implemented such that various embodiments of the present invention described below are applied independently or two or more embodiments are applied together.
실시예로서, 이미지 처리 장치(1)는 눈 이미지에 대한 촬영 기능 또는 시선 추적 기능을 갖는 장치 또는 시스템에 하나의 모듈로써 포함되거나, 또는 이와 별도의 장치로 구현될 수 있다. 이미지 처리 장치(1)가 별도의 장치로 구현되는 경우, 이미지 처리 장치(1)는 다른 장치로부터 눈 이미지를 획득하기 위한 유닛, 예컨대, 다른 장치로부터 눈 이미지를 수신하기 위한 통신 유닛 등을 더 포함할 수 있다. 또한, 이미지 처리 장치(1)가 포함되는 다른 장치 또는 시스템의 실시예에 대하여는 도 13 내지 17을 참조하여 이하에서 설명한다. In an embodiment, the image processing apparatus 1 may be included as a module in a device or a system having a photographing function or a gaze tracking function for an eye image, or may be implemented as a separate device. If the image processing apparatus 1 is implemented as a separate device, the image processing apparatus 1 further includes a unit for obtaining an eye image from another device, for example, a communication unit for receiving an eye image from another device, and the like. can do. In addition, embodiments of another apparatus or system including the image processing apparatus 1 will be described below with reference to FIGS. 13 to 17.
도 2는 본 발명의 일 실시예에 따른 이미지 처리 장치에 의해 처리되는 눈 이미지의 예시도이다.2 is an exemplary view of an eye image processed by an image processing apparatus according to an embodiment of the present invention.
도 1에서 상술한 바와 같이, 이미지 처리 장치는 눈 이미지를 처리하여 동공 또는 홍채의 크기 등을 추정할 수 있다. 여기서, 눈 이미지는 양쪽 눈 또는 한쪽 눈의 이미지를 포함할 수 있다.As described above with reference to FIG. 1, the image processing apparatus may estimate the size of the pupil or the iris by processing the eye image. Here, the eye image may include images of both eyes or one eye.
실시예로서, 이미지 처리 장치에 의해 처리되는 눈 이미지는 저해상도의 눈 이미지일 수 있다. 예를 들면, 도 2에서와 같이, 눈 이미지는 사용자가 착용한 웨어러블 디바이스(예컨대, HMD(Head Mounted Display) 디바이스, 아이브레인 인터페이스(EyeBrain Interface: EBI) 시스템/장치 등)의 저해상도 카메라(예컨대, 640*480 해상도의 카메라)에 의해 촬영된 저해상도의 사용자의 눈 이미지일 수 있다. 다른 예를 들면, 눈 이미지는 원거리에서 촬영된 저해상도의 사용자의 눈 이미지일 수 있다.In an embodiment, the eye image processed by the image processing apparatus may be a low resolution eye image. For example, as shown in FIG. 2, the eye image may be a low resolution camera (eg, a head mounted display (HMD) device, an eye brain interface (EBI) system / device, etc.) worn by a user. A low-resolution user's eye image captured by a 640 * 480 resolution camera). For another example, the eye image may be an eye image of a low resolution user photographed at a distance.
이와 같이, 눈 이미지가 저해상도의 이미지인 경우, 눈 이미지에 포함된 오브젝트들(예컨대, 동공, 홍채 등)의 이미지의 해상도 역시 낮을 수 밖에 없다. 따라서, 이 오브젝트 이미지의 외곽선(contour)은 일반적으로 적은 수의 외곽선 포인트(contour point)들로 구성되게 된다. 이 경우, 이 외곽선을 구성하는 개별 외곽선 포인트들 모두가 중요한 의미를 가지므로, 이에 대한 정교한 처리가 이미지 처리의 정확도를 높이기 위해 매우 중요하다. 다시 말해, 저해상도에서는 작은 크기의 오차가 이미지 처리 결과에 큰 영향을 미칠 수 있기 때문에, 개별 외곽선 포인트들에 대한 정교한 처리가 중요하다.As such, when the eye image is a low resolution image, resolution of images of objects (eg, pupils, irises, etc.) included in the eye image may also be low. Thus, the contour of this object image will generally consist of a small number of contour points. In this case, all of the individual outline points constituting this outline have a significant meaning, so the precise processing thereof is very important to increase the accuracy of image processing. In other words, at low resolutions, small processing errors can have a big impact on the image processing results, so sophisticated processing of individual outline points is important.
예를 들면, 동공 이미지의 외곽선 포인트들에 기초하여 동공에 대한 타원(ellipse) 방정식을 산출하여 동공의 실제 크기를 추정하는 경우, 이미지 처리 장치에 의한 동공 이미지를 구성하는 개별 외곽선 포인트들에 대한 정교한 처리가 매우 중요하다. 특히, 동공 이미지가 다른 주변 오브젝트의 이미지(예컨대, 눈꺼풀 이미지 등)에 의해 가려지는 경우, 이미지 처리 장치가 가려진 부분 또는 가려진 부분의 외곽선 포인트들을 정교하게 제거하는 것은 동공에 대한 정확한 타원 방정식을 산출하기 위한 매우 중요한 요소 중 하나가 된다.For example, when an ellipse equation for a pupil is estimated based on the outline points of the pupil image to estimate the actual size of the pupil, the precise processing of the individual outline points constituting the pupil image by the image processing device is performed. The treatment is very important. In particular, if the pupil image is obscured by an image of another surrounding object (e.g., eyelid image, etc.), elaborate removal of the outline points of the obscured or obscured portion of the image processing device yields an accurate elliptic equation for the pupil. It is one of the very important factors for.
본 발명의 일 실시예에 따른 이미지 처리 장치는 이러한 저해상도의 눈 이미지를 처리하기에 적합한 장치일 수 있다. 이하에서는 이미지 처리 장치에 의해 처리되는 눈 이미지가 저해상도의 이미지인 경우를 중심으로 본 발명의 다양한 실시예들을 설명한다. 다만, 실시예에 따라서는 고해상도의 눈 이미지도 동일 또는 유사한 처리 과정을 통해 이미지 처리 장치에 의해 처리될 수 있음은 해당 기술 분야의 통상의 기술자라면 쉽게 이해할 수 있다. 또한, 이하에서는 주로 동공 부분에 대한 이미지 처리 과정을 주로 예로 들어 설명하지만, 동일 또는 유사한 설명이 동공을 포함하는 홍채 부분에 대한 이미지 처리 과정에도 적용될 수 있음은 해당 기술 분야의 통상의 기술자라면 쉽게 이해할 수 있다.An image processing apparatus according to an embodiment of the present invention may be a device suitable for processing such a low resolution eye image. Hereinafter, various embodiments of the present disclosure will be described, with the eye image processed by the image processing apparatus as a low resolution image. However, it can be easily understood by those skilled in the art that, depending on the embodiment, the high resolution eye image may be processed by the image processing apparatus through the same or similar processing. In addition, the following mainly describes the image processing process for the pupil portion mainly, but the same or similar description can be easily applied to the image processing process for the iris portion including the pupil it will be readily understood by those skilled in the art. Can be.
도 3은 본 발명의 일 실시예에 따른 이미지 처리 장치에 의해 처리되는 눈 이미지의 확대도이다. 도 3의 실시예에서, 눈 이미지 내의 동공 및 홍채 이미지는 눈꺼풀 이미지에 의해 가려진 상태이다. 즉, 도 3의 실시예의 눈 이미지는 동공 및 홍채가 눈꺼풀에 의해 가려진 상태의 눈을 보여주는 이미지일 수 있다. 여기서, 동공 이미지는 동공의 이미지 또는 동공 부분과 연관된 이미지로서, 동공의 모양을 나타낼 수 있다. 또한, 홍채 이미지는 홍채의 이미지 또는 홍채 부분과 연관된 이미지로서, 홍채의 모양을 나타낼 수 있다. 또한, 눈꺼풀 이미지는 눈꺼풀의 이미지 또는 눈꺼풀 부분과 연관된 이미지로서, 눈꺼풀의 모양을 나타낼 수 있다.3 is an enlarged view of an eye image processed by an image processing apparatus according to an embodiment of the present invention. In the embodiment of FIG. 3, the pupil and iris images in the eye image are hidden by the eyelid image. That is, the eye image of the embodiment of FIG. 3 may be an image showing the eye in a state where the pupil and the iris are covered by the eyelid. Here, the pupil image may be an image of the pupil or an image associated with the pupil part, and may indicate the shape of the pupil. In addition, the iris image is an image associated with the iris portion or the image of the iris, it may represent the shape of the iris. In addition, the eyelid image is an image of the eyelid or an image associated with the eyelid portion, which may represent the shape of the eyelid.
도 3(a)에서와 같이, 눈 이미지 내의 동공 이미지(31)는 눈꺼풀 이미지에 의해 가려질 수 있다. 실제 동공(또는, 홍채)의 모양은 원형이지만, 안구(eye ball)가 구형이기 때문에, 촬영된 이미지 상의 동공(또는, 홍채)의 이미지는 일반적으로 타원형으로 보여진다. 따라서, 동공 이미지(또는, 홍채 이미지)의 외곽선(contour)은 타원의 형태가 된다. 그런데, 도 3의 실시예서와 같이, 동공 이미지가 직선 형태의 눈꺼풀 이미지에 의해 가려진 경우, 동공 이미지의 외곽선은 온전한 타원의 형태를 가질 수 없다. 이 경우, 도 3(a)의 눈 이미지로부터 검출된 동공 이미지의 외곽선(32)은 도 3(b)에 도시된 것과 같을 수 있다.As in FIG. 3 (a), the pupil image 31 in the eye image may be covered by the eyelid image. The actual pupil (or iris) is circular in shape, but since the eye ball is spherical, the image of the pupil (or iris) on the photographed image is generally seen as elliptical. Thus, the contour of the pupil image (or iris image) is in the form of an ellipse. However, as in the embodiment of FIG. 3, when the pupil image is obscured by a straight eyelid image, the outline of the pupil image may not have the shape of an intact ellipse. In this case, the outline 32 of the pupil image detected from the eye image of FIG. 3A may be as shown in FIG. 3B.
이미지 처리 장치는 동공의 크기 등을 추정하기 위해 동공 이미지의 외곽선(32)에 기초하여 동공에 대한 타원 방정식을 산출할 수 있다. 이에 대하여는 도 4를 참조하여 이하에서 상세히 설명한다. 이렇게 산출된 타원 방정식을 갖는 타원의 외곽선(33)은 도 3(c) 및 3(d)에 도시된 것과 같을 수 있다. 구체적으로, 도 3(c)는 동공 이미지의 외곽선(32)과 산출된 타원 방정식을 갖는 타원의 외곽선(33)을 비교하여 보여주고, 도 3(d)는 산출된 타원 방정식을 갖는 타원의 외곽선(33)을 보여준다.The image processing apparatus may calculate an elliptic equation for the pupil based on the outline 32 of the pupil image in order to estimate the size of the pupil. This will be described in detail below with reference to FIG. 4. The outline 33 of the ellipse having the elliptic equation thus calculated may be as shown in FIGS. 3 (c) and 3 (d). Specifically, FIG. 3 (c) shows the outline 32 of the pupil image and the outline 33 of the ellipse having the calculated elliptic equation, and FIG. 3 (d) shows the outline of the ellipse having the calculated elliptic equation. (33) is shown.
도 3(c) 및 3(d)의 실시예에서는, 이미지 처리 장치가 눈꺼풀 이미지에 의해 가려진 부분(part)을 포함하는 동공 이미지의 외곽선에 기초하여 동공에 대한 타원 방정식을 산출하였다. 따라서, 산출된 타원 방정식에 의해 표현된 타원의 모양과 동공의 실제 모양이 차이를 갖는다. 즉, 산출된 타원 방정식이 정확한 동공의 크기 등을 나타낼 수 없다.3 (c) and 3 (d), the image processing apparatus has calculated an elliptic equation for the pupil based on the outline of the pupil image including the part obscured by the eyelid image. Thus, the shape of the ellipse represented by the calculated elliptic equation and the actual shape of the pupil differ. That is, the calculated elliptic equation cannot represent the exact size of the pupil.
따라서, 이미지 처리 장치는 정확한 타원 방정식을 산출하기 위해 동공 이미지의 외곽선(32)에서 눈꺼풀 이미지에 의해 가려진 부분을 제거하는 이미지 처리 과정을 수행할 수 있다. 즉, 가려진 부분 제거를 위해 외곽선 보정 과정이 수행될 수 있고, 이에 대하여는 도 7을 참조하여 이하에서 상세히 설명한다. 이를 통해, 이미지 처리 장치는 동공에 대한 정확한 타원 방정식을 다시 산출할 수 있고, 이를 동공에 대한 최종 타원 방정식으로 결정할 수 있다. 이를 위한 타원 방정식 평가 과정에 대하여는 도 5를 참조하여 이하에서 상세히 설명한다.Therefore, the image processing apparatus may perform an image processing process of removing a portion of the pupil image, which is covered by the eyelid image, in order to calculate an accurate elliptic equation. That is, an outline correction process may be performed to remove the hidden portion, which will be described below in detail with reference to FIG. 7. Through this, the image processing apparatus may again calculate an accurate elliptic equation for the pupil, and determine this as the final elliptic equation for the pupil. An elliptic equation evaluation process will be described in detail below with reference to FIG. 5.
이렇게 다시 산출된 타원 방정식을 갖는 타원의 외곽선(34)은 도 3(e) 및 3(f)에 도시된 것과 같을 수 있다. 구체적으로, 도 3(e)는 다시 산출된 타원 방정식을 갖는 타원의 외곽선(34)을 보여주고, 도 3(f)는 먼저 산출된 타원 방정식을 갖는 타원(도 3(d)의 타원)의 외곽선(33)과 다시 산출된 타원 방정식을 갖는 타원(도 3(e)의 타원)의 외곽선(34)을 비교하여 보여준다.The outline 34 of the ellipse having the elliptic equation thus recalculated may be as shown in FIGS. 3 (e) and 3 (f). Specifically, FIG. 3 (e) shows an outline 34 of an ellipse having an elliptic equation calculated again, and FIG. 3 (f) shows an ellipse (ellipse of FIG. 3 (d)) having an elliptic equation calculated first. The outline 33 is compared with the outline 34 of an ellipse (ellipse of FIG. 3 (e)) having an elliptic equation calculated again.
도 3(c) 및 3(d)의 실시예와 달리, 도 3(e) 및 3(f)의 실시예에서는, 이미지 처리 장치가 눈꺼풀 이미지에 의해 가려진 부분이 제거된 동공 이미지의 외곽선에 기초하여 동공에 대한 타원 방정식을 산출하였기 때문에, 산출된 타원 방정식에 의해 표현된 타원의 모양과 동공의 실제 모양이 실질적으로 동일할 수 있다. 즉, 산출된 타원 방정식이 정확한 동공의 크기 등을 나타낼 수 있다. 따라서, 이 타원 방정식은 최종 타원 방정식으로서, 동공에 대한 기하학적 정보를 획득하기 위해 사용될 수 있다.Unlike the embodiments of FIGS. 3 (c) and 3 (d), in the embodiments of FIGS. 3 (e) and 3 (f), the image processing apparatus is based on the outline of the pupil image from which the portion covered by the eyelid image has been removed. Since the elliptic equation for the pupil is calculated, the shape of the ellipse represented by the calculated elliptic equation and the actual shape of the pupil may be substantially the same. That is, the calculated elliptic equation may represent the exact size of the pupil. Thus, this elliptic equation is the final elliptic equation and can be used to obtain geometric information about the pupil.
도 4는 본 발명의 일 실시예에 따른 이미지 처리 장치에 의한 이미지 처리 방법의 순서도이다. 구체적으로, 도 4는 본 발명의 일 실시예에 따른 이미지 처리 장치가 눈 이미지로부터 동공 또는 홍채의 크기 등을 추정하는 방법을 나타낸다. 도 4의 각 단계는 도 2에서 상술한 이미지 처리 장치 또는 이미지 처리 장치의 프로세서에 의해 수행될 수 있다.4 is a flowchart of an image processing method by an image processing apparatus according to an embodiment of the present invention. In detail, FIG. 4 illustrates a method of estimating the size of a pupil or an iris from an eye image by an image processing apparatus according to an exemplary embodiment. Each step of FIG. 4 may be performed by the image processing apparatus or the processor of the image processing apparatus described above with reference to FIG. 2.
도 4를 참조하면, 이미지 처리 장치는 눈 이미지를 획득할 수 있다(S410). 도 2 및 3에서 상술한 바와 같이, 눈 이미지는 타겟 오브젝트의 이미지(타겟 오브젝트 이미지) 및/또는 타겟 오브젝트를 가리는 주변 오브젝트의 이미지(주변 오브젝트 이미지)를 포함할 수 있다. 실시예로서, 타겟 오브젝트는 동공 또는 홍채일 수 있다. 이 경우, 주변 오브젝트는 동공 또는 홍채를 가리는 눈꺼풀(eyelid)(예컨대, 윗 눈꺼풀)일 수 있다. 이하에서는, 타겟 오브젝트가 동공 또는 홍채이고, 주변 오브젝트가 눈꺼풀인 경우를 중심으로 본 발명의 다양한 실시예들을 설명한다.Referring to FIG. 4, the image processing apparatus may acquire an eye image (S410). As described above with reference to FIGS. 2 and 3, the eye image may include an image of the target object (target object image) and / or an image of a surrounding object covering the target object (a peripheral object image). In an embodiment, the target object may be a pupil or an iris. In this case, the surrounding object may be an eyelid that hides the pupil or iris (eg, the upper eyelid). Hereinafter, various embodiments of the present invention will be described with a focus on the case where the target object is the pupil or the iris and the surrounding object is the eyelid.
이미지 처리 장치는 눈 이미지로부터 타겟 오브젝트의 이미지의 외곽선을 검출할 수 있다(S420). 예를 들면, 이미지 처리 장치는 눈 이미지로부터 타겟 오브젝트 이미지인 동공 이미지 또는 홍채 이미지의 외곽선을 검출할 수 있다. 즉, 이미지 처리 장치는 눈 이미지로부터 타겟 오브젝트인 동공 또는 홍채와 연관된 이미지 부분의 외곽선을 검출할 수 있다. 이 경우, 타겟 오브젝트의 이미지의 외곽선을 검출하는 방법으로는 이미지의 종류, 해상도, 타겟 오브젝트의 종류 등에 따라 매우 다양한 방법이 존재한다. 실시예로서, 이미지 처리 장치는 이러한 공지된 방법 중 하나 또는 그 이상을 사용하여 눈 이미지로부터 타겟 오브젝트의 이미지의 외곽선을 검출할 수 있다. 이렇게 검출된 타겟 오브젝트 이미지의 외곽선은 도 3(b)와 같을 수 있다.The image processing apparatus may detect an outline of an image of the target object from the eye image (S420). For example, the image processing apparatus may detect an outline of a pupil image or an iris image that is a target object image from the eye image. That is, the image processing apparatus may detect the outline of the image portion associated with the pupil or iris which is the target object from the eye image. In this case, as a method of detecting the outline of the image of the target object, there are a variety of methods depending on the type of image, the resolution, the type of the target object, and the like. As an embodiment, the image processing apparatus may detect the outline of the image of the target object from the eye image using one or more of these known methods. The outline of the detected target object image may be as shown in FIG. 3 (b).
검출된 타겟 오브젝트 이미지의 외곽선은 복수의 외곽선 포인트를 포함할 수 있다. 즉, 검출된 외곽선은 복수의 외곽선 포인트로 구성될 수 있다. 이때, 외곽선을 구성하는 외곽선 포인트의 개수는 이미지의 해상도에 따라 달라질 수 있다. 예를 들면, 저해상도 이미지인 경우, 외곽선은 상대적으로 적은 수의 외곽선 포인트에 의해 구성될 수 있다. 따라서, 저해상도 이미지의 경우, 상술한 바와 같이 외곽선 포인트 하나 하나에 대한 처리가 매우 중요하다. 한편, 고해상도 이미지인 경우, 외곽선은 상대적으로 많은 수의 외곽선 포인트에 의해 구성될 수 있다.The outline of the detected target object image may include a plurality of outline points. That is, the detected outline may be composed of a plurality of outline points. In this case, the number of outline points constituting the outline may vary according to the resolution of the image. For example, in the case of a low resolution image, the outline may consist of a relatively small number of outline points. Therefore, in the case of low resolution images, the processing of one outline point is very important as described above. Meanwhile, in the case of a high resolution image, the outline may be configured by a relatively large number of outline points.
또한, 검출된 타겟 오브젝트 이미지의 외곽선은 타겟 오브젝트를 가리는 주변 오브젝트의 이미지와 연관된 부분을 포함할 수 있다. 예를 들면, 검출된 동공 이미지 또는 홍채 이미지의 외곽선은 동공 이미지 또는 홍채 이미지를 가리는 눈꺼풀 이미지와 연관된 부분을 포함할 수 있다. 예컨대, 외곽선을 구성하는 복수의 외곽선 포인트 중 일부는 동공 또는 홍채를 가리는 눈꺼풀 이미지와 연관될 수 있다. 즉, 일부 외곽선 포인트는 눈꺼풀 이미지의 부분을 나타내는 외곽선 포인트일 수 있다. 이에 대하여는 도 3을 참조하여 상술한 바와 같다. Also, the outline of the detected target object image may include a portion associated with the image of the surrounding object covering the target object. For example, the outline of the detected pupil image or iris image may include a portion associated with the eyelid image that obscures the pupil image or iris image. For example, some of the plurality of outline points that make up the outline may be associated with an eyelid image that masks the pupil or iris. That is, some of the outline points may be outline points that indicate portions of the eyelid image. This has been described above with reference to FIG. 3.
이미지 처리 장치는 타겟 오브젝트 이미지의 외곽선에 기초하여 타겟 오브젝트에 대한 타원 방정식을 산출할 수 있다(S430). 실시예로서, 이미지 처리 장치는 타겟 오브젝트 이미지의 외곽선을 구성하는 복수의 외곽선 포인트에 기초하여 타겟 오브젝트에 대한 타원 방정식을 산출할 수 있다. 예를 들면, 이미지 처리 장치는 홍채 이미지 또는 동공 이미지의 외곽선 포인트들을 이용하여 홍채 또는 동공에 대한 타원 방정식의 파라미터들(예컨대, 타원의 중심, 장축, 단축의 길이, 기울기 등)을 산출할 수 있다. 이 경우, 타원 방정식 및 그 파라미터는 아래 수학식 1과 같을 수 있다.The image processing apparatus may calculate an elliptic equation for the target object based on the outline of the target object image (S430). In an embodiment, the image processing apparatus may calculate an elliptic equation for the target object based on the plurality of outline points constituting the outline of the target object image. For example, the image processing apparatus may calculate parameters of the elliptic equation for the iris or pupil (eg, the center of the ellipse, the long axis, the length of the short axis, the slope, etc.) using the outline points of the iris image or the pupil image. . In this case, the elliptic equation and its parameters may be as shown in Equation 1 below.
Figure PCTKR2017004881-appb-M000001
Figure PCTKR2017004881-appb-M000001
여기서, Xc, Yc는 타원의 중심점을 나타내고, a, b는 각각 장축 및 단축의 길이를 나타내고, θ는 기울기를 나타낸다. Here, Xc and Yc represent the center point of an ellipse, a and b represent the length of a long axis and a short axis, respectively, and (theta) represents a slope.
상술한 바와 같이, 동공 또는 홍채에 해당하는 타겟 오브젝트의 실제 모양은 원형이지만 안구(eye ball)가 구형이기 때문에, 촬영된 눈 이미지 상의 타겟 오브젝트의 이미지는 일반적으로 타원형으로 보여진다. 따라서, 타겟 오브젝트 이미지의 외곽선에 기초하여 산출된 타원 방정식은 타겟 오브젝트의 모양 또는 크기를 나타내기 위한 방정식으로 사용될 수 있다.As described above, since the actual shape of the target object corresponding to the pupil or iris is circular but the eye ball is spherical, the image of the target object on the photographed eye image is generally seen as an ellipse. Therefore, the elliptic equation calculated based on the outline of the target object image may be used as an equation for representing the shape or size of the target object.
이미지 처리 장치는 산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정할 수 있다(S440). 이에 대하여는 도 5를 참조하여 이하에서 상세히 설명한다. 여기서, 최종 타원 방정식은 타겟 오브젝트에 대한 기하학적 정보(geometric information)를 획득 또는 추정하기 위해 사용되는 타원 방적식일 수 있다. 예를 들면, 최종 타원 방정식은 타겟 오브젝트의 크기(area), 모양(shape) 또는 위치(location) 중 적어도 하나에 대한 정보를 획득하기 위해 사용되는 타원 방정식일 수 있다.The image processing apparatus may determine whether the calculated elliptic equation is recognized as the final elliptic equation for the target object (S440). This will be described below in detail with reference to FIG. 5. Here, the final elliptic equation may be an elliptic equation used to obtain or estimate geometric information about the target object. For example, the final elliptic equation may be an elliptic equation used to obtain information about at least one of an area, shape or location of the target object.
산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는 경우, 이미지 처리 장치는 최종 타원 방정식을 이용하여 타겟 오브젝트의 크기(area), 모양(shape) 또는 위치(location) 중 적어도 하나에 대한 정보를 획득할 수 있다(S450). 즉, 이미지 처리 장치는 타겟 오브젝트의 크기(size)를 나타내는 크기 정보, 타겟 오브젝트의 모양(shape)을 나타내는 모양 정보 또는 타겟 오브젝트의 위치(location)를 나타내는 위치 정보 중 적어도 하나를 획득할 수 있다. 이를 통해, 타겟 오브젝트의 실제 크기 등이 추정될 수 있다.If the calculated elliptic equation is recognized as the final elliptic equation for the target object, the image processing apparatus uses the final elliptic equation to provide information on at least one of the area, shape or location of the target object. It can be obtained (S450). That is, the image processing apparatus may obtain at least one of size information indicating the size of the target object, shape information indicating the shape of the target object, or location information indicating the location of the target object. Through this, the actual size of the target object may be estimated.
이렇게 추정된 동공의 크기 및 크기 변화 등에 대한 정보는 빛의 밝기 변화, 사용자의 인지 능력(attention), 인지 부하(cognitive load), 감정 변화/분석과 같은 정보를 실시간으로 획득하기 위해 사용될 수 있다. 또한, 이렇게 추정된 정보는 시선 인식 및 추정을 위해 사용될 수도 있다.Information about the estimated size and size of the pupil may be used to acquire information such as brightness change of the light, user's attention, cognitive load, and emotion change / analysis in real time. In addition, the estimated information may be used for gaze recognition and estimation.
산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되지 않는 경우, 이미지 처리 장치는 푸리에 디스크립터를 이용하여 타겟 오브젝트 이미지의 외곽선을 보정할 수 있다(S460). 실시예로서, 푸리에 디스크립터는 타겟 오브젝트 이미지의 모양 특성을 나타내는 모양 정보/데이터로부터 획득될 수 있다. 이에 대하여는 도 6 내지 7을 참조하여 이하에서 상세히 설명한다.If the calculated elliptic equation is not recognized as the final elliptic equation for the target object, the image processing apparatus may correct an outline of the target object image by using a Fourier descriptor (S460). As an embodiment, the Fourier descriptor may be obtained from shape information / data indicative of the shape characteristic of the target object image. This will be described below in detail with reference to FIGS. 6 to 7.
타겟 오브젝트 이미지의 외곽선이 보정된 경우, 이미지 처리 장치는 보정된 외곽선에 상술한 단계 S430 내지 S460을 반복할 수 있다. 예를 들면, 이미지 처리 장치는 타겟 오브젝트 이미지의 보정된 외곽선에 기초하여 타원 방정식을 다시 산출하고, 다시 산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정할 수 있다. 다시 산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는 경우, 이미지 처리 장치는 타원 방정식을 이용하여 타겟 오브젝트의 크기 정보 등을 획득할 수 있다. 다시 산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되지 않는 경우, 이미지 처리 장치는 푸리에 디스크립터를 이용하여 타겟 오브젝트 이미지의 외곽선을 다시 보정할 수 있다. 이 경우, 다시 산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정될 때까지 상술한 과정을 반복하여 수행할 수 있다.When the outline of the target object image is corrected, the image processing apparatus may repeat the above-described steps S430 to S460 on the corrected outline. For example, the image processing apparatus may recalculate an elliptic equation based on the corrected outline of the target object image, and determine whether the calculated elliptic equation is recognized as the final elliptic equation for the target object. When the calculated elliptic equation is recognized as the final elliptic equation for the target object, the image processing apparatus may acquire size information and the like of the target object using the elliptic equation. If the recalculated elliptic equation is not recognized as the final elliptic equation for the target object, the image processing apparatus may recorrect the outline of the target object image using the Fourier descriptor. In this case, the above-described process may be repeated until the calculated elliptic equation is recognized as the final elliptic equation for the target object.
도 5는 본 발명의 일 실시예에 따른 이미지 처리 장치가 타원 방정식을 평가하는 과정을 나타내는 순서도이다. 여기서, 타원 방정식 평가 과정은 도 4의 단계(S440)에 해당할 수 있다. 즉, 타원 방정식 평가 과정은 이미지 처리 장치가 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정하는 단계일 수 있다. 도 5의 각 단계는 도 2에서 상술한 이미지 처리 장치 또는 이미지 처리 장치의 프로세서에 의해 수행될 수 있다.5 is a flowchart illustrating a process of evaluating an elliptic equation by an image processing apparatus according to an embodiment of the present invention. Here, the elliptic equation evaluation process may correspond to step S440 of FIG. 4. That is, the elliptic equation evaluation process may be a step in which the image processing apparatus determines whether the elliptic equation is recognized as the final elliptic equation for the target object. Each step of FIG. 5 may be performed by a processor of the image processing apparatus or the image processing apparatus described above with reference to FIG. 2.
도 3에서 상술한 바와 같이, 타겟 오브젝트는 주변 오브젝트에 의해 가려질 수 있다. 이 경우, 타겟 오브젝트 이미지의 외곽선은 상이한 모양 특성을 갖는 주변 오브젝트 이미지에 의해 가려지는 부분을 포함할 수 있다. 따라서, 이 외곽선에 기초하여 산출된 타원 방정식은 타겟 오브젝트의 크기 등을 정확히 추정하기 위해 사용되기 어렵다. 그러므로, 이미지 처리 장치는 산출된 타원 방정식을 이용하여 타겟 오브젝트의 크기 정보 등을 획득하기 이전에, 산출된 타원 방정식이 타겟 오브젝트의 크기 등을 추정하기 위해 사용될 수 있는 최종 타원 방정식으로 인정될 수 있는지 여부에 대한 타원 방정식 평가 과정을 수행할 수 있다. 이를 통해, 이미지 처리 장치는 부정확한 타원 방정식에 기초하여 타겟 오브젝트의 크기 등을 추정하는 불필요한 연산과정 없이, 정확한 타원 방정식에 기초하여 타겟 오브젝트에 대한 정확한 크기 정보 등을 획득할 수 있다.As described above in FIG. 3, the target object may be covered by the surrounding object. In this case, the outline of the target object image may include a portion that is covered by the surrounding object image having different shape characteristics. Therefore, the elliptic equation calculated based on this outline is difficult to accurately estimate the size of the target object and the like. Therefore, before the image processing apparatus obtains the size information and the like of the target object using the calculated elliptic equation, whether the calculated elliptic equation can be recognized as the final elliptic equation that can be used to estimate the size and the like of the target object. An elliptic equation evaluation process can be performed. In this way, the image processing apparatus may acquire accurate size information of the target object based on the exact elliptic equation, without unnecessary calculation process of estimating the size of the target object based on the incorrect elliptic equation.
실시예로서, 이미지 처리 장치는 외곽선을 구성하는 각 외곽선 포인트와 타원 방정식을 갖는 타원 간의 거리에 기초하여 에러 비율을 산출하고, 에러 비율에 따라 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식인지 여부를 결정하는 방식으로 타원 방정식을 평가할 수 있다. 이하에서는 도 5를 참조하여 이에 대하여 구체적으로 설명한다.In an embodiment, the image processing apparatus calculates an error ratio based on the distance between each outline point constituting the outline and an ellipse having an elliptic equation, and determines whether the elliptic equation is the final elliptic equation for the target object according to the error ratio. The elliptic equation can be evaluated in this way. Hereinafter, this will be described in detail with reference to FIG. 5.
이하에서는, 먼저, 이미지 처리 장치가 에러 비율을 산출하는 과정에 대하여 설명하고, 이후 에러 비율에 기초하여 타원 방정식이 최종 타원 방정식인지 여부를 결정하는 과정에 대하여 설명한다. 여기서, 에러 비율은 전체 외곽선 포인트들 중 타원과의 거리가 기준 거리를 초과하는 외곽선 포인트의 비율을 나타내는 값일 수 있다. 즉, 에러 비율은 타원 방정식에 대응되는, 즉, 타원 방정식에 의해 표현되는 타원으로부터 기준 거리 이상 떨어진 외곽선 포인트의 비율을 나타내는 값일 수 있다.Hereinafter, first, a process of calculating an error rate by the image processing apparatus will be described, and then a process of determining whether the elliptic equation is the final elliptic equation based on the error rate will be described. Here, the error rate may be a value representing a ratio of the outline points whose distance to the ellipse among the entire outline points exceeds the reference distance. That is, the error rate may be a value representing the ratio of the outline points corresponding to the ellipse equation, that is, the reference point spaced apart by a reference distance or more from the ellipse represented by the elliptic equation.
우선, 이미지 처리 장치는 외곽선을 구성하는 각 외곽선 포인트에 대하여 타원 방정식을 갖는 타원과의 거리를 산출할 수 있다(S510). 즉, 이미지 처리 장치는 각 외곽선 포인트와 타원 간의 거리(예컨대, 최소 거리)를 산출할 수 있다. 실시예로서, 각 외곽선 포인트와 타원 간의 거리(d)는 아래 수학식 2를 이용하여 산출될 수 있다.First, the image processing apparatus may calculate a distance from an ellipse having an elliptic equation with respect to each outline point constituting the outline (S510). That is, the image processing apparatus may calculate a distance (eg, a minimum distance) between each outline point and an ellipse. For example, the distance d between each outline point and an ellipse may be calculated using Equation 2 below.
Figure PCTKR2017004881-appb-M000002
Figure PCTKR2017004881-appb-M000002
인 (x,y)에 대하여,For phosphorus (x, y),
Figure PCTKR2017004881-appb-I000001
Figure PCTKR2017004881-appb-I000001
이후, 이미지 처리 장치는 각 외곽선 포인트와 타원 간의 거리(d)에 기초하여 에러 비율을 산출할 수 있다. 실시예로서, 이미지 처리 장치는 거리(d)의 절대값이 기준 값(예컨대, 0.1) 이하인 외곽선 포인트의 비율을 산출하고, 이 비율에 기초하여 에러 비율을 산출할 수 있다(S520). 이 경우, 거리(d)의 절대값이 기준 값 이하인지 여부는 아래 수학식 3을 이용하여 결정될 수 있다.Thereafter, the image processing apparatus may calculate an error rate based on the distance d between each outline point and the ellipse. In an embodiment, the image processing apparatus may calculate a ratio of outline points whose absolute value of the distance d is equal to or less than a reference value (for example, 0.1), and calculate an error ratio based on the ratio (S520). In this case, whether the absolute value of the distance d is less than or equal to the reference value may be determined using Equation 3 below.
Figure PCTKR2017004881-appb-M000003
Figure PCTKR2017004881-appb-M000003
다시 적으면,If you write it down again,
Figure PCTKR2017004881-appb-I000002
Figure PCTKR2017004881-appb-I000002
Figure PCTKR2017004881-appb-M000004
Figure PCTKR2017004881-appb-M000004
에러 비율이 산출된 경우, 이미지 처리 장치는 에러 비율에 기초하여 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식인지 여부를 결정할 수 있다(S530). 예를 들면, 이미지 처리 장치는 에러 비율이 기준 비율(예컨대, 0.1) 미만인 경우, 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식인 것으로 결정할 수 있다. 즉, 전체 외곽선 포인트들 중 타원과의 거리가 기준 거리를 초과하는 외곽선 포인트들의 비율이 기준 비율 미만인 경우, 이미지 처리 장치는 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식인 것으로 결정할 수 있다. 또는, 이미지 처리 장치는 에러 비율이 기준 비율(예컨대, 0.1) 미만인 경우, 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식이 아닌 것으로 결정할 수 있다.When the error ratio is calculated, the image processing apparatus may determine whether the elliptic equation is the final elliptic equation for the target object based on the error ratio (S530). For example, the image processing apparatus may determine that the elliptic equation is the final elliptic equation for the target object when the error rate is less than the reference ratio (eg, 0.1). That is, when the ratio of the outline points whose distance to the ellipse among the entire outline points exceeds the reference distance is less than the reference ratio, the image processing apparatus may determine that the elliptic equation is the final elliptic equation for the target object. Alternatively, the image processing apparatus may determine that the elliptic equation is not the final elliptic equation for the target object when the error rate is less than the reference ratio (eg, 0.1).
이러한 에러 비율이 기준 비율 미만인 타원 방정식이 산출된 실시예는 도 3(d)와 같고, 에러 비율이 기준 비율 미만인 타원 방정식이 산출된 실시예는 도 3(e)와 같을 수 있다. 이와 같이, 이미지 처리 장치는 외곽선 포인트들이 이 외곽선 포인트들에 의해 산출된 타원의 외곽선 위에 또는 기준 거리 이내에 어느 정도의 비율로 존재하는지, 즉, 외곽선 포인트와 타원이 얼마나 잘 피팅(fitting)되는지를 확인하고, 이에 기초하여 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정될 수 있는지를 결정할 수 있다. 이처럼 간단한 알고리즘을 이용하여 적은 연산량으로 처리되는 과정을 통해 타원 방정식을 평가함으로써, 이미지 처리 장치는 빠른 처리 속도로 타원 방정식을 평가할 수 있다.An embodiment in which an elliptic equation whose error rate is less than the reference ratio is calculated is shown in FIG. 3 (d), and an embodiment in which an elliptic equation in which the error rate is less than the reference ratio is calculated is shown in FIG. In this way, the image processing apparatus checks to what extent the outline points exist on or within the reference distance of the ellipse calculated by the outline points, i.e., how well the outline points and the ellipse fit. Based on this, it can be determined whether the elliptic equation can be recognized as the final elliptic equation for the target object. By evaluating the elliptic equation through a process that is processed with a small amount of calculation using this simple algorithm, the image processing apparatus can evaluate the elliptic equation at a high processing speed.
도 6은 본 발명의 일 실시예에 따른 타원 방정식에 대한 모양 정보 및 푸리에 디스크립터를 나타낸다. 6 shows shape information and Fourier descriptor for an elliptic equation according to an embodiment of the present invention.
본 명세서에서, 푸리에 디스크립터는 웨이블릿-기반 모양 디스크립터(wavelet-based shape descriptor), 삼각형-기반 모양 디스크립터(triangle-based shape descriptor), 타원-기반 모양 디스크립터(ellipse-based shape descriptor)와 같은 외곽선-기반 모양 디스크립터(contour-based shape descriptor)중 하나로서, 푸리에 모양 디스크립터 또는 푸리에 기반 모양 디스크립터 등으로 지칭될 수도 있다.In this specification, the Fourier descriptor is an outline-based such as a wavelet-based shape descriptor, a triangle-based shape descriptor, an ellipse-based shape descriptor. As one of the contour-based shape descriptors, it may be referred to as a Fourier shape descriptor or a Fourier-based shape descriptor.
이러한 푸리에 디스크립터는 특정 오브젝트의 모양에 대한 특성(모양 특성 또는 모양 시그니처)을 나타내는 모양 정보/데이터로부터 획득될 수 있다. 일 실시예에서, 모양 정보는 특정 오브젝트 또는 특정 오브젝트의 이미지의 외곽선 포인트들의 좌표로부터 획득될 수 있다. 다른 실시예에서, 모양 정보는 특정 오브젝트 또는 오브젝트 이미지의 외곽선 포인트들과 외곽선 포인트들의 무게 중심(또는, 중심(centroid)) 간의 반경 거리(radial distance)로부터 획득될 수 있다. 여기서, 반경 거리는 각도 변화(예컨대, 반시계 방향의 각도 변화)에 따른 외각선 포인트와 중심 간의 거리를 나타내는 정보일 수 있다. 이 경우, 모양 정보는 각도 변화에 따른 반경 거리를 나타내는 거리 함수의 형태일 수 있다. 즉, 모양 정보는 각도 변화에 따른 반경 거리를 나타내는 거리 함수로 표현되는 정보일 수 있다. 본 명세서에서, 모양 정보는 모양 함수, 거리 함수 등으로 지칭될 수 있다.Such a Fourier descriptor can be obtained from shape information / data that represents a characteristic (shape characteristic or shape signature) for the shape of a particular object. In one embodiment, the shape information may be obtained from the coordinates of the outline points of the particular object or image of the particular object. In another embodiment, shape information may be obtained from a radial distance between the outline points of a particular object or object image and the center of gravity (or centroid) of the outline points. Here, the radial distance may be information indicating the distance between the center point and the outer line point according to the angle change (eg, the counterclockwise angle change). In this case, the shape information may be in the form of a distance function indicating a radius distance according to the change in angle. That is, the shape information may be information expressed as a distance function indicating a radius distance according to the angle change. In the present specification, shape information may be referred to as a shape function, a distance function, or the like.
이하에서는 타원에 대한 모양 정보 및 푸리에 디스크립터에 대하여 예를 들어 설명한다. 이때, 설명의 편의를 위해, 도 6(a)와 같이, 중심이 (0,0)이고, 기울기(θc)가 0인 타원을 가정한다. 또한, 모양 정보는 상술한 반경 거리를 나타내는 거리 함수/정보에 의해 표현되는 정보인 것으로 가정한다. 이때, 이 타원의 타원 방정식은 아래 수학식 5와 같다.Hereinafter, shape information about an ellipse and a Fourier descriptor will be described by way of example. At this time, for convenience of explanation, assume an ellipse having a center of (0,0) and an inclination θc of zero, as shown in FIG. Further, it is assumed that the shape information is information represented by the distance function / information representing the above-described radial distance. At this time, the elliptic equation of the ellipse is as shown in Equation 5 below.
Figure PCTKR2017004881-appb-M000005
Figure PCTKR2017004881-appb-M000005
이러한 타원 위의 특정 좌표(xi, yi)에 대한 반경 거리는 아래 수학식 6을 통해 산출될 수 있다. The radial distance of the specific coordinates (xi, yi) on the ellipse may be calculated through Equation 6 below.
Figure PCTKR2017004881-appb-M000006
Figure PCTKR2017004881-appb-M000006
Figure PCTKR2017004881-appb-I000003
Figure PCTKR2017004881-appb-I000003
모양 정보는 이 반경 거리 정보(또는, 함수)에 기초하여 산출될 수 있다. 이렇게 산출된 모양 정보의 그래프는 도 6(b)와 같을 수 있다. 이러한 반경 거리 정보 또는 반경 거리 정보로부터 획득된 모양 정보의 특성을 살펴보면, 반경 거리 정보 또는 모양 정보에 대한 그래프에서 최대 피크(maximum peak) 값을 갖는 포인트 및 최소 피크(minimum peak) 값을 갖는 포인트는 해당 오브젝트에서의 모서리 또는 변곡점(예컨대, 포인트 a, b, c, d)일 수 있다. Shape information can be calculated based on this radial distance information (or function). The graph of the shape information thus calculated may be as shown in FIG. 6 (b). Looking at the characteristics of the shape information obtained from the radial distance information or the radial distance information, in the graph for the radial distance information or shape information, the point with the maximum peak value and the point with the minimum peak value are It may be an edge or an inflection point (eg, points a, b, c, d) in the object.
푸리에 디스크립터는 이 모양 정보를 푸리에 변환함으로써 획득될 수 있다. 이렇게 획득된 푸리에 디스크립터에 대한 그래프는 도 6(c)와 같을 수 있다. 이러한 푸리에 디스크립터는 해당 오브젝트 또는 오브젝트 이미지에 대한 모양 정보/특성을 주파수 성분 별로 나타낼 수 있다. 그런데, 일반적으로 특정 오브젝트에 대한 푸리에 디스크립터의 고주파 성분은 노이즈 성분으로 취급될 수 있다. 예를 들면, 타원 오브젝트의 경우, 도 6(c)에서와 같이, 푸리에 디스크립터의 고주파 성분은 노이즈로 취급될 수 있다. 따라서, 고역통과 필터(high-pass filter)를 통해 고주파 성분을 제거하면 해당 오브젝트의 노이즈 성분이 제거되므로, 이를 역푸리에 변환하여 노이즈가 제거된 외곽선을 갖는 오브젝트를 복원할 수 있다. 또한, 더 많은 고주파 성분을 제거할수록 해당 오브젝트는 점점 더 주요한 모양 특성만을 포함한 채 단순화될 수 있다. 이처럼 푸리에 디스크립터는 원래의 모양 특성을 유지하면서 특정 오브젝트 또는 오브젝트 이미지의 노이즈 부분을 제거하기 위해 사용될 수 있다.The Fourier descriptor can be obtained by Fourier transforming this shape information. The graph of the Fourier descriptor thus obtained may be as shown in FIG. 6 (c). Such a Fourier descriptor may represent shape information / characteristics of a corresponding object or object image for each frequency component. However, in general, the high frequency component of the Fourier descriptor for a specific object may be treated as a noise component. For example, in the case of an ellipse object, as shown in FIG. 6C, the high frequency component of the Fourier descriptor may be treated as noise. Therefore, when the high frequency component is removed through the high-pass filter, the noise component of the object is removed. Accordingly, the object having the outline from which the noise is removed may be restored by inverse Fourier transform. Also, as more high frequency components are removed, the object can be simplified with more and more major shape features only. As such, the Fourier descriptor can be used to remove the noise portion of a particular object or object image while maintaining its original shape characteristics.
이하에서는 도 7 내지 8을 참조하여 이미지 처리 장치가 타겟 오브젝트 이미지의 외곽선을 보정하는 방법에 대하여 설명한다. 이미지 처리 장치는 정확한 타원 방정식을 산출하기 위해 외곽선 보정을 수행할 수 있다. 이를 위해, 이미지 처리 장치는 상술한 푸리에 디스크립터를 이용할 수 있다. Hereinafter, a method of correcting the outline of the target object image by the image processing apparatus will be described with reference to FIGS. 7 to 8. The image processing apparatus may perform outline correction to calculate an accurate elliptic equation. To this end, the image processing apparatus may use the above-described Fourier descriptor.
도 7은 본 발명의 일 실시예에 따른 이미지 처리 장치가 타겟 오브젝트 이미지의 외곽선을 보정하는 단계를 나타내는 순서도이다. 도 8은 도 7의 외곽선 보정의 세부 단계를 나타내는 그래프의 예시이다. 도 8의 실시예에서, 타겟 오브젝트는 동공인 것으로 가정한다. 도 7 내지 8의 각 단계는 도 2에서 상술한 이미지 처리 장치 또는 이미지 처리 장치의 프로세서에 의해 수행될 수 있다.7 is a flowchart illustrating an operation of correcting an outline of a target object image by an image processing apparatus according to an exemplary embodiment. FIG. 8 is an example of a graph showing detailed steps of outline correction of FIG. 7. In the embodiment of FIG. 8, it is assumed that the target object is a pupil. Each step of FIGS. 7 to 8 may be performed by the image processing apparatus or the processor of the image processing apparatus described above with reference to FIG. 2.
도 7의 실시예에서, 타겟 오브젝트의 이미지의 외곽선을 보정하는 단계는 도 4의 단계(S460)일 수 있다. 즉, 타겟 오브젝트의 이미지의 외곽선을 보정하는 단계는 산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되지 않는 경우, 푸리에 디스크립터를 이용하여 타겟 오브젝트 이미지의 외곽선을 보정하는 단계일 수 있다. 실시예로서, 푸리에 디스크립터는 타겟 오브젝트 이미지의 모양 특성을 나타내는 모양 정보/데이터로부터 획득될 수 있다.In the embodiment of FIG. 7, the correcting the outline of the image of the target object may be the step S460 of FIG. 4. That is, the step of correcting the outline of the image of the target object may be a step of correcting the outline of the target object image using a Fourier descriptor when the calculated elliptic equation is not recognized as the final elliptic equation for the target object. As an embodiment, the Fourier descriptor may be obtained from shape information / data indicative of the shape characteristic of the target object image.
실시예로서, 외곽선 조정 과정은 푸리에 디스크립터를 이용하여 모양 정보에 대한 노이즈를 제거하는 과정 및 모양 정보의 기울기 특성을 이용하여 외곽선으로부터 타겟 오브젝트 이미지를 가리는 주변 오브젝트 이미지와 연관된 파트를 제거하는 과정을 포함할 수 있다. 이하에서는 단계(S710) 내지 단계(S730)을 참조하여 노이즈 제거 과정을 설명하고, 단계(S740) 내지 단계(S770)을 참조하여 주변 오브젝트 이미지와 연관된 파트를 제거하는 과정에 대하여 설명한다.In an embodiment, the process of adjusting the outline may include removing noise on the shape information using a Fourier descriptor and removing a part associated with the surrounding object image covering the target object image from the outline using a slope characteristic of the shape information. can do. Hereinafter, a process of removing noise will be described with reference to steps S710 to S730, and a process of removing a part associated with the surrounding object image will be described with reference to steps S740 to S770.
먼저, 이미지 처리 장치는 타겟 오브젝트 이미지에 대한 모양 정보를 획득할 수 있다(S710). 상술한 바와 같이, 모양 정보는 타겟 오브젝트 이미지의 모양 특성에 대한 정보를 제공할 수 있다. 이에 대하여는 도 6에서 상술한 바와 같다.First, the image processing apparatus may acquire shape information about the target object image (S710). As described above, the shape information may provide information about shape characteristics of the target object image. This is the same as described above with reference to FIG. 6.
일 실시예에서, 이미지 처리 장치는 타겟 오브젝트 이미지의 외곽선 포인트들의 좌표 정보에 기초하여 타겟 오브젝트 이미지에 대한 모양 정보를 획득할 수 있다. 예를 들면, 이미지 처리 장치는 동공 이미지의 외곽선 포인트들의 좌표 정보에 기초하여 동공 이미지에 대한 모양 정보를 획득할 수 있다.In an embodiment, the image processing apparatus may obtain shape information about the target object image based on coordinate information of outline points of the target object image. For example, the image processing apparatus may obtain shape information about the pupil image based on the coordinate information of the outline points of the pupil image.
다른 실시예에서, 이미지 처리 장치는 타겟 오브젝트 이미지의 각 외곽선 포인트와 그 외곽선 포인트들의 무게 중심 간의 반경 거리(radial distance)에 기초하여 타겟 오브젝트 이미지에 대한 모양 정보를 획득할 수 있다. 예를 들면, 이미지 처리 장치는 동공 이미지의 각 외곽선 포인트와 그 외곽선 포인트들의 중심 간의 반경 거리에 기초하여 동공 이미지에 대한 모양 정보를 획득할 수 있다. 예컨대, 도 3(a)의 눈 이미지로부터 획득된 동공 이미지에 대한 모양 정보를 나타내는 그래프는 도 8(a)와 같을 수 있다. 도시된 것처럼, 이 모양 정보의 그래프의 x 축은 각도를 나타내고, y축은 반경 거리를 나타낼 수 있다. 즉, 이 경우, 모양 정보는 각도 변화에 따른 거리를 나타내는 거리 함수의 형태일 수 있다.In another embodiment, the image processing apparatus may obtain shape information about the target object image based on a radial distance between each outline point of the target object image and the center of gravity of the outline points. For example, the image processing apparatus may obtain shape information about the pupil image based on a radius distance between each outline point of the pupil image and the center of the outline points. For example, a graph representing shape information of the pupil image obtained from the eye image of FIG. 3A may be the same as that of FIG. 8A. As shown, the x-axis of the graph of shape information may represent an angle and the y-axis may represent a radial distance. That is, in this case, the shape information may be in the form of a distance function representing the distance according to the angle change.
이미지 처리 장치는 모양 정보를 푸리에 변환하여 푸리에 디스크립터를 획득할 수 있다(S720). 이 경우, 푸리에 디스크립터는 타겟 오브젝트 이미지에 대한 모양 특성/정보를 주파수 성분 별로 나타낼 수 있다. 예를 들면, 푸리에 디스크립터는 동공 이미지에 대한 주파수 성분 별 모양 특성/정보를 제공할 수 있다. 이렇게 획득된 푸리에 디스크립터를 나타내는 그래프는 도 8(b)와 같을 수 있다. 도시된 것처럼, 이 푸리에 디스크립터의 그래프의 x축은 주파수를 나타내고, y축은 크기를 나타낼 수 있다. 도 8(b)에서와 같이, 동공 이미지에 대한 푸리에 디스크립터는 특정 주파수 이하의 주파수 성분에 대하여 크기(amplitude)가 집중된 형태를 보여준다. 즉, 타원 형태인 동공 이미지에 대한 푸리에 디스크립터는 저주파 성분에 크기가 집중된 형태를 가질 수 있다.The image processing apparatus may obtain a Fourier descriptor by Fourier transforming the shape information (S720). In this case, the Fourier descriptor may represent the shape characteristic / information of the target object image for each frequency component. For example, the Fourier descriptor may provide shape characteristics / information for each frequency component of the pupil image. The graph representing the Fourier descriptor thus obtained may be as shown in FIG. 8 (b). As shown, the x-axis of the graph of this Fourier descriptor may represent frequency and the y-axis may represent magnitude. As shown in FIG. 8 (b), the Fourier descriptor for the pupil image shows a form in which amplitudes are concentrated on frequency components below a specific frequency. That is, the Fourier descriptor for the elliptical pupil image may have a shape in which the size is concentrated in the low frequency component.
이미지 처리 장치는 푸리에 디스크립터의 저주파 영역을 추출하고, 저주파 영역을 역푸리에 변환하여 모양 정보를 복원할 수 있다(S730). 이를 통해, 모양 정보에 대한 노이즈가 제거될 수 있다.The image processing apparatus may recover the shape information by extracting the low frequency region of the Fourier descriptor and inversely transforming the low frequency region (S730). Through this, noise on shape information may be removed.
여기서, 저주파 영역은 미리 설정된 기준 주파수 보다 낮은 주파수 성분들을 포함하는 주파수 영역을 의미한다. 실시예로서, 기준 주파수는 복원된 모양 정보가 원래의 모양 특성을 유지하면서도, 노이즈가 충분히 제거된 상태가 되도록 하는 주파수일 수 있다. 이러한 기준 주파수는 예컨대, 타겟 오브젝트의 종류, 이미지의 해상도, 기타 여러 요인 등에 따라 다르게 설정될 수 있다. 즉, 기준 주파수는 가변적 또는 유동적일 수 있다.Here, the low frequency region means a frequency region including frequency components lower than a preset reference frequency. By way of example, the reference frequency may be a frequency that allows the recovered shape information to remain sufficiently free of noise while maintaining the original shape characteristics. The reference frequency may be set differently according to, for example, the type of the target object, the resolution of the image, and various other factors. That is, the reference frequency can be variable or flexible.
실시예로서, 이미지 처리 장치는 푸리에 디스크립터 정보의 최하위 주파수 성분(the lowest frequency component)부터 기준 주파수보다 낮은 주파수 성분(예컨대, 16 번째로 낮은 주파수 성분(16 lowest frequency component))까지의 저주파 영역 부분을 추출하고, 이를 역푸리에 변환하여 모양 정보를 복원할 수 있다. 이렇게 복원된 모양 정보는 원래 모양 특성을 유지하면서 노이즈가 제거된 상태일 수 있다. 이 노이즈가 제거된 모양 정보를 나타내는 그래프는 도 8(c)와 같을 수 있다. 이러한 도 8(c)는 도 8(a)의 모양 정보를 나타내는 그래프와 노이즈가 제거된 모양 정보를 나타내는 그래프를 비교하여 보여준다.In an embodiment, the image processing apparatus may include a portion of the low frequency region from the lowest frequency component of the Fourier descriptor information to a frequency component lower than the reference frequency (eg, the 16th lowest frequency component). The shape information can be recovered by extracting the inverse Fourier transform. The reconstructed shape information may be in a state where noise is removed while maintaining original shape characteristics. The graph showing the shape information from which the noise is removed may be as shown in FIG. FIG. 8 (c) shows a graph showing the shape information of FIG. 8 (a) and a graph showing the shape information from which noise is removed.
이미지 처리 장치는 모양 정보를 나타내는 그래프의 피크 값에 기초하여 타겟 오브젝트 이미지의 외곽선과 모양 정보의 그래프를 복수 개의 파트로 구분할 수 있다(S740). 실시예로서, 이미지 처리 장치는 모양 정보를 나타내는 그래프의 최대 피크(maximum peak) 값에 기초하여 타겟 오브젝트 이미지의 외곽선과 그래프를 복수 개의 파트로 세분화할 수 있다. 예를 들면, 이미지 처리 장치는 복원된 모양 정보를 나타내는 그래프의 최대 피크 값에 기초하여 동공 이미지의 외곽선과 모양 정보의 그래프를 도 8(d)에서와 같이 복수 개의 파트로 세분화할 수 있다.The image processing apparatus may divide the outline of the target object image and the graph of the shape information into a plurality of parts based on the peak value of the graph representing the shape information (S740). In an embodiment, the image processing apparatus may subdivide the outline and the graph of the target object image into a plurality of parts based on the maximum peak value of the graph representing the shape information. For example, the image processing apparatus may subdivide the graph of the outline of the pupil image and the shape information into a plurality of parts based on the maximum peak value of the graph representing the restored shape information as shown in FIG.
이 경우, 도 8(d)에 도시된 것처럼, 타겟 오브젝트 이미지의 외곽선의 각 파트는 모양 정보의 그래프의 각 파트와 일대일로 매칭될 수 있다. 즉, 도 8(d)의 왼쪽 도면의 외곽선의 파트 (1) 내지 (6)은 도 8(d)의 오른쪽 도면의 그래프의 파트 (a) 내지 (f)에 대응될 수 있다. 이때, 예를 들면, 도 8(d)의 오른쪽 도면에서와 같이, 타원 형태인 동공 이미지의 외곽선에서 직선 형태인 눈꺼풀 이미지에 의해 가려진 파트(파트 (a))는 무게 중심으로부터 멀리 위치하게 된다. 따라서, 파트 (a)는 최대 피크 값을 가지게 되므로, 도 8(d)의 왼쪽 도면에서와 같이, 파트 (a)가 모양 정보 그래프의 최대 피크 값을 갖는 파트 (1)에 대응될 수 있다. 이와 같은 방식으로, 이미지 처리 장치는 타겟 오브젝트 이미지의 외곽선의 각 파트와 모양 정보의 그래프의 각 파트를 일대일로 대응시킬 수 있다.In this case, as shown in FIG. 8D, each part of the outline of the target object image may be matched one-to-one with each part of the graph of shape information. That is, parts (1) to (6) of the outline of the left view of FIG. 8 (d) may correspond to parts (a) to (f) of the graph of the right view of FIG. 8 (d). At this time, for example, as shown in the right drawing of FIG. 8 (d), the part (part (a)) covered by the linear eyelid image in the outline of the oval pupil image is located far from the center of gravity. Therefore, since part (a) has a maximum peak value, as shown in the left figure of FIG. 8 (d), part (a) may correspond to part (1) having the maximum peak value of the shape information graph. In this manner, the image processing apparatus may correspond one-to-one to each part of the outline of the target object image and each part of the graph of the shape information.
이미지 처리 장치는 모양 정보를 나타내는 그래프의 1차 그래디언트(first order gradient)를 산출할 수 있다(S750). 이렇게 산출된 1차 그래디언트의 그래프는 도 8(e)와 같을 수 있다.The image processing apparatus may calculate a first order gradient of a graph representing shape information (S750). The graph of the primary gradient thus calculated may be as shown in FIG. 8 (e).
이미지 처리 장치는 각 파트 별 최대-최소 그래디언트(max-min gradient)를 산출할 수 있다(S760). 즉, 이미지 처리 장치는 각 파트 별로 최대 그래디언트와 최소 그래디언트의 차이를 산출할 수 있다. 이렇게 산출된 최대-최소 그래디언트는 도 8(e)에 화살표로 표시된 것과와 같을 수 있다. 이때, 도 8(e)에서와 같이, 눈꺼풀 이미지에 의해 가려진 파트(파트 (1))는 거의 직선의 형태를 가지므로, 가장 큰 최대-최소 그래디언트 값을 가질 수 있다.The image processing apparatus may calculate a max-min gradient for each part (S760). That is, the image processing apparatus may calculate a difference between the maximum gradient and the minimum gradient for each part. The maximum-minimum gradient thus calculated may be as indicated by the arrow in FIG. 8 (e). In this case, as shown in FIG. 8E, the part (part 1) covered by the eyelid image is almost straight, and thus may have the largest maximum-minimum gradient value.
이미지 처리 장치는 최대-최소 그래디언트가 가장 큰 파트를 타겟 오브젝트 이미지의 외곽선에서 제거할 수 있다(S770). 실시예로서, 이미지 처리 장치는 최대-최소 그래디언트가 가장 큰 파트와 연관된 외곽선 포인트들의 전부 또는 일부를 제거함으로써, 최대-최소 그래디언트가 가장 큰 파트를 타겟 오브젝트 이미지의 외곽선에서 제거할 수 있다. 이를 통해, 이미지 처리 장치는 타겟 오브젝트 이미지의 외곽선을 보정할 수 있다. 이와 같이, 이미지 처리 장치는 모양 정보의 기울기 특성(예컨대, 1차 그래디언트 값)을 이용하여, 타겟 오브젝트 이미지의 외곽선으로부터 타겟 오브젝트 이미지와 상이한 모양 특성을 갖는 주변 오브젝트 이미지에 의해 가려지는 부분의 전부 또는 일부를 제거할 수 있다.The image processing apparatus may remove the part having the largest maximum-minimum gradient from the outline of the target object image (S770). In an embodiment, the image processing apparatus may remove all or some of the outline points associated with the part having the largest minimum-minimum gradient, thereby removing the part having the largest maximum-minimum gradient from the outline of the target object image. In this way, the image processing apparatus may correct the outline of the target object image. As described above, the image processing apparatus may use all of the portions that are covered by the peripheral object image having the shape characteristics different from the target object image from the outline of the target object image, using the slope characteristic (eg, the primary gradient value) of the shape information. Some can be removed.
이렇게 보정된 타겟 오브젝트 이미지의 외곽선은 도 8(f)와 같을 수 있다. 도 8(f)에서와 같이, 동공 이미지의 보정된 외곽선은 눈꺼풀 이미지에 의해 가려진 파트(파트 (a))의 일부 또는 전부가 제거된 상태임을 확인할 수 있다.The outline of the corrected target object image may be as shown in FIG. 8 (f). As shown in FIG. 8 (f), the corrected outline of the pupil image may be a state in which part or all of the part (part (a)) covered by the eyelid image is removed.
도 9 및 10은 본 발명의 일 실시예에 따른 이미지 처리 장치가 외곽선 보정을 수행하기 이전 또는 이후의 외곽선에 기초하여 산출된 타원의 변화를 나타낸다. 한편, 도 9는 눈 이미지 상의 타원의 변화를 보여주고, 도 10은 타겟 오브젝트 이미지의 외곽선 상의 타원의 변화를 보여준다.9 and 10 illustrate changes in an ellipse calculated based on an outline before or after the image processing apparatus according to an embodiment of the present invention performs outline correction. Meanwhile, FIG. 9 shows a change of an ellipse on the eye image, and FIG. 10 shows a change of an ellipse on the outline of the target object image.
도 9(a) 및 10(a)는 이미지 처리 장치가 타겟 오브젝트 이미지의 외곽선 보정을 수행하기 이전의 타원 오브젝트 이미지의 외곽선(a3)에 기초하여 산출된 타원(a1)(또는, 타원의 외곽선)을 나타낸다. 도 9(a) 및 10(a)에서와 같이, 산출된 타원(a1)은 타겟 오브젝트 이미지의 외곽선(a3)과 실질적으로 일치하지 않는다. 상술한 바와 같이, 이는 해당 외곽선이 타원의 형태가 아닌 주변 오브젝트에 의해 가려지는 파트를 포함하고 있기 때문이다. 따라서, 이미지 처리 장치는 산출된 타원 방정식을 타겟 오브젝트에 대한 최종 타원 방정식으로 인정할 수 없고, 타겟 오브젝트 이미지의 외곽선 보정을 수행할 수 있다. 또한, 이미지 처리 장치는 타겟 오브젝트 이미지의 보정된 외곽선에 기초하여 타원 방정식을 다시 산출하고, 다시 산출된 타원 방정식이 타겟 오브젝트에 대한 최종 타원 방정식으로 인정될 수 있는지 여부를 결정할 수 있다. 이렇게 다시 산출된 타원 방정식에 의해 표현되는 타원(a2)(또는, 타원의 외곽선)은 도 9(b) 및 10(b)와 같을 수 있다.9 (a) and 10 (a) show an ellipse a1 (or an outline of an ellipse) calculated based on an outline a3 of an ellipse object image before the image processing apparatus performs outline correction of the target object image. Indicates. 9 (a) and 10 (a), the calculated ellipse a1 does not substantially coincide with the outline a3 of the target object image. As described above, this is because the outline includes a part that is covered by the surrounding object rather than an ellipse. Therefore, the image processing apparatus may not recognize the calculated elliptic equation as the final elliptic equation for the target object, and may perform outline correction of the target object image. Also, the image processing apparatus may recalculate an elliptic equation based on the corrected outline of the target object image, and determine whether the recalculated elliptic equation may be recognized as the final elliptic equation for the target object. The ellipse a2 (or the outline of the ellipse) represented by the elliptic equation thus calculated may be the same as in FIGS. 9B and 10B.
도 9(b) 및 10(b)는 이미지 처리 장치가 타겟 오브젝트 이미지의 외곽선 보정을 수행한 이후의 타원 오브젝트 이미지의 외곽선(a4)에 기초하여 산출된 타원(a2)을 나타낸다. 도 9(b) 및 10(b)와 같이, 다시 산출된 타원(a2)은 타겟 오브젝트 이미지의 외곽선(a4)과 실질적으로 일치할 수 있다. 상술한 바와 같이, 이는 해당 외곽선이 주변 오브젝트에 의해 가려지는 파트가 제거되도록 보정되었기 때문이다. 따라서, 이미지 처리 장치는 산출된 타원 방정식을 타겟 오브젝트에 대한 최종 타원 방정식으로 인정할 수 있고, 최종 타원 방정식을 이용하여 타겟 오브젝트의 크기, 모양 또는 위치 중 적어도 하나에 대한 정보를 획득할 수 있다. 한편, 산출된 타원이 타겟 오브젝트 이미지의 외곽선과 실질적으로 일치하는지 여부는 도 5에서 상술한 타원 방정식 평가를 통해 확인될 수 있다.9B and 10B illustrate an ellipse a2 calculated based on an outline a4 of an ellipse object image after the image processing apparatus performs outline correction of the target object image. As illustrated in FIGS. 9B and 10B, the recalculated ellipse a2 may substantially coincide with the outline a4 of the target object image. As described above, this is because the part whose outline is covered by the surrounding object is corrected to be removed. Accordingly, the image processing apparatus may recognize the calculated elliptic equation as the final elliptic equation for the target object, and acquire information on at least one of the size, shape, or position of the target object by using the final elliptic equation. Meanwhile, whether or not the calculated ellipse substantially coincides with the outline of the target object image may be confirmed by evaluating the elliptic equation described above with reference to FIG. 5.
도 9(c)는 이미지 처리 장치가 타겟 오브젝트 이미지의 외곽선 보정을 수행하기 이전 또는 이후의 산출된 타원을 비교한 도면이다. 도 9(c)에 도시된 것처럼, 외곽선 보정이 수행된 이후에 산출된 타원(a2)은 외곽선 보정이 수행되기 이전에 산출된 타원(a1)과 비교하여 타겟 오브젝트 이미지의 외곽선에 더 잘 매칭됨을 확인할 수 있다.FIG. 9 (c) is a diagram comparing the calculated ellipses before or after the image processing apparatus performs outline correction of the target object image. As shown in FIG. 9C, the ellipse a2 calculated after the outline correction is more closely matched to the outline of the target object image compared to the ellipse a1 calculated before the outline correction is performed. You can check it.
도 11은 본 발명의 일 실시예에 따른 타원 방정식 평가 및 외곽선 보정의 수행 유무에 따라 타원 방적식에 기초하여 타겟 오브젝트의 크기를 추정한 결과의 비교를 보여준다. 도 11의 실시예에서, 타겟 오브젝트는 동공인 것으로 가정한다. 이 경우, 타겟 오브젝트의 크기는 동공의 넓이/면적(area)일 수 있다. 동공의 넓이는 아래에 수학식을 통해산출될 수 있다.11 is a comparison of results obtained by estimating the size of a target object based on an elliptic equation according to an elliptic equation evaluation and an outline correction according to an embodiment of the present invention. In the embodiment of FIG. 11, it is assumed that the target object is a pupil. In this case, the size of the target object may be the area / area of the pupil. The area of the pupil can be calculated through the equation below.
동공의 넓이(area) = a * b * πPupil area = a * b * π
여기서, a 및 b는 각각 타원의 장축 및 단축의 길이를 나타낸다.Here, a and b represent the length of the long axis and short axis of the ellipse, respectively.
도 11의 실시예에서, 계열 1은 타원 방정식 평가 및 외곽선 보정이 수행되지 않는 경우의 결과 그래프를 나타내고, 계열 2는 타원 방정식 평가 및 외곽선 보정이 수행된 경우의 결과 그래프를 나타낸다. 해당 그래프의 x축은 영상 이미지의 프레임 번호를 나타내고, y축은 동공의 넓이를 나타낸다. 또한, 해당 그래프는 각각 10 개의 프레임에 대해 중간값 필터(median filter)를 사용한 그래프일 수 있다.In the example of FIG. 11, series 1 shows a result graph when elliptic equation evaluation and outline correction are not performed, and series 2 shows a result graph when elliptic equation evaluation and outline correction are performed. The x-axis of the graph represents the frame number of the video image, and the y-axis represents the width of the pupil. In addition, the graph may be a graph using a median filter for each of 10 frames.
도 11을 참조하면, 계열 2의 경우, 계열 1의 경우에 비해, 실제 동공의 넓이의 변화를 더 정확하게 표현할 수 있다. 즉, 타원 방정식 평가 및 외곽선 보정이 수행된 경우, 더 정확하게 실제 동공의 넓이 변화에 대한 정보를 획득할 수 있다.Referring to FIG. 11, in the case of series 2, a change in the area of an actual pupil may be represented more accurately than in the case of series 1. That is, when elliptic equation evaluation and outline correction are performed, it is possible to more accurately obtain information about the actual change in the pupil area.
도 12는 본 발명의 일 실시예에 따른 이미지 처리 장치의 이미지 처리 방법에 대한 연산 시간을 보여준다.12 illustrates a calculation time for an image processing method of an image processing apparatus according to an embodiment of the present invention.
도 12를 참조하면, 전체 프로세스를 위한 전체 연산 시간에서, 제안하는 타원 방정식 평가 및 외곽선 보정의 수행을 위한 연산 시간이 차지하는 비중이 매우 작음을 알 수 있다. 따라서, 제안하는 타원 방정식 평가 및 외곽선 보정의 수행에 따라 추가되는 연산 시간은 전체 연산 시간의 증가에 큰 영향을 미치지 않는다. 즉, 제안하는 타원 방정식 평가 및 외곽선 보정의 수행은 매우 빠른 속도로 수행될 수 있다. 다시 말해, 제안하는 타원 방정식 평가 및 외곽선 보정의 수행은 적은 연산량으로 수행될 수 있다. 이를 통해, 이미지 처리 장치는 동공 또는 홍채의 모양을 실시간으로 추정할 수 있다.Referring to FIG. 12, it can be seen that, in the total computation time for the entire process, the proportion of computation time for performing the proposed elliptic equation evaluation and outline correction is very small. Therefore, the additional computation time according to the proposed elliptic equation evaluation and outline correction does not significantly affect the increase of the total computation time. In other words, the proposed elliptic equation evaluation and outline correction can be performed very quickly. In other words, the proposed elliptic equation evaluation and outline correction can be performed with a small amount of computation. Through this, the image processing apparatus may estimate the shape of the pupil or the iris in real time.
## 이하에서는 상술한 이미지 처리 장치가 포함되거나 또는 이미지 처리 장치에 해당하는 예시적인 장치 또는 시스템에 대하여 설명한다. 다만, 도 13 내지 17의 실시예의 EBI 디바이스 또는 EBI 시스템은 이미지 처리 장치가 포함되거나 이미지 처리 장치에 해당할 수 있는 장치 또는 시스템의 일 예에 불과하고, 이미지 처리 장치는 다양한 다른 장치에 포함되거나, 또는 다른 장치로 구현될 수 있다.## Hereinafter, an exemplary apparatus or system including the image processing apparatus described above or corresponding to the image processing apparatus will be described. However, the EBI device or EBI system of the embodiment of FIGS. 13 to 17 is merely an example of an apparatus or system that may include or correspond to an image processing apparatus, and the image processing apparatus may be included in various other apparatuses, Or other device.
도 13은 본 발명의 일 실시예에 따른 아이브레인 인터페이스 시스템을 도시한 도면이다. 도 14는 본 발명의 일 실시예에 따른 호스트 디바이스 및 슬레이브 디바이스의 블록도이다.FIG. 13 illustrates an iBrain interface system according to an exemplary embodiment of the present invention. FIG. 14 is a block diagram of a host device and a slave device according to an embodiment of the present invention.
도 13을 참조하면, 본 발명의 일 실시예에 따른 아이브레인 인터페이스(EyeBrain Interface: EBI) 시스템은 호스트 디바이스(150)와 슬레이브 디바이스(100)를 포함할 수 있다. Referring to FIG. 13, an EyeBrain Interface (EBI) system according to an embodiment of the present invention may include a host device 150 and a slave device 100.
슬레이브 디바이스(100)는 사용자가 착용 가능한 다양한 형태의 웨어러블(wearable) 디바이스를 나타낼 수 있다. 예를 들어, 슬레이브 디바이스(100)는 HMD(Head Mounted Display), 헤드셋, 스마트 링, 스마트 와치, 이어셋, 이어폰 등 사용자의 신체 일부에 접촉/착용되는 디바이스를 나타낼 수 있다. 슬레이브 디바이스(100)는 적어도 하나의 센서를 포함하여 사용자의 신체 일부를 통한 사용자의 생체 신호를 센싱할 수 있다. 여기서 생체 신호는 사용자의 맥박, 혈압, 뇌파 등 사용자의 의식적 및/또는 무의식적(예를 들어, 호흡, 심장 박동, 신진 대사 등) 행동에 따라 사용자의 신체로부터 발생하는 다양한 신호를 나타낼 수 있다. 특히, 본 명세서에서 슬레이브 디바이스(100)는 사용자의 생체 신호로서 사용자의 뇌파를 센싱하고 센싱 결과를 호스트 디바이스(150)로 전송할 수 있다. The slave device 100 may represent various types of wearable devices that can be worn by a user. For example, the slave device 100 may represent a device that contacts / wears on a user's body part such as a head mounted display (HMD), a headset, a smart ring, a smart watch, an earset, an earphone, and the like. The slave device 100 may include at least one sensor to sense the biosignal of the user through a body part of the user. Here, the biosignal may represent various signals generated from the user's body according to the user's conscious and / or unconscious (eg, breathing, heartbeat, metabolism, etc.) behavior such as pulse, blood pressure, brain wave, and the like. In particular, in the present specification, the slave device 100 may sense the brain wave of the user as the biosignal of the user and transmit the sensing result to the host device 150.
호스트 디바이스(150)는 슬레이브 디바이스(100)로부터 수신한 생체 신호의 센싱 결과에 기초하여 동작하는 디바이스를 나타낼 수 있다. 보다 상세하게는, 호스트 디바이스(150)는 슬레이브 디바이스(100)로부터 사용자의 생체 신호 센싱 결과를 수신하고, 수신한 센싱 결과에 기초하여 다양한 동작을 수행하는 다양한 전자 디바이스일 수 있다. 호스트 디바이스(150)는, 예를 들어, TV, 스마트폰, 태블릿 PC, 스마트 카, PC, 노트북 등의 다양한 전자 디바이스일 수 있다. The host device 150 may represent a device operating based on a sensing result of the biosignal received from the slave device 100. In more detail, the host device 150 may be various electronic devices that receive a biosignal sensing result of the user from the slave device 100 and perform various operations based on the received sensing result. The host device 150 may be, for example, various electronic devices such as a TV, a smartphone, a tablet PC, a smart car, a PC, a laptop, and the like.
EBI 시스템은 슬레이브 디바이스(100)와 호스트 디바이스(150)를 포함하여 사용자의 생체 신호에 기초한 제어 방식을 제공한다. 따라서, 사용자는 시스템에 대해 의도된 별도의 입력을 수행하지 않아도, 시스템이 사용자의 생체 신호를 센싱함으로써 사용자 의도를 직접 파악하여, 이에 따라 제어된다. 그 결과, EBI 시스템은 사용자에게 보다 편리하고 의도에 부합하는 제어 방식을 제공한다. 이하에서는 이러한 슬레이브 디바이스(100)와 호스트 디바이스(150)의 구성에 대하여 보다 상세히 살펴보기로 한다. The EBI system includes a slave device 100 and a host device 150 to provide a control scheme based on a biosignal of a user. Thus, even if the user does not perform a separate input intended for the system, the system directly senses the user's intention by sensing the user's biosignal and is controlled accordingly. As a result, the EBI system provides the user with a more convenient and intentional control method. Hereinafter, the configuration of the slave device 100 and the host device 150 will be described in more detail.
도 13 및 14를 참조하면, 슬레이브 디바이스(100)는 포지션 마커 유닛(120), 시선 추적 유닛(130), 뇌파 센싱 유닛(110), 센서 유닛(260), 통신 유닛(250) 및 프로세서(240)를 포함할 수 있다. 13 and 14, the slave device 100 includes a position marker unit 120, a gaze tracking unit 130, an EEG sensing unit 110, a sensor unit 260, a communication unit 250, and a processor 240. ) May be included.
포지션 마커 유닛(120)은 빛을 발광하는 적어도 하나의 발광 소자(예를 들어, 적외선 LED 등)를 포함할 수 있다. 호스트 디바이스(150)는 슬레이브 디바이스(100)의 포지션 마커 유닛을 실시간으로 트래킹할 수 있으며, 이로써 슬레이브 디바이스(100)를 착용한 사용자의 위치, 포지션, 호스트 디바이스(150)와 사용자와의 거리, 및 상대적인 위치 등(이하, ‘사용자의 포지션’)을 디텍트할 수 있다. The position marker unit 120 may include at least one light emitting device (eg, an infrared LED) that emits light. The host device 150 may track the position marker unit of the slave device 100 in real time, whereby the position of the user wearing the slave device 100, the position, the distance between the host device 150 and the user, and The relative position, etc. (hereinafter, 'user's position') can be detected.
포지션 마커 유닛(120)이 복수의 발광 소자들을 포함하는 경우, 복수의 발광 소자들은 기설정된 거리만큼 이격되어 포지션 마커 유닛(120)에 위치할 수 있다. 이 경우, 호스트 디바이스(150)는 각 포지션 마커 유닛(120)의 발광 소자들을 트래킹하고, 발광 소자들 사이의 이격 거리를 실시간으로 측정함으로써 호스트 디바이스(150)와 사용자 사이의 상대적인 거리를 디텍트할 수 있다. 예를 들어, 포지션 마커 유닛(120)이 호스트 디바이스(150)로부터 멀어지는 경우 호스트 디바이스(150)에서 측정되는 발광 소자들 사이의 이격 거리는 감소하며, 포지션 마커 유닛(120)이 호스트 디바이스(150)와 가까워지는 경우 호스트 디바이스(150)에서 측정되는 발광 소자들 사이의 이격 거리는 증가할 수 있다. 이에 기초하여, 호스트 디바이스(150)는 실시간으로 측정한 발광 소자들 사이의 이격 거리와 실제 발광 소자들 사이의 기설정된 이격 거리 사이의 비율을 계산하여 이를 통해 호스트 디바이스(150)와 사용자 사이의 상대적인 거리를 산출할 수 있다. When the position marker unit 120 includes a plurality of light emitting elements, the plurality of light emitting elements may be positioned in the position marker unit 120 spaced apart by a predetermined distance. In this case, the host device 150 may detect the relative distance between the host device 150 and the user by tracking the light emitting elements of each position marker unit 120 and measuring the separation distance between the light emitting elements in real time. Can be. For example, when the position marker unit 120 moves away from the host device 150, the separation distance between the light emitting elements measured in the host device 150 is reduced, and the position marker unit 120 is connected to the host device 150. When approaching, the separation distance between the light emitting devices measured by the host device 150 may increase. Based on this, the host device 150 calculates a ratio between the separation distance between the light emitting devices measured in real time and the predetermined separation distance between the actual light emitting devices, and thereby calculates the relative distance between the host device 150 and the user. The distance can be calculated.
이외에도, 사용자의 포지션을 트래킹하기 위한 포지션 마커 유닛(120)은 다양한 형태로 슬레이브 디바이스(100)에 포함될 수 있으며, 호스트 디바이스(150)는 이러한 포지션 마커 유닛들(120)의 위치, 크기, 포함하고 있는 발광 소자들의 개수, 위치, 이격 거리 등에 기초하여 사용자의 포지션을 디텍트할 수 있다. In addition, the position marker unit 120 for tracking a user's position may be included in the slave device 100 in various forms, and the host device 150 includes the position, size, and location of these position marker units 120. The position of the user may be detected based on the number, location, and separation distance of the light emitting devices.
시선 추적 유닛(130)은 사용자의 시선을 추적할 수 있다. 시선 추적 유닛(130)은 사용자의 시선(눈의 움직임)을 실시간으로 추적하기 위해 사용자의 눈 주위에 위치하도록 슬레이브 디바이스(100)에 구비될 수 있다. The gaze tracking unit 130 may track the gaze of the user. The gaze tracking unit 130 may be provided in the slave device 100 to be positioned around the eyes of the user to track the eyes of the user (eye movement) in real time.
시선 추적 유닛(130)은 빛을 발광하는 발광 소자(예를 들어, 적외선 LED) 및 발광 소자로부터 발광된 빛을 수용(또는 센싱)하는 카메라 센서를 포함할 수 있다. 시선 추적 유닛(130)은 사용자의 눈으로부터 반사된 빛을 카메라 센서로 촬영하고, 촬영된 이미지를 프로세서(240)로 전송할 수 있다(비디오 분석 방식). 이하에서는 설명의 편의를 위해 비디오 분석 방식이 적용된 시선 추적 유닛(130)을 기준으로 설명하나, 이에 한정되는 것은 아니며, 시선 추적 유닛(130)은 상술한 비디오 분석 방식 외에도 콘택트 렌즈 방식(거울 내장 콘택트 렌즈의 반사된 빛이나, 코일 내장 콘택트 렌즈의 자기장을 이용하는 시선 추적 방식) 또는 센서 부착 방식(눈 주위에 센서를 부착하여 눈의 움직임에 따른 전기장을 이용하는 시선 추적 방식) 등을 이용하여 사용자의 시선을 추적할 수 있다. The eye tracking unit 130 may include a light emitting device (eg, an infrared LED) that emits light and a camera sensor that receives (or senses) the light emitted from the light emitting device. The gaze tracking unit 130 may photograph light reflected from the user's eyes with a camera sensor and transmit the photographed image to the processor 240 (video analysis method). Hereinafter, for convenience of description, the eye tracking unit 130 to which the video analysis method is applied will be described as a reference, but is not limited thereto. The eye tracking unit 130 may include a contact lens method (mirror built-in contact) in addition to the above-described video analysis method. User's eyes using the reflected light of the lens, the eye tracking method using the magnetic field of the coiled contact lens) or the sensor attachment method (the eye tracking method using the electric field according to the eye movement by attaching the sensor around the eyes) Can be tracked.
뇌파 센싱 유닛(110)은 사용자의 뇌파를 센싱할 수 있다. 뇌파 센싱 유닛(110)은 적어도 하나의 EEG(Electroencephalogram) 센서 및/또는 MEG(Magnetoencephalography), NIRS(Near-Infrared Spectrometer)를 포함할 수 있다. 뇌파 센싱 유닛(110)은, 사용자가 슬레이브 디바이스(100)의 착용 시 사용자의 뇌파가 측정될 수 있는 신체(예를 들어, 머리) 접촉 위치에 구비되어, 사용자의 뇌파를 측정할 수 있다. 뇌파 센싱 유닛(110)은 접촉된 사용자의 신체 부위로부터 발생되는 다양한 주파수의 뇌파 혹은 뇌의 활성화 상태에 따라 변하는 전기적/광학적 주파수를 측정하게 된다. The EEG sensing unit 110 may sense the EEG of the user. The EEG sensing unit 110 may include at least one electroencephalogram (EGE) sensor and / or a magnettoencephalography (MEG) and a near-infrared spectrometer (NIRS). The brain wave sensing unit 110 may be provided at a body (eg, head) contact position where the brain wave of the user may be measured when the user wears the slave device 100, and measure the brain wave of the user. The EEG sensing unit 110 measures an electrical / optical frequency that varies according to the EEG of the various frequencies generated from the body part of the contacted user or the activation state of the brain.
뇌파는 생체 신호이기 때문에, 사용자마다 차이가 존재한다. 따라서, 동일한 인지 상태(예를 들어, 집중/비집중/선택/탐색 등)에서도 사용자별로 서로 다른 패턴의 뇌파가 추출될 수 있다. 그 결과, 단순히 사용자의 뇌파를 추출하고 이를 일률적인 기준으로 분석하는 것은, 사용자의 현재 인지 상태를 구별하는 데 정확도가 떨어진다. 따라서, 뇌파를 기초로 사용자의 인지 상태를 정확하게 측정하기 위해, 본 명세서는 사용자별 현재 인지 상태에 따른 뇌파의 캘리브레이션 방법을 제공한다. Since EEG is a biosignal, there is a difference between users. Therefore, even in the same cognitive state (for example, concentration / defocus / selection / search, etc.), different patterns of EEG can be extracted for each user. As a result, simply extracting the brain waves of the user and analyzing them on a uniform basis is less accurate in distinguishing the user's current cognitive state. Therefore, in order to accurately measure the cognitive state of the user based on the EEG, the present disclosure provides a calibration method of the EEG according to the current cognitive state for each user.
센서 유닛(260)은 적어도 하나의 센싱 수단을 포함하고, 이를 이용하여 디바이스(100)의 주위 환경을 센싱할 수 있다. 또한, 센서 유닛(260)은 센싱 결과를 프로세서로 전달할 수 있다. 특히, 본 명세서에서 센서 유닛은 슬레이브 디바이스(100)의 움직임, 이동 등을 센싱하고 센싱 결과를 프로세서(240)로 전달할 수 있다. The sensor unit 260 may include at least one sensing means, and may sense the surrounding environment of the device 100 using the sensing means. In addition, the sensor unit 260 may transmit the sensing result to the processor. In particular, in the present specification, the sensor unit may sense a movement, a movement, and the like of the slave device 100 and transmit a sensing result to the processor 240.
센서 유닛(260)은 센싱 수단으로서 IMU(Inertia Measurement Unit) 센서, 중력(gravity) 센서, 지자기 센서, 모션 센서, 자이로 센서, 액셀레로미터(Accelerometer), 마그네토미터(Magnetometer), 가속도 센서, 적외선 센서, 기울기(inclination) 센서, 고도 센서, 적외선 센서, 조도 센서, GPS(Global Positioning System) 센서 등을 포함할 수 있다. 센서 유닛(260)은 상술한 다양한 센싱 수단을 통칭하는 것으로, 사용자의 다양한 입력 및 디바이스의 환경을 센싱하여, 프로세서가 그에 따른 작동을 수행할 수 있도록 센싱 결과를 전달할 수 있다. 상술한 센싱 수단들은 별도의 엘리먼트로 슬레이브 디바이스(100)에 포함되거나, 적어도 하나 이상의 엘리먼트로 통합되어 포함될 수 있다.The sensor unit 260 is an inertia measurement unit (IMU) sensor, a gravity sensor, a geomagnetic sensor, a motion sensor, a gyro sensor, an accelerometer, a magnetometer, an acceleration sensor, an infrared ray as a sensing means. The sensor may include an inclination sensor, an altitude sensor, an infrared sensor, an illuminance sensor, a global positioning system (GPS) sensor, and the like. The sensor unit 260 collectively refers to the various sensing means described above. The sensor unit 260 may sense various user inputs and environment of the device, and may transmit a sensing result to allow the processor to perform an operation accordingly. The above-described sensing means may be included in the slave device 100 as a separate element or integrated into at least one or more elements.
통신 유닛(250)은 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 데이터를 송/수신할 수 있다. 통신 유닛(250)은 유선 또는 무선으로 네트워크에 접속하여, 다양한 신호 및/또는 데이터를 송/수신할 수 있다. 슬레이브 디바이스(100)는 통신 유닛(250)을 사용하여 호스트 디바이스(150)와 페어링을 수행할 수 있다. 또한, 슬레이브 디바이스(100)는 통신 유닛(250)을 이용하여 호스트 디바이스(150)와 다양한 신호/데이터를 송수신할 수 있다.The communication unit 250 may communicate with an external device using various protocols, and may transmit / receive data through the communication unit 250. The communication unit 250 may connect to a network by wire or wirelessly to transmit / receive various signals and / or data. The slave device 100 may perform pairing with the host device 150 using the communication unit 250. In addition, the slave device 100 may transmit / receive various signals / data with the host device 150 using the communication unit 250.
프로세서(240)는 포지션 마커 유닛(120), 시선 추적 유닛(130), 뇌파 센싱 유닛(110), 센서 유닛(260), 및 통신 유닛(250)을 제어할 수 있다. 프로세서(240)는 상술한 유닛들간의 신호(또는 데이터)의 송/수신을 제어할 수도 있다. The processor 240 may control the position marker unit 120, the eye tracking unit 130, the brain wave sensing unit 110, the sensor unit 260, and the communication unit 250. The processor 240 may control transmission / reception of signals (or data) between the above-described units.
특히, 본 명세서에서 프로세서(240)는 슬레이브 디바이스(100)에 구비된 적어도 하나의 센서로부터 수신한 센싱 결과를 호스트 디바이스(150)로 전송할 수 있다. 본 명세서에서 센싱 결과는 슬레이브 디바이스(100)에 구비된 적어도 하나의 센서를 이용하여 획득된 로우 데이터(raw data) 또는 로우 데이터가 기설정된 알고리즘을 통해 프로세싱된 데이터를 의미할 수 있다.In particular, in the present specification, the processor 240 may transmit a sensing result received from at least one sensor provided in the slave device 100 to the host device 150. In the present specification, the sensing result may refer to raw data obtained by using at least one sensor included in the slave device 100 or data processed through a predetermined algorithm.
이외에도, 프로세서(240)는 사용자의 시선 및 뇌파를 캘리브레이션하기 위한 다양한 동작을 수행할 수 있는데, 이와 관련하여서는 도 6 내지 13에서 상세히 후술하기로 한다. In addition, the processor 240 may perform various operations for calibrating the user's gaze and brain waves, which will be described in detail later with reference to FIGS. 6 to 13.
이상으로 본 발명의 일 실시예에 따라 슬레이브 디바이스(100)에 포함된 구성 유닛들에 대해 살펴보았다. 슬레이브 디바이스(100)는 도 1 및 2에 도시된 구성 유닛들 중 일부를 선택적으로 포함할 수 있으며, 이외에도 메모리 유닛, 카메라 유닛, 전력 공급 유닛 등 디바이스의 사용 목적 및 동작을 위해 필요로 하는 다양한 유닛들이 추가로 포함될 수 있다. In the above, the configuration units included in the slave device 100 according to an embodiment of the present invention have been described. The slave device 100 may optionally include some of the configuration units shown in FIGS. 1 and 2, and in addition, various units required for the purpose and operation of the device, such as a memory unit, a camera unit, and a power supply unit. May be further included.
호스트 디바이스(150)는 카메라 유닛(140), 디스플레이 유닛(210), 통신 유닛(230), 및 프로세서(220)를 포함할 수 있다. The host device 150 may include a camera unit 140, a display unit 210, a communication unit 230, and a processor 220.
카메라 유닛(140)은 슬레이브 디바이스(100)의 포지션 마커 유닛(120)을 촬영할 수 있다. 보다 상세하게는, 카메라 유닛(140)은 슬레이브 디바이스(100)의 포지션 마커 유닛(120)을 촬영하여 포지션 마커 유닛(120)에 대한 촬영 이미지를 획득할 수 있다. 카메라 유닛(140)은 획득한 촬영 이미지를 프로세서(220)로 전송할 수 있으며, 프로세서(220)는 촬영 이미지를 프로세싱하여 슬레이브 디바이스(100)를 착용한 사용자의 포지션을 획득할 수 있다. 이 경우, 프로세서(220)는 포지션 마커 유닛들(120)의 위치, 크기, 포함하고 있는 발광 소자들의 개수, 위치, 이격 거리 등을 분석하여 사용자의 포지션을 획득할 수 있다. The camera unit 140 may photograph the position marker unit 120 of the slave device 100. In more detail, the camera unit 140 may capture the position marker unit 120 of the slave device 100 to obtain a captured image of the position marker unit 120. The camera unit 140 may transmit the acquired captured image to the processor 220, and the processor 220 may process the captured image to acquire a position of a user wearing the slave device 100. In this case, the processor 220 may acquire the position of the user by analyzing the position and size of the position marker units 120, the number of the light emitting elements included therein, the position, and the separation distance.
카메라 유닛(140)은 화각이 약 60도 이상인 광각 카메라로 구성될 수 있다. 카메라 유닛(140)이 일반 카메라(화각이 60도 미만인 카메라)로 구성되는 경우, 호스트 디바이스(150)의 전방 약 60도의 좌우각, 슬레이브 디바이스(100)와 호스트 디바이스(150) 사이의 약 60~90cm 범위에서 사용자의 포지션 트래킹이 가능하다. 그러나, 카메라 유닛(140)이 광각 카메라(화각이 60도 이상인 카메라)로 구성되는 경우에는 호스트 디바이스(150)의 전방 약 170도의 좌우각, 및 슬레이브 디바이스(100)와 호스트 디바이스(150) 사이의 거리 약 3m 범위까지도 사용자의 포지션 트래킹이 가능하다. 따라서, 본 발명의 카메라 유닛(140)은 보다 정확한 사용자의 포지션 데이터를 획득하기 위해 광각 카메라로서 구성될 수 있다. The camera unit 140 may be configured as a wide angle camera having an angle of view of about 60 degrees or more. When the camera unit 140 is configured as a general camera (camera having an angle of view of less than 60 degrees), the left and right angles of about 60 degrees in front of the host device 150, about 60 to about between the slave device 100 and the host device 150. You can track your position in the 90cm range. However, when the camera unit 140 is configured with a wide angle camera (camera having an angle of view of 60 degrees or more), the left and right angles of about 170 degrees in front of the host device 150, and between the slave device 100 and the host device 150 Position tracking is possible up to a distance of about 3m. Thus, the camera unit 140 of the present invention can be configured as a wide angle camera to obtain more accurate position data of the user.
디스플레이 유닛(210)은 이미지를 디스플레이할 수 있다. 여기서 이미지란, 화면 상에 디스플레이될 수 있는 정지 영상, 동영상, 텍스트, VR(Virtual Reality) 이미지, AR(Augment Reality) 이미지 또는 이들을 포함하는 기타 다양한 시각적 표현을 나타낼 수 있다. 디스플레이 유닛(210)은 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode; OLED), 3차원 디스플레이(3D display), 투명 유기 발광 다이오드(Transparent OLED; TOLED) 중에서 적어도 하나를 포함할 수 있다. 또한, 디스플레이 유닛(210)은 메탈 호일(metal hoil), 박형 유리(very thin grass) 또는 플라스틱 기판으로 제조될 수 있다. 특히, 플라스틱 기판의 경우 PC 기판, PET 기판, PES 기판, PI 기판, PEN 기판, AryLite 기판 등이 사용될 수 있다.The display unit 210 may display an image. Here, the image may represent a still image, a moving image, text, a virtual reality (VR) image, an AR (Augment Reality) image, or various other visual expressions including the same, which may be displayed on the screen. The display unit 210 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode (OLED), a 3D display, a transparent It may include at least one of a transparent OLED (TOLED). In addition, the display unit 210 may be made of a metal foil, very thin grass, or a plastic substrate. In particular, in the case of a plastic substrate, a PC substrate, a PET substrate, a PES substrate, a PI substrate, a PEN substrate, an AryLite substrate, or the like may be used.
통신 유닛(230)은 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 데이터를 송/수신할 수 있다. 통신 유닛(230)은 유선 또는 무선으로 네트워크에 접속하여, 다양한 신호 및/또는 데이터를 송/수신할 수 있다. 호스트 디바이스(150)는 통신 유닛(230)을 사용하여 슬레이브 디바이스(100)와 페어링을 수행할 수 있다. 또한, 호스트 디바이스(150)는 통신 유닛(230)을 이용하여 슬레이브 디바이스(100)와 다양한 신호/데이터를 송수신할 수 있다.The communication unit 230 may communicate with an external device using various protocols, and may transmit / receive data through the communication device 230. The communication unit 230 may connect to a network by wire or wirelessly to transmit / receive various signals and / or data. The host device 150 may perform pairing with the slave device 100 using the communication unit 230. In addition, the host device 150 may transmit / receive various signals / data with the slave device 100 using the communication unit 230.
프로세서(220)는 카메라 유닛(140), 디스플레이 유닛(210), 및 통신 유닛(230)을 제어할 수 있다. 프로세서(220)는 상술한 유닛들간의 신호(또는 데이터)의 송/수신을 제어할 수도 있다.The processor 220 may control the camera unit 140, the display unit 210, and the communication unit 230. The processor 220 may control transmission / reception of signals (or data) between the above-described units.
특히, 본 명세서에서 프로세서(220)는 슬레이브 디바이스(100)로부터 수신한 센싱 결과에 대응하는 다양한 커맨드(또는 동작)를 수행할 수 있다. 예를 들어, 센싱 결과로서 사용자의 시선 좌표가 수신된 경우, 프로세서(220)는 해당 시선 좌표와 맵핑되는 디스플레이 유닛(210) 상 특정 위치의 비주얼 오브젝트(예를 들어, 아이콘)를 선택하는 커맨드를 수행할 수 있다. 나아가, 센싱 결과로서 “집중” 상태에 해당하는 사용자 뇌파 데이터가 수신된 경우, 프로세서(220)는 선택된 비주얼 오브젝트를 실행(예를 들어, 선택된 아이콘과 대응하는 어플리케이션을 실행)하는 커맨드를 수행할 수 있다. In particular, in the present specification, the processor 220 may perform various commands (or operations) corresponding to the sensing result received from the slave device 100. For example, when the gaze coordinates of the user are received as a result of sensing, the processor 220 may execute a command for selecting a visual object (eg, an icon) at a specific position on the display unit 210 mapped to the gaze coordinates. Can be done. In addition, when user EEG data corresponding to the “focused” state is received as the sensing result, the processor 220 may execute a command for executing the selected visual object (eg, executing an application corresponding to the selected icon). have.
다만, 이 경우, 프로세서(220)가 수신한 사용자의 시선 좌표가 디스플레이 유닛(210)상의 어떤 지점과 맵핑되는지 알기 위해선, 사용자의 특정 시선 좌표와 디스플레이 유닛(210) 상의 특정 좌표를 상호 맵핑시키는 시선 캘리브레이션이 선행될 필요가 있다. 또한, 앞서 언급한 바와 같이, 사용자마다 인지 상태에 따른 뇌파 패턴이 상이하므로, 사용자의 특정 인지 상태와 특정 주파수의 뇌파를 상호 맵핑시키는 뇌파 캘리브레이션 역시 선행될 필요가 있다. 이에, 본 발명은 사용자의 시선과 뇌파를 동시에 캘리브레이션하는 EBC(Eye Brain Calibration) 인터페이스를 제공할 수 있다.However, in this case, in order to know which point on the display unit 210 the gaze coordinates of the user received are mapped to the display unit 210, the gaze for mapping the specific gaze coordinates of the user and the specific coordinates on the display unit 210 to each other. Calibration needs to be preceded. In addition, as mentioned above, since the EEG pattern according to the cognitive state is different for each user, the EEG calibration for mapping the specific cognitive state of the user and the EEG of a specific frequency also needs to be preceded. Accordingly, the present invention can provide an EBC (Eye Brain Calibration) interface for simultaneously calibrating the user's gaze and brain waves.
이상으로 본 발명의 일 실시예에 따라 호스트 디바이스(150)에 포함된 구성 유닛들에 대해 살펴보았다. 호스트 디바이스(150)는 도 13 및 14에 도시된 구성 유닛들 중 일부를 선택적으로 포함할 수 있으며, 이외에도 센서 유닛, 메모리 유닛, 전력 공급 유닛 등 디바이스의 사용 목적 및 동작을 위해 필요로 하는 다양한 유닛들이 추가로 포함될 수 있다. In the above, the configuration units included in the host device 150 have been described. The host device 150 may optionally include some of the configuration units shown in FIGS. 13 and 14, and in addition, various units required for the purpose and operation of the device, such as a sensor unit, a memory unit, and a power supply unit. May be further included.
도 15는 본 발명의 일 실시예에 따른 아이브레인 인터페이스(EBI) 디바이스를 도시한 도면이다. 도 16은 본 발명의 일 실시예에 따른 EBI 디바이스의 블록도이다. FIG. 15 illustrates an iBrain interface (EBI) device according to an embodiment of the present invention. 16 is a block diagram of an EBI device in accordance with an embodiment of the present invention.
본 명세서에서 EBI 디바이스(400)는 도 1 내지 3과 관련하여 상술한 슬레이브 디바이스(100)와 호스트 디바이스(150)가 하나의 디바이스로 통합된 형태의 디바이스를 나타낼 수 있다. 따라서, EBI 디바이스(400)는 생체 신호를 직접 센싱하고, 센싱 결과에 기초하여 다양한 동작을 수행할 수 있다. In the present specification, the EBI device 400 may represent a device in which the slave device 100 and the host device 150 described above with reference to FIGS. 1 to 3 are integrated into one device. Therefore, the EBI device 400 may directly sense the biosignal and perform various operations based on the sensing result.
도 15 및 16를 참조하면, EBI 디바이스(400)는 사용자의 신체에 착용 가능한 웨어러블 디바이스 형태로 구성될 수 있다. EBI 디바이스(400)는 뇌파 센싱 유닛(500), 시선 추적 유닛(510), 통신 유닛(530), 디스플레이 유닛(540) 및 프로세서(520)를 포함할 수 있다. EBI 디바이스(400)에 포함된 유닛들에 관한 설명은 도 14에서 상술한 설명과 중복되므로, 이하에서는 차이점을 중심으로 설명한다.15 and 16, the EBI device 400 may be configured in the form of a wearable device that can be worn on a user's body. The EBI device 400 may include an EEG sensing unit 500, a gaze tracking unit 510, a communication unit 530, a display unit 540, and a processor 520. Since the description of the units included in the EBI device 400 overlaps with the description above with reference to FIG. 14, the following description will focus on the differences.
뇌파 센싱 유닛(500)은 사용자의 뇌파를 센싱할 수 있다. 뇌파 센싱 유닛(500)은 적어도 하나의 EEG(Electroencephalogram) 센서 및/또는 MEG(Magnetoencephalography)를 포함할 수 있다. 뇌파 센싱 유닛(500)은, 사용자가 EBI 디바이스의 착용 시 사용자의 뇌파가 측정될 수 있는 신체(예를 들어, 머리) 접촉 위치에 구비되어, 사용자의 뇌파를 측정할 수 있다. The EEG sensing unit 500 may sense the EEG of the user. The EEG sensing unit 500 may include at least one electroencephalogram (EGE) sensor and / or a magnettoencephalography (MEG). The brain wave sensing unit 500 may be provided at a body (eg, head) contact position where the user's brain wave may be measured when the user wears the EBI device, and measure the brain wave of the user.
시선 추적 유닛(510)은 사용자의 시선을 추적할 수 있다. 시선 추적 유닛(510)은 사용자의 시선(눈의 움직임)을 실시간으로 추적하기 위해 사용자의 눈 주위에 위치하도록 EBI 디바이스(400)에 구비될 수 있다. 시선 추적 유닛(510)은 빛을 발광하는 발광 소자(예를 들어, 적외선 LED) 및 발광 소자로부터 발광된 빛을 수용(또는 센싱)하는 카메라 센서를 포함할 수 있다. 이러한 시선 추적 유닛(51)에 의해 촬영된 눈 이미지는 도 15(c)와 같을 수 있다. 이에 대하여는 도 2에서 상술한 바와 같다.The gaze tracking unit 510 may track the eyes of the user. The gaze tracking unit 510 may be provided in the EBI device 400 to be positioned around the eyes of the user to track the eyes of the user (eye movement) in real time. The gaze tracking unit 510 may include a light emitting device (eg, an infrared LED) that emits light and a camera sensor that receives (or senses) the light emitted from the light emitting device. The eye image photographed by the eye tracking unit 51 may be as shown in FIG. 15C. This is the same as described above with reference to FIG. 2.
통신 유닛(530)은 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 데이터를 송/수신할 수 있다. 통신 유닛(530)은 유선 또는 무선으로 네트워크에 접속하여, 다양한 신호 및/또는 데이터를 송/수신할 수 있다. The communication unit 530 may communicate with an external device using various protocols, and may transmit / receive data through the communication unit 530. The communication unit 530 may connect to a network by wire or wirelessly to transmit / receive various signals and / or data.
디스플레이 유닛(540)은 이미지를 디스플레이할 수 있다. 여기서 이미지란, 화면 상에 디스플레이될 수 있는 정지 영상, 동영상, 텍스트, VR(Virtual Reality) 이미지, AR(Augment Reality) 이미지 또는 이들을 포함하는 기타 다양한 시각적 표현을 나타낼 수 있다.The display unit 540 may display an image. Here, the image may represent a still image, a moving image, text, a virtual reality (VR) image, an AR (Augment Reality) image, or various other visual expressions including the same, which may be displayed on the screen.
프로세서(520)는 뇌파 센싱 유닛(500), 시선 추적 유닛(510), 통신 유닛(530), 디스플레이 유닛(540), 및 통신 유닛(530)을 제어할 수 있다. 프로세서(520)는 상술한 유닛들간의 신호(또는 데이터)의 송/수신을 제어할 수도 있다. 프로세서(520)는 뇌파 센싱 유닛(500) 및/또는 시선 추적 유닛(510)으로부터 수신한 센싱 결과에 대응하는 다양한 동작을 수행할 수 있다. The processor 520 may control the EEG sensing unit 500, the eye tracking unit 510, the communication unit 530, the display unit 540, and the communication unit 530. The processor 520 may control transmission / reception of signals (or data) between the above-described units. The processor 520 may perform various operations corresponding to the sensing result received from the EEG sensing unit 500 and / or the gaze tracking unit 510.
이상으로 본 발명의 일 실시예에 따라 EBI 디바이스(400)에 포함된 구성 유닛들에 대해 살펴보았다. EBI 디바이스(400)는 도 16에 도시된 구성 유닛들 중 일부를 선택적으로 포함할 수 있으며, 이외에도 센서 유닛, 메모리 유닛, 전력 공급 유닛 등 디바이스(400)의 사용 목적 및 동작을 위해 필요로 하는 다양한 유닛들이 추가로 포함될 수 있다. In the above, the configuration units included in the EBI device 400 according to an embodiment of the present invention have been described. The EBI device 400 may optionally include some of the component units shown in FIG. 16. In addition, the EBI device 400 may further include various sensors required for the purpose and operation of the device 400 such as a sensor unit, a memory unit, and a power supply unit. Units may be further included.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 또한, 표시 장치는 상술한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.For convenience of description, the drawings are divided and described, but the embodiments described in each drawing may be merged to implement a new embodiment. In addition, the display device is not limited to the configuration and method of the embodiments described as described above, the above embodiments are configured by selectively combining all or some of the embodiments so that various modifications can be made May be
또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구 범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, while the preferred embodiments have been shown and described, the present specification is not limited to the above-described specific embodiments, and those skilled in the art without departing from the scope of the claims. Various modifications can be made by the user, and these modifications should not be understood individually from the technical spirit or prospect of the present specification.
다양한 실시예가 본 발명을 실시하기 위한 최선의 형태에서 설명되었다.Various embodiments have been described in the best mode for carrying out the invention.
본 발명의 사용자의 뇌파 및 시선을 이용한 다양한 제어 시스템에서 사용될 수 있다. It can be used in various control systems using brain waves and gaze of the user of the present invention.

Claims (16)

  1. 눈 이미지(eye image)를 획득하는 단계;Obtaining an eye image;
    상기 눈 이미지로부터 동공 또는 홍채에 해당하는 타겟 오브젝트의 이미지의 외곽선(contour)을 검출하는 단계;Detecting an outline of an image of a target object corresponding to a pupil or an iris from the eye image;
    상기 외곽선에 기초하여 상기 타겟 오브젝트에 대한 타원 방정식을 산출하고, 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정하는 단계; Calculating an elliptic equation for the target object based on the outline, and determining whether the elliptic equation is recognized as a final elliptic equation for the target object;
    상기 타원 방정식이 상기 최종 타원 방정식으로 인정되지 않는 경우, 푸리에 디스크립터(fourier descriptor)를 이용하여 상기 타겟 오브젝트 이미지의 외곽선을 보정하는 단계로서, 상기 푸리에 디스크립터는 상기 타겟 오브젝트 이미지의 모양 특성을 나타내는 모양 정보로부터 획득되고; 및 If the elliptic equation is not recognized as the final elliptic equation, correcting an outline of the target object image using a Fourier descriptor, wherein the Fourier descriptor is shape information indicating a shape characteristic of the target object image. Obtained from; And
    상기 타원 방정식이 상기 최종 타원 방정식으로 인정되는 경우, 상기 최종 타원 방정식을 이용하여 상기 타겟 오브젝트의 크기(area), 모양(shape) 또는 위치(location) 중 적어도 하나에 대한 정보를 획득하는 단계를 포함하는, 이미지 처리 방법.If the elliptic equation is recognized as the final elliptic equation, obtaining information on at least one of an area, a shape, or a location of the target object using the final elliptic equation. Image processing method.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 타겟 오브젝트 이미지의 외곽선이 보정된 경우, 상기 최종 타원 방정식으로 인정되는지 여부를 결정하는 단계는 상기 보정된 외곽선 기초하여 상기 타겟 오브젝트에 대한 타원 방정식을 다시 산출하고, 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정하는, 이미지 처리 방법.When the outline of the target object image is corrected, determining whether the target elliptic equation is recognized is recalculated an elliptic equation for the target object based on the corrected outline, and the elliptic equation is applied to the target object. Image processing method for determining whether or not to be accepted as the final elliptic equation.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 최종 타원 방정식으로 인정되는지 여부를 결정하는 단계는:Determining whether or not the final elliptic equation is recognized is:
    상기 외곽선을 구성하는 각 외곽선 포인트와 상기 타원 방정식을 갖는 타원 간의 거리에 기초하여 에러 비율을 산출하고, 상기 에러 비율에 기초하여 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식인지 여부를 결정하는 단계를 포함하는, 이미지 처리 방법.Calculating an error ratio based on a distance between each outline point constituting the outline and an ellipse having the elliptic equation, and determining whether the elliptic equation is a final elliptic equation for the target object based on the error ratio. Image processing method comprising a.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 모양 정보는 상기 외곽선을 구성하는 외곽선 포인트들의 무게 중심과 각 외각선 포인트 간의 반경 거리(radial distance)에 기초하여 획득되는, 이미지 처리 방법.And the shape information is obtained based on a radial distance between the center of gravity of the outline points constituting the outline and each outline point.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 타겟 오브젝트 이미지의 외곽선을 보정하는 단계는:Correcting an outline of the target object image may include:
    상기 푸리에 디스크립터를 이용하여 상기 모양 정보에 대한 노이즈를 제거하는 단계; 및 Removing noise on the shape information by using the Fourier descriptor; And
    상기 모양 정보의 기울기 특성을 이용하여 상기 외곽선으로부터 상기 타겟 오브젝트 이미지를 가리는 주변 오브젝트 이미지와 연관된 파트를 제거하는 단계를 포함하는, 이미지 처리 방법.And removing a part associated with the surrounding object image that obscures the target object image from the outline using the slope characteristic of the shape information.
  6. 제 5 항에 있어서,The method of claim 5, wherein
    상기 모양 정보에 대한 노이즈를 제거하는 단계는:Removing noise for the shape information is:
    상기 푸리에 디스크립터의 저주파 영역을 추출하는 단계; 및Extracting a low frequency region of the Fourier descriptor; And
    상기 저주파 영역을 역푸리에 변환하여 상기 모양 정보를 복원하는 단계를 포함하는, 이미지 처리 방법. Restoring the shape information by inverse Fourier transforming the low frequency region.
  7. 제 6 항에 있어서,The method of claim 6,
    상기 저주파 영역은 기준 주파수 보다 낮은 주파수 성분들을 포함하는 주파수 영역인, 이미지 처리 방법.And the low frequency region is a frequency region comprising frequency components lower than a reference frequency.
  8. 제 5 항에 있어서,The method of claim 5, wherein
    상기 주변 오브젝트 이미지와 연관된 파트를 제거하는 단계는:Removing the part associated with the surrounding object image may include:
    상기 모양 정보를 나타내는 그래프의 피크 값에 기초하여 상기 타겟 오브젝트 이미지의 외곽선과 상기 모양 정보의 그래프를 복수 개의 파트로 구분하는 단계;Dividing the outline of the target object image and the graph of the shape information into a plurality of parts based on a peak value of the graph representing the shape information;
    각 파트 별로 최대-최소 그래디언트(max-min gradient)를 산출하는 단계; 및Calculating a max-min gradient for each part; And
    상기 최대-최소 그래디언트의 값이 가장 큰 파트를 제거하는 단계를 포함하는, 이미지 처리 방법.Removing the part having the largest value of the maximum-minimum gradient.
  9. 이미지 처리 장치에 있어서,In the image processing apparatus,
    데이터를 저장하는 메모리; 및A memory for storing data; And
    메모리에 연결되는 프로세서를 포함하고, 상기 프로세서는:A processor coupled to the memory, the processor comprising:
    눈 이미지(eye image)를 획득하고,Acquire an eye image,
    상기 눈 이미지로부터 동공 또는 홍채에 해당하는 타겟 오브젝트의 이미지의 외곽선(contour)을 검출하고,Detecting the contour of the image of the target object corresponding to the pupil or iris from the eye image,
    상기 외곽선에 기초하여 상기 타겟 오브젝트에 대한 타원 방정식을 산출하고, 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정하고,Calculate an elliptic equation for the target object based on the outline, determine whether the elliptic equation is recognized as the final elliptic equation for the target object,
    상기 타원 방정식이 상기 최종 타원 방정식으로 인정되지 않는 경우, 푸리에 디스크립터(fourier descriptor)를 이용하여 상기 타겟 오브젝트 이미지의 외곽선을 보정하되, 상기 푸리에 디스크립터는 상기 타겟 오브젝트 이미지의 모양 특성을 나타내는 모양 정보로부터 획득되고, If the elliptic equation is not recognized as the final elliptic equation, the outline of the target object image is corrected using a Fourier descriptor, and the Fourier descriptor is obtained from shape information representing the shape characteristic of the target object image. Become,
    상기 타원 방정식이 상기 최종 타원 방정식으로 인정되는 경우, 상기 최종 타원 방정식을 이용하여 상기 타겟 오브젝트의 크기(area), 모양(shape) 또는 위치(location) 중 적어도 하나에 대한 정보를 획득하는, 이미지 처리 장치.Image processing, if the elliptic equation is recognized as the final elliptic equation, obtains information on at least one of the area, shape, or location of the target object using the final elliptic equation. Device.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 타겟 오브젝트 이미지의 외곽선이 보정된 경우, 상기 최종 타원 방정식으로 인정되는지 여부를 결정하는 것은 상기 보정된 외곽선 기초하여 상기 타겟 오브젝트에 대한 타원 방정식을 다시 산출하고, 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식으로 인정되는지 여부를 결정하는 것인, 이미지 처리 장치.When the outline of the target object image is corrected, determining whether or not it is recognized as the final elliptic equation recalculates an elliptic equation for the target object based on the corrected outline, and the elliptic equation for the target object Determining whether the final elliptic equation is accepted.
  11. 제 9 항에 있어서,The method of claim 9,
    상기 최종 타원 방정식으로 인정되는지 여부를 결정하는 것은:To determine whether the final elliptic equation is recognized is:
    상기 외곽선을 구성하는 각 외곽선 포인트와 상기 타원 방정식을 갖는 타원 간의 거리에 기초하여 에러 비율을 산출하고, 상기 에러 비율에 기초하여 상기 타원 방정식이 상기 타겟 오브젝트에 대한 최종 타원 방정식인지 여부를 결정하는 것을 포함하는, 이미지 처리 장치.Calculating an error ratio based on a distance between each outline point constituting the outline and an ellipse having the elliptic equation, and determining whether the elliptic equation is a final elliptic equation for the target object based on the error ratio. And an image processing apparatus.
  12. 제 9 항에 있어서,The method of claim 9,
    상기 모양 정보는 상기 외곽선을 구성하는 외곽선 포인트들의 무게 중심과 각 외각선 포인트 간의 반경 거리(radial distance)에 기초하여 획득되는, 이미지 처리 장치.And the shape information is obtained based on a radial distance between the center of gravity of the outline points constituting the outline and each outline point.
  13. 제 9 항에 있어서,The method of claim 9,
    상기 타겟 오브젝트 이미지의 외곽선을 보정하는 것은:Correcting the outline of the target object image is:
    상기 푸리에 디스크립터를 이용하여 상기 모양 정보에 대한 노이즈를 제거하는 것; 및 Removing noise on the shape information using the Fourier descriptor; And
    상기 모양 정보의 기울기 특성을 이용하여 상기 외곽선으로부터 상기 타겟 오브젝트 이미지를 가리는 주변 오브젝트 이미지와 연관된 파트를 제거하는 것을 포함하는, 이미지 처리 장치.And removing a part associated with the surrounding object image that obscures the target object image from the outline using the slope characteristic of the shape information.
  14. 제 13 항에 있어서,The method of claim 13,
    상기 모양 정보에 대한 노이즈를 제거하는 것은:To remove noise for the shape information:
    상기 푸리에 디스크립터의 저주파 영역을 추출하는 것; 및Extracting a low frequency region of the Fourier descriptor; And
    상기 저주파 영역을 역푸리에 변환하여 상기 모양 정보를 복원하는 것을 포함하는, 이미지 처리 장치. And restoring the shape information by inverse Fourier transforming the low frequency region.
  15. 제 14 항에 있어서,The method of claim 14,
    상기 저주파 영역은 기준 주파수 보다 낮은 주파수 성분들을 포함하는 주파수 영역인, 이미지 처리 장치.And the low frequency region is a frequency region that includes frequency components lower than a reference frequency.
  16. 제 15 항에 있어서,The method of claim 15,
    상기 주변 오브젝트 이미지와 연관된 파트를 제거하는 것은:Removing the part associated with the surrounding object image is:
    상기 모양 정보를 나타내는 그래프의 피크 값에 기초하여 상기 타겟 오브젝트 이미지의 외곽선과 상기 모양 정보의 그래프를 복수 개의 파트로 구분하는 것;Dividing the outline of the target object image and the graph of the shape information into a plurality of parts based on a peak value of the graph representing the shape information;
    각 파트 별로 최대-최소 그래디언트(max-min gradient)를 산출하는 것; 및Calculating a max-min gradient for each part; And
    상기 최대-최소 그래디언트의 값이 가장 큰 파트를 제거하는 것을 포함하는, 이미지 처리 장치.And removing the part having the largest value of the maximum-minimum gradient.
PCT/KR2017/004881 2017-05-11 2017-05-11 Image processing device and method WO2018207959A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2017/004881 WO2018207959A1 (en) 2017-05-11 2017-05-11 Image processing device and method
KR1020197025494A KR20190107738A (en) 2017-05-11 2017-05-11 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004881 WO2018207959A1 (en) 2017-05-11 2017-05-11 Image processing device and method

Publications (1)

Publication Number Publication Date
WO2018207959A1 true WO2018207959A1 (en) 2018-11-15

Family

ID=64105631

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/004881 WO2018207959A1 (en) 2017-05-11 2017-05-11 Image processing device and method

Country Status (2)

Country Link
KR (1) KR20190107738A (en)
WO (1) WO2018207959A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651394A (en) * 2020-12-31 2021-04-13 北京一起教育科技有限责任公司 Image detection method and device and electronic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070160267A1 (en) * 2006-01-11 2007-07-12 Jones Michael J Method for localizing irises in images using gradients and textures
KR100794361B1 (en) * 2006-11-30 2008-01-15 연세대학교 산학협력단 The eyelid detection and eyelash interpolation method for the performance enhancement of iris recognition
US20080170760A1 (en) * 2007-01-17 2008-07-17 Donald Martin Monro Shape representation using fourier transforms
US20110150334A1 (en) * 2008-07-23 2011-06-23 Indian University & Technology Corporation System and method for non-cooperative iris image acquisition
KR20140106926A (en) * 2013-02-27 2014-09-04 한국전자통신연구원 Apparatus and method for detect pupil

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070160267A1 (en) * 2006-01-11 2007-07-12 Jones Michael J Method for localizing irises in images using gradients and textures
KR100794361B1 (en) * 2006-11-30 2008-01-15 연세대학교 산학협력단 The eyelid detection and eyelash interpolation method for the performance enhancement of iris recognition
US20080170760A1 (en) * 2007-01-17 2008-07-17 Donald Martin Monro Shape representation using fourier transforms
US20110150334A1 (en) * 2008-07-23 2011-06-23 Indian University & Technology Corporation System and method for non-cooperative iris image acquisition
KR20140106926A (en) * 2013-02-27 2014-09-04 한국전자통신연구원 Apparatus and method for detect pupil

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651394A (en) * 2020-12-31 2021-04-13 北京一起教育科技有限责任公司 Image detection method and device and electronic equipment
CN112651394B (en) * 2020-12-31 2023-11-14 北京一起教育科技有限责任公司 Image detection method and device and electronic equipment

Also Published As

Publication number Publication date
KR20190107738A (en) 2019-09-20

Similar Documents

Publication Publication Date Title
WO2017104869A1 (en) Eye-brain interface (ebi) system and method for controlling same
WO2018155892A1 (en) Method for displaying virtual image, storage medium and electronic device therefor
WO2016018108A1 (en) Apparatus and method for enhancing accuracy of a contactless body temperature measurement
WO2020036343A1 (en) Electronic device and control method thereof
WO2019088769A1 (en) Open api-based medical information providing method and system
WO2018012945A1 (en) Method and device for obtaining image, and recording medium thereof
WO2015183033A1 (en) Data processing method and electronic device thereof
WO2018236058A1 (en) Electronic device for providing property information of external light source for interest object
EP3920782A1 (en) Wearable electronic device including biometric sensor and wireless charging module
WO2015122566A1 (en) Head mounted display device for displaying augmented reality image capture guide and control method for the same
WO2018216868A1 (en) Electronic device and input processing method of input device
WO2020197153A1 (en) Electronic device for screening risk of obstructive sleep apnea, and operation method therefor
WO2018097683A1 (en) Electronic device, external electronic device and method for connecting electronic device and external electronic device
EP3921808A1 (en) Apparatus and method for displaying contents on an augmented reality device
WO2018208093A1 (en) Method for providing haptic feedback, and electronic device for performing same
WO2020256325A1 (en) Electronic device and method for providing function by using corneal image in electronic device
US11029754B2 (en) Calibration method, portable device, and computer-readable storage medium
WO2020242087A1 (en) Electronic device and method for correcting biometric data on basis of distance between electronic device and user, measured using at least one sensor
WO2016021907A1 (en) Information processing system and method using wearable device
WO2018080202A1 (en) Head-mounted display device and method for controlling same
WO2018207959A1 (en) Image processing device and method
WO2021177622A1 (en) Wearable electronic device for providing virtual image
JP2005261728A (en) Line-of-sight direction recognition apparatus and line-of-sight direction recognition program
US11137600B2 (en) Display device, display control method, and display system
WO2020022750A1 (en) Electronic device capable of providing multiple focal points for light outputted from display

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17909467

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197025494

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17909467

Country of ref document: EP

Kind code of ref document: A1