WO2006013669A1 - 瞳孔検出装置および虹彩認証装置 - Google Patents

瞳孔検出装置および虹彩認証装置 Download PDF

Info

Publication number
WO2006013669A1
WO2006013669A1 PCT/JP2005/009419 JP2005009419W WO2006013669A1 WO 2006013669 A1 WO2006013669 A1 WO 2006013669A1 JP 2005009419 W JP2005009419 W JP 2005009419W WO 2006013669 A1 WO2006013669 A1 WO 2006013669A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
pupil
integration
circle
circles
Prior art date
Application number
PCT/JP2005/009419
Other languages
English (en)
French (fr)
Inventor
Morio Sugita
Masahiro Wakamori
Takeshi Fujimatsu
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US10/558,536 priority Critical patent/US20070071287A1/en
Priority to EP05743316A priority patent/EP1796033A1/en
Publication of WO2006013669A1 publication Critical patent/WO2006013669A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Definitions

  • Pupil detection device and iris authentication device Pupil detection device and iris authentication device
  • the present invention relates to an iris authentication device used for personal authentication and the like, and more particularly to a pupil detection device that detects the position of a pupil from an image including an eye (hereinafter referred to as “eye image”).
  • eye image an image including an eye
  • the present invention provides a pupil detection device capable of detecting the pupil position at high speed and with high accuracy.
  • the pupil detection device of the present invention includes an image data extraction unit, a circular integration unit, and a pupil position detection unit.
  • the image data extraction unit sets a plurality of concentric circles as integral circles on the eye image, and extracts image data of the eye image located on the circumference of the integral circle.
  • the circulatory integration unit integrates the image data extracted by the image data extraction unit along each circumference of the integration circle.
  • the pupil position detection unit detects, as pupil position coordinates, the center coordinates of the integration circle such that the integration value of the circular integration unit changes stepwise with respect to the radius of the integration circle.
  • the image data extraction unit has a partial frame memory and a multiplexer. Partial frame The memory includes a plurality of line memories that can be accessed randomly. The multiplexer sequentially switches the image data read from the partial frame memory and selects the image data to be extracted corresponding to each integration circle.
  • FIG. 1 is a circuit block diagram of an iris authentication device using a pupil detection device according to a first embodiment of the present invention.
  • FIG. 2A is a diagram showing an example of an image including a pupil.
  • FIG. 2B is a diagram showing an integrated value with respect to the radius of the integrating circle.
  • FIG. 2C is a diagram showing a value obtained by differentiating the integral value by the radius of the integral circle.
  • FIG. 2D is a diagram showing an integration circle moving on the eye image.
  • FIG. 3A is a diagram showing an example of an eye image when the integrating circle is located in the iris region and luminance at that time.
  • FIG. 3B is a diagram showing an example of an eye image and luminance at that time when the integrating circle is located in the eyeglass frame.
  • FIG. 4 is a circuit block diagram of the pupil detection device.
  • FIG. 5 is a circuit block diagram of an image data extraction unit of the pupil detection device.
  • FIG. 6 is a diagram for explaining the operation of the image data extraction unit of the pupil detection device.
  • FIG. 7 is a diagram for explaining the operation of the image data extraction unit of the pupil detection device.
  • FIG. 8 is a circuit block diagram of a pupil position detection unit of the pupil detection device.
  • FIG. 9 is a diagram for explaining the operation of the pupil selection unit of the pupil detection device.
  • FIG. 10 is a flowchart showing the operation of the pupil selection unit of the pupil detection device.
  • FIG. 11 is a flowchart showing the operation of one eye image of the pupil detection device.
  • FIG. 12 is a diagram for explaining the operation of the image data extraction unit of the pupil detection device according to the second embodiment of the present invention.
  • FIG. 13 is a diagram for explaining the operation of the image data extraction unit of the pupil detection device.
  • the present invention provides a pupil detection device capable of detecting a pupil position at high speed and with high accuracy.
  • the pupil detection device of the present invention includes an image data extraction unit, a circular integration unit, and a pupil position detection unit.
  • the image data extraction unit sets a plurality of concentric circles as integral circles on the eye image, and extracts image data of the eye image located on the circumference of the integral circle.
  • the circulatory integration unit integrates the image data extracted by the image data extraction unit along each circumference of the integration circle.
  • the pupil position detection unit has an integrated value of the orbital integration unit relative to the radius of the integration circle. Then, the center coordinates of the integrating circle that changes stepwise are detected as pupil position coordinates.
  • the image data extraction unit has a partial frame memory and a multiplexer.
  • the partial frame memory has a plurality of line memories that can be randomly accessed.
  • the multiplexer sequentially switches the image data read from the partial frame memory and selects the image data to be extracted corresponding to each integration circle. With this configuration, the pupil position can be detected at high speed and with high accuracy.
  • the image data extraction unit in the pupil detection device of the present invention simultaneously extracts a plurality of image data corresponding to each of the integration circles. With this configuration, calculations for each integrated circle can be performed in parallel, and high-speed pupil detection is possible.
  • the position of the image data to be extracted is equal to the number of image data to be extracted corresponding to each integration circle. Keep it below the maximum value.
  • the iris authentication apparatus of the present invention includes the pupil detection apparatus of the present invention. This configuration
  • an iris authentication apparatus capable of detecting the pupil position with high accuracy and high speed.
  • FIG. 1 is a circuit block diagram of an iris authentication device using a pupil detection device according to the first embodiment of the present invention.
  • FIG. 1 also shows the imaging unit 120, the illumination unit 130, and the authentication processing unit 140 that are necessary for configuring the iris authentication device 100 in addition to the pupil detection device 200.
  • the iris authentication device 100 in the first embodiment includes an imaging unit 120, a pupil detection device 200, an authentication processing unit 140, and an illumination unit 130.
  • the imaging unit 120 captures a user's eye image.
  • the pupil detection device 200 detects the middle-power pupil position and the radius of the eye image.
  • Recognition The certificate processing unit 140 performs personal authentication by comparing the iris code obtained from the eye image with the iris code that is registered!
  • the illuminating unit 130 irradiates the user's eyes and the surrounding area by irradiating near-infrared light with a light amount suitable for eye image acquisition.
  • the imaging unit 120 includes a guide mirror 121, a visible light cut filter 122, a lens 123, an imaging element 124, and a preprocessing unit 125.
  • the guide mirror 121 guides the eyes to the correct imaging position when the user projects his / her eyes.
  • the user's eyes are imaged by the imaging element 124 through the lens 123 and the visible light cut filter 122.
  • the preprocessing unit 125 extracts an image data component from the output signal of the image sensor 124, performs necessary processing as image data such as gain adjustment, and outputs it as user eye image data.
  • the pupil detection device 200 includes an image data extraction unit 220, a circular integration unit 230, a luminance difference calculation unit 240, a change circle detection unit 250, a pointer unit 260, and a pupil position detection unit 270.
  • the pupil position and its radius are detected from the eye image and output to the authentication processing unit 140. Details of the pupil detection device 200 will be described later.
  • the authentication processing unit 140 extracts an iris image from the eye image data based on the pupil center coordinates and the pupil radius detected by the pupil detection device 200. Then, the authentication operation is executed by converting the iris image into a unique iris code representing an iris pattern and comparing it with a registered iris code.
  • FIG. 2A to 2D are diagrams for explaining a pupil detection method of the pupil detection device according to the first exemplary embodiment of the present invention.
  • FIG. 2A shows an example of an image including a pupil.
  • Figure 2B shows the integration value for the radius of the integration circle.
  • Figure 2C shows the value obtained by differentiating the integral value by the radius of the integral circle.
  • Figure 2D shows an integrating circle moving over the eye image.
  • the image including the pupil includes a disk-shaped low luminance region indicating the pupil, and an annular medium luminance region indicating the iris outside. Therefore, when the image data is circularly integrated along the circumference of the integral circle C of radius R around the pupil center position coordinate (Xo, Yo), the integral value I is the pupil radius as shown in Fig. 2 (b). At Ro, change to a step shape It ’s hard to do that. Therefore, as shown in Fig. 2C, the radius of the integral circle when the value dl / d R obtained by differentiating the integral value I with the radius R exceeds a threshold value (hereinafter referred to as "difference threshold value”) A lth is obtained. Thus, the pupil radius Ro can be known.
  • the pupil detection device 200 detects the position coordinates (Xo, Yo) of the pupil and the pupil radius Ro.
  • the average value of the image data of the pixels located on the circumference of each integration circle C is calculated.
  • the integration value I of the circular integration is assumed. In this case, when the center of the integration circles C to C coincides with the pupil center, as described above, the integration value I changes in a step-like manner for each integration circle. Therefore, when the difference value ⁇ with respect to the radius R of the integral value I is obtained, a large maximum value is shown at a position equal to the pupil radius Ro. However, when the center of the integration circles C to C does not coincide with the pupil center, the integration value I changes slowly, and the difference value ⁇ does not show a large value. Therefore, the position of the pupil and its radius can be obtained by obtaining the integral circle C in which the difference value ⁇ is larger than the difference threshold value A 1th.
  • the integration circles C to C are moved to respective positions on the eye image, and the above-described operation is repeated.
  • the pupil position coordinates (Xo, Yo) and the pupil radius Ro Can be requested.
  • a luminance difference calculation unit 240 is provided in the pupil detection device 200, and the difference B between the maximum value and the minimum value on the circumference is obtained for each integration circle C.
  • the difference B is a predetermined threshold (hereinafter referred to as ⁇ brightness difference threshold Only when the value is smaller than Bth), the integration value ⁇ or the difference value is valid, so that the pupil detection accuracy is prevented from being lowered.
  • FIG. 3A and 3B are diagrams for explaining the operation of the luminance difference calculation unit 240.
  • FIG. FIG. 3A shows an example of an eye image when the integrating circle is located in the iris region and the luminance at that time.
  • Fig. 3B shows an example of the eye image and the luminance at that time when the integrating circle is located in the eyeglass frame.
  • each integration circle C is located in a relatively uniform area such as the pupil area or the iris area.
  • the luminance variation of the image data on the circumference is small.
  • Figure 3A shows the integration circle located in the iris region, which is the mid-brightness region of the ring!
  • the difference B between the maximum luminance value and the minimum luminance value on the circumference is smaller than the smaller luminance difference threshold Bth.
  • the difference B between the maximum value and the minimum value of brightness increases.
  • the difference B between the maximum value and the minimum value of the brightness on the circumference of each integration circle C is obtained, and the integration value I or its difference value is obtained only when the difference B is smaller than the brightness difference threshold Bth.
  • the luminance difference threshold Bth is set to be slightly larger than the expected variation in luminance data on the circumference. That is, it is better to set smaller than the difference between the average brightness of the skin and the average brightness of the pupil, which is larger than the difference between the average brightness of the iris and the average brightness of the pupil.
  • the average brightness of the pupil is about 40 gradations
  • the average brightness of the iris is about 100 gradations
  • the average brightness of the skin is about 200 gradations. Therefore, the brightness difference threshold Bth is preferably set between 60 and 160.
  • FIG. 4 is a circuit block diagram of the pupil detection device in the first embodiment of the present invention.
  • the pupil detection device 200 includes an image data extraction unit 220, a circular integration unit 230, and a luminance difference calculation unit 240.
  • the image data extraction unit 220 sets integration circles C to C on the eye image and extracts image data on the circumference of each integration circle ⁇ .
  • the circular integration unit 230 performs circular integration of the extracted image data for each integration circle C.
  • the luminance difference calculation unit 240 obtains a difference B between the maximum value and the minimum value of the image data for each integration circle.
  • the change circle detection unit 250 obtains the difference value ⁇ ⁇ ⁇ ⁇ ⁇ of the integral value I with respect to the radius R, and the maximum difference value ⁇ I is larger than the difference threshold value ⁇ Ith, and the difference value ⁇ I and the radius of the integral circle R Is output.
  • the pointer unit 260 indicates the center coordinates (X, Y) of the integration circles C to C.
  • the pupil position detection unit 270 includes a pupil candidate holding unit 280 and a pupil selection unit 290.
  • Pupil candidate holding unit 280 has a difference value greater than difference threshold A lth by change circle detection unit 250.
  • the pupil selection unit 290 selects one pupil from a plurality of pupil candidates. In this manner, the pupil position detection unit 270 detects the position coordinates of the pupil and the radius of the pupil as well as the intermediate force of the eye image.
  • FIG. 5 is a circuit block diagram of the image data extraction unit 220.
  • the image data extraction unit 220 includes a partial frame memory 222 and a multiplexer 226.
  • the multiplexer 226 collectively outputs the image data read from the partial frame memory 222 for each integration circle C.
  • the partial frame memory 222 is configured by connecting a plurality of randomly accessible line memories 224 to 224.
  • Memory control units 225 to 225 are configured by connecting a plurality of randomly accessible line memories 224 to 224.
  • Reading and writing of the corresponding line memories 224 to 224 are controlled.
  • the multiplexer 226 includes n selectors 228 to 22 corresponding to ⁇ integration circles C to C.
  • the selector control unit 229 and the force are also configured.
  • the selector 228 selects and outputs image data located on the circumference of the corresponding integration circle C from the image data output from the partial frame memory 222.
  • FIG. 6 and 7 are diagrams for explaining the operation of the image data extraction unit 220.
  • FIG. In the following, for the sake of simplicity, it is assumed that seven line memories 224 to 224 constitute a partial frame memory 222, and three concentric integration circles C to C are set thereon. And it is assumed that seven line memories 224 to 224 constitute a partial frame memory 222, and three concentric integration circles C to C are set thereon. And it is assumed that seven line memories 224 to 224 constitute a partial frame memory 222, and three concentric integration circles C to C are set thereon. And it is assumed that seven line memories 224 to 224 constitute a partial frame memory 222, and three concentric integration circles C to C are set thereon. And it is assumed that seven line memories 224 to 224 constitute a partial frame memory 222, and three concentric integration circles C to C are set thereon. And it is assumed that seven line memories 224 to 224 constitute a partial frame memory 222, and three concentric integration circles C to C are set thereon. And it is assumed
  • FIG. 6 shows three integration circles C to C set on the partial frame memory 222, respectively.
  • I of D is a subscript for identifying the line memories 224 to 224, and j is a subscript for identifying the integration circles C to C i, j 1 7 1 3.
  • FIG. 7 is a timing chart showing the image data Sig sent from the preprocessing unit 125 and the image data from which the line memories 224 to 224 are also output.
  • Tsig the period during which one image data is sent from the pre-processing unit 125
  • periods T1 to T8 in which the line memories 224 to 224 perform a total of eight read / write operations are provided. .
  • each line memory 224 outputs the oldest written image data to the next line memory 224.
  • the image data output from the previous line memory 224 or i + l i-1 is written into the empty data area.
  • the first line memory 224 writes the image data output from the preprocessing unit 125 into an empty area.
  • the output 224 outputs one image data D corresponding to the integration circle C.
  • the line memory 224 outputs one image data D.
  • the line memory 224 stores one image data D
  • the line memory 224 stores two pieces of image data D, D, and D, respectively.
  • the line memory 224 outputs one image data D.
  • the line memory 224 outputs one image data D.
  • Line memory 224
  • the selector 228 corresponding to the integration circle C selects the output of the line memory 224 and outputs the image data D in the period ⁇ 3.
  • the selector 228 In a period T7, ⁇ 8 in which there is no line memory to be selected, the value “0” (indicated by a ground symbol in FIG. 5) is selected. Thus, the selector 228 outputs only the image data D, D, D, D on the circumference of the integration circle C.
  • the selector 228 has a line memory 224 in the period T3, a line memory 224 in the period ⁇ 4, and a line memory 22 in the periods ⁇ 5 and ⁇ 6.
  • selector 228 has line memory 224 in period ⁇ 5 and line memory 22 in period ⁇ 6.
  • the image data read out from the partial frame memory 222 are extracted and output simultaneously for each integration circle.
  • the memory control units 225 to 225 are line memories so that the image data D to be output is moved by one pixel.
  • the integration circles C to C run the entire eye image.
  • the center coordinates (X, Y) of the integral circle in this case are indicated by the outputs of the X counter 262 and the Y counter 264.
  • the configuration and operation of the image data extraction unit 220 have been described above.
  • the circular integration unit 230 includes adders 230 to 230 that are independent of each of the integration circles C to C, and adds m pieces of image data located on the circumference of each integration circle C, respectively. Is output to the change circle detector 250 as an integrated value I.
  • the luminance difference calculation unit 240 includes an independent luminance difference calculator 240 for each of the integration circles C to C. With ⁇ 240 n .
  • Each brightness difference calculator 24 ( ⁇ detects the maximum and minimum values of m pixel data located on the circumference of the integration circle ⁇ and compares the difference B with the brightness difference threshold Bth. , N comparison results are output to the change circle detection unit 250.
  • the strange circle detection pole 250 includes subtracters 252 to 252, a selector 253, and a constructor 254.
  • the subtractor 252 calculates the difference between the integral value I for each integral circle C and the radius R. That is, of the integration circles C to C, the integration value I for the integration circle C with a different radius and the difference value ⁇ between I are obtained. However, if the difference B between the maximum value and the minimum value of the image data for the integration circle C is greater than the brightness difference threshold Bth, the difference value ⁇ is forcibly set to zero.
  • the selector 253 and the comparator 254 output the radius R of the integration circle C in which the difference value ⁇ is larger than the difference threshold A lth to the pupil candidate holding unit 280, and the difference value ⁇ The result is output to the pupil candidate holding unit 280 as an evaluation kit.
  • the integration circle C In this case, the integration circle C
  • the subtractor 252i When the difference B between the maximum value and the minimum value of the image data for 0 i is larger than the luminance difference threshold value Bth, the subtractor 252i forcibly sets the difference value ⁇ to 0. Therefore, when the difference B is larger than the luminance difference threshold Bth, the radius R is not output to the pupil candidate holding unit 280.
  • the difference B between the maximum value and the minimum value of the pixel data is limited to a certain limit. Or less.
  • the difference B increases if it does not coincide with the center of the pupil. Therefore, by removing information when the difference B is greater than the brightness difference threshold Bth, the possibility of erroneous detection can be reduced and the pupil detection accuracy can be increased.
  • FIG. 8 is a circuit block diagram of pupil position detection unit 270, that is, pupil candidate holding unit 280 and pupil selection unit 290.
  • the pupil candidate holding unit 280 is connected in series to a plurality of maximum value detectors 280 to 280 forces.
  • Each of the maximum value detectors 280 has a register 28 k i
  • Registers 282, 283, 284, and 285 hold the maximum value of the X-coordinate, ⁇ -coordinate, radius R, and evaluation ⁇ of the scoring point
  • the comparator 281 compares the input evaluation town with the evaluation completion held in the register 285.
  • Selectors 286, 287., 288 and 289 hold the input X coordinate, ⁇ coordinate, radius R and evaluation ⁇ Select one of X coordinate, Y coordinate, radius R, and evaluation axis.
  • the output X and Y of the X counter 262 and the Y counter 264 indicating the coordinates of the integral circle are input to the first maximum value detector SSC ⁇ , and the output R of the change circle detection unit 250 is also input. .
  • the X coordinate X, Y coordinate Y, radius R, and evaluation value that were previously held in registers 282 to 285 are input to the second maximum value detector via selectors 286 to 289. Output to 280.
  • 0 1 1 0 1 includes the newly entered X coordinate X, Y coordinate Y, radius R, and evaluation city, and selectors 286 to 28.
  • the second maximum value detector 280 is an evaluation output from the first maximum value detector 280.
  • evaluation city is held in registers 282 to 285.
  • evaluation city 1S evaluation city is held in registers 282 to 285.
  • the newly input X coordinate X, Y coordinate Y, radius R, and evaluation value are output to the third maximum value detector 280.
  • the i-th maximum value detector 280 determines that the upstream maximum value detector 280 output is also the evaluation city power that is output. The data stored up to this point is output to the maximum value detector 280 on the downstream side and the upstream side
  • the leading maximum value detector 280 holds the X coordinate X, Y coordinate Y, radius R, and evaluation eye for the pupil candidate with the largest evaluation value.
  • the second maximum value detector 280 contains the X coordinate X, Y coordinate Y, radius R, evaluation for the second candidate with the largest evaluation value.
  • the i-th maximum value detector 280 has the i-th largest evaluation value.
  • V X coordinate X
  • Y coordinate Y radius R
  • evaluation city for pupil candidates are retained.
  • the selector 253 of the change circle detection unit 250 of the present embodiment determines the maximum value of the difference value ⁇ and its value. It has a function to select radius R of integral circle C at.
  • the pupil candidate holding unit 280 originally has a function of detecting the maximum value. Therefore, the selector 253 can be configured to simply output the outputs of the subtracters 252 to 252 and the radius of the integrating circle in a time division manner.
  • the pupil selection unit 290 selects one of the plurality of pupil candidates held by the pupil candidate holding unit 280, and uses the position coordinates and radius as the pupil position coordinates and radius, the authentication processing unit 140 Output to.
  • FIG. 9 is a diagram for explaining the operation of the pupil selection unit 290. Pupil candidates P, P
  • the center of another pupil candidate may exist at the pixel position adjacent to the center position of the true pupil. Is expensive.
  • the pupil candidate force S may be generated around the true pupil due to the influence of illumination light reflected by the cornea. Therefore, by selecting a pupil candidate that has other pupil candidates around as a true pupil, it is possible to eliminate false detection such as erroneous detection of eyelashes or the like as a pupil and improve pupil detection accuracy. .
  • one is selected from a plurality of pupil candidates as follows. Group multiple pupil candidates that are close to each other as a group. Then, the true pupil is selected based on a large number of pupil candidates included in each group or a high total of evaluation values of the included pupil candidates.
  • FIG. 10 is a flowchart showing an operation of selecting a pupil from pupil candidates based on such a concept.
  • the pupil selection unit 290 takes in one pupil candidate.
  • the X-coordinate, Y-coordinate, radius, and evaluation value of the captured pupil candidate are set as Xi, Yi, Ri, and Ji, respectively (S71).
  • the pupil candidate values Xi, Yi, and Ri A force is investigated in which there is a group in which the difference from the average values Xgj, Ygj and Rgj (j is a positive integer) of the loop becomes smaller than the predetermined threshold values Xth, Yth and Rth. That is, it is checked whether there exists a group satisfying
  • the pupil candidate captured in step S71 is added to the group (S73). If it does not exist, a new group including only the pupil candidates captured in step S71 is created (S74). Next, the average values Xgj, Ygj, and Rgj are recalculated for the group to which pupil candidates are added in step S73 or the group newly created in step S74 (S75). If there are still pupil candidates that have not been grouped, the process returns to step S71 (S76).
  • the pupil selection unit 290 can be configured using a dedicated circuit that performs the above operations.
  • the pupil selection unit 290 is provided in the authentication processing unit 140! /, And the CPU (Fig. (Not shown) is used to perform the above process. According to this flow, data processing is relatively simple and suitable for high-speed operation.
  • FIG. 11 is a flowchart showing the operation for one frame of the eye image of the pupil detection device in the first embodiment of the present invention.
  • the pupil detection device 200 captures image data for one pixel (S51). Captured If the image data is the first data of one frame (S52), the Y counter 263 is reset, and the registers 282 to 285 of the pupil candidate holding unit 280 are reset (S53). If the captured image data is the first data of one line (S54), the X counter 262 is reset and the Y counter 264 is incremented (S55). Then, the X counter 262 is incremented (S56).
  • the captured image data is captured into the partial frame memory 222.
  • n ⁇ m image data is extracted for each m of the integration circle C forces among the pixels corresponding to the n integration circles C to C on the eye image.
  • the adder 230 corresponding to each integral circle C calculates the integral value I of the image data.
  • the luminance difference calculator 240 calculates a difference B between the maximum value and the minimum value of the image data.
  • the change circle detection unit 250 calculates a difference value ⁇ of each integral value ⁇ . However, in this case, if the difference B force is greater than the luminance difference threshold Bth, the difference value ⁇ is forcibly set to 0 (S57).
  • the comparator 254 force difference value ⁇ I is compared with the difference threshold value ⁇ Ith (S58).
  • the difference value ⁇ is larger than the difference threshold ⁇ Ith
  • the pupil candidate holding unit 280 holds the X counter 262, the Y counter 264, and the radius Ro of the integrating circle in this case as pupil candidates
  • the difference value ⁇ ⁇ is also held as an evaluation ⁇ o.
  • the pupil candidate holding unit 280 rearranges the pupil candidates in descending order of evaluation values, and holds a maximum of k pupil candidates (S59).
  • it is determined whether or not the captured image data is the last data of one frame (S60). If not, the process returns to step S51.
  • the pupil selection unit 290 exists for each pupil candidate at a pixel position adjacent to the center coordinate. Calculate the number of other pupil candidates. Then, the X coordinate, Y coordinate, and radius value of the pupil candidate having the largest value are output to the authentication processing unit 140 as the X coordinate Xo, Y coordinate Yo, and pupil radius Ro of the true pupil (S61).
  • step S 51 to step S 61 are executed each time image data for one pixel is input to the partial frame memory 222.
  • the frame frequency is 30 Hz and the eye image power is 40 to 480 pixels
  • the above-described series of operations are executed in a time of less than lZ (30 X 640 X 480).
  • the integration circle moves one pixel on the image, so the integration circle scans the image once while inputting one frame of image. In this manner, pupil detection can be performed in real time on image data captured by the imaging unit 120 using a relatively small circuit.
  • the circuit block of the pupil detection device in the second embodiment of the present invention is the same as that in the first embodiment, the same reference numerals as those in the first embodiment are assigned to the respective circuit blocks, and description thereof is omitted.
  • the difference between the pupil detection device in the second embodiment and that in the first embodiment is that the image data extraction unit 220 selects image data to be selected corresponding to each integration circle, and the line memories 224 to 224. Is the timing of access.
  • FIGS. 12 and 13 are diagrams for explaining the operation of the image data extraction unit 220 in the second embodiment of the present invention.
  • seven line memories 224 to 224 constitute a partial frame memory 222, and three concentric integration circles C to C are formed thereon. Set. And the position on the circumference of each integration circle C ⁇ C
  • the image data to be extracted is concentrated on the line memory 224.
  • the image data to be extracted is selected so as not to be concentrated in one line memory.
  • the number of data m does not exceed 4.
  • FIG. 13 is a timing chart showing image data sent from the preprocessing unit 125 and image data outputted from the Sig line memories 224 to 224 force.
  • periods T1 to T6 in which the line memories 224 to 224 perform a total of six read / write operations are provided during a period Tsig in which one image data is sent from the preprocessing unit 125.
  • the number of line memory accesses is m + 2 times (6 times here). It is less than the number of accesses in the example.
  • each line memory 22 outputs the oldest written image data to the next line memory 224.
  • the image data output from the previous line memory 224 i + 1 i-1 is written into an empty data area.
  • the first line memory 224 writes the image data output from the preprocessing unit 125 into a free area.
  • the first two periods Tl and ⁇ 2 are used to cause the line memories 224 to 224, which are the same as those in the first embodiment, to function as the partial frame memory 222.
  • Line memory 224 outputs one image data D corresponding to the integration circle C.
  • the line memory 224 outputs one image data D.
  • Line memory 224 has two image data D and
  • the line memory 224 stores the image data D and D in 2
  • the line memory 224 has two image data D,
  • the line memory 224 outputs one image data D, and the line memory 2
  • Data D is output.
  • the output of line memory 224 is selected and image data D is output.
  • the output of line memory 224 is selected and image data D is output.
  • the selector 228 force outputs only the image data D 1, D 2, D 3 and D 4 on the circumference of the integrating circle C.
  • the selector 228 operates in the line memory 224 in the period T3 and in the period T4.
  • image data force integration circles read from the partial frame memory 222 are output together.
  • the memory control units 225 to 225 move the line memory so that the image data D to be output is moved by one pixel.
  • the integration circles C to C run the entire eye image.
  • the center coordinates (X, Y) of the integral circle in this case are indicated by the outputs of the X counter 262 and the Y counter 264.
  • the image data extraction unit 220 has a large number of image data to be extracted, but is arranged so as not to concentrate on these image data force specific line memories. This is because there is an upper limit on the number of times the line memory can be accessed during the period Tsig during which one image data is sent, so that the number of accesses to all line memories can be kept below that.
  • make line memories 224 to 224 function as partial frame memories
  • the number of image data to be extracted from one line memory is m or less.
  • the number of line memory accesses in the period Tsig is set to 10 Set with times.
  • the image data to be extracted is arranged so that the number of image data per line memory is 8 or less.
  • the access period per time can be set longer, so a line memory with a somewhat slow operation speed can be used, and the partial frame memory Increase design freedom.
  • the number of concentric integral circles is 20, and the number of image data drawn from one integral circle is 8. It is desirable to make a decision in consideration of detection accuracy, processing time, circuit scale, and the like. Also, the number of image data extracted from one integral circle need not be the same for all integral circles. In this case, in order to normalize, the integral value of each integral circle is divided by the number of image data drawn from the integral circle.
  • the present invention it is possible to provide a pupil detection device and an iris authentication device capable of detecting the pupil position with high accuracy and high speed.
  • the present invention can provide a pupil detection device capable of detecting the pupil position with high accuracy and high speed, and is therefore useful as an iris authentication device used for personal authentication and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本発明の瞳孔検出装置は、同心円状の複数の円をそれぞれ積分円として目画像上に設定し積分円の円周上に位置する目画像の画像データを抽出する画像データ抽出部(220)と、その画像データを積分円の円周に沿って積分する周回積分部と、周回積分部の積分値が積分円の半径に対してステップ状に変化するような積分円の中心座標を瞳孔位置座標として検出する瞳孔位置検出部とを備え、画像データ抽出部(220)は、ランダムアクセス可能な複数のラインメモリ(2241~224L)と、ラインメモリ(2241~224L)から読出された画像データを順次切替えて積分円のそれぞれに対応する画像データを選択する複数のセレクタ(2281~228n)とを有する。

Description

明 細 書
瞳孔検出装置および虹彩認証装置
技術分野
[0001] 本発明は、個人認証等に用いられる虹彩認証装置に関し、特に目を含む画像 (以 下、「目画像」と記す)の中から瞳孔の位置を検出する瞳孔検出装置に関する。 背景技術
[0002] 近年、目画像の中から瞳孔の位置を検出する様々な方法が提案されている。たと えば、目画像の画像データ(以下、「目画像データ」と記する)を 2値ィ匕し、低輝度領 域の中の円形の領域を検出する方法が知られている。また、半径力 Srであり、中心座 標が (xO, yO)である円の弧に対して画像強度 I (x, y)の周回積分を計算し、半径 rが 増加するにしたがって rに関するこの量の部分的な導関数を計算する方法等が知ら れている。前述の従来の構成は、例えば、特表平 8— 504979号に開示されている。
[0003] これらの方法を用いて精度よく瞳孔を検出するためには、膨大な画像データを高速 に処理する必要があり、処理能力の高い大きな CPUや、大容量メモリを用いても、現 状では、目画像の画像データをリアルタイムで処理することが困難であり得る。また、 画像データをリアルタイムで処理できる程度に CPUの処理量を減らすと検出精度が 低下する等の課題があり得る。 発明の開示
[0004] 本発明は、高速にかつ精度よく瞳孔位置の検出が可能な瞳孔検出装置を提供す る。
[0005] 本発明の瞳孔検出装置は、画像データ抽出部と、周回積分部と、瞳孔位置検出部 とを備える。画像データ抽出部は、同心円状の複数の円をそれぞれ積分円として目 画像上に設定し積分円の円周上に位置する目画像の画像データを抽出する。周回 積分部は、画像データ抽出部が抽出した画像データを積分円のそれぞれの円周に 沿って積分する。瞳孔位置検出部は、周回積分部の積分値が積分円の半径に対し てステップ状に変化するような積分円の中心座標を、瞳孔位置座標として検出する。 画像データ抽出部は、部分フレームメモリと、マルチプレクサとを有する。部分フレー ムメモリは、ランダムアクセス可能な複数のラインメモリを有する。マルチプレクサは、 部分フレームメモリから読出された画像データを順次切替えて積分円のそれぞれに 対応して抽出すべき画像データを選択する。
図面の簡単な説明
[図 1]図 1は本発明の第 1実施例における瞳孔検出装置を用いた虹彩認証装置の回 路ブロック図である。
[図 2A]図 2Aは瞳孔を含む画像の一例を示す図である。
[図 2B]図 2Bは積分円の半径に対する積分値を示す図である。
[図 2C]図 2Cは積分値を積分円の半径で微分した値を示す図である。
[図 2D]図 2Dは目画像上を移動する積分円を示す図である。
[図 3A]図 3Aは積分円が虹彩領域に位置する場合の目画像とそのときの輝度の一例 を示す図である。
[図 3B]図 3Bは積分円がメガネフレームに位置する場合の目画像とそのときの輝度の 一例を示す図である。
[図 4]図 4は同瞳孔検出装置の回路ブロック図である。
[図 5]図 5は同瞳孔検出装置の画像データ抽出部の回路ブロック図である。
[図 6]図 6は同瞳孔検出装置の画像データ抽出部の動作を説明するための図である
[図 7]図 7は同瞳孔検出装置の画像データ抽出部の動作を説明するための図である
[図 8]図 8は同瞳孔検出装置の瞳孔位置検出部の回路ブロック図である。
[図 9]図 9は同瞳孔検出装置の瞳孔選択部の動作を説明するための図である。
[図 10]図 10は同瞳孔検出装置の瞳孔選択部の動作を示すフローチャートである。
[図 11]図 11は同瞳孔検出装置の目画像 1フレーム分の動作を示すフローチャートで ある。
[図 12]図 12は本発明の第 2実施例における瞳孔検出装置の画像データ抽出部の動 作を説明するための図である。
[図 13]図 13は同瞳孔検出装置の画像データ抽出部の動作を説明するための図であ る。
符号の説明
[0007] 120 撮像部
130 照明部
140 認証処理部
200 瞳孔検出装置
220 画像データ抽出部
222 部分フレームメモリ
224 - -224 ラインメモリ
1 L
225 - -225 メモリ制御部
1 L
226 マノレチプレクサ
228 - -228 セレクタ
1 n
229 セレクタ制御部
230 周回積分部
240 輝度差算出部
250 変化円検出部
260 ポインタ咅
270 瞳孔位置検出部
280 瞳孔候補保持部
290 瞳孔選択部
発明を実施するための最良の形態
[0008] 本発明は、高速にかつ精度よく瞳孔位置の検出が可能な瞳孔検出装置を提供す る。
[0009] 本発明の瞳孔検出装置は、画像データ抽出部と、周回積分部と、瞳孔位置検出部 とを備える。画像データ抽出部は、同心円状の複数の円をそれぞれ積分円として目 画像上に設定し積分円の円周上に位置する目画像の画像データを抽出する。周回 積分部は、画像データ抽出部が抽出した画像データを積分円のそれぞれの円周に 沿って積分する。瞳孔位置検出部は、周回積分部の積分値が積分円の半径に対し てステップ状に変化するような積分円の中心座標を、瞳孔位置座標として検出する。 画像データ抽出部は、部分フレームメモリと、マルチプレクサとを有する。部分フレー ムメモリは、ランダムアクセス可能な複数のラインメモリを有する。マルチプレクサは、 部分フレームメモリから読出された画像データを順次切替えて積分円のそれぞれに 対応して抽出すべき画像データを選択する。この構成により、高速に、かつ精度よぐ 瞳孔位置の検出が可能となる。
[0010] また、本発明の瞳孔検出装置における画像データ抽出部は、積分円のそれぞれに 対応する複数の画像データを同時に抽出することが望ましい。この構成により、各積 分円に対する演算を並列に行うことができ、高速な瞳孔検出が可能となる。
[0011] また、本発明の瞳孔検出装置は、抽出すべき画像データの位置を、次のように設 定することが望ましい。すなわち、部分フレームメモリに目画像の画像データを入力 する周期内に複数のラインメモリのそれぞれ力 抽出すべき画像データの数が、積 分円のそれぞれに対応して抽出すべき画像データの数の最大値以下となるようにす る。この構成により、ラインメモリのアクセス回数を減らすことができるので、ある程度、 動作速度の遅いラインメモリを用いることができ、部分フレームメモリの設計の自由度 が上がる。
[0012] また、本発明の虹彩認証装置は、本発明の瞳孔検出装置を備える。この構成により
、精度よぐかつ高速に、瞳孔位置の検出が可能な虹彩認証装置を提供することが できる。
[0013] 以下、本発明の実施例における瞳孔検出装置を用いた虹彩認証装置について、 図面を用いて説明する。
[0014] (第 1実施例)
図 1は、本発明の第 1実施例における瞳孔検出装置を用いた虹彩認証装置の回路 ブロック図である。図 1は、瞳孔検出装置 200にカ卩えて、虹彩認証装置 100を構成す るために必要な撮像部 120、照明部 130、認証処理部 140も示している。
[0015] 第 1実施例における虹彩認証装置 100は、撮像部 120と、瞳孔検出装置 200と、認 証処理部 140と、照明部 130とを備えている。撮像部 120は、使用者の目画像を撮 像する。瞳孔検出装置 200は、目画像の中力 瞳孔位置とその半径を検出する。認 証処理部 140は、目画像から得られた虹彩コードを登録されて!ヽる虹彩コードと比較 して個人認証を行う。照明部 130は、目画像取得に適した光量の近赤外線を照射し 、使用者の目とその周辺部分を照明する。
[0016] 撮像部 120は、誘導ミラー 121と、可視光カットフィルタ 122と、レンズ 123と、撮像 素子 124と、前処理部 125とを有する。本実施例においては、レンズ 123として、固 定焦点レンズを用いることにより、光学系の小型、軽量化と低コスト化とを実現してい る。誘導ミラー 121は、使用者が自らの目を映すことにより、目を正しい撮像位置へ誘 導する。そして、使用者の目は、レンズ 123、可視光カットフィルタ 122を通して、撮 像素子 124で撮像される。前処理部 125は、撮像素子 124の出力信号から画像デ ータ成分を取り出し、ゲイン調整等の画像データとして必要な処理を行った上で、使 用者の目画像データとして出力する。
[0017] 瞳孔検出装置 200は、画像データ抽出部 220と、周回積分部 230と、輝度差算出 部 240と、変化円検出部 250と、ポインタ部 260と、瞳孔位置検出部 270とを有する。 目画像の中から、瞳孔位置とその半径を検出し、認証処理部 140へ出力する。瞳孔 検出装置 200の詳細については後述する。
[0018] 認証処理部 140は、瞳孔検出装置 200が検出した瞳孔中心座標および瞳孔半径 にもとづき、目画像データの中から虹彩画像を切り出す。そして、虹彩画像を、虹彩 の模様を示す固有の虹彩コードに変換し、登録されている虹彩コードと比較すること によって認証動作を実行する。
[0019] 次に、瞳孔検出装置 200の瞳孔検出方法について説明する。図 2A〜図 2Dは、本 発明の第 1実施例における瞳孔検出装置の瞳孔検出方法を説明するための図であ る。図 2Aは、瞳孔を含む画像の一例を示す。図 2Bは、積分円の半径に対する積分 値を示す。図 2Cは、積分値を積分円の半径で微分した値を示す。図 2Dは、目画像 上を移動する積分円を示す。
[0020] 瞳孔を含む画像は、図 2Aに示すように、瞳孔を示す円盤状の低輝度領域と、その 外側に虹彩を示す円環状の中輝度領域とが存在する。したがって、瞳孔中心の位置 座標 (Xo, Yo)を中心として、半径 Rの積分円 Cの円周に沿って画像データを周回積 分すると、図 2Βに示すように、積分値 Iは、瞳孔半径 Roのところで、ステップ状に変 ィ匕すること〖こなる。そこで、図 2Cに示すように、積分値 Iを半径 Rで微分した値 dl/d Rが、閾値 (以下、「差分閾値」と記する) A lthを超えるときの積分円の半径を求める ことにより、瞳孔半径 Roを知ることができる。
[0021] 以上の考え方にもとづき、瞳孔検出装置 200は、瞳孔の位置座標 (Xo, Yo)と瞳孔 半径 Roとを検出する。まず、図 2Dに示すように、中心座標が等しく半径の異なる n個 の積分円 C〜Cを目画像上に設定し、各々の積分円 C (i= l〜n)に対して、その 円周上に位置する画像データを積分する。現実的には、各々の積分円 Cの円周上 に位置する画素の画像データの平均値を計算する。あるいは、円周上に位置する画 素の中から一定数 (m個)の画素を選んでその画像データを加算する。
[0022] 本実施例においては、同心円状の積分円の数 nを 20とし、各積分円 Cの円周上に 位置する画素の中から m= 8画素を選んで、その画像データを加算し、周回積分の 積分値 Iとした。この場合、積分円 C〜Cの中心が、瞳孔中心と一致している場合に は、上述したように、各積分円 に対する積分値 I力ステップ状に変化する。よって、 積分値 Iの半径 Rに対する差分値 Δ Ιを求めると、瞳孔半径 Roに等しいところで大き な極大値を示すことになる。ところが、積分円 C〜Cの中心が、瞳孔中心に一致しな い場合は、積分値 Iは緩やかに変化するので、その差分値 Δ Ιは大きな値を示さない 。したがって、差分値 Δ Ιが差分閾値 A lthよりも大きな値を示す積分円 Cを求めるこ とで、瞳孔の位置とその半径とを求めることができる。
[0023] そして、目画像上の各位置に積分円 C〜Cを移動させて、上述の動作を繰り返す 。こうして、差分値 Δ Ιが大きな値を示すときの積分円 Cの中心座標 (X, Y)とそのと きの半径 Rとを求めることにより、瞳孔の位置座標 (Xo, Yo)と瞳孔半径 Roとを求める ことができる。
[0024] し力しながら、画像によっては、偶発的に、差分値 Δ Iが大きな値を示す可能性が ある。特に、積分円の数 nや各積分円上で選択する画素の数 mを小さくすると、計算 量を減らすことができ、高速な瞳孔検出が可能となるが、反面、偶発的に差分値 Δ Ι が大きな値を示す可能性が高くなり、瞳孔検出精度が低下する。そのため、瞳孔検 出装置 200に輝度差算出部 240を設け、積分円 Cの各々に対して、円周上における 輝度の最大値と最小値の差 Bを求める。その差 Bが、所定の閾値 (以下、「輝度差閾 値」と記する) Bthより小さい場合に限り、積分値 ^、あるいはその差分値 が有効で あるとすることで、瞳孔検出精度の低下を防 ヽで 、る。
[0025] 図 3A及び図 3Bは、輝度差算出部 240の動作を説明するための図である。図 3A は、積分円が虹彩領域に位置する場合の目画像とそのときの輝度の一例を示す。図 3Bは、積分円がメガネフレームに位置する場合の目画像とそのときの輝度の一例を 示す。積分円 C〜Cの中心が瞳孔中心と一致している場合には、各積分円 Cは、 瞳孔領域内部や、虹彩領域内部等のような、比較的輝度の均一な領域に位置する ため、円周上の画像データの輝度ばらつきは小さい。図 3Aに、円環状の中輝度領 域である虹彩領域に位置する積分円を示して!/ヽる。
[0026] この場合、円周上の輝度の最大値と最小値との差 Bは小さぐ輝度差閾値 Bth以下 となる。しかし、たとえば図 3Bに示すように、積分円 C〜Cの中心が黒いメガネフレ ームの一部に位置するときには、円周上の輝度は、メガネフレーム上では低ぐ皮膚 の部分では高くなるため、輝度の最大値と最小値との差 Bは大きくなる。このように、 各積分円 Cの円周上の輝度の最大値と最小値との差 Bを求め、その差 Bが、輝度差 閾値 Bthより小さい場合に限り、積分値 I、あるいはその差分値 Δ Ιが有効であるとす る。こうすることで、メガネフレーム等を誤って瞳孔と判定する等の誤判定を防ぐことが でき、瞳孔検出精度の低下を防止できる。
[0027] なお、輝度差閾値 Bthとしては、円周上の輝度データの予想されるばらつきより、わ ずかに大きく設定することが望ましい。すなわち、虹彩の平均輝度と瞳孔の平均輝度 との差よりも大きぐ肌の平均輝度と瞳孔の平均輝度との差よりも小さく設定するとよ い。たとえば、 256階調の画像信号の場合、瞳孔の平均輝度が 40階調程度、虹彩 の平均輝度が 100階調程度、肌の平均輝度が 200階調程度となる。したがって、輝 度差閾値 Bthとしては、 60〜160の間で設定するとよい。
[0028] また、積分円が瞳孔上にある場合の積分値 Iは、およそ 40 X 8 = 320であり、積分 円が虹彩上にある場合の積分値 Iは、およそ 100 X 8 = 800である。よって、差分閾 値 A lthとしては、その差 480の半分程度、すなわち 240程度に設定するとよい。
[0029] 図 4は、本発明の第 1実施例における瞳孔検出装置の回路ブロック図である。瞳孔 検出装置 200は、画像データ抽出部 220と、周回積分部 230と、輝度差算出部 240 と、変化円検出部 250と、ポインタ部 260と、瞳孔位置検出部 270とを備えている。画 像データ抽出部 220は、目画像上に積分円 C 〜Cを設定し各積分円 ^の円周上の 画像データを抽出する。周回積分部 230は、抽出された画像データを積分円 C毎に 周回積分する。輝度差算出部 240は、各積分円毎に画像データの最大値と最小値 との差 Bを求める。変化円検出部 250は、積分値 Iの半径 Rに対する差分値 Δ Ιを求 め差分値の最大値 Δ Iが差分閾値 Δ Ithよりも大き 、ときの差分値 Δ Iと積分円の半 径 Rを出力する。ポインタ部 260は、積分円 C 〜Cの中心座標 (X, Y)を指示する。 瞳孔位置検出部 270は、瞳孔候補保持部 280と瞳孔選択部 290とからなる。
[0030] 瞳孔候補保持部 280は、変化円検出部 250が差分閾値 A lthよりも大きい差分値
Δ を出力したとき、瞳孔候補を検出したものとみなし、複数の瞳孔候補の位置座標( X, Υ)と半径 Rとを記憶する。瞳孔選択部 290は、複数の瞳孔候補の中から 1つの瞳 孔を選び出す。このようにして、瞳孔位置検出部 270は、目画像の中力も瞳孔の位 置座標と瞳孔の半径とを検出する。
[0031] 図 5は、画像データ抽出部 220の回路ブロック図である。画像データ抽出部 220は 、部分フレームメモリ 222と、マルチプレクサ 226とから構成されている。マルチプレク サ 226は、部分フレームメモリ 222から読出された画像データを各々の積分円 C毎に まとめて出力する。部分フレームメモリ 222は、ランダムアクセス可能なラインメモリ 22 4 〜224を複数個接続して構成されている。メモリ制御部 225 〜225によって、対
1 し 1 し
応するラインメモリ 224 〜224の読出し書込みが制御されている。
1 L
[0032] マルチプレクサ 226は、 η個の積分円 C 〜Cに対応する n個のセレクタ 228 〜22
8と、セレクタ制御部 229と力も構成されている。セレクタ 228は、部分フレームメモリ 222から出力される画像データのうち、対応する積分円 Cの円周上に位置する画像 データを選択し出力する。
[0033] 図 6および図 7は、画像データ抽出部 220の動作を説明するための図である。以下 では、簡単のために、 7本のラインメモリ 224 〜224が部分フレームメモリ 222を構 成し、その上に 3つの同心円状の積分円 C 〜Cを設定するものとする。そして、それ
1 3
ぞれの積分円 C 〜Cの円周上に位置する画素の中からそれぞれ 4画素ずつを選ん
1 3
でその画素データを抽出するものとして説明する。 [0034] 図 6は、部分フレームメモリ 222上に設定された 3つの積分円 C〜Cと、それぞれ
1 3
の積分円上から抽出すべき 12の画像データ D とを示している。ここで、画像データ ,
D の iはラインメモリ 224〜224を識別するための添字であり、 jは積分円 C〜Cを i, j 1 7 1 3 識別するための添字である。
[0035] 図 7は、前処理部 125から送られる画像データ Sigとラインメモリ 224〜224力も出 力される画像データとを示すタイミングチャートである。ここで、前処理部 125から 1つ の画像データが送られる期間 Tsigの間に、ラインメモリ 224〜224が合計 8回の読 出し書込み動作を行う期間 T1〜T8が設けられているものとする。
[0036] 最初の期間 T1では、各ラインメモリ 224は書込まれている最も古い画像データを 次のラインメモリ 224 に出力する。次の期間 Τ2では、 1つ前のラインメモリ 224 か i+l i-1 ら出力された画像データを空いたデータエリアへ書込む。この場合、最初のラインメ モリ 224は、前処理部 125から出力された画像データを、空いたエリアへ書込む。こ のように、最初の 2つの期間 Tl、 Τ2は、ラインメモリ 224〜224を部分フレームメモ リ 222として機能させるために使用する。
[0037] 続く 6つの期間 Τ3〜Τ8は、画像データ D を抽出するために使われる。ラインメモ ,
リ 224は、積分円 Cに対応する 1つの画像データ D を出力する。ラインメモリ 224 は、 1つの画像データ D を出力する。ラインメモリ 224は、 1つの画像データ D を
2, 2 3 3, 3 出力する。そして、ラインメモリ 224は、画像データ D 、 D 、 D をそれぞれ 2つ
4 4, 1 4, 2 4, 3
ずつ、合計 6つのデータを出力する。ラインメモリ 224は、 1つの画像データ D を出
5 5, 3 力する。ラインメモリ 224は、 1つの画像データ D を出力する。ラインメモリ 224は
6 6, 2 7
、 1つの画像データ D を出力する。
[0038] 画像データの出力においては、それぞれのラインメモリが、どのタイミングで、どの 画像データを出力するかは、ある程度自由に設定できる。しかし、同一の積分円に対 応する画像データを、同一タイミングで出力しな 、ように決められて 、る。
[0039] 次に、各ラインメモリは、図 7に示した順に、それぞれの画像データを出力するもの として、マルチプレクサ 226の動作について説明する。積分円 Cに対応するセレクタ 228は、期間 Τ3において、ラインメモリ 224の出力を選択し、画像データ D を出
1 4 4, 1 力する。期間 Τ4においても、ラインメモリ 224の出力を選択し、もう 1つの画像データ D4ェを出力する。期間 T5においては、ラインメモリ 22^の出力を選択し、画像データ D を出力する。期間 T6においては、ラインメモリ 224の出力を選択し、画像データ D を出力する。
[0040] 選択すべきラインメモリが存在しない期間 T7、 Τ8では、値「0」(図 5においては接 地記号で表示)を選択する。こうして、セレクタ 228からは、積分円 Cの円周上の画 像データ D 、 D 、 D 、 D だけが出力される。セレクタ 228は、期間 T3ではラ インメモリ 224、期間 Τ4ではラインメモリ 224、期間 Τ5および Τ6ではラインメモリ 22
2 6
4の出力を選択する。そして、積分円 Cの円周上の画像データ D 、 D 、 D 、 D
4 2 2, 2 6, 2 4, 2 を出力する。
4, 2
[0041] セレクタ 228も同様に、期間 Τ5ではラインメモリ 224、期間 Τ6ではラインメモリ 22
3 3
4、期間 Τ7および Τ8ではラインメモリ 224の出力を選択する。そして、積分円 Cの
5 4 3 円周上の画像データ D 、 D 、 D 、 D を出力する。こうして、マルチプレクサ 2
3, 3 5, 3 4, 3 4, 3
26からは、部分フレームメモリ 222から読出された画像データが積分円毎にまとめて 同時に抽出され出力される。
[0042] そして、部分フレームメモリ 222へ画像データ Sigを 1画素入力する毎に、出力すベ き画像データ D を 1画素分移動するように、メモリ制御部 225 〜225はラインメモリ
1 し
224 〜224のアドレスを制御する。その結果、 1フレーム分の画像データが部分フ
1 し
レームメモリ 222に入力する間に、目画像上では、積分円 C 〜Cが目画像全体を走 查すること〖こなる。この場合の積分円の中心座標 (X, Y)は、 Xカウンタ 262および Y カウンタ 264の出力によって示される。
[0043] 以上の説明では、ラインメモリの数 L = 7、積分円の数 n= 3、 1つの積分円の円周 上から取り出すべき画像データの数 m=4として説明したが、これらの数は、検出精 度、処理時間、回路規模等との兼ね合いで決定することが望ましい。以上が、画像デ ータ抽出部 220の構成とその動作である。
[0044] 周回積分部 230は、積分円 C 〜Cの各々に対して独立な加算器 230 〜230を 備え、各積分円 Cの円周上に位置する m個の画像データを加算し、各々の加算結 果を積分値 Iとして変化円検出部 250へ出力する。
[0045] 輝度差算出部 240は、積分円 C 〜Cの各々に対して独立な輝度差算出器 240 〜240nを備える。各々の輝度差算出器 24(^は、積分円 ^の円周上に位置する m個 の画素データの最大値と最小値とを検出し、その差 Bと輝度差閾値 Bthとを比較して 、 n個の比較結果を変化円検出部 250へ出力する。
[0046] 変ィ匕円検出咅 250は、減算器 252〜252 と、セレクタ 253と、コンノレータ 254 とを備える。減算器 252は、各積分円 Cに対する積分値 Iの、半径 Rに対する差分を 求める。すなわち、積分円 C〜Cのうち、半径の 1つ違う積分円 Cとじ とに対する 積分値 Iと、 I との差分値 Δ Ιを求める。ただし、積分円 Cに対する画像データの最 大値と最小値との差 Bが、輝度差閾値 Bthよりも大きい場合には、差分値 Δ Ιを強制 的に 0に設定する。
[0047] そして、セレクタ 253およびコンパレータ 254は、差分値 Δ Ιが、差分閾値 A lthより 大きくなる積分円 Cの半径 Rを、瞳孔候補保持部 280に出力するとともに、その差分 値 Δ Ιも、評価銜として、瞳孔候補保持部 280に出力する。この場合、積分円 Cに
0 i 対する画像データの最大値と最小値との差 Bが、輝度差閾値 Bthよりも大きい場合、 減算器 252iは、差分値 Δ Ιを強制的に 0に設定する。従って、差 Bが輝度差閾値 Bt hよりも大きい場合には、半径 Rが瞳孔候補保持部 280に出力されることはない。
[0048] 図 3を用いて説明したように、積分円 C〜Cの中心が瞳孔の中心と一致している場 合には、画素データの最大値と最小値との差 Bは、ある限られた値以下となる。しか し、瞳孔の中心と一致していない場合には、差 Bは大きくなる。したがって、差 Bが輝 度差閾値 Bthよりも大きい場合の情報を除くことにより、誤検出の可能性を減らすこと ができ、瞳孔検出精度を上げることができる。
[0049] 図 8は、瞳孔位置検出部 270、すなわち瞳孔候補保持部 280および瞳孔選択部 2 90の回路ブロック図である。瞳孔候補保持部 280は、複数の最大値検出器 280〜 280力 それぞれ直列に接続されている。最大値検出器 280の各々は、レジスタ 28 k i
2、 283、 284および 285と、コンノレータ 281と、セレクタ 286、 287、 288および 289とを備えて!/ヽる。レジスタ 282、 283、 284および 285は、睦孑し候ネ ΐの X座標、 Υ座標、半径 Rおよび評価銜の最大値を保持する。コンパレータ 281は、入力した 評価街 とレジスタ 285に保持して ヽる評価ィ直了とを比較する。セレクタ 286、 287. 、 288および 289は、入力した X座標、 Υ座標、半径 Rおよび評価銜と保持している X座標、 Y座標、半径 Rおよび評価銜のいずれかを選択する。
[0050] 先頭の最大値検出器 SSC^には、積分円の座標を示す Xカウンタ 262および Yカウ ンタ 264の出力 X、 Yが入力され、変化円検出部 250の出力 Rも入力されている。
0 0 0
[0051] そして、変化円検出部 250から出力される評価街 1S レジスタ 285の保持してい
0 1
る評価銜よりも大きい場合には、それまでレジスタ 282〜285に保持していた X座 標 X、 Y座標 Y、半径 R、評価銜をセレクタ 286〜289を介して 2番目の最大値 検出器 280に出力する。さらに、新しく入力した X座標 X、 Y座標 Y、半径 R、評価
2 0 0 0 銜を、レジスタ 282〜285に保持する。一方、評価銜 1S 評価銜以下の場合
0 1 1 0 1 には、新しく入力した X座標 X、 Y座標 Y、半径 R、評価街を、セレクタ 286〜28
0 0 0 0 1
9を介して、 2番目の最大値検出器 280に出力する。
1 2
[0052] 2番目の最大値検出器 280は、 1番目の最大値検出器 280から出力される評価
2 1
街力 レジスタ 285の保持している評価街よりも大きい場合には、それまでレジス
1 2 2
タ 282〜285に保持していた X座標 X、 Y座標 Y、半径 R、評価街を、 3番目の
2 2 2 2 2 2 最大値検出器 280に出力する。さらに、新しく入力した X座標 X、 Y座標 Y、半径 R
3 1 1
、評価街を、レジスタ 282〜285に保持する。一方、評価街 1S 評価街以下
1 1 2 2 1 2 の場合には、新しく入力した X座標 X、 Y座標 Y、半径 R、評価銜を、 3番目の最 大値検出器 280に出力する。
3
[0053] 以下同様に、 i番目の最大値検出器 280は、上流側の最大値検出器 280 力も出 力される評価街 力 それまで保持していた評価値 Tよりも大きい場合には、それま で保持していたデータを下流側の最大値検出器 280 に出力するとともに上流側の
i +1
データを保持する。一方、評価街 力 評価街以下の場合には、上流側のデータ を下流側に出力する。
[0054] その結果、先頭の最大値検出器 280には、最も評価値の大きい瞳孔候補に対す る X座標 X、 Y座標 Y、半径 R、評価銜が保持される。 2番目の最大値検出器 280 には、 2番目に評価値の大きい瞳孔候補に対する X座標 X、 Y座標 Y、半径 R、評
2 2 2 2 価街が保持される。そして、 i番目の最大値検出器 280には i番目に評価値の大き
2 i
V、瞳孔候補に対する X座標 X、 Y座標 Y、半径 R、評価街が保持される。
[0055] なお、本実施例の変化円検出部 250のセレクタ 253は、差分値 Δ Ιの最大値と、そ のときの積分円 Cの半径 Rとを選択する機能をもっている。し力しながら、瞳孔候補保 持部 280は、もともと最大値を検出する機能をもっている。したがって、セレクタ 253と して、単純に時分割で減算器 252〜252 の出力と、積分円の半径とを出力する 構成とすることも可能である。
[0056] 瞳孔選択部 290は、瞳孔候補保持部 280に保持されている複数の瞳孔候補の中 力も 1つを選び出し、その位置座標および半径を、瞳孔の位置座標および半径として 、認証処理部 140へ出力する。
[0057] 図 9は、瞳孔選択部 290の動作を説明するための図である。瞳孔候補 P、 Pは、ま
1 2 つげを瞳孔と間違って検出したものであり、瞳孔候補 P〜P は、真の瞳孔を検出し
3 11
たものである。このように、一般に、誤検出された瞳孔候補が密集することはほとんど ないが、真の瞳孔の周囲には、瞳孔候補が密集する傾向がある。これは、瞳孔候補 の検出精度に依存し、検出精度がよくなるほど、密集する瞳孔候補の数は少なくなる
[0058] しかし、精度を上げても、撮像素子に依存する 1画素程度の誤差は残るため、真の 瞳孔の中心位置に隣接する画素位置には、他の瞳孔候補の中心が存在する可能性 が高い。また、照明光が角膜で反射する等の影響で、真の瞳孔の周囲に、瞳孔候補 力 S生じる場合もある。したがって、周囲に他の瞳孔候補の存在する瞳孔候補を、真の 瞳孔として選択することにより、まつげ等を瞳孔と間違って検出する等の誤検出をなく し、瞳孔検出精度を向上させることができる。
[0059] 本実施例においては、次のようにして、複数の瞳孔候補の中から、 1つを選び出し ている。複数の瞳孔候補に対して、互いに距離の近いものを 1つのグループとして、 グループ分けする。そして、それぞれのグループに含まれる瞳孔候補の数の多いも の、あるいは、含まれる瞳孔候補の評価値の合計が高いもの、を手がかりにして真の 瞳孔を選択している。図 10は、このような考え方にもとづいて、瞳孔候補の中から、 瞳孔を選択する動作を示すフローチャートである。
[0060] まず、瞳孔選択部 290は、瞳孔候補を 1つ取り込む。取り込んだ瞳孔候補の X座標 、 Y座標、半径および評価値を、それぞれ Xi、 Yi、 Riおよび Jiとする(S71)。次に、 X 座標、 Y座標および半径のそれぞれについて、瞳孔候補の値 Xi、 Yiおよび Riと、グ ループの平均値 Xgj、 Ygjおよび Rgj (jは正の整数)との差が、所定の閾値 Xth、 Yth および Rthより、小さくなるグループが存在する力調べる。すなわち、 | Xi— Xgj | < Xth、 I Yi-Ygj I <Yth、 I Ri-Rgj I < Rthを満たすグループが存在するか調 ベる(S72)。
[0061] 存在する場合には、ステップ S71で取り込んだ瞳孔候補を、そのグループに追カロ する(S73)。存在しない場合には、ステップ S71で取り込んだ瞳孔候補だけを含む 新たなグループを作成する(S74)。次に、ステップ S 73で瞳孔候補を追加されたグ ループ、あるいはステップ S74で新たに作成されたグループに対して、平均値 Xgj、 Ygjおよび Rgjの再計算を行う(S75)。グループ分けの終えていない瞳孔候補が残 つて 、る場合は、ステップ S71に戻る(S76)。
[0062] すべての瞳孔候補のグループ分けを終えると、各々のグループに対して、そのダル ープに含まれる各瞳孔候補の評価値の合計∑Jを求める(S77)。そして、評価値の 合計∑Jが最大のグループの、 X座標、 Y座標および半径の平均値、 Xgj、 Ygjおよび Rgjを、瞳孔の X座標、 Y座標および半径として、認証処理部 140へ出力する(S78)
[0063] 以上の方法によれば、原理的には瞳孔候補の順序によりグループ分けの結果が変 わる等の不安定さはある。しかし、誤検出される瞳孔候補は孤立しており、真の瞳孔 を含む瞳孔候補の集まりは密集しているため、たとえば、 Xth、 Ythの値を、予想され る瞳孔半径の 1Z2程度に設定すれば、事実上問題は発生しない。瞳孔選択部 290 は、以上の動作を行う専用回路を用いて構成することも可能であるが、本実施例にお V、ては、認証処理部 140に設けられて!/、る CPU (図示せず)を用いて上述の処理を 行っている。そして、このフローによれば、データ処理が比較的簡単であり、高速動 作に適している。
[0064] 次に、瞳孔検出装置 200の動作について説明する。以下の説明では、目画像デー タが順次走査データであり、 1フレームが、たとえば 480ライン X 640ピクセルのデジ タルデータで構成されているものとする。図 11は、本発明の第 1実施例における瞳孔 検出装置の目画像 1フレーム分の動作を示すフローチャートである。
[0065] まず、瞳孔検出装置 200は、 1画素分の画像データを取り込む(S51)。取り込んだ 画像データが、 1フレームの先頭のデータであれば(S52)、 Yカウンタ 263をリセット するとともに、瞳孔候補保持部 280の各レジスタ 282〜285をリセットする(S53)。取 り込んだ画像データが、 1ラインの先頭のデータであれば(S54)、 Xカウンタ 262をリ セットし、 Yカウンタ 264をインクリメントする(S55)。そして、 Xカウンタ 262をインクリメ ントする(S56)。
[0066] 次に、取り込んだ画像データを、部分フレームメモリ 222に取り込む。すると、目画 像上で n個の積分円 C〜Cに対応する画素のうち、各々の積分円 C力 m個ずつ、 n X m個の画像データが引出される。そして、各積分円 Cに対応する加算器 230は 、それぞれ画像データの積分値 Iを算出する。輝度差算出器 240は、画像データの 最大値と最小値との差 Bを算出する。変化円検出部 250は、それぞれの積分値 ^の 差分値 Δ Ιを計算する。ただしこの場合、差 B力 輝度差閾値 Bthよりも大きい場合に は、差分値 Δ Ιを強制的に 0とする(S57)。
[0067] そして、コンパレータ 254力 差分値 Δ Iと差分閾値 Δ Ithとを比較する(S58)。差 分値 Δ Ιが、差分閾値 Δ Ithより大きい場合には、瞳孔候補保持部 280は、この場合 の Xカウンタ 262、 Yカウンタ 264および積分円の半径 Roを、瞳孔候補として保持す るとともに、その差分値 Δ Ιも評価銜 oとして保持する。この場合、瞳孔候補保持部 2 80は、評価値の大きい順に瞳孔候補を並べ替え、最大 k個の瞳孔候補を保持する( S59)。次に、取り込んだ画像データが、 1フレームの末尾のデータであるか否かを判 定し(S60)、末尾でなければステップ S 51に戻る。
[0068] 入力される画像データが、 1フレームの最後の画素に到った場合は、瞳孔選択部 2 90は、それぞれの瞳孔候補に対して、その中心座標に隣接する画素位置に存在す る他の瞳孔候補の数を計算する。そして、その値が最も大きい瞳孔候補の X座標、 Y 座標および半径の値を、真の瞳孔の X座標 Xo、 Y座標 Yoおよび瞳孔半径 Roとして 、認証処理部 140へ出力する(S61)。
[0069] 以上の、ステップ S51からステップ S61までの一連の動作は、部分フレームメモリ 22 2に画像データを 1画素分入力する毎に実行される。たとえば、フレーム周波数が 30 Hzで、目画像力 40 Χ 480画素で構成されている場合、 lZ (30 X 640 X 480)禾少 以下の時間で、上記の一連の動作が実行される。そして、部分フレームメモリ 222に 1画素入力されると、積分円は画像上で 1画素分移動するので、 1フレームの画像を 入力する間に、積分円が画像上を 1回走査することになる。このようにして、比較的小 規模な回路を用いて、撮像部 120で撮像された画像データに対して、リアルタイムで 瞳孔検出することができる。
[0070] (第 2実施例)
本発明の第 2実施例における瞳孔検出装置の回路ブロックは、第 1実施例と同様で あるので、それぞれに第 1実施例と同一の符号を付して説明を省略する。第 2実施例 における瞳孔検出装置が、第 1実施例のそれと大きく異なるところは、画像データ抽 出部 220において、それぞれの積分円に対応して選び出す画像データの選び方と、 各ラインメモリ 224〜224のアクセスのタイミングである。
1 L
[0071] 図 12、図 13は、本発明の第 2実施例における画像データ抽出部 220の動作を説 明するための図である。ここでも、第 1実施例と同様、説明を簡単にするために、 7本 のラインメモリ 224〜224が部分フレームメモリ 222を構成し、その上に 3つの同心 円状の積分円 C〜Cを設定する。そして、それぞれの積分円 C〜Cの円周上に位
1 3 1 3
置する画素の中から、それぞれ 4画素ずつを選んでその画素データを抽出するもの として説明する。第 1実施例においては、図 6に示したように、抽出すべき画像データ 力 ラインメモリ 224に集中していた。
4
[0072] しかし、第 2実施例においては、抽出すべき画像データが、 1つのラインメモリに集 中しないように選択されている。特に、 1つのラインメモリから抽出すべき画像データ の数が、 1つの積分円から抽出すべき画像データの数 m (ここでは m=4)を超えない ように、画像データを選択している。すなわち、最もアクセス回数の多いラインメモリ 2 24から抽出すべき画像データの数は、 4であり、 1つの積分円から抽出すべき画像
4
データの数 m= 4を超えない。
[0073] 図 13は、前処理部 125から送られる画像データ Sig ラインメモリ 224〜224力 ら出力される画像データとを示すタイミングチャートである。第 2実施例においては、 前処理部 125から 1つの画像データが送られる期間 Tsigの間に、ラインメモリ 224〜 224が合計 6回の読出し書込み動作を行う期間 T1〜T6が設けられている。第 2実 施例におけるラインメモリのアクセス回数は、 m+ 2回(ここでは 6回)であり、第 1実施 例におけるアクセス回数よりも少なくなつている。
[0074] 最初の期間 T1では、各ラインメモリ 22 は、書込まれている最も古い画像データを 、次のラインメモリ 224 に出力する。次の期間 T2では、 1つ前のラインメモリ 224 i+1 i-1 から出力された画像データを、空いたデータエリアへ書込む。この場合、最初のライ ンメモリ 224は、前処理部 125から出力された画像データを、空いたエリアへ書込む 。このように、最初の 2つの期間 Tl、 Τ2は、第 1実施例と同じぐラインメモリ 224〜2 24を部分フレームメモリ 222として機能させるために使用する。
[0075] 続く 4つの期間 Τ3〜Τ6は、画像データ D を取り出すために使われる。ラインメモリ ,
224は、積分円 Cに対応する 1つの画像データ D を出力する。ラインメモリ 224 は、 1つの画像データ D を出力する。ラインメモリ 224は、 2つの画像データ D と
2, 2 3 3, 2
D とを出力する。そして、ラインメモリ 224は、画像データ D 、 D をそれぞれ 2
3, 3 4 4, 1 4, 3
つずつ、合計 4つのデータを出力する。ラインメモリ 224は、 2つの画像データ D 、
5 5, 3
D を出力する。ラインメモリ 224は、 1つの画像データ D を出力し、ラインメモリ 2
5, 2 6 6, 2
247は、 1つの画像データ D を出力する。
[0076] 画像データの出力にお 、ては、それぞれのラインメモリがどのタイミングでどの画像 データを出力するかは、ある程度自由に設定できるが、同一の積分円に対応する画 像データを、同一タイミングで出力しな 、ように決められて 、る。
[0077] 次に、各ラインメモリは、図 13に示した順に、それぞれの画像データを出力するも のとして、マルチプレクサ 226の動作について説明する。積分円 Cに対応するセレク タ 228は、期間 Τ3において、ラインメモリ 224の出力を選択し、画像データ D を
1 4 4, 1 出力する。期間 Τ4においても、ラインメモリ 224の出力を選択し、もう 1つの画像デ
4
ータ D を出力する。期間 Τ5においては、ラインメモリ 224の出力を選択し、画像デ ータ D を出力する。期間 Τ6においては、ラインメモリ 224の出力を選択し、画像デ ータ D を出力する。
[0078] こうして、セレクタ 228力 は、積分円 Cの円周上の画像データ D 、D 、D 、 D だけが出力される。セレクタ 228は、期間 T3ではラインメモリ 224、期間 T4で
7, 1 2 3
はラインメモリ 224、期間 T5ではラインメモリ 224、期間 T6ではラインメモリ 224の
5 2 6 出力を選択する。そして、積分円 Cの円周上の画像データ D 、D 、D 、D を 出力する。
[0079] セレクタ 228も同様に、期間 T3ではラインメモリ 224、期間 T4ではラインメモリ 22
3 5
4、期間 T5および T6ではラインメモリ 224の出力を選択する。そして、積分円 Cの
3 4 3 円周上の画像データ D 、 D 、 D 、 D を出力する。こうして、マルチプレクサ 2
5, 3 3, 3 4, 3 4, 3
26からは、部分フレームメモリ 222から読出された画像データ力 積分円毎にまとめ て出力される。
[0080] そして、部分フレームメモリ 222へ画像データ Sigを 1画素入力する毎に、出力すベ き画像データ D を 1画素分移動するように、メモリ制御部 225 〜225は、ラインメモ
1 し
リ 224 〜224のアドレスを制御する。その結果、 1フレーム分の画像データを部分フ
1 し
レームメモリ 222に入力する間に、 目画像上では、積分円 C 〜Cが目画像全体を走 查すること〖こなる。この場合の積分円の中心座標 (X, Y)は、 Xカウンタ 262および Y カウンタ 264の出力によって示される。
[0081] 以上の説明では、ラインメモリの数 L = 7、積分円の数 n= 3、 1つの積分円の円周 上から取り出すべき画像データの数 m=4として説明した。しかし、本実施例におい ては、ラインメモリの数 L=41、積分円の数 n= 20、 1つの積分円の円周上から取り 出すべき画像データの数 m= 8と設定している。このように、画像データ抽出部 220 力 取り出すべき画像データの総数は多いが、これらの画像データ力 特定のライン メモリに集中しないように、配置されている。これは、 1つの画像データが送られる期 間 Tsigの間に、ラインメモリをアクセスできる回数には上限があり、すべてのラインメモ リのアクセス回数を、それ以下に抑えるためである。
[0082] ここで、ラインメモリのアクセス回数および取り出すべき画像データの配置について の考え方を説明する。ラインメモリ 224 〜224を部分フレームメモリとして機能させる
1 し
ために、 2回のアクセスが必要である。したがって、 1つの積分円の円周上から取り出 すべき画像データの数を mとするとき、期間 Tsigの間に、各ラインメモリをアクセスす べき回数は、少なくとも m+ 2回必要である。
[0083] したがって、ラインメモリのアクセス回数を少なくするためには、 1つのラインメモリか ら取り出すべき画像データの数も、 m個以下にすることが望ましい。本実施例におい ては、 m=8と設定しているので、期間 Tsigにおけるラインメモリのアクセス回数を 10 回と設定する。そして、 1つのラインメモリあたりの画像データの数も、 8個以下となるよ うに、取り出すべき画像データを配置している。
[0084] このように、ラインメモリの最大アクセス回数を制限することにより、 1回あたりのァク セス期間を長く設定できるので、ある程度動作速度の遅いラインメモリを用いることが でき、部分フレームメモリの設計の自由度が上がる。
[0085] なお、本発明の第 1実施例および第 2実施例においては、同心円状の積分円の数 を 20、 1つの積分円から引出す画像データの数を 8個とした力 これらの数は、検出 精度、処理時間、回路規模等との兼ね合いで決定することが望ましい。また、 1つの 積分円から引出す画像データの数を、すべての積分円に対して同じにする必要はな い。この場合には、正規化するために、各積分円の積分値を、その積分円から引出 す画像データの数で除しておくとょ 、。
[0086] 本発明によれば、精度よぐかつ高速に、瞳孔位置の検出が可能な瞳孔検出装置 および虹彩認証装置を提供することができる。
産業上の利用可能性
[0087] 本発明は、精度よぐかつ高速に、瞳孔位置検出可能な瞳孔検出装置を提供する ことができるので、個人認証等に用いられる虹彩認証装置等として有用である。

Claims

請求の範囲
[1] 同心円状の複数の円をそれぞれ積分円として目画像上に設定し、前記積分円の円 周上に位置する目画像の画像データを抽出する画像データ抽出部と、
前記画像データ抽出部が抽出した画像データを前記積分円のそれぞれの円周に沿 つて積分する周回積分部と、
前記周回積分部の積分値が前記積分円の半径に対してステップ状に変化するような 積分円の中心座標を瞳孔位置座標として検出する瞳孔位置検出部とを備え、 前記画像データ抽出部は、ランダムアクセス可能な複数のラインメモリを有する部分 フレームメモリと、前記部分フレームメモリから読出された画像データを順次切替えて 前記積分円のそれぞれに対応して抽出すべき画像データを選択するマルチプレク サとを有する瞳孔検出装置。
[2] 前記画像データ抽出部は、前記積分円のそれぞれに対応する複数の画像データを 同時に抽出する請求項 1に記載の瞳孔検出装置。
[3] 前記部分フレームメモリに目画像の画像データを入力する周期内に、前記複数のラ インメモリのそれぞれから抽出すべき画像データの数が前記積分円のそれぞれに対 応して抽出すべき画像データの数の最大値以下となるように、前記抽出すべき画像 データの位置が設定されて 、る請求項 1に記載の瞳孔検出装置。
[4] 請求項 1から請求項 3までのいずれかに記載の瞳孔検出装置を備えた虹彩認証装 置。
PCT/JP2005/009419 2004-08-02 2005-05-24 瞳孔検出装置および虹彩認証装置 WO2006013669A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/558,536 US20070071287A1 (en) 2004-08-02 2005-05-24 Pupil detection device and iris authentication apparatus
EP05743316A EP1796033A1 (en) 2004-08-02 2005-05-24 Pupil dection device and iris authentication apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-225364 2004-08-02
JP2004225364A JP2006048204A (ja) 2004-08-02 2004-08-02 瞳孔検出装置および虹彩認証装置

Publications (1)

Publication Number Publication Date
WO2006013669A1 true WO2006013669A1 (ja) 2006-02-09

Family

ID=35786969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/009419 WO2006013669A1 (ja) 2004-08-02 2005-05-24 瞳孔検出装置および虹彩認証装置

Country Status (5)

Country Link
US (1) US20070071287A1 (ja)
EP (1) EP1796033A1 (ja)
JP (1) JP2006048204A (ja)
CN (1) CN1842818A (ja)
WO (1) WO2006013669A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102657513A (zh) * 2012-04-10 2012-09-12 中国航空无线电电子研究所 一种人眼红外图像瞳孔位置检测方法
CN104657702A (zh) * 2013-11-25 2015-05-27 原相科技股份有限公司 眼球侦测装置、瞳孔侦测方法与虹膜辨识方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602008002276D1 (de) * 2007-04-26 2010-10-07 St Microelectronics Rousset Lokalisierungsverfahren und -vorrichtung einer menschlichen Iris in einem Bild
CN101359370A (zh) * 2007-08-01 2009-02-04 鸿富锦精密工业(深圳)有限公司 识别图像中目标物体的方法与装置
JP5126084B2 (ja) * 2009-01-22 2013-01-23 日本電気株式会社 生体認証装置、生体認証方法及びプログラム
DE102009030504B4 (de) * 2009-06-24 2024-06-06 Carl Zeiss Meditec Ag Augenchirurgie-Mikroskopiesystem
JP2013215549A (ja) * 2012-03-16 2013-10-24 Fujitsu Ltd 画像処理装置、画像処理プログラムおよび画像処理方法
CN103226702B (zh) * 2013-05-06 2016-01-20 王毅 基于径向叠加及对称性判别的圆形结构图像边缘检测方法
JP6751324B2 (ja) * 2016-09-14 2020-09-02 株式会社デンソーアイティーラボラトリ 虹彩検出装置、虹彩検出方法、およびプログラム
WO2019102594A1 (ja) * 2017-11-24 2019-05-31 オリンパス株式会社 画像処理装置、画像処理方法及び画像処理プログラムを記憶したコンピュータ読み取り可能な記憶媒体
CN108225740A (zh) * 2017-12-28 2018-06-29 浙江德景电子科技有限公司 一种终端虹膜生产的测试方法
CN112464829B (zh) * 2020-12-01 2024-04-09 中航航空电子有限公司 一种瞳孔定位方法、设备、存储介质及视线追踪系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08504979A (ja) * 1991-07-15 1996-05-28 ドーグマン、ジョン・ジー 虹彩解析に基づく生体測定学的人物識別システム
JPH11289438A (ja) * 1998-04-01 1999-10-19 Ricoh Co Ltd デジタル画像処理装置およびデジタル画像処理方法 ならびに画像読み取り装置
JP2000105833A (ja) * 1998-06-19 2000-04-11 Yoshiro Yamada 表面検査方法およびシステム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3610234B2 (ja) * 1998-07-17 2005-01-12 株式会社メディア・テクノロジー アイリス情報取得装置およびアイリス識別装置
JP2000189403A (ja) * 1998-12-25 2000-07-11 Oki Electric Ind Co Ltd 虹彩領域抽出方法及び個体識別装置
JP3586431B2 (ja) * 2001-02-28 2004-11-10 松下電器産業株式会社 個人認証方法および装置
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
US6760035B2 (en) * 2001-11-19 2004-07-06 Nvidia Corporation Back-end image transformation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08504979A (ja) * 1991-07-15 1996-05-28 ドーグマン、ジョン・ジー 虹彩解析に基づく生体測定学的人物識別システム
JPH11289438A (ja) * 1998-04-01 1999-10-19 Ricoh Co Ltd デジタル画像処理装置およびデジタル画像処理方法 ならびに画像読み取り装置
JP2000105833A (ja) * 1998-06-19 2000-04-11 Yoshiro Yamada 表面検査方法およびシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102657513A (zh) * 2012-04-10 2012-09-12 中国航空无线电电子研究所 一种人眼红外图像瞳孔位置检测方法
CN104657702A (zh) * 2013-11-25 2015-05-27 原相科技股份有限公司 眼球侦测装置、瞳孔侦测方法与虹膜辨识方法

Also Published As

Publication number Publication date
EP1796033A1 (en) 2007-06-13
US20070071287A1 (en) 2007-03-29
CN1842818A (zh) 2006-10-04
JP2006048204A (ja) 2006-02-16

Similar Documents

Publication Publication Date Title
WO2006013669A1 (ja) 瞳孔検出装置および虹彩認証装置
WO2006006298A1 (ja) 瞳孔検出装置および虹彩認証装置
WO2006013668A1 (ja) 瞳孔検出装置および虹彩認証装置
US7347547B2 (en) Pupil detection device and iris authentication apparatus
JP6778247B2 (ja) 眼球血管および顔認識のための画像および特徴品質、画像強化および特徴抽出、ならびにバイオメトリックシステムのための眼球血管と顔領域および/またはサブ顔領域との融合
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
US20150302252A1 (en) Authentication method using multi-factor eye gaze
JP4708909B2 (ja) デジタル画像の対象物検出方法および装置並びにプログラム
US8401247B2 (en) Image processing apparatus, biometric authentication apparatus, image processing method and recording medium
KR101761586B1 (ko) 홍채와 공막의 경계선 검출 방법
CN110313006B (zh) 一种人脸图像检测方法及终端设备
JP2010165046A (ja) 情報処理装置及び情報処理方法
JP2015088040A (ja) 認証装置、認証方法、及びプログラム
US20060262965A1 (en) Pupil detection device and iris authentication apparatus
KR101582467B1 (ko) 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치
JP2008006149A (ja) 瞳孔検出装置、及び虹彩認証装置、並びに瞳孔検出方法
KR20180072517A (ko) 홍채와 공막의 경계선 검출 방법
JP2006345891A (ja) 瞳孔検出装置および虹彩認証装置
KR100590572B1 (ko) 눈 위치 검출 방법 및 장치
TW201441941A (zh) 影像處理之系統及方法
JP7452677B2 (ja) フォーカス判定装置、虹彩認証装置、フォーカス判定方法、及び、プログラム
JP6827721B2 (ja) パターン判別装置、情報処理装置、パターン判別方法
EP4064196A1 (en) Parameter determination device, parameter determination method, and recording medium
JP2003317098A (ja) 画像認識装置およびプログラム
JP2005031891A (ja) テンプレートの作成方法、当該方法により作成されたテンプレート及び当該テンプレートを用いた円形物の識別方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200580000813.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2005743316

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007071287

Country of ref document: US

Ref document number: 10558536

Country of ref document: US

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 10558536

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2005743316

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2005743316

Country of ref document: EP