WO2007029592A1 - 画像処理装置、画像判定方法及びプログラム - Google Patents

画像処理装置、画像判定方法及びプログラム Download PDF

Info

Publication number
WO2007029592A1
WO2007029592A1 PCT/JP2006/317206 JP2006317206W WO2007029592A1 WO 2007029592 A1 WO2007029592 A1 WO 2007029592A1 JP 2006317206 W JP2006317206 W JP 2006317206W WO 2007029592 A1 WO2007029592 A1 WO 2007029592A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
evaluation value
edge
acquired
unit
Prior art date
Application number
PCT/JP2006/317206
Other languages
English (en)
French (fr)
Inventor
Hiroshi Abe
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP06797166.3A priority Critical patent/EP1923833A4/en
Priority to US11/577,903 priority patent/US7912293B2/en
Publication of WO2007029592A1 publication Critical patent/WO2007029592A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • A61B5/6826Finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • Image processing apparatus image determination method, and program
  • the present invention relates to an image processing apparatus that determines whether or not an image of a predetermined subject is included in an image, an image determination method thereof, and a program.
  • the present invention relates to an image processing apparatus that determines, for example, whether an image captured for biometric authentication includes a biological image.
  • Neurometric authentication is based on information about the physical characteristics of a person, such as fingerprints, voiceprints, retinas, and finger vein patterns, to determine whether or not the person is the registrant. It has an excellent feature that can greatly reduce the impersonation of another person.
  • Japanese Patent Application Laid-Open No. 2004-329825 describes an apparatus that authenticates an individual by irradiating near-infrared light to image a blood vessel pattern of a finger and comparing it with a pre-registered blood vessel pattern. Yes.
  • biometric information acquired for authentication is hereinafter referred to as “template”.
  • the image for the template contains an appropriate image showing the physical characteristics of the registrant, for example, a blood vessel pattern, and the reliability of the authentication is extremely high. descend. For example, if you register an image of a finger blood vessel pattern as a template and accidentally register an image of a part other than the finger, The inconvenience of passing the authentication or having a completely different person pass the authentication
  • the image processing apparatus and the image determination method that can appropriately determine whether or not an image of a predetermined subject is included in the image, and the program executed in such an image processing apparatus. It is hoped to provide.
  • the image processing apparatus is configured to emphasize an edge of an image, and the edge enhancement unit and the edge enhancement unit enhance the edge.
  • An evaluation value acquisition unit configured to acquire an evaluation value related to the intensity of the edge and / or the amount of the edge included in the image based on the value of the pixel included in the image, and the evaluation value
  • a determination unit configured to determine whether or not the image includes a predetermined subject image based on the evaluation value acquired by the acquisition unit.
  • the edge of the image is enhanced in the edge enhancement unit.
  • the evaluation value acquisition unit acquires an evaluation value related to the intensity and / or the amount of the edge included in the image based on the value of the pixel included in the image in which the edge is emphasized. Then, based on the acquired evaluation value, the determination unit determines whether or not the image includes a predetermined subject image.
  • the evaluation value acquisition unit may acquire the evaluation value based on, for example, the sum of the values of all the pixels included in the image whose edges are emphasized by the edge enhancement unit.
  • the evaluation value is acquired based on the sum of the values of pixels in which the edge strength exceeds a predetermined threshold among all the pixels included in the image with the edge enhanced by the edge enhancement unit. May be.
  • the evaluation value may be obtained based on the number of pixels whose edge intensity exceeds a predetermined threshold value.
  • the evaluation value may be acquired based on the value of the pixel having the highest edge strength among all the pixels included in the image with the edge enhanced.
  • the image processing apparatus includes a contour detection unit configured to detect the contour of the subject from the image, and a contour detected by the contour detection unit.
  • An area specifying unit configured to specify an inner area may be further included.
  • the evaluation value acquisition unit acquires the evaluation value based on the value of the pixel included in the region specified by the region specifying unit in the image whose edge is emphasized by the edge enhancement unit. May be.
  • the evaluation value is acquired based on the value of the pixel included in the region inside the contour of the subject.
  • the edge enhancement unit sequentially enhances the edges of the image acquired by the image acquisition unit, and the evaluation value acquisition unit sequentially sets the evaluation values of the image acquired by the image acquisition unit. You may get it.
  • the determination unit compares the evaluation value of the images sequentially acquired by the image acquisition unit with the first threshold value, and determines the acquired image based on the comparison result.
  • a first determination unit that determines whether or not the strength of the edge and / or the amount of the edge has reached the first reference, and the first determination unit determines that the first reference has been reached
  • a second threshold value that determines a second criterion exceeding the first criterion is determined based on an evaluation value of the predetermined number of images.
  • the evaluation value of the image acquired after any one of the predetermined number of images or the predetermined number of images is compared with the second threshold value, and the comparison target is compared based on the comparison result.
  • a second determination unit that determines whether the image of the subject is included in the image may be included.
  • the determination unit compares the evaluation value sequentially acquired by the evaluation value acquisition unit with a third threshold value that defines a third criterion exceeding the second criterion, and compares the comparison result.
  • a third determination unit configured to determine whether or not the image of the subject is included in the comparison target image.
  • the first determination unit compares the image evaluation value sequentially acquired with the first threshold value, and the acquired value is obtained based on the comparison result. It is sequentially determined whether the edge strength and Z or the amount of edge included in the image have reached the first standard.
  • the first determination unit when a predetermined number of images determined to have reached the first reference are continuously acquired, the first determination unit performs the first determination based on the evaluation values of the predetermined number of images.
  • a second threshold value is established that establishes a second criterion that exceeds this criterion.
  • the second threshold value V is determined, the evaluation value of the image acquired after any one of the predetermined number of images or the predetermined number of images is compared with the second threshold value. Then, based on the comparison result, it is determined whether or not the image of the subject is included in the comparison target image.
  • the third determination unit compares the evaluation value sequentially acquired by the evaluation value acquisition unit with a third threshold value that defines a third criterion exceeding the second criterion, and Based on the comparison result, it is determined whether or not the image of the subject is included in the comparison target image.
  • the image processing apparatus further includes an information output unit configured to output information on evaluation values of images sequentially acquired by the image acquisition unit. May be.
  • the information output unit may output information according to the number of images that are determined to have reached the first reference by the first determination unit.
  • a second embodiment of the present invention relates to an image determination method for determining whether or not a power includes an image of a predetermined subject in an image.
  • the image determination method includes a first step of enhancing an edge of the image and a value of a pixel included in the image in which the edge is emphasized in the first step.
  • the edge of the image is emphasized in the first step, and is included in the image in which the edge is emphasized in the second step. Based on the value of the pixel that is Evaluation value is obtained. Then, in the third step, based on the acquired evaluation value, it is determined whether or not the image of the subject is included in the image.
  • the third embodiment of the present invention relates to a program for an image processing apparatus including a computer for determining whether or not a power includes an image of a predetermined subject in an image.
  • the program includes a first step for enhancing the edge of the image, and the intensity of the edge and the Z or edge included in the image based on the value of the pixel included in the image in which the edge is enhanced in the first step. Whether or not the image of the subject is included in the image based on the evaluation value acquired in the second step 1 and the evaluation value acquired in the second step 1! And causing the image processing apparatus to execute a third step of determining
  • the image processing apparatus emphasizes the edge of the image.
  • an evaluation value relating to the intensity and Z or amount of the edge included in the image is obtained. Get.
  • the image processing apparatus determines whether or not the image of the subject is included in the image, based on the acquired evaluation value.
  • the present invention by numerically inputting the edge strength and Z or amount included in an image as an evaluation value, it is possible to determine whether or not the image includes a predetermined subject image. Appropriate judgment can be made without depending on judgment.
  • FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus according to an embodiment of the present invention.
  • FIGS. 2A to 2C are diagrams showing a first example of a result of edge enhancement processing performed on a captured image.
  • FIGS. 3 (A) to 3 (C) are diagrams showing a second example of the result of edge enhancement processing performed on a captured image.
  • Figures 4 (A) and 4 (B) show the contours of the subject in the captured image forces shown in Figures 2 (A) to 2 (C) and 3 (A) to 3 (C). It is a figure which shows the example to identify.
  • FIGS. 5 (A) to (C) are shown in FIG. 4 (B) from the image after edge enhancement shown in FIG. 3 (B). It is a figure which shows the example which cuts out the area
  • FIGS. 6A to 6D are diagrams showing examples of cases where a predetermined subject is included in a captured image and cases where a predetermined subject is not included.
  • Fig. 7 is a diagram comparing the distribution of pixel values in the captured image including the subject shown in Fig. 6 (C) with the distribution of pixel values in the captured image not including the subject shown in Fig. 6 (D). It is.
  • FIGS. 8A to 8D are diagrams comparing the case where the pixel values below the threshold are set to zero and the case where the pixel values below the threshold are not set to zero in the image after the edge enhancement processing.
  • FIG. 9 shows an evaluation value when a pixel value equal to or lower than a predetermined threshold value is set as the opening in the images shown in FIGS. 8 (A) to (D), and when no threshold value is provided. It is the figure which compared the evaluation value.
  • FIG. 10 is a flowchart for explaining an example of evaluation value calculation processing in the image processing apparatus shown in FIG.
  • FIG. 11 is a flowchart for explaining an example of template registration processing in the image processing apparatus shown in FIG.
  • FIG. 12 is a diagram showing a display example of the image display unit during the execution of the template registration process.
  • FIG. 1 is a diagram illustrating an example of the configuration of an image processing apparatus according to an embodiment of the present invention.
  • the image processing apparatus shown in FIG. 1 includes a control unit 10, a light source 20, an optical system 30, an imaging unit 40, an image display unit 50, an operation unit 60, and a storage unit 70.
  • the light source 20 generates a light beam that irradiates the subject FG (a human finger in the example of FIG. 1). For example, this ray is 600 ⁇ ! Near-infrared light having a wavelength of about 1300 nm, which is relatively highly permeable to human tissues and is specifically absorbed by hemoglobin in blood clots It has properties.
  • the light source 20 is composed of, for example, a light emitting diode or a halogen lamp.
  • the optical system 30 guides the light transmitted through the subject FG to the light receiving surface of the imaging unit 40.
  • the thicker blood vessel part is darker.
  • the imaging unit 40 captures an image of the subject FG projected on the light receiving surface, converts it into image data, and outputs the image data to the control unit 10.
  • the imaging unit 40 is, for example, a CCD (charge coupled device) or CM
  • OS complementary metal oxide semiconductor
  • the control unit 10 controls the overall operation of the image processing apparatus and performs various signal processing. For example, the generation of light rays in the light source 20, the image capturing in the image capturing unit 40, and the image display in the image display unit 50 are controlled in accordance with a user instruction input from the operation unit 60. Also, processing for determining whether an image of a predetermined subject is included in the image captured by the imaging unit 40, processing for registering a template created based on the captured image in the storage unit 70, imaging Various image processing related to biometric authentication, such as processing for matching images and templates, is performed.
  • the control unit 10 is configured by a computer, for example, and executes the above-described control and signal processing based on the program PRG stored in the storage unit 70.
  • the image display unit 50 displays an image corresponding to the display data supplied from the control unit 10.
  • information related to the template image is displayed in accordance with display data supplied from a display processing unit 109 described later.
  • the operation unit 60 is an interface for inputting a user instruction.
  • the storage unit 70 stores a program PRG executed in the computer of the control unit 10 and a template DAT. In addition, constant data used in the processing of the control unit 10 and variable data that needs to be temporarily stored in the process are stored.
  • Memory 0 is an example of RAM, ranaom access memory) or ROM (read only memory)
  • a storage device such as a nonvolatile memory and a hard disk.
  • the control unit 10 shown in FIG. 1 includes, as functional components related to image processing, an image acquisition unit 101, a contour detection unit 102, a region specifying unit 103, an edge enhancement unit 104, and an evaluation value acquisition unit 105. , Determination unit 106, registration unit 107, collation unit 108, and display processing unit 109.
  • the image acquisition unit 101 is an embodiment of the image acquisition unit and the image acquisition unit of the present invention.
  • the contour detection unit 102 is an embodiment of the contour detection unit and the contour detection means of the present invention.
  • the area specifying unit 103 is an embodiment of the area specifying unit and the area specifying means of the present invention.
  • the edge enhancement unit 104 is an embodiment of the edge enhancement unit and the edge enhancement unit of the present invention.
  • the evaluation value acquisition unit 105 is an embodiment of the evaluation value acquisition unit and the evaluation value acquisition unit of the present invention.
  • the determination unit 106 is an embodiment of the determination unit and determination means of the present invention.
  • the image acquisition unit 101 sequentially acquires images captured by the imaging unit 40.
  • the image acquisition unit 101 controls the operations of the light source 20 and the imaging unit 40 when the template registration process and the collation process are started in response to an instruction input from the operation unit 60, thereby Irradiate near-infrared rays, capture the projected images sequentially, and capture the captured image data sequentially.
  • the edge enhancement unit 104 enhances the edge of the image acquired by the image acquisition unit 101.
  • an image filter such as a Gaussian filter or a Laplacian filter is used to enhance the edge of the image. That is, after removing noise components included in the image by the Gaussian filter, the change in the pixel value is emphasized by the Laplacian filter. This eliminates the point-like noise component contained in the image and enhances the linear edge component.
  • FIGS. 2A to 2C are diagrams illustrating a first example of a result of performing the edge enhancement processing using the Gaussian filter and the Laplacian filter described above on the captured image of the subject FG. 02 (A) shows the image before edge enhancement, and Fig. 2 (B) shows the image after edge enhancement.
  • Fig. 2 (C) is a three-dimensional illustration of the pixel values of the image shown in Fig. 2 (B).
  • the pixel values of the blood vessels (particularly veins) of the finger are different. It protrudes compared with the part.
  • the pixel value after the process can exceed 8 bits.
  • the processed pixel value is limited to 8 bits, so the blood vessel of the original image shown in Fig. 2 (A) and that shown in Fig. 2 (B) The blood vessels in the image after edge enhancement do not match much in visual strength
  • the thin and thin blood vessels and the thick and dark blood vessels have almost the same strength in the image after the edge enhancement processing.
  • FIGS. 3A to 3C are diagrams showing a second example of the result of performing the same edge enhancement processing by the Gaussian filter and the Laplacian filter, and FIGS.
  • the difference from the first example shown in (C) is that the bit restriction on pixel values after edge enhancement processing has been removed.
  • Fig. 3 (A) shows the image before edge enhancement
  • Fig. 3 (B) and (C) show the image after edge enhancement.
  • Fig. 2 (A) to (C) and Fig. 3 (A) to (C) If the bit restriction on the pixel value is removed, the difference in shading in the original image appears sensitively in the image after edge enhancement, and the pixel value of the dark blood vessel is The pixel values of large thin blood vessels are getting smaller.
  • the edge emphasizing unit 104 removes the bit restriction as shown in the images of FIGS. 2A to 2C, for example, and sets the bit length of the pixel value after the edge emphasis processing to an appropriate length.
  • the evaluation value Ev acquired by the evaluation value acquisition unit 105 which will be described later, is a value that more appropriately represents whether or not the image is suitable for the template.
  • the contour detection unit 102 and the region specifying unit 103 described below use a mask that reliably cuts out the inner region from the contour of the finger so that the evaluation value Ev is obtained in a state where the influence of the contour portion is excluded. create.
  • the contour detection unit 102 detects the contour of the subject FG from the image captured by the imaging unit 40.
  • the subject can be extracted by using an appropriate difference operator to extract the edge portion of the captured image, or by binarizing the captured image so that the subject FG and the background are separated by an appropriate threshold. Detect the outline of FG.
  • the area specifying unit 103 specifies an area inside the outline detected by the outline detecting unit 102, and creates a mask for cutting out the specified region after image enhancement after the edge enhancement processing.
  • Figs. 4 (A) and (B) show the contour of the subject FG from the captured images shown in Figs. 2 (A) to (C) and Figs. 3 (A) to (C), It is a figure which shows the example which specifies.
  • FIG. 4A shows an example of the contour of the subject FG detected by the contour detection unit 102.
  • the black part indicates the background of the subject FG
  • the white part indicates the inside of the subject FG.
  • the white / black boundary corresponds to a contour detected by the contour detection unit 102.
  • FIG. 4B shows an example of the area inside the subject FG specified by the area specifying unit 103.
  • the white part in FIG. 4B shows the area inside the subject FG specified by the area specifying unit 103.
  • a gray portion indicates a portion inside the contour detected by the contour detection unit 102 and excluded from the region specified by the region specifying unit 103.
  • the contour of the subject FG is composed of four sides, top, bottom, left and right.
  • the fixing unit 103 moves these sides to the inside of the contour by a predetermined distance.
  • the area surrounded by each side after the movement is specified as the area inside the subject FG.
  • the upper side is moved downward by the image
  • the lower side is moved upward by the distance dLR
  • the left side is moved to the right of the image by the right side.
  • the area surrounded by the four sides after the movement is specified as the area inside the outline of the subject FG.
  • the region specified by the region specifying unit 103 reliably leaves the contour force of the subject FG. Therefore, even if the pixel value of the contour is abnormally high as shown in Figs. 3 (B) and 3 (C), the effect hardly reaches the inside of the area. Therefore, if only the region specified by the region specifying unit 103 is cut out from the image after the edge enhancement processing by mask processing, a pure blood vessel image from which the influence of the contour is eliminated can be obtained.
  • the blood vessel image in the vicinity of the contour is excluded from the target for obtaining the evaluation value Ev. That is, a part of blood vessel information is lost.
  • the blood vessel image existing in the vicinity of the contour easily changes depending on how the finger is placed, for example, it does not appear in the captured image by slightly rotating the finger. Since such a blood vessel image is not suitable for template registration in the first place, there is no inconvenience even if the resultant force evaluation value Ev obtained by eliminating it by mask processing is obtained.
  • the evaluation value acquisition unit 105 determines the strength of the edge included in the image input from the imaging unit 40 based on the value of the pixel included in the image with the edge enhanced by the edge enhancement unit 104. Get evaluation value Ev for Z or quantity. For example, the sum of the values of all the pixels included in the image after the edge enhancement processing is calculated and obtained as the evaluation value Ev.
  • the evaluation value acquisition unit 105 is based on the value of the pixel included in the internal region of the subject FG specified by the region specifying unit 103 among all the pixels included in the image after the edge enhancement processing.
  • the evaluation value Ev is obtained, and the values of the pixels outside this area are not used in determining the evaluation value Ev. That is, the evaluation value Ev is acquired based on the pixel value of the inner area of the contour cut out by the mask created by the area specifying unit 103.
  • Figs. 5 (A) to (C) are obtained from the image after edge enhancement shown in Fig. 3 (B). It is a figure which shows the example which cuts out the area
  • Figure 5 (A) shows the image before edge enhancement.
  • 5B and 5C show images obtained by cutting out only the area inside the outline of the image cover after the edge enhancement processing by mask processing. If only the region specified by the region specifying unit 103 is cut out after the edge enhancement processing, the influence of the contour of the subject FG is eliminated as shown in the images in FIGS. 5 (B) and (C). Only the image of the blood vessels present in the basin will be highlighted. In this blood vessel image, the value of the pixel changes greatly according to the thickness and darkness of the blood vessel in the original image.
  • the evaluation value acquisition unit 105 calculates, as the evaluation value Ev, the sum of the pixel values in the image in which the contrast of the blood vessels is appropriately reflected in this way.
  • This evaluation value ⁇ is a value indicating the characteristics of the subject FG suitable as a template image.
  • FIGS. 6 (A) to 6 (D) are diagrams illustrating an example of a case where the image captured by the imaging unit 40 includes and does not include the subject FG.
  • Fig. 6 ( ⁇ ) shows a captured image including the subject FG
  • Fig. 6 (C) shows an image after edge enhancement processing and mask processing are performed on the image shown in Fig. 6 ( ⁇ ).
  • Fig. 6 ( ⁇ ) shows a captured image that does not include the subject FG
  • Fig. 6 (D) shows an image after edge enhancement processing and mask processing are applied to the image shown in Fig. 6 ( ⁇ ).
  • the image in Fig. 6 (C) was' 2434244 ', and the image in Fig. 6 (D) was' 1177685.
  • the evaluation value Ev acquired by the evaluation value acquisition unit 105 that is, the sum of the pixel values of the image subjected to the edge enhancement process and the mask process
  • the ⁇ image that does not include the subject FG is the image that includes the subject FG.
  • Many pixels with smaller pixel values (ie, weak edges) are included than images, and pixels with larger pixel values (ie, strong edges) are fewer. Therefore, the evaluation value acquisition unit 105 may add only the pixel values larger than a certain threshold rather than simply adding up all the pixel values, and acquire this as the evaluation value Ev. That is, out of all the pixels included in the image in which the edge is enhanced in the edge enhancement unit 104 (in the region specified by the region specifying unit 103), the value of the pixel whose edge intensity exceeds a predetermined threshold value.
  • the evaluation value Ev may be obtained based on the total. As a result, the difference between the evaluation value Ev with and without the subject FG can be made more conspicuous.
  • FIG. 7 shows the distribution of pixel values in the image shown in FIG. 6C (when the subject FG is included) and the distribution of pixel values in the image shown in FIG. 6D (when the subject FG is not included).
  • FIG. The horizontal axis indicates the pixel value, and the vertical axis indicates the number of pixels.
  • the image after edge enhancement processing and mask processing is smaller than a certain pixel value ('500' in the example of Fig. 7). ⁇ ⁇ ⁇ ⁇ Most pixels are distributed in the area. On the other hand, when the subject FG is included in the captured image, the pixel is distributed from a small pixel value to a large pixel value.
  • FIGS. 8A to 8D are diagrams comparing the case where a pixel value equal to or smaller than the threshold value is set to zero and the case where it is not set to zero in the image after edge enhancement processing. is there.
  • Figs. 8 (A) and 8 (B) are the same images as Figs. 6 (C) and 6 (D), and show images when the pixel values below the threshold are not set to zero.
  • FIGS. 8C and 8D show images when pixel values equal to or less than the threshold value “255” included in the images of FIGS. 8A and 8B are all zero.
  • FIG. 9 shows the evaluation value (total pixel value) when the pixel values below the threshold value “255” are set to zero in the images shown in FIGS. 8 (A) to (D). Compared with the evaluation value in case of FIG.
  • the evaluation value Ev of the image including the subject FG (Fig. 8 (A)) is' 2434 244 ', and the evaluation value ⁇ ⁇ of the image not including the subject (Fig. 8 (B)) is' 1177685 'It became.
  • the evaluation value Ev of the image including the subject FG (Fig. 8 (C)) is' 2145659, and the image ( The evaluation value Ev in Fig. 8 (D) was '117921'.
  • FIG. 9 by calculating the evaluation value Ev by excluding the pixel values below the predetermined threshold in the edge-enhanced image, the difference in the evaluation value Ev according to the presence or absence of the subject FG Can be made clearer.
  • the determination unit 106 determines whether or not the image input from the imaging unit 40 includes the image of the subject FG based on the evaluation value Ev. To do.
  • the determination unit 106 includes a first determination unit 1061, a second determination unit 1062, and a third determination unit 1063, for example, as shown in FIG.
  • the first determination unit 1061 compares the evaluation value Ev of the images sequentially acquired by the image acquisition unit 101 and the threshold value Td, and based on the comparison result, the intensity of the edge included in the acquired image and the edge Judge whether the force of Z or the amount of the edge has reached the minimum standard.
  • the second determination unit 1062 is based on the evaluation value Ev of the predetermined number of images. Then, a threshold value Th that defines an intermediate standard exceeding the above minimum standard is determined. Then, the evaluation value Ev of any one of the predetermined number of images or the image acquired following the predetermined number of images is compared with the threshold value Th, and based on the comparison result, the comparison target It is determined whether or not the image of the subject FG is included in the image.
  • the third determination unit 1063 compares the evaluation value Ev sequentially acquired by the evaluation value acquisition unit 105 with the threshold value Tu /! Based on the result, it is determined whether or not the image of the subject FG is included in the comparison target image
  • the evaluation value Ev acquired by the evaluation value acquisition unit 105 corresponds to the image of the subject FG corresponding to the template image, and is taken according to the magnitude of this value. It is possible to determine whether the subject image contains the subject FG or not. Therefore, the determination unit 106 As the simplest method, based on the result of comparing the evaluation value Ev and a single threshold value, it may be determined whether or not the image to be compared is registered. However, since the following often occurs when registering an actual template, an appropriate template may not be registered by simple judgment based on a single threshold.
  • template registration may not be possible, but there is a possibility of registering a template with a worse V or state (less blood vessel pattern information, etc.) than originally intended. . In this case, there is an inconvenience that normally it is easy to collate, but it is difficult to collate or collation fails.
  • the threshold value is too high for the evaluation value Ev, and the template may not be registered. However, if the threshold value is lowered too much, the possibility of registering a bad template increases. Therefore, the decision unit 106 shown in FIG. 1 uses three threshold values instead of a single threshold value. Use the values (Td, Tu, Th) to determine whether registration is possible.
  • the threshold value Td of the first determination unit 1061 determines the minimum standard of the image used for the template. This is set based on the value of the evaluation value Ev obtained when, for example, a person with a thin and thin finger vein can be imaged stably as in (3) above. If the evaluation value Ev force S threshold is smaller than the value Td, the image should not be used as a template.
  • the threshold Tu of the third judgment unit 1063 determines the highest and standard of the image used for the template. This is set based on the evaluation value Ev obtained when the imaging unit 40 is imaged in a stable state and a sufficiently beautiful finger vein is imaged. Since there are individual differences in the thickness of blood vessels, even if stable imaging is possible, not all users can be registered with templates that pass the highest threshold value Tu.
  • the threshold value Th of the second judgment unit 1062 sets an intermediate standard that exceeds the threshold and the minimum standard of the value Td but does not satisfy the maximum standard of the value Td.
  • the threshold value Th is determined based on the evaluation value Ev of continuously captured images. Threshold values Td and Tu are preset fixed values
  • the threshold value Th is a value that changes for each subject and for each imaging.
  • the registration unit 107 extracts blood vessel pattern information from the captured image that has been determined by the first determination unit 1061 or the third determination unit 1063 to include the image of the subject FG, and uses this as a template DAT. Store in the storage unit 70.
  • the collation unit 108 extracts information on the captured image force blood vessel pattern determined by the first determination unit 1061 or the third determination unit 1063 to include the image of the subject FG, and the extracted information and storage unit 70 Match with template DAT stored in.
  • the display processing unit 109 performs a process of displaying, on the image display unit 50, information corresponding to the evaluation value Ev of images sequentially acquired by the image acquisition unit 101.
  • Image acquisition unit 101 controls light source 20 and imaging unit 40 to image subject FG, and acquires captured image If (step ST101).
  • the contour detection unit 102 detects the contour of the subject FG included in the image If and creates a mask Mf for cutting out the inside of the contour. Further, region specifying unit 103 specifies a region inside the contour detected by contour detecting unit 102, and creates a mask eMf that cuts out the inner region (step ST102).
  • the edge enhancement unit 104 performs processing for enhancing the edge of the image If. That is, the noise component of the image If is removed by the Gaussian filter (step ST103), and the edge portion is emphasized by applying the Laplacian filter to the image Gf after the noise removal (step ST104).
  • the evaluation value acquisition unit 105 uses the image Lf whose edge is enhanced by the Laplacian filter.
  • step ST105 a mask process for cutting out the internal area specified by the area specifying unit 103 is performed.
  • step ST106 the pixel value equal to or lower than the threshold value Vunder included in the masked image Of is set to zero (step ST106), and the sum of the pixel values is calculated (step ST107).
  • the total of the calculated pixel values is supplied to the determination unit 106 as an evaluation value Ev.
  • the contour detection unit 102 the region specifying unit 103, the edge enhancement unit 104, and the evaluation value acquisition unit 1
  • the evaluation value Ev of the captured image If is calculated by the processing of steps ST202 to ST207.
  • step ST202 corresponds to step ST101
  • step ST203 corresponds to step ST102
  • step ST204 corresponds to steps ST103 and ST104
  • step ST205 corresponds to step ST105
  • step ST206 corresponds to step ST106
  • step ST107 corresponds to step ST107.
  • step ST203 If mask generation fails in the mask generation processing in step ST203 (for example, if the finger is not imaged with the device force separated), the determination unit 106 returns to step ST201 and initializes variables i and hEv. As a result, when the continuity of imaging is interrupted, the history of evaluation value Ev (hEv, hEv,..., HEv) is immediately deleted, and recording of a new history is started.
  • third judgment unit 1063 compares evaluation value Ev with threshold value Tu, and based on the comparison result, evaluation value Ev exceeds the highest standard. Judgment is made on the force (step ST208).
  • the registration unit 107 extracts information on the captured image force blood vessel pattern of the evaluation value Ev and stores it in the storage unit 70 as a template DAT (step ST214 ).
  • the third determination unit 1063 determines that the evaluation value Ev satisfies the highest standard
  • the first determination unit 1061 compares the evaluation value Ev with the threshold value Td. Then, it is determined whether the evaluation value Ev exceeds the minimum standard (step ST209).
  • the determination unit 106 Returning to step ST201, variables i and hE Vi are initialized. As a result, when the continuity of imaging is interrupted, the history of evaluation value Ev (hEv, hEv,..., HEv) is immediately deleted, and recording of a new history is started.
  • the determination unit 106 assigns the evaluation value Ev to the history variable hEvi, and sets the number of histories. '1' is added to the variable i to be represented (step ST210).
  • the determination unit 106 compares the variable i obtained by adding '1, and a predetermined number ⁇ (step S).
  • step ST211 determination unit 106 returns the process to step ST202 (step ST211). Thereby, the processing of steps ST202 to ST207 is executed again, and the evaluation value Ev of a new captured image If is calculated.
  • the second determination unit 1062 determines whether the variable hEv, hE
  • the threshold Th is determined based on the (nO + 1) evaluation values assigned to 0 v, ..., hEv.
  • a value obtained by multiplying the maximum value of (nO + 1) evaluation values by a coefficient k (k is a real number larger than 0 and smaller than 1) is determined as a threshold value Th (step ST212).
  • the coefficient k is set to a value of about “0.9”, for example. The closer the coefficient k is to “1”, the more stable the evaluation value Ev is required to be obtained.
  • the second determination unit 1062 next compares the evaluation value Ev with the threshold value Th, and based on the comparison result, the evaluation value Ev of the current captured image. It is determined whether or not exceeds the intermediate standard (step ST213). When it is determined in step ST213 that the evaluation value Ev has not reached the intermediate standard, the determination unit 106 returns the process to step ST202 (step ST211). Thereby, the processing of steps ST202 to ST207 is executed again, and the evaluation value Ev of a new captured image If is calculated.
  • the registration unit 107 extracts the blood vessel pattern information from the captured image force of the evaluation value Ev and stores it in the storage unit 70 as a template DAT. Store (step ST214).
  • Variables hEv, hEv,..., HEv for history storage are evaluated sequentially until the template registration image is finalized unless the process returns to the variable initialization process (step ST201).
  • the value Ev is stored.
  • These variables are evaluated in the form of FIFO (first in first out), for example. If Ev is stored, it is possible to keep the most recent n history.
  • a template image is fed back to the user so that a template image can be obtained smoothly.
  • the display processing unit 109 displays, for example, information on the image evaluation value Ev on the screen 900 of the image display unit 50.
  • the threshold value Td and Tu described above are divided into 10 levels, and the bar graph 903 indicates which level the currently acquired evaluation value Ev is.
  • the display processing unit 109 displays, on the screen 900, information regarding the number of images that are continuously acquired as the evaluation value Ev is greater than the value Td (that is, the variable i in FIG. 11). Display.
  • the value of the variable i is represented by a bar graph 904. As a result, the user can grasp how long the current finger placement is held to pass the determination.
  • the display processing unit 109 causes the screen 900 to display information indicating the position of the user's finger with respect to the range that can be imaged by the imaging unit 40.
  • the position of the current finger with respect to the imageable range is represented by arranging a picture 901 representing the user's finger in a dotted frame 902 representing the imageable range.
  • the edge of the captured image is emphasized, and the image included in the captured image is based on the value of the pixel included in the edge-enhanced image.
  • An evaluation value Ev for the strength and Z or amount of wedge is obtained. Then, based on the acquired evaluation value Ev, it is determined whether or not the image of the predetermined subject FG is included in the captured image. This makes it possible to accurately determine whether or not the captured image includes the image of the predetermined subject FG without depending on human judgment.
  • the evaluation value Ev is a value related to the strength and / or amount of the edge included in the captured image
  • the evaluation value Ev is determined only by whether or not the captured image includes the image of the subject FG.
  • the force with which the image is suitable for a given application can also be determined according to the value of the evaluation value Ev. For example, in the template registration process, it is possible to determine whether or not a captured image includes a subject FG and whether it is appropriate as a template image.
  • the contour of the subject FG included in the captured image is detected, and the region inside the contour is specified. Then, the evaluation value Ev is acquired based on the values of the pixels included in the specified inner region among all the pixels included in the image after the edge enhancement processing. As a result, the influence of the edge generated in the contour portion of the subject FG is effectively eliminated, and the evaluation value Ev in which the state of the edge included inside the subject FG is correctly reflected can be acquired. Therefore, depending on the characteristics of the image contained inside the subject FG, such as a blood vessel pattern, whether the subject FG is included in the captured image and whether the subject FG is used for a predetermined application (such as for templates) It is possible to judge appropriately whether it is appropriate.
  • a predetermined application such as for templates
  • the evaluation value Ev and the threshold value Td of the sequentially captured images are compared, and based on the comparison result, the strength of the edge included in the captured image and Z or The force is judged in order of the force reaching the minimum standard. Then, when a predetermined number of images determined to have reached the minimum standard are acquired in succession, a threshold Th that defines an intermediate standard exceeding the minimum standard is determined based on the evaluation value Ev of the predetermined number of images. Is determined.
  • the value Th is compared with any one of the predetermined number of images or the evaluation value Ev of the image acquired after the predetermined number of images V, and Based on the comparison result, it is determined whether or not the image of the subject FG is included in the comparison target image. That is, the intensity and Z or amount of the edge included in a series of captured images is a predetermined minimum. If the reference is not stably exceeded, it is not determined that the image of the subject FG is included in the series of captured images. As a result, if the subject FG is included in the captured image when the imaging condition is unstable, such as when the subject moves during imaging or the conditions such as exposure are appropriate for the brightness of the background, etc. Since it is possible to prevent the determination, the reliability of the determination result can be increased.
  • the threshold value Th of the intermediate standard exceeding the minimum standard is set based on the evaluation value Ev of the series of captured images, even if the characteristics of the subject FG (characteristics of the blood vessel pattern) vary from subject to subject Therefore, a criterion that exceeds the above minimum criterion can be set for each subject. As a result, it is possible to make an appropriate determination according to the difference in the subject as compared with the case where a fixed reference is uniformly set. In the template registration process, a more appropriate template can be acquired for each subject.
  • the evaluation value Ev of sequentially captured images is also compared with the value Tu when the highest standard exceeding the above-mentioned intermediate standard is determined. Based on! /, The determination is made in order of the force in which the image of the subject FG is included in the image to be compared.
  • a captured image having an evaluation value Ev that exceeds the highest standard is immediately determined to be an image including the subject FG, so that the speed of the determination process can be increased.
  • Information about the state of the subject FG image in each captured image such as information about the number of images that have been determined to reach the value Td when the threshold is reached!
  • the area specifying unit 103 narrows the contour of the subject FG inward by a predetermined distance, but this distance is not limited to a fixed value. According to You may change it.
  • the region specifying unit 103 moves the upper and lower sides of the contour along the vertical line of the image, and moves the left and right sides of the contour along the horizontal line of the image.
  • the moving distance of each pixel located on each side may be set according to the width of the contour in the moving direction.
  • the area specifying unit 103 sets the moving distance of two pixels located at these two points according to the distance between the two points where the line extending in the vertical direction and the outline intersect. For example, this moving distance is set to be a fixed ratio (10%, etc.) with respect to the distance between two points. Then, the upper pixel of the two pixels is moved downward, and the lower pixel is moved upward by a set movement distance. The same applies to the pixels that make up the left and right sides of the contour, and the movement distance of the two pixels located at these two points is set according to the distance between the two points where the contour extends in the horizontal direction. To do. Of the two pixels, the left pixel is moved to the right and the right pixel is moved to the left by the set distance.
  • the region identified by the region identifying unit 103 is extremely Can be prevented.
  • the contour of the subject FG is composed of four sides.
  • the present invention is not limited to this, and the contour of the subject FG may be an arbitrary shape. That is, the area specifying unit 103 can specify an area inside the contour of the subject FG even if the outline of the subject FG is an arbitrary shape.
  • the region specifying unit 103 moves the contour detected by the contour detecting unit 102 upward, downward, rightward, and leftward by a predetermined distance. Then, a region that is commonly included in the contour after moving in each direction is specified as a region inside the contour of the subject FG.
  • the moving distance of the contour in this case may be a fixed value as in the above example, or may be set according to the width of the contour for each pixel.
  • the evaluation value Ev is calculated as the sum of the pixel values in the image after the edge enhancement process and the mask process are performed, but the present invention is not limited to this.
  • the evaluation value acquisition unit 105 performs evaluation based on the number of pixels in which the edge strength exceeds a predetermined threshold among all the pixels included in the edge-enhanced image by the edge enhancement unit 104.
  • the value Ev may be obtained.
  • the image including the subject FG does not include the subject FG and is stronger and includes more edges than the image.
  • the evaluation value Ev is the number of pixels having a pixel value V larger than a certain threshold V (that is, a pixel whose edge strength exceeds a predetermined threshold value). Even if acquired as, it is possible to accurately determine the presence or absence of the subject FG.
  • the evaluation value acquisition unit 105 may acquire the evaluation value Ev based on the value of the pixel having the highest edge strength among all the pixels included in the image in which the edge is enhanced by the edge enhancement unit 104. .
  • the maximum pixel value is' 2257 in the image shown in Fig. 6 (C)
  • the maximum pixel value is' 428 'in the image shown in Fig. 6 (D)! / If the influence of the contour of the subject FG is sufficiently eliminated by the mask processing by the contour detection unit 102 and the region specifying unit 103, the maximum pixel value depends on the presence or absence of the subject FG, as in the above example. There is a big difference. Therefore, even if the evaluation value Ev is obtained simply based on the maximum pixel value (that is, the value of the pixel having the highest edge intensity), it is possible to accurately determine the presence or absence of the subject FG.
  • control unit 10 may be realized in software by a computer as in the above-described embodiment, or at least a part thereof may be realized by hardware such as a signal processing circuit.
  • biometric authentication processing template registration processing, verification processing, etc.
  • present invention is not limited to this.
  • image processing where it is necessary to distinguish between an image of a subject including an edge and a plain background.
  • the present invention is widely applicable.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

画像に所定の被写体の像が含まれるか否かを適切に判定できる画像処理装置及び画像判定方法と、当該画像処理装置において実行されるプログラムを提供する。撮像画像のエッジが強調され、このエッジ強調された画像に含まれる画素の値に基づいて、撮像画像に含まれるエッジの強度及び/又は量に関する評価値Evが取得される。この取得された評価値Evに基づいて、撮像画像に所定の被写体FGの像が含まれるか否かが判定される。撮像画像に所定の被写体FGの像が含まれているかどうかを、的確に判定することが可能になる。また、評価値Evに応じて、その被写体FGの像が所定の用途(例えば生体認証のテンプレート用画像)に相応しいものであるかも判定できる。

Description

明 細 書
画像処理装置、画像判定方法及びプログラム
技術分野
[0001] 本発明は、画像に所定の被写体の像が含まれるか否かを判定する画像処理装置と その画像判定方法並びにプログラムに関する。
本発明は、例えば、生体認証用に撮像された画像に生体の像が含まれているか否 かを判定する画像処理装置に関する。
背景技術
[0002] ネットワークを利用した情報通信の進展に伴って、より安全性の高い個人認証シス テムが求められている。
ノ ィオメトリタス認証 (生体認証)は、人物の身体的な特徴、たとえば、指紋、声紋、 網膜、手指の静脈パターンなど力も得られる情報に基づいて、その人物が登録者本 人であるか否かを判定するため、別の人物が本人になりすますことを大幅に低減でき る優れた特徴を有して 、る。
特開 2004— 329825号公報には、近赤外光を照射して手指の血管のパターンを 撮像し、これを予め登録された血管のノターンと照合することにより個人を認証する 装置が記載されている。
発明の開示
発明が解決しょうとする課題
[0003] 生体の画像に基づいて個人の認証を行う場合には、先ず本人の生体画像を撮像 し、そこから個人の特定に必要な情報を抽出し、これを認証情報としてしかるべき装 置に登録する必要がある。認証用に取得する生体の情報を、以下では「テンプレート 」と呼ぶことにする。
個人の認証はこのテンプレートに基づいて行われるため、テンプレート用の画像に 登録者の身体的な特徴、例えば血管のパターンを示す適切な像が含まれて 、な 、と 、認証の信頼性が著しく低下する。例えば、指の血管パターンの画像をテンプレート として登録する際に、誤って指以外の部分の画像を登録してしまうと、登録者本人が 認証にパスしな力つたり、あるいは全く別の人が認証にパスしたりする不都合が生じる
[0004] 取得したテンプレートが適切である力否かは、例えば認証情報の管理者が目視に よってチェックする。しかしながら、目視によるチェックでは個人の判断のばらつきによ つて認証の信頼性を安定に保つことができないという不利益がある。また、認証情報 を大量に処理する場合、テンプレート用の画像を目視で 1つ 1つをチェックする方法 では作業効率が非常に低くなるという不利益もある。
[0005] 以上から、画像に所定の被写体の像が含まれるか否かを適切に判定できる画像処 理装置及び画像判定方法と、そのような画像処理装置にお 、て実行されるプロダラ ムを提供することが望まれて 、る。
課題を解決するための手段
[0006] 本発明の第 1の実施の形態に係る画像処理装置は、画像のエッジを強調する、よう に構成されて 、るエッジ強調部と、上記エッジ強調部にお 、てエッジを強調された画 像に含まれる画素の値に基づいて上記画像に含まれるエッジの強度及び/又はェ ッジの量に関する評価値を取得する、ように構成されている評価値取得部と、上記評 価値取得部において取得された評価値に基づいて上記画像に所定の被写体の像 が含まれるか否かを判定する、ように構成されて ヽる判定部とを有する。
[0007] 上記第 1の実施の形態に係る画像処理装置によれば、上記エッジ強調部において 、上記画像のエッジが強調される。上記評価値取得部では、当該エッジが強調され た画像に含まれる画素の値に基づいて上記画像に含まれるエッジの強度及び/又 はエッジの量に関する評価値が取得される。そして、上記判定部で、当該取得された 評価値に基づ 、て、上記画像に所定の被写体の像が含まれるか否か判定される。
[0008] 上記評価値取得部は、例えば、上記エッジ強調部においてエッジを強調された画 像に含まれる全画素の値の合計に基づ 、て、上記評価値を取得しても良 、。
あるいは、上記エッジ強調部にお!ヽてエッジを強調された画像に含まれる全画素の うち、エッジの強度が所定しきい値を超える画素の値の合計に基づいて、上記評価 値を取得しても良い。
または、上記エッジ強調部にお!ヽてエッジを強調された画像に含まれる全画素のう ち、エッジの強度が所定のしきい値を超える画素の数に基づいて、上記評価値を取 得しても良い。
または、上記エッジ強調部にお!ヽてエッジを強調された画像に含まれる全画素のう ち、エッジの強度が最も高い画素の値に基づいて、上記評価値を取得しても良い。
[0009] 上記第 1の実施の形態に係る画像処理装置は、上記画像から、上記被写体の輪郭 を検出する、ように構成されている輪郭検出部と、上記輪郭検出部において検出され た輪郭より内側の領域を特定する、ように構成されて ヽる領域特定部とを更に有して も良い。この場合、上記評価値取得部は、上記エッジ強調部においてエッジを強調さ れた画像中の上記領域特定部において特定された領域に含まれる画素の値に基づ いて、上記評価値を取得しても良い。
これにより、上記評価値は、上記被写体の輪郭より内側の領域に含まれる画素の値 に基づいて取得される。
[0010] また、上記エッジ強調部は、上記画像取得部において取得される画像のエッジを 順次に強調し、上記評価値取得部は、上記画像取得部において取得される画像の 評価値を順次に取得しても良い。この場合、上記判定部は、上記画像取得部におい て順次に取得される画像の評価値と第 1のしきい値とを比較し、当該比較結果に基 づ 、て、上記取得された画像に含まれるエッジの強度及び/又はエッジの量が第 1 の基準に達しているか否かを判定する第 1の判定部と、上記第 1の判定部において 上記第 1の基準に達していると判定された画像が連続して所定数取得された場合、 当該所定数の画像の評価値に基づいて、上記第 1の基準を超える第 2の基準を定め る第 2のしきい値を決定し、当該所定数の画像の何れか 1つ若しくは当該所定数の 画像に続 、て取得される画像の評価値と上記第 2のしき 、値とを比較し、当該比較 結果に基づいて当該比較対象の画像に上記被写体の像が含まれるか否かを判定す る第 2の判定部とを含んでも良い。
更に、上記判定部は、上記評価値取得部において順次に取得される評価値と、上 記第 2の基準を超える第 3の基準を定める第 3のしきい値とを比較し、当該比較結果 に基づ!/ヽて、当該比較対象の画像に上記被写体の像が含まれるか否かを判定する 、ように構成されて 、る第 3の判定部を含んでも良 、。 [0011] 上記の構成によれば、上記第 1の判定部において、順次に取得される画像の評価 値と第 1のしきい値とが比較され、当該比較結果に基づいて、上記取得された画像に 含まれるエッジの強度及び Z又はエッジの量が第 1の基準に達しているか否かが順 次に判定される。上記第 2の判定部では、上記第 1の基準に達していると判定された 画像が連続して所定数取得された場合、当該所定数の画像の評価値に基づ ヽて、 上記第 1の基準を超える第 2の基準を定める第 2のしき 、値が決定される。第 2のしき V、値が決定されると、当該所定数の画像の何れか 1つ若しくは当該所定数の画像に 続いて取得される画像の評価値と上記第 2のしきい値とが比較され、当該比較結果 に基づいて、当該比較対象の画像に上記被写体の像が含まれるか否かが判定され る。
他方、上記第 3の判定部では、上記評価値取得部において順次に取得される評価 値と、上記第 2の基準を超える第 3の基準を定める第 3のしきい値とが比較され、当該 比較結果に基づいて、当該比較対象の画像に上記被写体の像が含まれるか否かが 判定される。
[0012] 上記第 1の実施の形態に係る画像処理装置は、上記画像取得部において順次に 取得される画像の評価値に関する情報を出力する、ように構成されている情報出力 部を更に有しても良い。上記情報出力部は、上記第 1の判定部において上記第 1の 基準に達していると判定された画像が連続して取得される数に応じた情報を出力し ても良い。
[0013] 本発明の第 2の実施の形態は、画像に所定の被写体の像が含まれる力否かを判定 する画像判定方法に関する。この画像判定方法は、上記画像のエッジを強調する第 1の工程と、上記第 1の工程においてエッジを強調された画像に含まれる画素の値に 基づ 、て、上記画像に含まれるエッジの強度及び Z又は量に関する評価値を取得 する第 2の工程と、上記第 2の工程において取得された評価値に基づいて、上記画 像に上記被写体の像が含まれる力否かを判定する第 3の工程とを有する。
[0014] 上記第 2の実施の形態に係る画像判定方法によれば、上記第 1の工程において、 上記画像のエッジが強調され、上記第 2の工程において、当該エッジ強調された画 像に含まれる画素の値に基づき、上記画像に含まれるエッジの強度及び Z又は量に 関する評価値が取得される。そして、上記第 3の工程において、当該取得された評価 値に基づき、上記画像に上記被写体の像が含まれるか否かが判定される。
[0015] 本発明の第 3の実施の形態は、画像に所定の被写体の像が含まれる力否かを判定 するため、コンピュータを含む画像処理装置のプログラムに関する。このプログラムは 、上記画像のエッジを強調する第 1のステップと、上記第 1のステップにおいてエッジ を強調された画像に含まれる画素の値に基づいて上記画像に含まれるエッジの強度 及び Z又はエッジの量に関する評価値を取得する第 2のステップと、上記第 2のステ ップにお 1、て取得された評価値に基づ!、て上記画像に上記被写体の像が含まれる か否かを判定する第 3のステップとを上記画像処理装置に実行させる。
[0016] 上記第 3の実施の形態に係るプログラムによれば、上記第 1のステップにおいて、 上記画像のエッジを上記画像処理装置が強調する。上記第 2のステップにお 、て、 当該エッジ強調された画像に含まれる画素の値に基づ 、て、上記画像に含まれるェ ッジの強度及び Z又は量に関する評価値を上記画像処理装置が取得する。そして、 上記第 3のステップにおいて、当該取得された評価値に基づいて、上記画像に上記 被写体の像が含まれるか否かを上記画像処理装置が判定する。
発明の効果
[0017] 本発明によれば、画像に含まれるエッジの強度及び Z又は量を評価値として数値 ィ匕することにより、当該画像に所定の被写体の像が含まれる力否かを人間のあいま いな判断に頼ることなく適切に判定することができる。
図面の簡単な説明
[0018] [図 1]図 1は本発明の実施形態に係る画像処理装置の構成の一例を示す図である。
[図 2]図 2 (A)〜(C)は撮像画像にエッジ強調処理を施した結果の第 1の例を示す図 である。
[図 3]図 3 (A)〜(C)は撮像画像にエッジ強調処理を施した結果の第 2の例を示す図 である。
圆 4]図 4 (A)、(B)は、図 2 (A)〜(C) ,図 3 (A)〜(C)に示す撮像画像力も被写体 の輪郭を検出し、その内側の領域を特定する例を示す図である。
[図 5]図 5 (A)〜(C)は図 3 (B)に示すエッジ強調処理後の画像から、図 4 (B)に示す 輪郭の内側の領域をマスク処理によって切り出す例を示す図である。
[図 6]図 6 (A)〜 (D)は撮像画像に所定の被写体が含まれる場合と含まれな ヽ場合 の一例を示す図である。
[図 7]図 7は図 6 (C)に示す被写体を含む撮像画像における画素値の分布と、図 6 (D )に示す被写体を含まな 、撮像画像における画素値の分布とを比較した図である。
[図 8]図 8 (A)〜(D)はエッジ強調処理後の画像において、しきい値以下の画素値を ゼロにする場合とゼロにしな 、場合とを比較した図である。
[図 9]図 9は図 8 (A)〜(D)に示す画像において、所定のしきい値以下の画素値をゼ 口にした場合の評価値と、しき 、値を設けな 、場合の評価値とを比較した図である。
[図 10]図 10は図 1に示す画像処理装置における評価値の算出処理の一例を説明す るフローチャートである。
[図 11]図 11は図 1に示す画像処理装置におけるテンプレート登録処理の一例を説 明するフローチャートである。
[図 12]図 12はテンプレート登録処理の実行中における画像表示部の表示例を示す 図である。
符号の説明
[0019] 10· ··制御部、 20· ··光源、 30…光学系、 40…撮像部、 50…画像表示部、 60· ··操 作部、 70· ··記憶部、 101…画像取得部、 102…輪郭検出部、 103· ··領域特定部、 1 04…エッジ強調部、 105…評価値取得部、 106· ··判定部、 1061…第 1判定部、 10 62· ··第 2判定部、 1063…第 3判定部、 107…登録部、 108…照合部、 109· "表示 処理部
発明を実施するための最良の形態
[0020] 図 1は、本発明の実施形態に係る画像処理装置の構成の一例を示す図である。
図 1に示す画像処理装置は、制御部 10と、光源 20と、光学系 30と、撮像部 40と、 画像表示部 50と、操作部 60と、記憶部 70とを有する。
[0021] 光源 20は、被写体 FG (図 1の例では人の指)に照射する光線を発生する。この光 線は、例えば 600ηπ!〜 1300nm程度の波長を有する近赤外線であり、人体組織に 対する透過性が比較的高ぐかっ血中のヘモグロビンによって特異的に吸収される 性質を有している。
光源 20は、例えば発光ダイオードやハロゲンランプ等によって構成される。
[0022] 光学系 30は、被写体 FGを透過した光を撮像部 40の受光面に導く。撮像部 40の 受光面に投影される被写体 FGの像では、太い血管の部分ほど暗くなつている。
[0023] 撮像部 40は、受光面に投影される被写体 FGの像を撮像し、画像データに変換し て制御部 10に出力する。撮像部 40は、例えば CCD (charge coupled device)や CM
OS (.complementary metal oxide semiconductor)センサなどの it像素子によって構成 される。
[0024] 制御部 10は、画像処理装置の全体的動作の制御や各種の信号処理を行う。例え ば、光源 20における光線の発生や、撮像部 40における画像の撮像、画像表示部 50 における画像の表示などを、操作部 60から入力されるユーザの指示に応じて制御す る。また、撮像部 40において撮像された画像に所定の被写体の像が含まれているか 否かを判定する処理や、撮像画像に基づ 、て作成したテンプレートを記憶部 70に登 録する処理、撮像画像とテンプレートとを照合する処理など、生体認証に係わる各種 の画像処理を行う。
制御部 10は、例えばコンピュータによって構成されており、記憶部 70に格納される プログラム PRGに基づいて上記の制御や信号処理を実行する。
[0025] 画像表示部 50は、制御部 10から供給される表示データに応じた画像を表示する。
例えば、後述する表示処理部 109から供給される表示データに応じて、テンプレート 用の画像に係わる情報を表示する。
[0026] 操作部 60は、ユーザの指示を入力するためのインターフェースであり、例えばキー
、ボタン、ダイヤル、タツチパネル、マウスなどの入力機器によって構成される。
[0027] 記憶部 70は、制御部 10のコンピュータにおいて実行されるプログラム PRGや、テ ンプレート DATを記憶する。また、制御部 10の処理で利用する定数データや、処理 過程において一時的に保持する必要がある変数データなどを記憶する。
己憶部 0は、例 は RAM、ranaom access memory)や ROM (read only memory)
、不揮発性メモリ、ハードディスク等の記憶装置によって構成される。
[0028] 制御部 10の各構成要素について説明する。 図 1に示す制御部 10は、画像処理に係わる機能的な構成要素として、画像取得部 101と、輪郭検出部 102と、領域特定部 103と、エッジ強調部 104と、評価値取得部 105と、判定部 106と、登録部 107と、照合部 108と、表示処理部 109とを有する。 画像取得部 101は、本発明の画像取得部および画像取得手段の一実施形態であ る。
輪郭検出部 102は、本発明の輪郭検出部および輪郭検出手段の一実施形態であ る。
領域特定部 103は、本発明の領域特定部および領域特定手段の一実施形態であ る。
エッジ強調部 104は、本発明のエッジ強調部およびエッジ強調手段の一実施形態 である。
評価値取得部 105は、本発明の評価値取得部および評価値取得手段の一実施形 態である。
判定部 106は、本発明の判定部および判定手段の一実施形態である。
[0029] 画像取得部 101は、撮像部 40において撮像された画像を順次に取得する。すな わち画像取得部 101は、操作部 60から入力される指示に応じてテンプレートの登録 処理や照合処理が開始されると、光源 20や撮像部 40の動作を制御することにより、 被写体 FGに近赤外線を照射し、その投影画像を順次に撮像し、撮像画像のデータ を順次に取り込む。
[0030] エッジ強調部 104は画像取得部 101にお 、て取得される画像のエッジを強調する 画像のエッジの強調には、例えばガウシアンフィルタやラプラシアンフィルタなどの 画像フィルタを用いる。すなわち、ガウシアンフィルタによって画像に含まれるノイズ 成分を除去したのち、ラプラシアンフィルタによって画素値の変化を強調する。これに より、画像に含まれる点状のノイズ成分が除去され、線状のエッジ成分が強調される
[0031] 図 2 (A)〜(C)は、被写体 FGの撮像画像に対して上述したガウシアンフィルタとラ プラシアンフィルタによるエッジ強調処理を施した結果の第 1の例を示す図である。 02 (A)はエッジ強調処理前の画像、図 2 (B)はエッジ強調処理後の画像を示す。 また図 2 (C)は図 2 (B)に示す画像の画素値を 3次元で図解した図である。
図 2 (A)〜(C)の例から分力るように、撮像部 40にお 、て撮像された画像にエッジ 強調処理を施すと、指の血管 (特に静脈)部分の画素値が他の部分に比べて突出す る。
[0032] 02 (A)に示すエッジ強調処理前の画像及び図 2 (B) , (C)に示すエッジ強調処理 後の画像は、何れも符号なしの 8ビットの画素値を有している。ガウシアンフィルタとラ ブラシアンフィルタによって 8ビットの画素値を持つ画像を処理した場合、その処理後 の画素値は 8ビットを超えた値になり得る。ところが、図 2 (B) , (C)の例では、処理後 の画素値を 8ビットに制限しているため、図 2 (A)に示す元の画像の血管と図 2 (B)に 示すエッジ強調処理後の画像の血管は、その視覚的な強さがあまり一致していない
。すなわち、細くて薄い血管も、太くて濃い血管も、エッジ強調処理後の画像ではほ ぼ同じ強さになっている。
[0033] これに対し、図 3 (A)〜(C)は、ガウシアンフィルタとラプラシアンフィルタによる同様 なエッジ強調処理を施した結果の第 2の例を示す図であり、図 2 (A)〜 (C)に示す第 1の例との違いは、エッジ強調処理後の画素値のビット制限を撤廃したことにある。図 3 (A)はエッジ強調処理前の画像、図 3 (B) , (C)はエッジ強調処理後の画像を示す 図 2 (A)〜 (C)と図 3 (A)〜 (C)を比較して分力るように、画素値のビット制限を撤 廃した場合、元の画像における濃淡の違 、がエッジ強調処理後の画像に敏感に現 れており、濃い血管の画素値は大きぐ薄い血管の画素値は小さくなつている。
[0034] 血管の情報をテンプレートとして登録するためには、十分に認証に用いることがで きる安定した血管の像を抽出しなければならない。したがって、撮像部 40において撮 像される画像には、なるべく太くて濃 、血管の像が多く含まれることが望ま 、。 そこでエッジ強調部 104は、例えば図 2 (A)〜(C)の画像に示すようなビット制限を 撤廃し、エッジ強調処理後の画素値のビット長を適切な長さに設定する。これにより、 後述する評価値取得部 105において取得される評価値 Evは、テンプレートに相応し い画像である力否かをより適切に表現した値になる。 [0035] ただし、エッジ強調処理後の画素値のビット制限を撤廃すると、上述のように血管の 濃淡を正確に反映した画像が得られる一方で、図 3 (B) , (C)に示すように、テンプレ ートとして不要な指の輪郭部分のエッジも強調されてしまう。特に被写体 FGの背景が 明るい場合には、血管よりも輪郭が強く現れてしまう。輪郭が強調され過ぎると、仮に 輪郭に沿って正確に被写体 FGを切り取るマスクを作成しても、輪郭カゝら更に内側の 部分にまで輪郭の影響が及んでいるため、後述する評価値 Evの信頼性が低下して しまう。
そこで、次に述べる輪郭検出部 102及び領域特定部 103では、輪郭部分の影響を 排除した状態で評価値 Evが取得されるように、指の輪郭より確実に内側の領域を切 り出すマスクを作成する。
[0036] 輪郭検出部 102は、撮像部 40にお ヽて撮像された画像から、被写体 FGの輪郭を 検出する。例えば、適当な差分オペレータを用いて撮像画像のエッジ部分を抽出す る方法や、適当なしきい値によって被写体 FGと背景とが分離されるように撮像画像を 2値ィ匕する方法などによって、被写体 FGの輪郭を検出する。
[0037] 領域特定部 103は、輪郭検出部 102において検出された輪郭より内側の領域を特 定し、この特定した領域をエッジ強調処理後の画像力 切り出すマスクを作成する。
[0038] 図 4 (A)、 (B)は、図 2 (A)〜(C) ,図 3 (A)〜(C)に示す撮像画像から被写体 FG の輪郭を検出し、その内側の領域を特定する例を示す図である。
図 4 (A)は、輪郭検出部 102において検出される被写体 FGの輪郭の一例を示す。 図 4 (A)の黒 、部分は被写体 FGの背景を示し、白 、部分は被写体 FGの内部を示 す。また、白と黒の境界は、輪郭検出部 102において検出される輪郭に相当する。 図 4 (B)は、領域特定部 103において特定される被写体 FGの内側の領域の一例 を示す。図 4 (B)の白い部分は、領域特定部 103において特定される被写体 FGの 内側の領域を示す。また、灰色の部分は、輪郭検出部 102において検出される輪郭 の内部であって、領域特定部 103において特定される領域からは除外される部分を 示す。
[0039] 図 4 (A)、(B)の例において、被写体 FGの輪郭は、上下左右の 4つの辺から構成さ れている。被写体 FGの輪郭がこのように複数の辺力も構成されている場合、領域特 定部 103は、例えばこれらの辺を輪郭の内側へそれぞれ所定の距離だけ移動させる 。そして、移動後の各辺によって囲まれた領域を、被写体 FGの内側の領域として特 定する。図 4 (B)の例では、上側の辺を画像の下方向へ、下側の辺を画像の上方向 へ、それぞれ距離 dLRだけ移動するとともに、左側の辺を画像の右方向へ、右側の 辺を画像の左方向へ、それぞれ距離 dUDだけ移動する。そして、移動後の 4つの辺 に囲まれた領域を、被写体 FGの輪郭より内側の領域として特定する。
[0040] このように領域特定部 103によって特定される領域は、被写体 FGの輪郭力も確実 に離れる。そのため、図 3 (B) , (C)に示すように輪郭の画素値が異常に高い場合で も、その影響が領域の内部にほとんど及ばなくなる。したがって、エッジ強調処理後 の画像から、領域特定部 103によって特定される領域のみをマスク処理によって切り 出せば、輪郭の影響が排除された純粋な血管の像を得ることができる。
[0041] 上述のように被写体 FGの輪郭より内側の部分をマスク処理で切り出した場合、輪 郭の近傍にある血管の像は、評価値 Evを求める際の対象から排除される。すなわち 、血管の情報の一部が失われてしまうことになる。し力しながら、輪郭近傍に存在する 血管の像は、指の置き方に応じて変化し易ぐ例えば指を少し回転するだけで撮像 画像に表れなくなる。このような血管の像は、そもそもテンプレートの登録用には相応 しくな 、像であるから、これをマスク処理によって排除した結果力 評価値 Evを求め ても不都合は生じない。
[0042] 評価値取得部 105は、エッジ強調部 104にお 、てエッジを強調された画像に含ま れる画素の値に基づ 、て、撮像部 40から入力した画像に含まれるエッジの強度及び Z又は量に関する評価値 Evを取得する。例えば、エッジ強調処理後の画像に含ま れる全画素の値の合計を算出し、これを評価値 Evとして取得する。
ただし、本実施形態に係る評価値取得部 105は、エッジ強調処理後の画像に含ま れる全画素のうち、領域特定部 103において特定された被写体 FGの内部領域に含 まれる画素の値に基づ 、て評価値 Evを取得し、この領域外の画素の値は評価値 Ev の決定に際して利用しない。すなわち、領域特定部 103によって作成されたマスクに より切り出される輪郭の内側領域の画素値に基づ 、て、評価値 Evを取得する。
[0043] 図 5 (A)〜(C)は、図 3 (B)に示すエッジ強調処理後の画像から、図 4 (B)に示す輪 郭の内側の領域をマスク処理によって切り出す例を示す図である。
図 5 (A)はエッジ強調処理前の画像を示す。また図 5 (B) , (C)は、エッジ強調処理 後の画像カゝら輪郭の内側の領域のみをマスク処理によって切り出した画像を示す。 エッジ強調処理後の画像力も領域特定部 103で特定された領域のみを切り出すと 、図 5 (B) , (C)の画像に示すように被写体 FGの輪郭の影響が排除され、被写体 FG の内部に存在する血管の像だけが浮き彫りになる。この血管の像は、元の画像にお ける血管の太さや濃さに応じて画素の値が大きく変化している。
評価値取得部 105は、このように血管の濃淡の状態が適切に反映された画像にお ける画素値の合計を、評価値 Evとして算出する。この評価値 Ενは、テンプレート用の 画像として相応しい被写体 FGの特徴を示す値となる。
[0044] 図 6 (Α)〜(D)は、撮像部 40にお ヽて撮像された画像に被写体 FGが含まれる場 合と含まれな 、場合の一例を示す図である。
図 6 (Α)は、被写体 FGを含む撮像画像を示し、図 6 (C)は、この図 6 (Α)に示す画 像にエッジ強調処理とマスク処理を施した後の画像を示す。
図 6 (Β)は、被写体 FGを含まない撮像画像を示し、図 6 (D)は、この図 6 (Β)に示 す画像にエッジ強調処理とマスク処理を施した後の画像を示す。
[0045] 図 6 (A)の画像には指の内部の血管が綺麗に映し出されているため、これにエッジ 強調処理とマスク処理を施した図 6 (C)の画像では、血管の部分に局所的に強いェ ッジが集中している。一方、図 6 (B)に示す画像には血管の像が全く映し出されてお らず、濃淡が乏しいため、これにエッジ強調処理とマスク処理を施した図 6 (D)の画 像では、弱いエッジが全体に散在し、血管の像に対応する明確なエッジが現れてい ない。
両者の画素値の合計を比較すると、図 6 (C)の画像は' 2434244'、図 6 (D)の画 像は' 1177685,となった。このように、被写体 FGを含む場合と含まない場合とでは 、画素値の合計に大きな差異がある。したがって、評価値取得部 105により取得され る評価値 Ev (すなわちエッジ強調処理及びマスク処理を施した画像の画素値の合計 )は、その値の違いによって、被写体 FGの有無を表すことができる。
[0046] 図 6 (C)と図 6 (D)を比較すると、被写体 FGを含まな ヽ画像は被写体 FGを含む画 像に比べて画素値の小さい画素(すなわち弱いエッジ)が多く含まれており、画素値 の大きい画素(すなわち強いエッジ)が少なくなつている。そこで、評価値取得部 105 は、単に全部の画素値を合計するのではなぐあるしきい値より大きい画素値のみを 合計し、これを評価値 Evとして取得しても良い。すなわち、エッジ強調部 104におい てエッジを強調された画像に含まれる全画素(ただし領域特定部 103によって特定さ れた領域内)のうち、エッジの強度が所定しきい値を超える画素の値の合計に基づい て、評価値 Evを取得しても良い。これにより、被写体 FGを含む場合と含まない場合 の評価値 Evの違いを、より一層際立たせることができる。
[0047] 図 7は、図 6 (C)に示す画像 (被写体 FGを含む場合)における画素値の分布と、図 6 (D)に示す画像 (被写体 FGを含まない場合)における画素値の分布とを比較した 図である。横軸は画素値を示し、縦軸は画素数を示す。
図 7に示すように、撮像画像に被写体 FGが含まれていない場合、エッジ強調処理 とマスク処理を施した後の画像には、一定の画素値(図 7の例では ' 500' )より小さ ヽ 範囲にほとんど画素が分布している。一方、撮像画像に被写体 FGが含まれている場 合は、小さ 、画素値から大き 、画素値まで広 、範囲に画素が分布して 、る。
[0048] 図 8 (A)〜(D)は、エッジ強調処理後の画像にぉ 、て、しき 、値以下の画素値をゼ 口にする場合とゼロにしな 、場合とを比較した図である。
図 8 (A) , (B)は、図 6 (C) , (D)と同じ画像であり、しきい値以下の画素値をゼロに しない場合の画像を示す。
他方、図 8 (C) , (D)は、それぞれ図 8 (A) , (B)の画像に含まれるしきい値' 255' 以下の画素値を全てゼロにした場合の画像を示す。
撮像画像に被写体 FGが含まれる場合は、図 8 (A)と図 8 (C)を比較して分力るよう に、しきい値以下の画素値をゼロにしてもエッジの主要な特徴 (すなわち血管の像) が維持されている。これに対し、撮像画像に被写体 FGが含まれていない場合は、図 8 (B)と図 8 (D)を比較して分力るように、しき 、値以下の画素値をゼロにするとエッジ の大半が消えてしまい、エッジの特徴が大きく変化する。
[0049] 図 9は、図 8 (A)〜(D)に示す画像においてしきい値' 255'以下の画素値をゼロに した場合の評価値 (画素値の合計)としき!/ヽ値を設けな!/ヽ場合の評価値とを比較した 図である。
しき 、値を設けな 、場合、被写体 FGを含む画像(図 8 (A) )の評価値 Evは ' 2434 244'、被写体を含まない画像(図 8 (B) )の評価値 Ενは' 1177685'となった。これ に対して、しきい値' 255'以下の画素値をゼロにした場合、被写体 FGを含む画像( 図 8 (C) )の評価値 Evは ' 2145659,、被写体 FGを含まな 、画像(図 8 (D) )の評価 値 Evは' 117921 'になった。この図 9から明らかなように、エッジ強調処理後の画像 において所定のしきい値以下の画素値を除外して評価値 Evを算出することにより、 被写体 FGの有無に応じた評価値 Evの差異をより明確にすることができる。
[0050] 判定部 106は、評価値取得部 105にお 、て取得された評価値 Evに基づ 、て、撮 像部 40から入力した画像に被写体 FGの像が含まれる力否かを判定する。
[0051] 判定部 106は、例えば図 1に示すように、第 1判定部 1061と、第 2判定部 1062と、 第 3判定部 1063とを有する。
第 1判定部 1061は、画像取得部 101において順次に取得される画像の評価値 Ev としきい値 Tdとを比較し、当該比較結果に基づいて、取得された画像に含まれるエツ ジの強度及び Z又はエッジの量が最低基準に達している力否かを判定する。
第 2判定部 1062は、第 1判定部 1061において第 1基準に達していると判定された 画像が連続して所定数取得された場合、当該所定数の画像の評価値 Evに基づ ヽて 、上記の最低基準を超えた中間の基準を定めるしきい値 Thを決定する。そして、当 該所定数の画像の何れか 1つ若しくは当該所定数の画像に続いて取得される画像 の評価値 Evとしきい値 Thとを比較し、当該比較結果に基づいて、当該比較対象の 画像に被写体 FGの像が含まれるか否かを判定する。
第 3判定部 1063は、評価値取得部 105において順次に取得される評価値 Evと、 上記の中間基準を超えた最も高 ヽ基準を定めるしき!/、値 Tuとを比較し、当該比較結 果に基づいて、当該比較対象の画像に被写体 FGの像が含まれるか否かを判定する
[0052] 先に説明したように、評価値取得部 105で取得される評価値 Evは、テンプレート用 の画像として相応 、被写体 FGの像の特徴を現しており、この値の大小に応じて撮 像画像に被写体 FGが含まれて ヽるカゝ否かを判別できる。したがって判定部 106は、 最も単純な方法として、評価値 Evと単一のしきい値とを比較した結果に基づいて、そ の比較対象の画像を登録する力否力判定しても良い。し力しながら、実際のテンプレ ート登録時には次のようなことがしばしば起こるため、単一のしきい値による簡易な判 定では適切なテンプレートを登録できない場合がある。
(1)撮像時に指が動いた;
(2)露出等の影響であまり綺麗に撮像できな!/ヽ;
(3)指の静脈が細くて薄い;
(1)の場合や(2)の場合、テンプレートの登録は可能力もしれないが、本来よりも悪 V、状態 (血管パターンの情報が少な 、等)のテンプレートを登録してしまう可能性が ある。そうすると、通常は容易に照合できるのになかなか照合できな力つたり、あるい は照合に失敗したりする不都合が生じる。また (3)の場合には、評価値 Evに対してし きい値が高すぎてしまい、テンプレートを登録できない可能性がある。し力しながら、 しきい値をあまり下げると、悪い状態のテンプレートを登録してしまう可能性が高くなる そこで、図 1に示す判定部 106は、単一のしきい値ではなく 3つのしきい値 (Td, Tu , Th)を用いて登録の可否を判定する。
第 1判定部 1061のしきい値 Tdは、テンプレートに用いる画像の最低基準を定める 。これは、例えば、上述の(3)のように指の静脈が細くて薄い人が安定して撮像でき たときに得られる評価値 Evの値に基づ 、て設定される。評価値 Ev力 Sしき 、値 Tdより 小さ 、場合、その画像はテンプレートに用いな 、。
第 3判定部 1063のしき 、値 Tuは、テンプレートに用いる画像の最も高 、基準を定 める。これは、撮像部 40において安定した状態で撮像され、かつ十分に綺麗な指静 脈が撮像された場合に得られる評価値 Evに基づいて設定される。血管の太さには個 人差があるため、もし安定に撮像できたとしても、全てのユーザがしきい値 Tuの最高 基準をパスするテンプレートで登録できるとは限らない。
第 2判定部 1062のしき 、値 Thは、しき 、値 Tdの最低基準は超えるがしき 、値 Td の最高基準は満たさない中間の基準を定める。しきい値 Thは、連続的に撮像された 画像の評価値 Evに基づいて決定される。しきい値 Td, Tuは予め設定された固定値 であり、しきい値 Thは被写体ごと、撮像ごとに変化する値である。
[0054] 登録部 107は、第 1判定部 1061又は第 3判定部 1063において被写体 FGの像が 含まれると判定された撮像画像カゝら血管パターンの情報を抽出し、これをテンプレー ト DATとして記憶部 70に格納する。
[0055] 照合部 108は、第 1判定部 1061又は第 3判定部 1063において被写体 FGの像が 含まれると判定された撮像画像力 血管パターンの情報を抽出し、この抽出した情報 と記憶部 70に格納されるテンプレート DATと照合する。
[0056] 表示処理部 109は、画像取得部 101において順次に取得される画像の評価値 Ev に応じた情報を画像表示部 50に表示する処理を行う。また、第 1判定部 1061にお
V、て最低基準に達して 、ると判定された画像が連続して取得される数に応じた情報 を画像表示部 50に表示する処理を行う。
[0057] 上述した構成を有する図 1に示す画像処理装置の動作を説明する。
[0058] 図 10のフローチャートを参照して、図 1に示す画像処理装置における評価値 Evの 算出処理の一例を説明する。
[0059] 画像取得部 101は、光源 20及び撮像部 40を制御して被写体 FGの撮像を行い、 撮像された画像 Ifを取得する (ステップ ST101)。
輪郭検出部 102は、画像 If〖こ含まれる被写体 FGの輪郭を検出し、輪郭の内部を 切り出すマスク Mfを作成する。また、領域特定部 103は、輪郭検出部 102において 検出された輪郭より内側の領域を特定し、その内側領域を切り出すマスク eMfを作成 する(ステップ ST102)。
[0060] 他方、エッジ強調部 104は、画像 Ifのエッジを強調する処理を行う。すなわち、ガウ シアンフィルタによって画像 Ifのノイズ成分を除去し (ステップ ST103)、このノイズ除 去後の画像 Gfに対してラプラシアンフィルタを適用することによってエッジ部分を強 調する(ステップ ST104)。
[0061] 評価値取得部 105は、ラプラシアンフィルタによってエッジを強調された画像 Lfから
、領域特定部 103によって特定された内部領域を切り出すマスク処理を行う(ステツ プ ST105)。そして、このマスク処理後の画像 Ofに含まれるしきい値 Vunder以下の 画素値をゼロにし (ステップ ST106)、画素値の合計を計算する (ステップ ST107)。 計算された画素値の合計は、評価値 Evとして判定部 106に供給される。
以上が、評価値 Evの算出処理の説明である。
[0062] 図 11に示すフローチャートを参照して、図 1に示す画像処理装置におけるテンプレ ート登録処理の一例を説明する。
[0063] 判定部 106は、連続して取得された評価値 Evの数を代入するための変数 iと、 n個 の連続して取得された評価値 Evを代入するための変数 hEvi (i=0, 1, · ··, n— 1)を それぞれ初期化する(ST201)。
[0064] 次いで輪郭検出部 102、領域特定部 103、エッジ強調部 104及び評価値取得部 1
05は、ステップ ST202〜ST207の処理によって、撮像画像 Ifの評価値 Evを算出す る。
図 10と図 11を比較すると、ステップ ST202はステップ ST101、ステップ ST203は ステップ ST102、ステップ ST204はステップ ST103及び ST104、ステップ ST205 はステップ ST105、ステップ ST206はステップ ST106、ステップ ST107はステップ ST107にそれぞれ対応して!/、る。
ステップ ST203のマスク生成処理においてマスクの生成に失敗した場合 (例えば 指が装置力も離れて撮像されな力つた場合)、判定部 106は、ステップ ST201に戻 つて変数 i, hEvを初期化する。これにより、撮像の連続性が途切れた場合は即座に 評価値 Evの履歴 (hEv , hEv , · ··, hEv )が消去され、新たな履歴の記録が開始 される。
[0065] 評価値 Evが計算されると、第 3判定部 1063は、この評価値 Evとしき ヽ値 Tuとを比 較し、当該比較結果に基づいて、評価値 Evが最高基準を超えている力否力判定す る (ステップ ST208)。評価値 Evが最高基準を超えていると判定された場合、登録部 107は、この評価値 Evの撮像画像力 血管パターンの情報を抽出し、テンプレート D ATとして記憶部 70に格納する(ステップ ST214)。
[0066] 第 3判定部 1063にお 、て評価値 Evが最高基準を満たして 、な 、と判定された場 合、第 1判定部 1061は、この評価値 Evとしきい値 Tdとを比較し、評価値 Evが最低 基準を超えている力否力判定する (ステップ ST209)。評価値 Evが最低基準を満た していないと判定された場合 (例えば指の配置が不適切な場合)、判定部 106は、ス テツプ ST201に戻って変数 i, hEViを初期化する。これにより、撮像の連続性が途切 れた場合は即座に評価値 Evの履歴 (hEv , hEv , · ··, hEv )が消去され、新たな 履歴の記録が開始される。
[0067] 第 1判定部 1061にお 、て評価値 Evが最低基準を超えて ヽると判定された場合、 判定部 106は、評価値 Evを履歴用の変数 hEviに代入し、履歴数を表す変数 iに' 1 ' を加算する(ステップ ST210)。
次!、で判定部 106は、 ' 1,を加算した変数 iと所定の数 ηθとを比較する (ステップ S
T211) o変数 iが所定の数 ηθより小さい場合、判定部 106は、ステップ ST202に処 理を戻す (ステップ ST211)。これにより、ステップ ST202〜ST207の処理が再び実 行され、新たな撮像画像 Ifの評価値 Evが算出される。
[0068] 他方、変数 iが所定の数 ηθに達している場合、第 2判定部 1062は、変数 hEv , hE
0 v,…, hEv に代入されている(nO+ 1)個の評価値に基づいて、しきい値 Thを決
1 ηθ
定する。すなわち、(nO+ 1)個の評価値における最大の値に係数 k (kは 0より大きく 1 より小さい実数を示す)を乗じたものを、しきい値 Thとして決定する (ステップ ST212) 。係数 kは、例えば' 0. 9'程度の値に設定される。係数 kを' 1 'に近づけるほど、安定 的に高い評価値 Evを取得することが要求される。
[0069] ステップ ST212においてしきい値 Thを決定すると、次に第 2判定部 1062は、評価 値 Evとしきい値 Thとを比較し、当該比較結果に基づいて、現在の撮像画像の評価 値 Evが中間の基準を超えているか否か判定する(ステップ ST213)。ステップ ST21 3において評価値 Evが中間の基準に達していないと判定された場合、判定部 106は 、ステップ ST202に処理を戻す (ステップ ST211)。これにより、ステップ ST202〜S T207の処理が再び実行され、新たな撮像画像 Ifの評価値 Evが算出される。他方、 ステップ ST213において評価値 Evが中間の基準に達したと判定された場合、登録 部 107は、この評価値 Evの撮像画像力も血管パターンの情報を抽出し、テンプレー ト DATとして記憶部 70に格納する(ステップ ST214)。
[0070] 履歴保存用の変数 hEv , hEv , · ··, hEv には、途中で変数の初期化処理 (ステ ップ ST201)に戻らない限り、テンプレート登録用の画像が確定するまで順次に評価 値 Evが格納される。これらの変数に例えば FIFO (first in first out)の形式で評価値 Evを格納すれば、直近の最大 n個の履歴を残すことが可能である。
以上が、テンプレート登録処理の説明である。
[0071] 上述したテンプレート登録処理の実行中における画像表示部 50の表示例につい て、図 12を参照して説明する。
ユーザはテンプレートの登録中に、現在撮像されている指の画像がテンプレートと して相応しいものかどうか自分で判断できない。そのため、何らかの情報を提供しな いと、指の角度や置き方をどのようにすれば適切な撮像画像が得られるかユーザは 分力もないため、装置がパスを判定するまで延々と試行錯誤を続けなくてはならない 。そこで、本実施形態に係る画像処理装置では、ユーザに対してテンプレート登録中 の状態をフィードバックすることにより、テンプレート用の画像がスムーズに得られるよ うにする。
[0072] 表示処理部 109は、例えば画像の評価値 Evに関する情報を、画像表示部 50の画 面 900に表示させる。図 12の例では、先に説明したしきい値 Tdと Tuの間を 10段階 に区分し、現在取得された評価値 Evがどの段階にあるかを棒グラフ 903で表してい る。これにより、ユーザは、どのように指を配置すれば適切な像が得られるかを的確に 把握できる。
[0073] また表示処理部 109は、評価値 Evがしき 、値 Tdより大き ヽと判定された画像が連 続して取得される数 (すなわち図 11の変数 i)に関する情報を、画面 900に表示させ る。図 12の例では、変数 iの値を棒グラフ 904によって表している。これにより、ユーザ は、現在の指の配置をどの程度の時間保持すれば判定にパスする力把握することが できる。
[0074] 更に、表示処理部 109は、撮像部 40において撮像可能な範囲に対してユーザの 指がどの位置にあるかを示す情報を、画面 900に表示させる。図 12の例では、撮像 可能範囲を表す点線の枠 902にユーザの指を表す絵 901を配置することによって、 撮像可能範囲に対する現在の指の位置を表している。これにより、ユーザは、どのよ うに指を配置すれば適切な像が得られるかを的確に把握できる。
[0075] 以上説明したように、本実施形態によれば、撮像された画像のエッジが強調され、 このエッジ強調された画像に含まれる画素の値に基づ 、て、撮像画像に含まれるェ ッジの強度及び Z又は量に関する評価値 Evが取得される。そして、取得された評価 値 Evに基づ 、て、撮像画像に所定の被写体 FGの像が含まれるか否かが判定され る。これにより、撮像画像に所定の被写体 FGの像が含まれているかどうかを、人のあ V、ま 、な判断に頼らず的確に判定することができる。
また、評価値 Evは、撮像画像に含まれるエッジの強度及び/又は量に関連する値 であることから、撮像画像に被写体 FGの像が含まれている力否かだけでなぐその 被写体 FGの像が所定の用途に相応 、ものである力も、評価値 Evの値に応じて判 定可能である。例えばテンプレート登録処理において、撮像画像に被写体 FGが含 まれているかどうかだけでなぐそれがテンプレート用の画像として相応しいものであ るかどうかも判定することが可能である。
[0076] 更に本実施形態によれば、撮像画像に含まれる被写体 FGの輪郭が検出され、そ の輪郭より内側の領域が特定される。そして、エッジ強調処理後の画像に含まれる全 画素のうち、この特定された内側の領域に含まれる画素の値に基づいて、評価値 Ev が取得される。 これにより、被写体 FGの輪郭部分に生じるエッジの影響が効果的に 排除され、被写体 FGの内側に含まれるエッジの状態が正しく反映された評価値 Ev を取得することができる。そのため、例えば血管パターンなど、被写体 FGの内側に含 まれる像の特徴に応じて、撮像画像に被写体 FGが含まれているかどうかや、その被 写体 FGが所定の用途 (テンプレート用など)に相応しいものであるかどうかを適切に 判定することが可能である。
[0077] また、本実施形態によれば、順次に撮像される画像の評価値 Evとしき ヽ値 Tdとが 比較され、当該比較結果に基づいて、撮像画像に含まれるエッジの強度及び Z又は 量が最低基準に達している力順次に判定される。そして、最低基準に達していると判 定された画像が連続して所定数取得された場合、当該所定数の画像の評価値 Evに 基づいて、最低基準を超える中間基準を定めるしきい値 Thが決定される。しきい値 T hが決定されると、当該所定数の画像の何れか 1つ若しくは当該所定数の画像に続 V、て取得される画像の評価値 Evとしき 、値 Thとが比較され、当該比較結果に基づ いて、当該比較対象の画像に被写体 FGの像が含まれるか否かが判定される。 すなわち、一連の撮像画像に含まれるエッジの強度及び Z又は量が所定の最低 基準を安定して超えて 、なければ、一連の撮像画像に被写体 FGの像が含まれると 判定されない。これにより、撮像中に被写体が動いてしまう場合や、背景の明るさに 対して露出等の条件が適切でな 、場合など、撮像条件が不安定な状態で撮像画像 に被写体 FGが含まれると判定されることを防止できるため、判定結果の信頼性を高 めることができる。
また、一連の撮像画像の評価値 Evに基づいて、最低基準を超える中間基準のしき い値 Thが設定されるため、被写体 FGの特徴 (血管パターンの特徴)が被写体ごとに 様々に異なる場合でも、上記の最低基準を超える判定基準を被写体ごとに設定でき る。これにより、一律に固定の基準を定める場合に比べて、被写体の違い応じた適切 な判定を行うことが可能になる。また、テンプレート登録処理において、被写体ごとに より適切なテンプレートを取得することができる。
[0078] しカゝも、本実施形態によれば、順次に撮像される画像の評価値 Evと、上記の中間 基準を超える最高基準を定めるしき 、値 Tuとが比較され、当該比較結果に基づ!/、て 、当該比較対象の画像に被写体 FGの像が含まれる力順次に判定される。
すなわち、最高基準を超える評価値 Evを有した撮像画像については直ちに被写 体 FGを含んだ画像と判定されるため、判定処理のスピードを高速ィ匕することができる
[0079] また、本実施形態にぉ 、ては、順次に撮像される画像の評価値 Evに関する情報や
、しき!/、値 Tdに達して 、ると判定された画像が連続的に取得される数に関する情報 など、各々の撮像画像における被写体 FGの像の状態に関する情報が画像表示部 5
0に刻々と表示される。
これにより、撮像画像に含まれる被写体 FGの像が適切な状態になるようにユーザ 自身によって撮像条件 (被写体 FGの配置など)を整えることが可能になるため、所望 の被写体 FGの像をよりスムーズに撮像することができる。
[0080] 以上、本発明の一実施形態について説明したが、本発明は上記の形態にのみ限 定されるものではなぐ種々のバリエーションを含んでいる。
[0081] 上述の実施形態にお!、て、領域特定部 103は、被写体 FGの輪郭を内側へ所定の 距離だけ狭めているが、この距離は固定の値に限られるものではなぐ輪郭の幅に応 じて変化させても良い。
例えば図 4 (B)において、領域特定部 103は、輪郭の上下の辺を画像の縦方向の 線に沿って移動させ、輪郭の左右の辺を画像の横方向の線に沿って移動させている 力 このとき各辺に位置する各画素の移動距離を、その移動方向における輪郭の幅 に応じて設定しても良い。
より詳しく述べると、領域特定部 103は、縦方向に伸びる線と輪郭とが交わる 2つの 点の距離に応じて、この 2つの点に位置する 2つの画素の移動距離を設定する。この 移動距離は、例えば、 2つの点の距離に対して一定の割合(10%等)になるように設 定する。そして、 2つの画素のうち上側の画素は下方向へ、下側の画素は上方向へ、 それぞれ設定された移動距離だけ移動させる。輪郭の左右の辺を構成する各画素 についても同様であり、横方向に伸びる線と輪郭とが交わる 2つの点の距離に応じて 、この 2つの点に位置する 2つの画素の移動距離を設定する。そして、 2つの画素のう ち左側の画素は右方向へ、右側の画素は左方向へ、それぞれ設定された移動距離 だけ移動させる。
このように、輪郭を内側へ狭める際の距離を輪郭の幅に応じて画素ごとに設定すれ ば、個人差等によって被写体 FGが非常に小さい場合でも、領域特定部 103で特定 される領域が極端に狭くなることを防止できる。
[0082] 更に、上述の実施形態にお!、て、被写体 FGの輪郭が 4つの辺から構成されて 、る 力 本発明はこれに限らず、被写体 FGの輪郭は任意の形状で良い。すなわち領域 特定部 103は、被写体 FGの輪郭が任意の形状であっても、その輪郭より内側の領 域を特定可能である。
例えば領域特定部 103は、輪郭検出部 102において検出された輪郭を、画像の上 方向、下方向、右方向、左方向へそれぞれ所定の距離だけ移動させる。そして、各 方向へ移動させた後の輪郭の内部に共通に含まれる領域を、被写体 FGの輪郭より 内側の領域として特定する。この場合の輪郭の移動距離は、上述の例と同様に固定 値でも良いし、画素ごとに輪郭の幅に応じて設定しても良 、。
[0083] 上述の実施形態では、エッジ強調処理及びマスク処理を施した後の画像における 画素値の合計として評価値 Evを算出しているが、本発明はこれに限定されない。 例えば評価値取得部 105は、エッジ強調部 104にお 、てエッジを強調された画像 に含まれる全画素のうち、エッジの強度が所定のしきい値を超える画素の数に基づ いて、評価値 Evを取得しても良い。図 7の分布図からも分力ゝるように、被写体 FGを含 む画像は被写体 FGを含まな 、画像に比べて強 、エッジを多く含んで 、る。そのため 、エッジ強調処理及びマスク処理を施した後の画像において、あるしきい値より大き V、画素値を有する画素(すなわちエッジの強度が所定のしき 、値を超える画素)の数 を評価値 Evとして取得しても、被写体 FGの有無を精度良く判定することが可能であ る。
また、評価値取得部 105は、エッジ強調部 104においてエッジを強調された画像に 含まれる全画素のうち、エッジの強度が最も高い画素の値に基づいて、評価値 Evを 取得しても良い。具体例を挙げると、図 6 (C)に示す画像において画素値の最大値 は ' 2257,、図 6 (D)に示す画像にお 、て画素値の最大値は '428,になって!/、る。 輪郭検出部 102と領域特定部 103によるマスク処理で被写体 FGの輪郭の影響が十 分に排除されているのであれば、上記の例のように、被写体 FGの有無に応じて画素 値の最大値に大きな差異が生じる。したがって、単純に画素値の最大値 (すなわちェ ッジの強度が最も高い画素の値)に基づいて評価値 Evを取得しても、被写体 FGの 有無を精度良く判定することが可能である。
[0084] 上述の実施形態では、評価値を用いてテンプレートの登録に相応 、撮像画像が 得られたか否かを判定する例が挙げられているが、本発明はこれに限定されない。 例えば、撮像画像とテンプレートとの照合処理を行う前に、照合に相応しい撮像画像 が得られたカゝ否かを判定し、得られた場合に限って照合処理を実行しても良い。これ により、無駄な照合処理が実行されなくなるため、消費電力を削減できる。
[0085] 制御部 10は、上述の実施形態のようにコンピュータによってソフトウェア的に実現し ても良いし、その少なくとも一部を、信号処理回路などのハードウェアによって実現し ても良い。
[0086] 上述した実施形態では、生体認証処理 (テンプレート登録処理、照合処理など)に 本発明を適用する例を挙げたが、本発明はこれに限定されない。すなわち、内部に エッジを含んだ被写体の像と無地の背景とを判別する必要がある種々の画像処理に 本発明は広く適用可能である。

Claims

請求の範囲
[1] 画像のエッジを強調する、ように構成されているエッジ強調部と、
上記エッジ強調部においてエッジを強調された上記画像に含まれる画素の値に基 づいて、上記第 1画像に含まれるエッジの強度及び/又はエッジの量に関する評価 値を取得する、ように構成されている評価値取得部と、
上記評価値取得部にお 、て取得された評価値に基づ!/、て上記画像に所定の被写 体の像が含まれるか否かを判定する、ように構成されて ヽる判定部と
を有する画像処理装置。
[2] 上記評価値取得部は、上記エッジ強調部にぉ 、てエッジを強調された上記画像に 含まれる全画素の値の合計に基づいて上記評価値を取得する、
請求項 1に記載の画像処理装置。
[3] 上記評価値取得部は、上記エッジ強調部にぉ 、てエッジを強調された上記画像に 含まれる全画素のうちエッジの強度が所定しきい値を超える画素の値の合計に基づ いて、上記評価値を取得する、
請求項 1に記載の画像処理装置。
[4] 上記評価値取得部は、上記エッジ強調部にぉ 、てエッジを強調された上記画像に 含まれる全画素のうちエッジの強度が所定のしき ヽ値を超える画素の数に基づ 、て 上記評価値を取得する、
請求項 1に記載の画像処理装置。
[5] 上記評価値取得部は、上記エッジ強調部にぉ 、てエッジを強調された上記画像に 含まれる全画素のうち、エッジの強度が最も高い画素の値に基づいて上記評価値を 取得する、
請求項 1に記載の画像処理装置。
[6] 上記画像から上記被写体の輪郭を検出する、ように構成されている輪郭検出部と、 上記輪郭検出部において検出された輪郭より内側の領域を特定する、ように構成さ れている領域特定部と
を有し、
上記評価値取得部は、上記エッジ強調部にお 、てエッジを強調された上記画像中 の上記領域特定部にお!、て特定された領域に含まれる画素の値に基づ!、て上記評 価値を取得する、
請求項 1に記載の画像処理装置。
[7] 上記領域特定部は、上記輪郭検出部において検出された輪郭を上記画像の平面 上に設定される所定の複数の方向へそれぞれ所定の距離だけ移動させた場合に、 各方向へ移動させた後の輪郭の内部に共通に含まれる領域を、上記被写体の輪郭 より内側の領域として特定する、
請求項 6に記載の画像処理装置。
[8] 上記領域特定部は、上記輪郭の移動距離を、上記輪郭上の画素ごとに、その移動 方向に沿った直線と上記輪郭とが交わる 2つの点の距離に応じて設定する、 請求項 7に記載の画像処理装置。
[9] 上記画像を順次に取得する、ように構成されて ヽる画像取得部を有し、
上記エッジ強調部は、上記画像取得部にぉ 、て取得される上記画像のエッジを順 次に強調し、
上記評価値取得部は、上記画像取得部において取得される上記画像の評価値を 順次に取得し、
上記判定部は、
上記画像取得部にぉ 、て順次に取得される上記画像の評価値と第 1のしき 、値 とを比較し、当該比較結果に基づいて、上記取得された上記画像に含まれるエッジ の強度及び Z又はエッジの量が第 1の基準に達して!/、るか否かを判定する第 1の判 定部と、
上記第 1の判定部において上記第 1の基準に達していると判定された上記画像が 連続して所定数取得された場合、当該所定数の画像の評価値に基づいて、上記第 1の基準を超える第 2の基準を定める第 2のしきい値を決定し、当該所定数の画像の 何れか 1つ若しくは当該所定数の画像に続いて取得される画像の評価値と上記第 2 のしきい値とを比較し、当該比較結果に基づいて、当該比較対象の上記画像に上記 被写体の像が含まれるか否かを判定する第 2の判定部と
を含む、 請求項 1に記載の画像処理装置。
[10] 上記判定部は、上記評価値取得部において順次に取得される評価値と、上記第 2 の基準を超える第 3の基準を定める第 3のしき 、値とを比較し、当該比較結果に基づ V、て、当該比較対象の上記画像に上記被写体の像が含まれるか否かを判定する第 3の判定部を含む、
請求項 9に記載の画像処理装置。
[11] 上記画像取得部において順次に取得される上記画像の評価値に関する情報を出 力する、ように構成されている情報出力部を有する、
請求項 9に記載の画像処理装置。
[12] 上記第 1の判定部において上記第 1の基準に達していると判定された画像が連続 して取得される数に応じた情報を出力する情報出力部を有する、
請求項 9に記載の画像処理装置。
[13] 画像に所定の被写体の像が含まれる力否かを判定する画像判定方法であって、 上記画像のエッジを強調する第 1の工程と、
上記第 1の工程においてエッジを強調された上記画像に含まれる画素の値に基づ いて上記画像に含まれるエッジの強度及び Z又は量に関する評価値を取得する第 2 の工程と、
上記第 2の工程にお 、て取得された評価値に基づ!/、て上記画像に上記被写体の 像が含まれるカゝ否かを判定する第 3の工程と
を有する画像判定方法。
[14] 上記画像から上記被写体の輪郭を検出する第 4の工程と、
上記第 4の工程において検出された輪郭より内側の領域を特定する第 5の工程と を有し、
上記第 2の工程にお 、ては、上記第 1の工程でエッジを強調された上記画像中の 上記第 5の工程で特定された領域に含まれる画素の値に基づ 、て、上記評価値を 取得する、
請求項 13に記載の画像判定方法。
[15] 上記画像を順次に取得する第 6の工程を有し、 上記第 1の工程にお!、ては、上記第 6の工程で取得される上記画像のエッジを順 次に強調し、
上記第 2の工程にお 、ては、上記第 6の工程で取得される上記画像の評価値を順 次に取得し、
上記第 3の工程は、
上記第 6の工程で順次に取得される上記画像の評価値と第 1のしきい値とを比較 し、当該比較結果に基づいて、上記取得された上記画像に含まれるエッジの強度及 び Z又はエッジの量が第 1の基準に達している力否かを判定する第 7の工程と、 上記第 7の工程で上記第 1の基準に達していると判定された上記画像が連続して 所定数取得された場合、当該所定数の画像の評価値に基づいて、上記第 1の基準 を超える第 2の基準を定める第 2のしきい値を決定し、当該所定数の画像のいずれか 1つまたは当該所定数の画像に続 、て取得される画像の評価値と上記第 2のしき ヽ 値とを比較し、当該比較結果に基づいて当該比較対象の画像に上記被写体の像が 含まれるカゝ否かを判定する第 8の工程と
を含む、
請求項 13に記載の画像判定方法。
[16] 画像に所定の被写体の像が含まれるカゝ否かを判定するため、コンピュータを含む 画像処理装置に、
上記画像のエッジを強調する第 1のステップと、
上記第 1のステップにおいてエッジを強調された上記画像に含まれる画素の値に 基づ!/、て、上記画像に含まれるエッジの強度及び Z又はエッジの量に関する評価値 を取得する第 2のステップと、
上記第 2のステップにお 、て取得された評価値に基づ!/、て、上記画像に上記被写 体の像が含まれるか否かを判定する第 3のステップと
を実行させるプログラム。
[17] 上記画像力 上記被写体の輪郭を検出する第 4のステップと、
上記第 4のステップにお 、て検出された輪郭より内側の領域を特定する第 5のステ ップと を上記第 1画像処理装置に実行させ、
上記第 2のステップにお 、ては、上記第 1のステップでエッジを強調された上記画 像中の上記第 5のステップで特定された領域に含まれる画素の値に基づいて上記評 価値を取得する、
請求項 16に記載のプログラム。
[18] 上記画像を順次に取得する第 6のステップを上記画像処理装置に実行させ、 上記第 1のステップにお 、ては、上記第 6のステップで取得される上記画像のエツ ジを順次に強調し、
上記第 2のステップにお 、ては、上記第 6のステップで取得される上記画像の評価 値を順次に取得し、
上記第 3のステップは、
上記第 6のステップで順次に取得される上記画像の評価値と第 1のしきい値とを 比較し、当該比較結果に基づいて、上記取得された上記画像に含まれるエッジの強 度及び Z又はエッジの量が第 1の基準に達している力否かを判定する第 7のステップ と、
上記第 7のステップで上記第 1の基準に達していると判定された上記画像が連続 して所定数取得された場合、当該所定数の画像の評価値に基づいて、上記第 1の基 準を超える第 2の基準を定める第 2のしきい値を決定し、当該所定数の画像の何れか 1つ若しくは当該所定数の画像に続 、て取得される画像の評価値と上記第 2のしき い値とを比較し、当該比較結果に基づいて、当該比較対象の上記画像に上記被写 体の像が含まれるか否かを判定する第 8のステップと
を含む、
請求項 17に記載のプログラム。
[19] 画像のエッジを強調するエッジ強調手段と、
上記エッジ強調手段においてエッジを強調された上記画像に含まれる画素の値に 基づ!/、て、上記画像に含まれるエッジの強度及び Z又はエッジの量に関する評価値 を取得する評価値取得手段と、
上記評価値取得手段にお!、て取得された評価値に基づ!、て上記画像に所定の被 写体の像が含まれるか否かを判定する判定手段と
を有する画像処理装置。
[20] 上記画像から上記被写体の輪郭を検出する輪郭検出手段と、
上記輪郭検出手段にお!、て検出された輪郭より内側の領域を特定する領域特定 手段と
を有し、
上記評価値取得手段は、上記エッジ強調手段にぉ 、てエッジを強調された上記画 像中の上記領域特定手段にお!、て特定された領域に含まれる画素の値に基づ 、て 上記評価値を取得する、
請求項 19に記載の画像処理装置。
[21] 上記画像を順次に取得する画像取得手段を有し、
上記エッジ強調手段は、上記画像取得手段にお!、て取得される上記画像のエッジ を順次に強調し、
上記評価値取得手段は、上記画像取得手段にお!、て取得される上記画像の評価 値を順次に取得し、
上記判定手段は、
上記画像取得手段にぉ 、て順次に取得される上記画像の評価値と第 1のしき ヽ 値とを比較し、当該比較結果に基づいて、上記取得された上記画像に含まれるエツ ジの強度及び Z又はエッジの量が第 1の基準に達している力否かを判定する第 1の 判定手段と、
上記第 1の判定手段において上記第 1の基準に達していると判定された上記画 像が連続して所定数取得された場合、当該所定数の上記画像の評価値に基づ 、て 、上記第 1の基準を超える第 2の基準を定める第 2のしきい値を決定し、当該所定数 の画像の何れか 1つ若しくは当該所定数の画像に続いて取得される第 1画像の評価 値と上記第 2のしきい値とを比較し、当該比較結果に基づいて、当該比較対象の画 像に上記被写体の像が含まれる力否かを判定する第 2の判定部と
を含む、
請求項 19に記載の画像処理装置。
[22] 上記判定手段は、上記評価値取得手段において順次に取得される評価値と、上記 第 2の基準を超える第 3の基準を定める第 3のしき 、値とを比較し、当該比較結果に 基づ 、て、当該比較対象の画像に上記被写体の像が含まれるか否かを判定する第 3の判定手段を含む、
請求項 21に記載の画像処理装置。
[23] 上記画像取得手段において順次に取得される第 1画像の評価値に関する情報を 出力する情報出力手段を有する、
請求項 21に記載の画像処理装置。
[24] 上記第 1の判定手段において上記第 1の基準に達していると判定された画像が連 続して取得される数に応じた情報を出力する情報出力手段を有する、
請求項 21に記載の画像処理装置。
PCT/JP2006/317206 2005-09-06 2006-08-31 画像処理装置、画像判定方法及びプログラム WO2007029592A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06797166.3A EP1923833A4 (en) 2005-09-06 2006-08-31 IMAGE PROCESSING DEVICE, IMAGE APPROACHING PROCESS AND PROGRAM
US11/577,903 US7912293B2 (en) 2005-09-06 2006-08-31 Image processing system and image judgment method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005257858A JP4992212B2 (ja) 2005-09-06 2005-09-06 画像処理装置、画像判定方法及びプログラム
JP2005-257858 2005-09-06

Publications (1)

Publication Number Publication Date
WO2007029592A1 true WO2007029592A1 (ja) 2007-03-15

Family

ID=37835711

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/317206 WO2007029592A1 (ja) 2005-09-06 2006-08-31 画像処理装置、画像判定方法及びプログラム

Country Status (6)

Country Link
US (1) US7912293B2 (ja)
EP (1) EP1923833A4 (ja)
JP (1) JP4992212B2 (ja)
KR (1) KR20080053247A (ja)
CN (1) CN100592337C (ja)
WO (1) WO2007029592A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2148296A1 (en) * 2007-05-16 2010-01-27 Sony Corporation Vein pattern management system, vein pattern registration device, vein pattern authentication device, vein pattern registration method, vein pattern authentication method, program, and vein data structure

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4305431B2 (ja) * 2005-09-06 2009-07-29 ソニー株式会社 画像処理装置、マスク作成方法及びプログラム
JP4882794B2 (ja) * 2007-02-26 2012-02-22 ソニー株式会社 画像判定装置、画像判定方法及びプログラム
JP5356728B2 (ja) * 2008-05-26 2013-12-04 株式会社トプコン エッジ抽出装置、測量機、およびプログラム
JP6769899B2 (ja) * 2017-03-21 2020-10-14 Kddi株式会社 照合装置、照合システム、及び照合方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180543A (ja) * 1998-12-18 2000-06-30 Mcc:Kk 目標検出方法および目標検出装置
JP2000348284A (ja) * 1999-06-07 2000-12-15 Mitsubishi Electric Corp 車両検知装置および車両検知方法ならびに車両検知プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005056282A (ja) * 2003-08-06 2005-03-03 Sony Corp 画像処理方法、画像処理装置、およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6392759B1 (en) * 1997-06-02 2002-05-21 Seiko Epson Corporation Edge-enhancement processing apparatus and method, and medium containing edge-enhancement processing program
EP0891075A3 (en) * 1997-06-09 2002-03-06 Seiko Epson Corporation An image processing apparatus and method, and an image evaluation device and method
JP2001101415A (ja) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd 画像認識装置および画像処理装置
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
JP3825222B2 (ja) * 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
CN1213592C (zh) * 2001-07-31 2005-08-03 佳能株式会社 采用自适应二值化的图象处理方法和设备
JP4547869B2 (ja) 2003-05-06 2010-09-22 ソニー株式会社 画像処理方法、および画像処理装置
JP3714350B2 (ja) * 2004-01-27 2005-11-09 セイコーエプソン株式会社 画像中の人物候補領域抽出方法及び人物候補領域抽出システム並びに人物候補領域抽出プログラム
US7376269B2 (en) * 2004-11-22 2008-05-20 Xerox Corporation Systems and methods for detecting image quality defects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180543A (ja) * 1998-12-18 2000-06-30 Mcc:Kk 目標検出方法および目標検出装置
JP2000348284A (ja) * 1999-06-07 2000-12-15 Mitsubishi Electric Corp 車両検知装置および車両検知方法ならびに車両検知プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2005056282A (ja) * 2003-08-06 2005-03-03 Sony Corp 画像処理方法、画像処理装置、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1923833A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2148296A1 (en) * 2007-05-16 2010-01-27 Sony Corporation Vein pattern management system, vein pattern registration device, vein pattern authentication device, vein pattern registration method, vein pattern authentication method, program, and vein data structure
EP2148296A4 (en) * 2007-05-16 2012-04-04 Sony Corp VENEER MANAGEMENT SYSTEM, VENEER PATTERN RECORDING DEVICE, VENEER AUTHENTICATION DEVICE APPARATUS, METHOD FOR RECORDING VENEER PATTERNS, METHOD FOR AUTHENTICATING VENEER MODELS, PROGRAM AND VENUS DATA STRUCTURE
US8320639B2 (en) 2007-05-16 2012-11-27 Sony Corporation Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration

Also Published As

Publication number Publication date
CN101052994A (zh) 2007-10-10
KR20080053247A (ko) 2008-06-12
US20090129681A1 (en) 2009-05-21
JP4992212B2 (ja) 2012-08-08
EP1923833A4 (en) 2013-06-19
US7912293B2 (en) 2011-03-22
JP2007072677A (ja) 2007-03-22
EP1923833A1 (en) 2008-05-21
CN100592337C (zh) 2010-02-24

Similar Documents

Publication Publication Date Title
JP4305431B2 (ja) 画像処理装置、マスク作成方法及びプログラム
JP6650946B2 (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
US8582833B2 (en) Method and apparatus for detecting forged face using infrared image
US7612875B2 (en) Personal identification system
US8983151B2 (en) Apparatus for recognizing face based on environment adaptation
US8049596B2 (en) Correlation-based biometric authentication apparatus, authentication method and program
JP5045344B2 (ja) 登録装置、登録方法、認証装置及び認証方法
JP4247691B2 (ja) 登録装置、照合装置、登録方法、照合方法及びプログラム
KR101626837B1 (ko) 손가락 마디 및 지정맥 기반의 융합형 생체 인증 방법 및 그 장치
KR20110063679A (ko) 정맥 패턴 인식 기반 생체인증 시스템 및 그 방법
EP2068270B1 (en) Authentication apparatus and authentication method
JP6160148B2 (ja) 生体情報入力装置、生体情報入力プログラム、生体情報入力方法
WO2007029592A1 (ja) 画像処理装置、画像判定方法及びプログラム
WO2013093953A1 (ja) 生体認証装置、血管画像撮影装置、および方法
JP2004178606A (ja) 個人認証装置及び方法
KR101767051B1 (ko) 퍼지 추론 기반 지정맥 영상 추출 방법 및 그 장치
JP2006072555A (ja) 生体情報画像補正装置
JP7205208B2 (ja) 指紋照合装置、画像処理装置、指紋照合システム、指紋照合方法およびプログラム
JPH09147113A (ja) 指紋照合方法及び装置
JP2004171577A (ja) 個人認証装置及び方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 1020077008157

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11577903

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200680001166.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2006797166

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE