WO2007029591A1 - 画像処理装置、マスク作成方法及びプログラム - Google Patents

画像処理装置、マスク作成方法及びプログラム Download PDF

Info

Publication number
WO2007029591A1
WO2007029591A1 PCT/JP2006/317205 JP2006317205W WO2007029591A1 WO 2007029591 A1 WO2007029591 A1 WO 2007029591A1 JP 2006317205 W JP2006317205 W JP 2006317205W WO 2007029591 A1 WO2007029591 A1 WO 2007029591A1
Authority
WO
WIPO (PCT)
Prior art keywords
line
image
pixel
edge
extracted
Prior art date
Application number
PCT/JP2006/317205
Other languages
English (en)
French (fr)
Inventor
Hiroshi Abe
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to CN2006800011724A priority Critical patent/CN101052989B/zh
Priority to US11/718,784 priority patent/US8311332B2/en
Priority to EP06797165.5A priority patent/EP1923831A4/en
Publication of WO2007029591A1 publication Critical patent/WO2007029591A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • Image processing apparatus mask creation method and program
  • the present invention relates to an image processing apparatus that creates a mask used when a predetermined subject image is cut out from an image, a mask creation method thereof, and a program.
  • the present invention is used, for example, when a biological image is cut out from an image captured for biometric authentication.
  • the present invention relates to an image processing apparatus that creates a mask to be beaten.
  • Neurometric authentication is based on information about the physical characteristics of a person, such as fingerprints, voiceprints, retinas, and finger vein patterns, to determine whether or not the person is the registrant. It has an excellent feature that can greatly reduce the impersonation of another person.
  • Japanese Unexamined Patent Application Publication No. 2004-329825 discloses a device for authenticating an individual by irradiating near-infrared light to image a blood vessel pattern of a finger and comparing it with a pre-registered blood vessel pattern. Is disclosed.
  • the captured image is processed by an appropriate image filter to make the outer shape of the blood vessel stand out and make its features easy to recognize.
  • parts unnecessary for authentication such as devices and backgrounds, will also emerge, and there is a possibility that unnecessary parts may be misrecognized as blood vessels.
  • a mask process is usually performed to cut out only the subject necessary for authentication from the captured image.
  • a histogram representing the number of pixels of each pixel value included in a captured image is created, and the subject and the background portion are distinguished based on this histogram.
  • a threshold is created by acquiring the threshold value and binarizing the captured image using the threshold value. Disclosure of the invention
  • the method of binarizing an image using values appropriately selects the subject according to the conditions such as the intensity of light rays radiated on the subject, the brightness of the background, and the light transmittance of the subject.
  • the threshold to be cut changes. For this reason, it is necessary to set a threshold value according to the captured image, as in the device described in Japanese Patent Laid-Open No. 2005-56282, and the processing becomes complicated.
  • the first embodiment of the present invention relates to an image processing apparatus for creating a mask for cutting out an image of a predetermined subject with an image force, and the image processing apparatus extracts an edge of the image.
  • An edge extraction unit configured as described above, and a first region in contact with a first reference line set on the plane of the image so as to pass through the image of the subject.
  • a row of first pixels located on a plurality of parallel second reference lines set above and closest to the first reference line in each of the plurality of second reference lines, and the first region
  • the second reference line is included in a second region that is in contact with the first reference line on the opposite side of the first reference line, and is positioned on the plurality of second reference lines, and in each of the plurality of second reference lines.
  • the second pixel column closest to is extracted by the edge extraction unit.
  • a pixel extraction unit configured to extract from among the edges, and the first pixel located between the first pixel and the second pixel in each of the plurality of second reference lines.
  • a first intermediate point extraction unit configured to extract a row of intermediate points having a predetermined ratio between the distance from the second pixel force and the distance of the second pixel force; and the first intermediate point extraction unit
  • the segmentation section configured to divide the row of extracted midpoints into at least one section where adjacent midpoints are within a predetermined distance, and the longest segmented section
  • An approximate line acquisition unit configured to acquire an approximate line of a column of intermediate points extracted in the first intermediate point extraction unit based on an intermediate point forming a section of Among the intermediate points extracted by the first intermediate point extraction unit, the approximate line acquisition unit extracts a sequence of intermediate points whose error from the approximate line acquired by V is within a predetermined range.
  • the first pixel column located on the same second reference line as the column of the intermediate points extracted in the second intermediate point extraction unit and the second intermediate point extraction unit.
  • a first boundary line of the mask is obtained based on the approximate line of the second mask, and a second boundary line of the mask is obtained based on the approximate line of the second pixel column located on the second reference line.
  • the first boundary line acquisition unit is configured as described above.
  • a second embodiment of the present invention relates to an image processing apparatus that creates a mask for cutting out an image of a predetermined subject with an image force, and the image processing apparatus extracts an edge of the image.
  • the edge extraction unit configured as described above and one of the two regions in contact with the first reference line set on the plane of the image so as to pass through the inside of the image of the subject.
  • the edge extraction unit extracts a column of pixels that are located on a plurality of parallel second reference lines set on the plane of the image and that are closest to the first reference line in each of the plurality of second reference lines.
  • a first pixel extraction unit configured to extract from the detected edges, and pixels adjacent to the column of pixels extracted in the first pixel extraction unit are at least within a predetermined distance Divide into one section And an approximate line of a column of pixels extracted by the first pixel extraction unit based on the pixels forming the longest section segmented by the segmentation unit and the segmentation unit configured as described above.
  • the column of pixels in which the error between the approximate line acquired in the approximate line acquisition unit and the approximate line acquired in the approximate line acquisition unit is within a predetermined range among the pixels extracted in the first pixel extraction unit is extracted.
  • a second pixel extraction unit configured as described above, and a first boundary line of the mask based on an approximate line of a column of pixels extracted in the second pixel extraction unit. And a first boundary line acquisition unit.
  • the belt-like region sandwiched between two parallel sides is moved in parallel with respect to the second reference straight line, and moved.
  • the number of edge pixels extracted by the edge extraction unit included in the area is counted, and a line parallel to the side included in the area is determined at a position where the count value is the largest.
  • the acquired second boundary line may be set as the first reference straight line.
  • the third embodiment of the present invention relates to a mask creation method for creating a mask for cutting out an image of a predetermined subject from an image, and this mask creation method extracts the edge of the image.
  • the first step is included in the first region in contact with the first reference line set on the plane of the image so as to pass through the inside of the image of the subject, and is set on the plane of the image A row of first pixels located on a plurality of parallel second reference lines and closest to the first reference line in each of the plurality of second reference lines, and the first pixel on the opposite side of the first region.
  • a third step of extracting a sequence of intermediate points having a predetermined ratio and one or more intermediate points adjacent to the intermediate sequence extracted in the third step are within a predetermined distance Based on the fourth step that is divided into sections and the middle point that forms the longest section divided in the fourth step, the approximate line of the middle point sequence extracted in the third step is obtained.
  • the intermediate points extracted in the third step are the intermediate points in which the error between the approximate line obtained in the fifth step is within a predetermined range.
  • the 6th step to be extracted and the same second reference line as the middle point row extracted in the above 6th step The first boundary line of the mask is obtained based on the approximate line of the first pixel column located, and the mask first line is acquired based on the approximate line of the second pixel column located on the second reference line.
  • a fourth embodiment of the present invention is a mask creation method for creating a mask for cutting out an image of a predetermined subject with image strength, the first step of extracting the edge of the image, and the object to be covered. Included in one of the two regions in contact with the first reference line set on the plane of the image so as to pass through the inside of the image of the object, and a plurality of parallel sets set on the plane of the image First The first pixel row that is located on the second reference line and is closest to the first reference line in each of the plurality of second reference lines is extracted from the edges extracted in the first step.
  • a second step a third step of dividing the column of the first pixels extracted in the second step into at least one section in which adjacent first pixels are within a predetermined distance; and A fourth step of obtaining an approximate line of a column of the first pixel extracted in the second step based on the first pixel forming the longest section divided in the step of step 3, and the second step A fifth step of extracting a column of the first pixels in which an error from the approximate line acquired in the fourth step out of the first pixels extracted in the step is within a predetermined range; and the fifth pixel The first boundary of the mask based on the approximate line of the first pixel column extracted in the process And a sixth step of obtaining a line.
  • a belt-like region sandwiched between two parallel sides is moved in parallel with respect to the second reference straight line, and each moved position is moved. Then, the number of pixels of the edge extracted in the first step included in the area is counted, and according to a line parallel to the side included in the area at the position where the count value is the largest.
  • a seventh step of obtaining the second boundary line of the mask may be further included.
  • the acquired second boundary line may be set as the first reference straight line.
  • the fifth embodiment of the present invention relates to a program for an image processing apparatus having a computer for creating a mask for cutting out an image of a predetermined subject with an image power.
  • the program of the present invention includes a first step of extracting an edge of the image to the image processing apparatus, and a first reference straight line set on a plane of the image so as to pass through the inside of the image of the subject. Is located on a plurality of parallel second reference lines set on the plane of the image, and the first reference in each of the plurality of second reference lines.
  • an approximate line of the column of intermediate points extracted in the third step is obtained based on the intermediate points forming the longest section divided in the fourth step, and in the third step Among the extracted intermediate points, a sixth step for extracting a sequence of intermediate points whose error from the approximate line acquired in the fifth step is within a predetermined range, and a sample extracted in the sixth step.
  • the first boundary line of the mask is obtained based on the approximate line of the first pixel column located on the second reference line, and the above based on the approximate line of the second pixel line located on the second reference line. And a seventh step of obtaining the second boundary of the mask.
  • the sixth embodiment of the present invention relates to a program for an image processing apparatus having a computer for creating a mask for cutting out an image of a predetermined subject with an image power.
  • the program of the present invention includes a first step of extracting an edge of the image to the image processing apparatus, and a first reference straight line set on a plane of the image so as to pass through the inside of the image of the subject. Is located in one of the two regions in contact with each other, is positioned on a plurality of parallel second reference lines set on the plane of the image, and The second step of extracting the first pixel column closest to the first reference line from the edges extracted in the first step, and the first pixel column extracted in the second step.
  • First stroke extracted in step 2 The error between the fourth step of acquiring the approximate line of the prime column and the approximate line acquired in the fourth step among the first pixels extracted in the second step is within a predetermined range.
  • a belt-like region sandwiched between two parallel sides is moved in parallel with respect to the second reference straight line, and each of the moved Depending on the position, the number of pixels of the edge extracted in the first step included in the area is counted, and a line parallel to the above-mentioned side included in the area is counted at the position where the counted value is the largest. Accordingly, the image processing apparatus may execute a seventh step of acquiring the second boundary line of the mask.
  • the acquired second boundary line may be set as the first reference straight line.
  • FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus according to an embodiment of the present invention.
  • FIGS. 2A and 2B are diagrams showing an example of an intermediate image in which a blood vessel image included in a captured image is extracted by a process such as filtering.
  • FIGS. 3A and 3B are diagrams showing an example of a mask created by a mask creation unit and an intermediate image masked using the mask.
  • FIG. 3A is a diagram showing an example of a mask created by a mask creation unit and an intermediate image masked using the mask.
  • FIGS. 4A to 4C are diagrams showing a first example of the result of edge enhancement processing performed on a captured image.
  • FIGS. 5 (A) to (C) are diagrams showing a second example of the result of edge enhancement processing performed on a captured image.
  • FIGS. 6 (A) and 6 (B) are diagrams showing examples of masks for cutting out the captured image force object shown in FIGS. 4 (A) to (C) and FIGS. 5 (A) to (C).
  • FIGS. 7A to 7C are diagrams showing an example in which the inside of a subject is cut out from the image after the edge enhancement processing shown in FIG. 5B by the mask shown in FIG. 6B.
  • FIGS. 8A to 8D are diagrams showing an example of a case where a predetermined subject is included in a captured image and a case where it is not included.
  • Fig. 9 shows the distribution of pixel values in the captured image including the subject shown in Fig. 8 (C), and Fig. 8 (D 3 is a diagram comparing pixel value distributions in a captured image without including the subject shown in FIG.
  • FIGS. 10 (A) to 10 (D) are diagrams comparing the case where the pixel value below the threshold is zero and the case where the pixel value below the threshold is not zero in the image after the edge enhancement processing.
  • FIG. 11 is a diagram comparing the evaluation value when the pixel value equal to or less than the predetermined threshold value is zero in the image shown in FIG. 10 and the evaluation value when no threshold value is provided. It is.
  • FIG. 12 is a diagram illustrating an example of a configuration of a mask creation unit according to the first embodiment.
  • FIG. 13 is a flowchart showing an example of a mask creation operation in the image processing apparatus according to the first embodiment.
  • FIGS. 14A and 14B are views showing an example of an image extracted by the edge extraction unit.
  • FIG. 15 is a diagram showing an example of an intermediate point extraction process performed on the image after edge extraction shown in FIGS. 14 (A) and 14 (B).
  • FIG. 16 is a diagram showing an example in which the sequence of intermediate points shown in FIG. 15 is divided into continuous sections by the dividing section.
  • FIGS. 17 (A) and 17 (B) are first diagrams showing an example of an approximation line for interpolating an intermediate point.
  • FIGS. 18A and 18B are second diagrams showing an example of an approximation line for interpolating the intermediate point.
  • FIG. 19 is a diagram showing an example of an approximate function of the finger width with the X coordinate as a variable.
  • FIGS. 20 (A) and 20 (B) are diagrams showing examples of mask boundary lines acquired by the boundary line acquisition unit.
  • FIGS. 21A to 21C are diagrams for explaining processing for acquiring left and right boundary lines.
  • FIG. 22 is a diagram showing an example of a configuration of a mask generation unit in the image processing apparatus according to the second embodiment.
  • FIG. 23 is a flowchart showing an example of a mask creating operation in the image processing apparatus according to the second embodiment.
  • FIGS. 24A and 24B are diagrams showing an example of a captured image including a contact surface between the imaging device and a subject and an image after extraction of the edge.
  • FIGS. 25A and 25B are diagrams showing examples of distribution of edge pixels for each y coordinate.
  • FIGS. 26A and 26B are diagrams illustrating examples of areas where edge pixels are counted.
  • FIGS. 27 (A) and (B) show the results of counting the edge pixels contained in the region while moving the region shown in FIGS. 26 (A) and (B) parallel to the y-axis. It is a figure which shows an example.
  • FIGS. 28A and 27B are diagrams showing an example of acquiring a lower boundary line of a mask in the image processing apparatus according to the second embodiment.
  • FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus 1 according to an embodiment of the present invention.
  • the image processing apparatus 1 includes a control unit 10, a light source 20, an optical system 30, an imaging unit 40, an operation unit 50, and a storage unit 60.
  • the light source 20 generates a light beam that irradiates a subject FG, for example, a human finger in the example of FIG.
  • This light is, for example, near-infrared having a wavelength of about 600 nm to 1300 nm, and has a property of being specifically absorbed by hemoglobin in congested blood having a relatively high permeability to human tissues.
  • the light source 20 is composed of, for example, a light emitting diode or a halogen lamp.
  • the optical system 30 guides the light transmitted through the subject FG to the light receiving surface of the imaging unit 40.
  • the thicker blood vessel part becomes darker.
  • the image capturing unit 40 captures an image of the subject FG projected on the light receiving surface, converts the image into image data, and outputs the image data to the control unit 10.
  • the imaging unit 40 is configured by an it image element such as a CCD (charge coupled device) or a CM OS (.complementary metal oxide semiconductor) sensor.
  • the control unit 10 controls the overall operation of the image processing apparatus and performs various signal processing. example For example, the generation of light rays in the light source 20 and the image capturing in the image capturing unit 40 are controlled in accordance with a user instruction input from the operation unit 50. In addition, it is based on mask processing that cuts out the subject from the image captured by the image capturing unit 40, and based on the captured image! Various image processing related to biometric authentication, such as processing for registering the blood vessel pattern information (template) created in this manner in the storage unit 60 and processing for matching the captured image with the template, is performed.
  • biometric authentication such as processing for registering the blood vessel pattern information (template) created in this manner in the storage unit 60 and processing for matching the captured image with the template.
  • the control unit 10 is configured by a computer, for example, and executes the above-described control and signal processing based on the program PRG stored in the storage unit 60.
  • the operation unit 50 is an interface for inputting a user instruction.
  • the storage unit 60 stores a program PRG executed by the computer and a template DAT.
  • constant data used in the processing of the control unit 10 and variable data that needs to be temporarily stored during the processing are stored.
  • the S memory unit 60 is configured by a storage device such as a RAM, a ranaom access memory (ROM), a ROM (read only memory), a nonvolatile memory, and a hard disk.
  • a storage device such as a RAM, a ranaom access memory (ROM), a ROM (read only memory), a nonvolatile memory, and a hard disk.
  • the control unit 10 includes, as functional components related to image processing, an image acquisition unit 101, a mask creation unit 102, an area specification unit 103, an edge enhancement unit 104, an evaluation value acquisition unit 105, and a determination unit. 106, a registration unit 107, and a verification unit 108.
  • the area specifying unit 103 is an embodiment of the area specifying unit and the area specifying means of the present invention.
  • the edge enhancement unit 104 is an embodiment of the edge enhancement unit and the edge enhancement unit of the present invention.
  • the evaluation value acquisition unit 105 is an embodiment of the evaluation value acquisition unit and the evaluation value acquisition unit of the present invention.
  • the determination unit 106 is an embodiment of the determination unit and determination means of the present invention.
  • the image acquisition unit 101 sequentially acquires images captured by the imaging unit 40. sand That is, when the template registration process and the collation process are started in accordance with an instruction input from the operation unit 50, the image acquisition unit 101 controls the operation of the light source 20 and the image capturing unit 40 to approach the subject FG. Irradiate infrared rays, capture the projected image, and capture the captured image data.
  • the mask creation unit 102 creates a mask for cutting out the subject FG from the captured image captured by the image acquisition unit 101.
  • FIG. 2 (A) and (B) are diagrams illustrating an example of an intermediate image in which a blood vessel image included in a captured image is extracted by a process such as filtering.
  • Fig. 2 (A) shows the original captured image
  • Fig. 2 (B) shows the intermediate image.
  • the blood vessel image is certainly extracted thickly in the finger part, but the image is extracted in the other part (finger outline, background, etc.) as well as the blood vessel. .
  • a method of removing such unnecessary images in later processing is also conceivable, but in that case, the extracted image changes depending on the background, and the characteristics of the blood vessel image and other images are almost equal. If it happens, it is difficult to remove only unnecessary images. However, if the processing proceeds with an unnecessary image left, the entire image must always be processed, and the amount of calculation increases.
  • FIGS. 3A and 3B are diagrams showing an example of a mask created by the mask creation unit 102 and an intermediate image masked using the mask.
  • Fig. 3 (A) shows a mask to be created
  • Fig. 3 (B) shows an intermediate image subjected to mask processing.
  • Figs. 3 (A) and 3 (B) by applying mask processing, information on non-blood vessel parts such as finger outlines and backgrounds can be removed.
  • the region cut out by the mask process is known, when a process such as filtering is performed on the masked intermediate image, only a necessary part of the entire image needs to be processed. Therefore, it is possible to reduce the amount of calculation compared to processing the entire image.
  • the edge enhancement unit 104 detects the edge of the captured image captured by the image acquisition unit 101. Emphasize.
  • an image filter such as a Gaussian filter or a Laplacian filter is used. That is, after removing the noise component contained in the image by the Gaussian filter, the change in the pixel value is emphasized by the Laplacian filter. As a result, the point-like noise component included in the image is removed, and the linear edge component is enhanced.
  • FIGS. 4 (A), (B), and (C) are diagrams showing a first example of the result of performing the edge enhancement processing by the Gaussian filter and the Laplacian filter described above on the captured image of the subject FG.
  • Fig. 4 (A) shows the image before edge enhancement
  • Fig. 4 (B) shows the image after edge enhancement
  • Fig. 4 (C) is a three-dimensional illustration of the pixel values of the image shown in Fig. 4 (B).
  • edge enhancement processing is performed on the image captured by the imaging unit 40 so that the examples shown in FIGS. 4A, 4B, and 4C are also divided, pixels in the blood vessel (particularly vein) portion of the finger are processed. The value protrudes compared to other parts.
  • the pixel value after the processing can be a value exceeding 8 bits.
  • the processed pixel value is limited to 8 bits, so the blood vessel of the original image shown in Fig. 4 (A) and Fig. 4 (B)
  • the visual strength of the blood vessels in the image after edge enhancement does not match very much. That is, the thin and thin blood vessels and the thick and dark blood vessels have almost the same strength in the image after edge enhancement processing.
  • FIGS. 5 (A), (B), and (C) are diagrams showing a second example of the result of performing similar edge enhancement processing using a Gaussian filter and a Laplacian filter.
  • the difference from the first example shown in (A), (B), and (C) is that the bit restriction on pixel values after edge enhancement is removed.
  • Fig. 5 (A) shows the image before edge enhancement
  • Figs. 5 (B) and (C) show the image after edge enhancement.
  • the evaluation value acquisition unit 105 determines whether the blood vessel density is correct. It is desirable to obtain the reflected evaluation value Ev.
  • the edge enhancement unit 104 removes the bit restriction as shown in the images of FIGS. 4A, 4B, and 4C, for example, and sets the bit length of the pixel value after the edge enhancement processing to an appropriate length. Set.
  • an image that sensitively represents the difference in contrast between the blood vessels as shown in FIGS. 5 (A), (B), and (C) is supplied to the evaluation value acquisition unit 105.
  • the area specifying unit 103 specifies a further inner area of the mask created by the mask creating unit 102, and creates an evaluation value acquisition mask for cutting out the identified area from the image after edge enhancement processing.
  • Figs. 6 (A) and (B) show the object FG from the captured images shown in Figs. 4 (A), (B), (C) and Figs. 5 (A), (B), and (C). It is a figure which shows the example which pinpoints the area
  • FIG. 6A shows an example of a mask created by the mask creation unit 102.
  • the black part in Fig. 6 (A) shows the area removed by the mask, and the white part is cut out by the mask. The area to be displayed.
  • FIG. 6B shows an example of the area inside the subject FG specified by the area specifying unit 103.
  • a white part in FIG. 6B indicates an area inside the subject FG specified by the area specifying unit 103.
  • the gray portion indicates a portion that is inside the boundary line of the mask shown in FIG. 6A and that excludes the region force specified by the region specifying unit 103.
  • the boundary line of the mask created by the mask creation unit 102 is composed of four sides, upper, lower, left and right.
  • the region specifying unit 103 moves these sides, for example, inward from the boundary line by a predetermined distance. Then, the area surrounded by each side after the movement is specified as the area inside the object FG.
  • the upper side is moved downward by the distance
  • the lower side is moved upward by the distance d
  • the left side is moved.
  • the region specified by the region specifying unit 103 reliably leaves the contour force of the subject FG. Therefore, even if the pixel value of the contour is abnormally high as shown in Figs. 5 (B) and 5 (C), the effect hardly reaches the inside of the area. Therefore, if only the region specified by the region specifying unit 103 is cut out from the image after the edge enhancement processing by mask processing, a pure blood vessel image from which the influence of the contour is eliminated can be obtained.
  • the blood vessel image in the vicinity of the contour is excluded from the target for obtaining the evaluation value Ev. That is, a part of blood vessel information is lost.
  • the blood vessel image existing in the vicinity of the contour easily changes depending on how the finger is placed, for example, it does not appear in the captured image by slightly rotating the finger.
  • Such a blood vessel image is not suitable for biometric authentication processing (template registration processing, verification processing, etc.) in the first place, so inconvenience arises even if the resultant force evaluation value Ev is obtained by eliminating this by mask processing. Absent.
  • the evaluation value acquisition unit 105 is included in the edge-enhanced image by the edge enhancement unit 104. Based on the value of the pixel to be obtained, the evaluation value Ev regarding the intensity and Z or the amount of the edge included in the image to be subjected to signal processing input from the imaging unit 40 is acquired. For example, the sum of the values of all the pixels included in the image after the edge enhancement process is calculated and obtained as the evaluation value Ev.
  • the evaluation value acquisition unit 105 is based on the value of the pixel included in the internal region of the subject FG specified by the region specifying unit 103 among all the pixels included in the image after the edge enhancement processing.
  • the evaluation value Ev is obtained, and the values of the pixels outside this area are not used in determining the evaluation value Ev. That is, the evaluation value Ev is obtained based on the pixel value of the region including the pure blood vessel image cut out by the mask created by the region specifying unit 103.
  • 07 (A), (B), (C) are examples in which the area inside the subject FG is cut out from the image after edge enhancement shown in FIG. 5 (B) using the mask shown in FIG. 6 (B).
  • FIG. 5 (B) is a diagrammatic representation of the area inside the subject FG.
  • FIGS. 7B and 7C show images obtained by cutting out the inner region of the subject FG from the image cover after the edge enhancement processing by mask processing. If only the region specified by the region specifying unit 103 is cut out after the edge enhancement processing, the influence of the contour of the subject FG is eliminated as shown in the images of FIGS. 7B and 7C, and the inside of the subject FG is removed. Only the image of the blood vessels present in the basin will be highlighted. In this blood vessel image, the pixel value changes greatly according to the thickness and darkness of the blood vessel in the original image.
  • the evaluation value acquisition unit 105 calculates, as the evaluation value Ev, the sum of the pixel values in the image in which the contrast of the blood vessels is appropriately reflected in this way.
  • This evaluation value Ev is a value indicating the characteristics of the subject FG suitable for the template registration process and the matching process.
  • FIGS. 8 (A), (B), (C), and (D) are examples of cases where the subject FG is included in the image captured by the imaging unit 40 and is not included! /.
  • FIG. 8 (A), (B), (C), and (D) are examples of cases where the subject FG is included in the image captured by the imaging unit 40 and is not included! /.
  • FIG. 8 (A), (B), (C), and (D) are examples of cases where the subject FG is included in the image captured by the imaging unit 40 and is not included! /.
  • FIG. 8A shows a captured image including the subject FG
  • FIG. 8C shows an image after edge enhancement processing and mask processing are performed on the image shown in FIG. 8A.
  • FIG. 8 (B) shows a captured image that does not include the subject FG
  • FIG. 8 (D) shows an image after edge enhancement processing and mask processing are performed on the image shown in FIG. 8 (B).
  • FIG. 8 (A) In the image of FIG. 8 (A), the blood vessels inside the finger are clearly displayed. In the image of Fig. 8 (C) that has been subjected to enhancement processing and mask processing, strong edges are concentrated locally on the blood vessel. On the other hand, the image shown in Fig. 8 (B) does not show any image of blood vessels, and the contrast is poor, so in the image of Fig. 8 (D) where edge enhancement processing and mask processing are applied to this, Weak edges are scattered throughout, and no clear edge corresponding to the blood vessel image appears.
  • the image in Fig. 8 (C) was '2434244', and the image in Fig. 8 (D) was '1177685'.
  • the evaluation value Ev acquired by the evaluation value acquisition unit 105 can indicate the presence or absence of the subject FG by the difference in the values.
  • the evaluation value acquisition unit 105 may add only the pixel values larger than a certain threshold rather than simply adding up all the pixel values, and acquire this as the evaluation value Ev. That is, out of all the pixels included in the image in which the edge is enhanced in the edge enhancement unit 104 (in the region specified by the region specifying unit 103), the value of the pixel whose edge intensity exceeds a predetermined threshold value.
  • the evaluation value Ev may be obtained based on the total. As a result, the difference between the evaluation value Ev with and without the subject FG can be made more conspicuous.
  • FIG. 9 shows the distribution of pixel values in the image shown in FIG. 8C (when the subject FG is included) and the distribution of pixel values in the image shown in FIG. 8D (when the subject FG is not included).
  • FIG. The horizontal axis indicates the pixel value, and the vertical axis indicates the number of pixels.
  • the captured image includes the subject FG
  • the image after the edge enhancement processing and mask processing is almost in the range smaller than a certain pixel value ('500' in the example of FIG. 9).
  • a certain pixel value '500' in the example of FIG. 9
  • the pixels are distributed in a wide range from a small pixel value to a large pixel value.
  • FIGS. 10A to 10D are diagrams comparing the case where the pixel value equal to or less than the threshold value is set to zero and the case where the pixel value equal to or less than the threshold is not set in the image after the edge enhancement processing.
  • Figures 10 (A) and 10 (B) are the same images as Figures 8 (C) and 8 (D), and show the images when the pixel values below the threshold are not set to zero.
  • FIGS. 10 (C) and 10 (D) show images when the threshold values included in the images of FIGS. 10 (A) and 10 (B) are all set to zero.
  • the captured image includes the subject FG
  • the main features of the edge i.e., blood vessels
  • the pixel value below the threshold is set to zero, as shown in FIG. 10 (B) and FIG. Most of them disappear, and the characteristics of the edges change greatly.
  • FIG. 11 shows the evaluation values (total pixel values) when the values of “255” and below are used as the closing values in the images shown in FIGS. 10 (A) to (D). It is a figure comparing! /, No value! /, And the evaluation value in the case.
  • the evaluation value Ev of the image including the subject FG (Fig. 10 (A)) is' 243 4244 ', and the evaluation value ⁇ ⁇ of the image not including the subject (Fig. 10 (B)) is' 1177685 'It became.
  • the evaluation value Ev of the image including the subject FG (Fig. 10 (C)) is '2145659', and the image including the subject FG is not included.
  • the evaluation value Ev of (Fig. 10 (D)) is '117921'.
  • the determination unit 106 determines whether or not the mask generated by the mask generation unit 102 has a force that appropriately cuts out the image of the subject FG. For example, a predetermined threshold value is compared with the evaluation value Ev, and a blood vessel image is cut out according to the comparison result to determine whether or not the force is sufficient.
  • the registration unit 107 uses this mask to mask the captured image. Process, extract blood vessel pattern information from the masked image, Store in the storage unit 60 as a template DAT.
  • the registration unit 107 stops the template registration process.
  • the verification unit 108 uses this mask to mask the captured image. Processing is performed, blood vessel pattern information is extracted from the masked image, and the extracted information is compared with the template DAT stored in the storage unit 60.
  • the verification unit 108 stops the above-described verification process.
  • mask creation unit 102 A more detailed configuration of mask creation unit 102 will be described.
  • FIG. 12 is a diagram illustrating an example of the configuration of the mask creation unit 102.
  • the mask creation unit 102 includes an edge extraction unit 201, a pixel extraction unit 202, an intermediate point extraction unit 203, a classification unit 204, an approximate line acquisition unit 205, an intermediate point extraction unit 206, and a boundary line acquisition unit. 207 and 208, and a mask generation unit 209.
  • the edge extraction unit 201 is an embodiment of the edge extraction unit and the edge extraction means of the present invention.
  • the pixel extraction unit 202 is an embodiment of the pixel extraction unit and pixel extraction means of the present invention.
  • the midpoint extraction unit 203 is an embodiment of the first midpoint extraction unit and the first midpoint extraction unit of the present invention.
  • the sorting unit 204 is an embodiment of the sorting unit and sorting means of the present invention.
  • the approximate line acquisition unit 205 is an embodiment of the approximate line acquisition unit and the approximate line acquisition unit of the present invention.
  • the midpoint extraction unit 206 is an embodiment of the second midpoint extraction unit and the second midpoint extraction unit of the present invention.
  • the boundary line acquisition unit 207 is an embodiment of the first boundary line acquisition unit and the first boundary line acquisition unit of the present invention.
  • the boundary line acquisition unit 208 is an embodiment of the third boundary line acquisition unit and the third boundary line acquisition unit of the present invention.
  • the edge extraction unit 201 extracts the edge of the captured image Sp acquired by the image acquisition unit 101. Force that can use various methods for edge extraction
  • the “sobel operator” is a general edge extraction operator having noise tolerance, and applies two filters f 1 and f 2 shown below to the image I to be extracted.
  • edge evaluation value g of a pixel is larger than a predetermined threshold value g, this pixel has an edge thr
  • edge pixels are determined to be pixels (hereinafter referred to as edge pixels), and the threshold value g
  • the pixel extraction unit 202 includes a column of edge pixels (first pixel column) that is expected to form the upper contour of the object FG from the image whose edges have been extracted by the edge extraction unit 201, In addition, each column of edge pixels (second pixel column) that is expected to form the lower contour of the subject FG is extracted.
  • the position of each pixel on the plane of the image is represented by orthogonal coordinates. Then, for example, as shown by the horizontal values in Fig. 2, the coordinate axis that extends horizontally on the upper edge of the image is the X axis, and the coordinate axis that extends vertically on the left edge of the image is The y axis is assumed.
  • first reference straight line and second reference straight line serving as a reference for pixel extraction are set on the image plane.
  • the first reference line is set so that it passes through the image of the subject FG when the image is taken under normal conditions. For example, it is set to a straight line that passes through the center of the y coordinate of the image and is parallel to the X axis.
  • second reference straight lines each of which is set to a straight line parallel to the y-axis.
  • the plurality of second reference lines are preferably arranged at regular intervals.
  • the pixel extraction unit 202 uses the second pixel described above among the edge pixels included in the region (first region) above the first reference straight line. If there are multiple edge pixels on the same second reference line that are located on the reference line, the edge pixel closest to the first reference line is extracted as the first pixel. In addition, among edge pixels included in the area below the first reference line (second area), there are edge pixels located on the second reference line, and there are a plurality of edge pixels on the same second reference line. In this case, the edge pixel closest to the first reference line is extracted as the second pixel.
  • the pixel extraction unit 202 searches the edge pixels in order upward and downward from the intersection of the first reference line and the second reference line, and the first edge pixel found in the upward direction is the first pixel.
  • the edge pixel first found in the downward direction is extracted as the second pixel.
  • the first pixel and the second pixel extracted by the pixel extracting unit 202 for each second reference line as described above form a column of pixels arranged in the X-axis direction.
  • the first pixel column corresponds to the upper contour line of the object FG
  • the second pixel column corresponds to the lower contour line.
  • the midpoint extraction unit 203 includes the first pixel and the first pixel in each of the plurality of second reference straight lines. A column of intermediate points located between two pixels is extracted. The intermediate point extracted by the intermediate point extraction unit 203 has a predetermined ratio between the distance of the first pixel force and the distance of the second pixel force located on the same second reference line. In the following example, this intermediate point is assumed to be equidistant from the first pixel and the second pixel located on the same second reference line.
  • the intermediate point extraction unit 203 performs a part of the second reference line. 2 Interpolate the midpoints of some of the second reference lines based on the midpoints extracted from other second reference lines adjacent to the reference line. For example, if an intermediate point cannot be extracted on a certain second reference line, if there is an intermediate point extracted on the adjacent second reference line, the intermediate point is interpolated at the same y-coordinate position.
  • the classifying unit 204 classifies the sequence of intermediate points extracted by the intermediate point extracting unit 203 into one or a plurality of sections in which adjacent intermediate points are within a predetermined distance. That is, the sorting unit 204 sorts the extracted sequence of intermediate points so that one section is formed by continuously connecting intermediate points.
  • the approximate line acquisition unit 205 acquires an approximate line of a column of intermediate points extracted by the intermediate point extraction unit 203 based on the intermediate points belonging to the longest section divided by the classification unit 204.
  • the least-squares method is used to find a first-order approximation function (or is a second-order or higher-order approximation function) that fits the midpoint sequence that forms the longest interval.
  • the midpoint extraction unit 206 extracts, from the midpoints extracted by the midpoint extraction unit 203, a sequence of midpoints whose error from the approximate line acquired by the approximate line acquisition unit 205 is within a predetermined range.
  • the boundary line acquisition unit 207 acquires the upper and lower boundary lines of the mask based on the intermediate point extracted by the intermediate point extraction unit 206 and the first pixel and the second pixel extracted by the pixel extraction unit 202. That is, it is the same as the sequence of intermediate points extracted by the intermediate point extraction unit 206. Based on the approximate line of the first pixel column located on the second reference line, the upper boundary line (first boundary line) of the mask is obtained, and the second pixel line located on the second reference line is obtained. Based on the approximate line, the lower boundary line (second boundary line) of the mask is acquired.
  • a line obtained by shifting the approximate line of the first pixel column toward the first reference line by a predetermined distance is obtained as the upper boundary line of the mask, and the approximate line of the second pixel column is the first line.
  • a line shifted by a predetermined distance by directing the reference straight line is acquired as the lower boundary line of the mask.
  • the boundary line acquisition unit 207 includes the intermediate point extracted by the intermediate point extraction unit 206, and the first pixel and the second pixel that are located on the same second reference line across the extracted intermediate point.
  • the upper and lower boundary lines of the mask may be obtained based on the pixel spacing (finger width).
  • the approximate line of the intermediate point column extracted by the intermediate point extraction unit 206 and the function that approximates the interval between the first pixel and the second pixel described above using the X coordinate value as a variable are calculated, and based on these. You can get the upper and lower borders.
  • the boundary line acquisition unit 208 acquires a boundary line for excluding the part where the upper and lower contour lines of the subject FG approach each other, that is, the part of the fingertip by the mask.
  • the boundary line acquisition unit 208 sets a determination region in order to determine a portion where the upper and lower contour lines of the subject FG approach each other.
  • This judgment area is surrounded by two left and right sides parallel to the y-axis and two upper and lower sides parallel to the X-axis, and is a part of the upper boundary line acquired by the boundary line acquisition unit 207.
  • the positions of the upper and lower sides are determined so as to include a part of the lower boundary line (see Fig. 21).
  • the boundary line acquisition unit 208 sequentially moves the above-described determination area to the right along a predetermined position (for example, near the center) of the image along the X axis, and at each of the moved positions, the edge pixel included in the determination area Count the number. Then, a line parallel to the y-axis passing through the determination region at the position where the counted value reaches a predetermined threshold value is acquired as the right boundary line of the mask.
  • the boundary acquisition unit 208 uses the same method as the right boundary line of the mask to perform the left boundary line of the mask. You may get That is, the counter value is compared with the threshold value of the edge pixel in the determination area while moving the determination area to the left, and the position where the count value reaches the threshold value is searched.
  • the mask generation unit 209 generates a mask image Smsk based on the upper and lower boundary lines acquired by the boundary line acquisition unit 207 and the left and right boundary lines acquired by the boundary line acquisition unit 208. For example, a mask image in which the pixel value in the outer area of the boundary line is set to “0” and the pixel value in the inner area of the boundary line is set to “1” is generated. By performing an AND operation on the mask image Smsk and the image to be processed, the internal area of the subject FG included in the image to be processed is cut out, and the pixel values of the other areas become “0”.
  • the edge extraction unit 201 the edge of the captured image Sp is extracted.
  • FIGS. 14A and 14B are diagrams illustrating an example of an image extracted by the edge extraction unit 201.
  • FIG. Fig. 14 (A) shows a captured image before edge extraction
  • Fig. 14 (B) shows an image that has been subjected to edge extraction processing by the 'sobel operator'. In the image after edge extraction, the outline of the finger is roughly extracted.
  • Step ST102
  • the pixel extraction unit 202 next includes the first pixel row included in the region above the first reference straight line and the region below the first reference straight line.
  • the second pixel column is extracted.
  • the first pixel and the second pixel are extracted one by one from each of the plurality of second reference lines.
  • the first pixel is the edge pixel closest to the first reference line in the region above the first reference line on the second reference line, and the second pixel is below the first reference line on the second reference line. The pixel closest to the first reference line in the region.
  • n second reference lines arranged in order from the center of the first reference line to the right.
  • the central force of the same first reference line is expressed as m second reference lines arranged sequentially in the left direction 10, 11, 12, ..., lm-1; It expresses.
  • the extraction of the first pixel and the second pixel by the pixel extraction unit 202 is performed, for example, sequentially in the direction of the center width of the image in the left direction and the right direction, respectively.
  • the second reference straight line rO is selected first.
  • Crossing force between first reference line and second reference line rO Edge pixels are searched in order in the vertical direction, and the first edge pixel found on the upper side is the first pixel (X, y d ), and the lower side is found first.
  • the second pixel is
  • the second reference line rl next to the right is selected, and the edge pixels are searched in order in the vertical direction of the intersection force between this and the first reference line.
  • the first edge pixel found on the upper side is the first pixel (X, y d ), the first one is found on the lower side
  • Such a pixel is extracted as the second pixel (x, y 11 ).
  • the intermediate point extraction unit 203 extracts the intermediate point between the first pixel and the second pixel.
  • Midpoint C located in the second reference line rO is the first pixel (X, y d) and the second pixel (x, y u
  • step ST103 The extraction of the intermediate point in step ST103 is performed in parallel with the extraction of the first pixel and the second pixel in step ST102, for example.
  • the boundary line acquisition unit 207 performs the subsequent step ST10.
  • finger width The distance between the first pixel and the second pixel (hereinafter referred to as finger width) used in 7 is calculated.
  • the finger width W on the second reference line rO is the first pixel (X, y d ) and the second pixel (x, y 11 ).
  • the first pixel and the second pixel are not always extracted in pairs on all the second reference lines.
  • the intermediate point extraction unit 203 uses the intermediate points extracted in the other second reference lines adjacent to the partial second reference lines as the intermediate points of the partial second reference lines. Is interpolated.
  • FIG. 15 is a diagram illustrating an example of an intermediate point extraction process performed on the image after the edge extraction illustrated in FIG. 14 (B).
  • the circled points indicate the intermediate points obtained from the coordinates of the two pixels (first pixel and second pixel), and the triangular points indicate the intermediate points obtained by interpolation.
  • the first pixel (X, y d ) is extracted on the second reference line ri + 1.
  • both the first pixel (X 1, y d ) and the second pixel (X 1, y 2) are extracted.
  • the intermediate point extraction unit 203 sets the intermediate point C of the second reference line ri + 1 to the intermediate point C of the second reference line ri.
  • the finger width W rf on the second reference straight line ri + 1 is the extracted first pixel (:
  • interpolated intermediate point C are interpolated as follows:
  • Step ST104
  • the partition unit 204 When the midpoint column (C 1,..., C 1, C 3, C 2) is extracted, the partition unit 204 then outputs lm-1 10 r0 rn-1
  • the intermediate point sequence is divided into continuous sections. That is, the intermediate point sequence extracted by the intermediate point extraction unit 203 is divided into one or a plurality of sections in which adjacent intermediate points are within a predetermined distance. Assuming that the second reference line is equally spaced with a distance dx, the distance between two adjacent midpoints and C can be evaluated by the y-coordinate deviation dy expressed by the following equation.
  • (, '(C) represents the y coordinate of the intermediate point C.
  • y- coordinate deviation dy is the predetermined threshold kykk
  • FIG. 16 is a diagram showing an example in which the sequence of intermediate points shown in FIG. In the example of Fig. 16, it is divided into three continuous sections (left force is also Al, A2, A3 in order).
  • a sequence of intermediate points (C 1,..., C 2, C 3, ⁇ ⁇ ⁇ Approximate line lm-1 10 r0 rn-1 of C). For example, let the longest continuous interval be 'P', and based on the p-th intermediate point C to the q-th intermediate point C (C, C, ..., C, C) constituting that interval, For example, the primary function
  • FIG. 17 is a diagram illustrating an example of the approximate line acquired by the approximate line acquisition unit 205.
  • Fig. 17 (A) shows a column of intermediate points divided into three continuous sections Al, A2, and A3, and Fig. 17 (B) shows an approximate line obtained based on the longest section A1. Show.
  • Step ST106
  • the intermediate point extraction unit 206 next extracts the entire intermediate points (C 1,. , C 1, C 2, C 2), acquired by the approximate line acquisition unit 205 lm-1 10 r0 rn-1
  • a column of intermediate points whose error from the approximate line is within a predetermined range is extracted.
  • the width of the finger is significantly different from the other parts, and the center line of the finger is greatly displaced. Therefore, in the intermediate point extraction unit 206, an error between the approximate line of the approximate line acquisition unit 205 estimated to represent the center line of the finger relatively correctly and each intermediate point extracted in the intermediate point extraction unit 203. Is calculated. An intermediate point where this error is larger than the predetermined threshold value dL is regarded as an intermediate point that does not constitute the finger center line. Thus, it is excluded from the intermediate point candidates used in the next step ST107.
  • the continuous section A2 in the center is significantly deviated from the approximate line based on the continuous section A1 acquired by the approximate line acquisition unit 205. Therefore, in this example, the midpoint extraction unit 206 excludes the continuous section A2 in the center and extracts other continuous sections A1 and A3.
  • the boundary line acquisition unit 207 extracts the sequence of intermediate points extracted by the intermediate point extraction unit 206. Based on the approximate line of the first pixel column located on the same second reference line, the upper boundary line (first boundary line) of the mask is obtained, and the second pixel line located on the second reference line is obtained. Based on the approximate line, the lower boundary line (second boundary line) of the mask is obtained.
  • the boundary line acquisition unit 207 obtains an approximate line (for example, a linear function) of the center of the finger based on the Z intermediate points, and the finger width using the X coordinate as a variable based on the Z finger width. Find an approximate function of (for example, a linear function).
  • an approximate line for example, a linear function
  • FIG. 18 (A) shows an approximate line acquired based only on the intermediate point of the longest continuous section
  • FIG. 18 (B) is acquired based on the intermediate point extracted by the intermediate point extraction unit 206. It shows the approximate line that will be displayed.
  • Fig. 19 shows an example of a finger width approximation function (linear function) obtained based on the Z finger widths corresponding to the Z intermediate points extracted by the mid point extraction unit 206.
  • FIG. 19 shows an example of a finger width approximation function (linear function) obtained based on the Z finger widths corresponding to the Z intermediate points extracted by the mid point extraction unit 206.
  • the boundary line acquisition unit 207 acquires the upper and lower boundary lines of the mask based on these approximations.
  • the y coordinate of the intermediate point obtained by the above approximate calculation is 'C'
  • the y coordinate of the finger width is 'w'
  • the finger of the y coordinate of the upper profile 'E' When the y-coordinate of the lower wheel ⁇ fingers 'E', c the following relationship is satisfied
  • Figure 20 (A) shows the approximate line of the upper contour of the finger (y coordinate is near '100') and the approximate line of the lower contour (y coordinate is '200') obtained based on equations (11) and (12).
  • the approximate line in Fig. 20 (A) is a force that is in good agreement with the contour of the finger. If this is used as the border of the mask as it is, an image of the blood vessel appears on the strong edge that appears in the contour. May be affected. Therefore, Equations (11) and (12) are changed so that the approximate line of the upper contour of the finger is shifted downward by a predetermined offset Ofs and the approximate line of the lower contour of the finger is shifted upward by the offset Ofs. Correct it.
  • the boundary lines are acquired as upper and lower boundary lines of the approximate line force mask based on the equations (13) and (14). With this boundary line, it is possible to cut out the image of the inner part from the upper and lower contours of the finger.
  • the boundary line acquisition unit 208 acquires the left and right boundary lines for excluding the fingertip force outside.
  • FIGS. 21 (A), (B), and (C) show processes for acquiring the left and right boundary lines in the boundary line acquisition unit 208.
  • FIG. It is a figure for demonstrating reason.
  • FIG. 21A shows a captured image including a fingertip.
  • FIG. 21 (B) shows an image obtained by performing edge extraction processing on this captured image, and
  • FIG. 21 (C) is an enlarged view of the main part of FIG. 21 (B).
  • the boundary acquisition unit 208 sets a determination region as shown in FIGS. 21B and 21C in order to determine a portion where the upper and lower contours of the finger approach each other. This judgment area is surrounded by two left and right sides parallel to the y-axis and two upper and lower sides parallel to the X-axis.
  • the center of the determination region is set to an intermediate point approximated by the boundary line acquisition unit 207.
  • the left and right sides of the judgment area are specified in the X axis direction from the intermediate point (i, C).
  • the upper and lower sides of the judgment area are the length obtained by adding a predetermined distance dy to half of the finger width w approximated in the boundary line acquisition unit 207, that is, 'dy + (w) / 2'
  • the set determination area includes a part of the upper boundary line and a part of the lower boundary line acquired by the boundary line acquisition unit 2007. Contains.
  • the center (i, C) of the determination region is moved to the right along a predetermined position (for example, near the center) of the image in the right direction, and the determination set as described above is performed at each position.
  • the number of edge pixels contained in the region is counted.
  • a line parallel to the y-axis passing through the determination region (for example, a line passing through the center (i, C) of the determination region) at the position where this count value reaches the predetermined threshold value is acquired as the right boundary line of the force mask.
  • the left boundary line of the mask can also be acquired by the same process as the right boundary line.
  • an edge of a captured image is extracted. Then, it is included in the area above the first reference line that is set to pass through the image of the subject FG, and a plurality of parallel second reference lines (lm-1, 1, ..., rO, The edge pixel located at ⁇ rn-1) and closest to the first reference line in each of the second reference lines is extracted as the first pixel. In parallel with this, it is included in the lower area of the first reference line and is located on the second reference line (lm-1, 1, ..., 10, rO, rn-1). In addition, the edge pixel located closest to the first reference line in each of the second reference lines is extracted as the second pixel.
  • the second reference line (lm ⁇ 1, .., 10, rO, ⁇ rn ⁇ l) are located between the first pixel and the second pixel, and the distance from the first pixel and the distance of the second pixel force are predetermined.
  • a sequence of z intermediate points (C 1,..., C 2) whose differences are within a predetermined range is extracted.
  • the upper boundary line of the mask is obtained based on the approximate line of the prime column, and the lower boundary line of the mask is obtained based on the approximate line of the second pixel column located on the second reference line. Obtained In this way, a pixel row corresponding to the contour of the subject is extracted from the edge-extracted image, and the threshold value is adjusted for each captured image to obtain the mask boundary based on the approximate line.
  • the first reference line is surrounded by two sides parallel to the first reference line and two sides parallel to the second reference line.
  • An area including a part of the boundary line is sequentially moved in a direction parallel to the first reference line from the predetermined position force on the captured image, and the area included in the area at each moved position. The number of edge pixels is counted. Then, at the position where the count value reaches a predetermined threshold value, it is acquired as the boundary line of the line force mask parallel to the second reference line passing through the area.
  • the contour of the subject has a complex shape that is not linear (for example, a fingertip), it is possible to obtain a boundary line that cuts the inside of the contour without performing an approximate calculation. You can make a habit.
  • the edge of the captured image is emphasized, and in the image after edge enhancement, based on the value of the pixel included in the area further inside the subject cut out by the mask, Obtain evaluation values for the strength and Z or amount of edges included in the area. Is done. Then, based on the obtained evaluation value, it is determined whether or not the mask is capable of appropriately cutting out the image of the subject.
  • the subject image to be processed is included in the captured image! Can be determined.
  • the position of the boundary line of the subject is estimated based on the distribution of edge pixels.
  • FIG. 22 is a diagram showing an example of the configuration of the mask creation unit 102A in the image processing apparatus according to the present embodiment.
  • the mask creation unit 102A includes an edge extraction unit 211, a boundary line acquisition unit 212, a pixel extraction unit 213, a classification unit 214, an approximate line acquisition unit 215, a pixel extraction unit 216, and a boundary line acquisition unit 217, 218 and a mask generation unit 219.
  • the edge extraction unit 211 is an embodiment of the edge extraction unit and edge extraction means of the present invention.
  • the boundary line acquisition unit 212 is an embodiment of the second boundary line acquisition unit and the second boundary line acquisition unit of the present invention.
  • the pixel extraction unit 213 is an embodiment of the first pixel extraction unit and the first pixel extraction unit means of the present invention.
  • the sorting unit 214 is an embodiment of the sorting unit and sorting unit means of the present invention.
  • the approximate line acquisition unit 215 is an embodiment of the approximate line acquisition unit and the approximate line acquisition unit of the present invention.
  • the pixel extraction unit 216 is an embodiment of the second pixel extraction unit and the second pixel extraction means of the present invention.
  • the boundary line acquisition unit 217 is an embodiment of the first boundary line acquisition unit and the first boundary line acquisition unit of the present invention.
  • the boundary line acquisition unit 218 is an embodiment of the third boundary line acquisition unit and the third boundary line acquisition unit of the present invention.
  • the image processing apparatus is obtained by replacing the mask creating unit 102 in the image processing apparatus 1 shown in FIG. 1 with a mask creating unit 102A shown in FIG. The same as the image processing apparatus shown in FIG.
  • the edge extraction unit 211 is the same component as the edge extraction unit 201 described above, and extracts the edge of the captured image Sp using, for example, a sobel operator.
  • the boundary line acquisition unit 212 moves a band-like region sandwiched between two parallel sides in parallel with the y-axis of the image, and counts the edge pixels included in the region at each moved position. . Then, an upper boundary line of the mask is acquired according to a line parallel to the side included in the area at the position where the counted value is the largest.
  • the pixel extraction unit 213 extracts a row of edge pixels that are expected to form the lower contour of the object FG from the image whose edges have been extracted by the edge extraction unit 211.
  • the pixel extraction unit 213 is included in a region below the upper boundary line of the mask acquired by the boundary line acquisition unit 212, is located on a predetermined plurality of second reference lines, and In each of the two reference lines, the edge pixel that is closest to the first reference line is extracted.
  • the pixel extraction unit 213 searches for edge pixels in order from the intersection of the upper boundary line of the mask and the second reference line in the downward direction, and extracts the edge pixel that first looks strong.
  • the edge pixels extracted by the pixel extraction unit 213 for each second reference straight line as described above form a row of edge pixels arranged in the X-axis direction, and the object FG Corresponds to the lower outline.
  • the sorting unit 214 sorts the edge pixel column extracted by the pixel extracting unit 213 into one or a plurality of sections in which adjacent edge pixels are within a predetermined distance. Snow That is, the sorting unit 214 sorts the extracted edge pixel columns so that a group of sections is formed by edge pixels that are continuously connected.
  • the approximate line acquisition unit 215 acquires an approximate line of the column of edge pixels extracted by the pixel extraction unit 213 based on the edge pixels belonging to the longest section segmented by the segmentation unit 214.
  • the first-order approximation function (or second-order or higher-order approximation function) that fits the column of edge pixels that forms the longest interval is obtained by the method of least squares.
  • the pixel extraction unit 216 extracts, from the edge pixels extracted by the pixel extraction unit 213, a sequence of edge pixels whose error from the approximate line acquired by the approximate line acquisition unit 215 is within a predetermined range. To do.
  • the boundary line acquisition unit 217 acquires the lower boundary line of the mask based on the approximate line of the edge pixel column extracted by the pixel extraction unit 216.
  • a line obtained by shifting the approximate line of the column of edge pixels extracted by the pixel extraction unit 216 by a predetermined distance by force toward the upper boundary line of the mask is acquired as the lower boundary line of the mask.
  • the boundary line acquisition unit 218 performs the same operation as the boundary line acquisition unit 208 described above, so that the boundary where the upper and lower contour lines of the object FG approach each other, that is, the boundary for excluding the fingertip part by the mask is used. Get a line.
  • the mask generation unit 219 generates a mask image Smsk having the boundary lines acquired by the boundary line acquisition units 212, 217, and 218 by the same operation as the mask generation unit 209 described above.
  • Step ST202 the edge of the captured image Sp is extracted.
  • the boundary line acquisition unit 212 When the edge of the captured image Sp is extracted, the boundary line acquisition unit 212 next acquires the upper boundary line of the subject FG.
  • FIGS. 24A and 24B are diagrams showing an example of a captured image and an image after edge extraction thereof.
  • the area surrounded by the dotted line is the contact surface with the finger of the imaging device.
  • the region above this contact surface (y coordinate is small) There is no finger in the area.
  • the contact surface between the imaging device and the finger is flat and is not affected by the shape of the finger.
  • the contact surface is substantially horizontal with the X-axis direction of the captured image, and the edge pixels of the contact surface are arranged in the horizontal direction with respect to the X-axis even in the edge extracted image. Therefore, the boundary line acquisition unit 212 performs processing for acquiring the boundary line corresponding to the contact surface as a straight line horizontal to the X axis.
  • the number of edge pixels for each y coordinate is calculated by counting the number of edge pixels for each y coordinate. It grows rapidly. Therefore, it is possible to detect the boundary line of the contact surface based on the position where the number of edge pixels for each y coordinate is maximized.
  • the count value may be maximized at the lower contour rather than the contact surface.
  • the count value may be maximized at the lower contour rather than the contact surface.
  • the upper contour of the image is the contact surface between the device and the finger.
  • FIGS. 25 (A) and 25 (B) are diagrams showing examples of distribution of edge pixels for each y coordinate.
  • FIG. 25A shows an image after edge extraction
  • FIG. 25B shows a distribution diagram in which the number of edge pixels included in this image is counted for each y coordinate.
  • the y-coordinate line that maximizes the number of edge pixels agrees well with the edge outline formed by the contact surface.
  • the change in the number of pixels is becoming extremely intense.
  • the force with which the contact surface can be detected successfully When the contact surface is slightly inclined, the peak of the maximum value does not appear clearly in the distribution map, and the contact surface May be extracted by mistake. Therefore, in the boundary line acquisition unit 212 according to the present embodiment, as shown in FIG. 25, the number of pixels is obtained for each y coordinate, so that the coordinates before and after the target y coordinate are calculated within an area having a certain width. Edge pixels included in the included area (band-like area parallel to the X axis) are counted.
  • FIGS. 26A and 26B are diagrams illustrating an example of a region where edge pixels are counted.
  • FIG. 26A an area surrounded by a dotted line indicates an area where edge pixels are counted.
  • FIG. 26 (B) is an enlarged view of a region surrounded by a circle in FIG. 26 (A).
  • the area having y y is set as an area for counting edge pixels. That means
  • the number of edge pixels included in the region is counted.
  • the position of the contact surface can be obtained stably even if the edge-extracted image is somewhat disturbed.
  • FIG. 27B is a diagram showing an example of the result of counting the edge pixels included in the region while moving in parallel to the region ⁇ y axis shown in FIG.
  • V is then applied to the pixel extraction unit 213 to form the lower contour of the subject FG, and the column of edge pixels expected to be formed. Is extracted. That is, it is included in an area below the upper boundary line of the mask, is located on a predetermined plurality of second reference lines, and is closest to the first reference line in each of the second reference lines. Edge pixels are extracted. For example, edge pixels are searched in order from the intersection of the upper boundary line of the mask and the second reference line in the downward direction, and the edge pixel that looks strong first is extracted (FIG. 28 (A)).
  • edge pixel is extracted for each second reference line. If there is no edge pixel on a certain second reference line, an edge pixel having the same y-coordinate as the edge pixel extracted on the adjacent second reference line is selected as the edge pixel. Interpolation may be performed on the reference straight line.
  • Step ST204
  • the classification unit 214 next obtains a continuous section of the edge pixel column in order to identify the edge pixel that is clearly deviated from the contour of the finger. That is, the edge pixel column extracted by the pixel extraction unit 213 is divided into one or a plurality of sections in which adjacent edge pixels are within a predetermined distance.
  • Step ST205
  • the approximate line acquisition unit 215 next uses the edge pixels belonging to the longest section among the divided continuous sections (which may be only one). Thus, an approximate line of the edge pixel column is acquired.
  • the pixel extraction unit 216 When the approximate line acquisition unit 215 acquires an approximate line based on the longest continuous interval of edge pixels, the pixel extraction unit 216 next approximates the entire edge pixel extracted by the pixel extraction unit 213. A line of edge pixels whose error from the approximate line acquired by the line acquisition unit 205 is within a predetermined range is extracted.
  • the boundary line acquisition unit 217 next extracts the edge pixel column extracted by the pixel extraction unit 216. Based on the approximate line, the lower boundary line of the mask is obtained.
  • Step ST208 an approximate line (for example, a straight line by a linear function) extracted from the column of edge pixels extracted by the pixel extraction unit 216 is shifted upward by a predetermined offset, and is acquired as a lower boundary line of the force mask (see FIG. 28 (B)).
  • the boundary line acquisition unit 208 acquires the left and right boundary lines for excluding the fingertip force outside. This technique is the same as step ST108 described above, for example.
  • the processing can be simplified as compared with the case where calculation of the approximate line is necessary. Therefore, the mask can be created at a higher speed.
  • a mask boundary line corresponding to the position may be fixed.
  • the contact surface to be imaged may vary depending on differences in the assembly of the device, vibrations or shocks held by the device, etc., and an appropriate mask can be created stably. Can not . Therefore, if a mask boundary line is acquired based on the distribution of edge pixels as in the present embodiment, an appropriate mask can be stably created without complicating the process.
  • a method of obtaining a mask boundary line based on an approximate function of an intermediate point and a finger width (distance between the first pixel and the second pixel) is exemplified.
  • the power of the present invention is not limited to this.
  • approximate straight lines may be calculated individually for the first pixel column and the second pixel column corresponding to the intermediate point column extracted by the intermediate point extraction unit 206.
  • a continuous interval of intermediate points is obtained, but the present invention is not limited to this.
  • the column of the first pixel and the column of the second pixel extracted by the pixel extraction unit 202 are respectively divided into a classification unit 214, an approximate line acquisition unit 215, a pixel extraction unit 216, and a boundary line acquisition unit 217 shown in FIG. If the same block is used, the upper and lower boundary lines of the mask can be acquired individually.
  • the evaluation value Ev is calculated as the sum of the pixel values in the image after the edge enhancement process and the mask process are performed, but the present invention is not limited to this.
  • the evaluation value acquisition unit 105 performs evaluation based on the number of pixels in which the edge strength exceeds a predetermined threshold among all the pixels included in the edge-enhanced image by the edge enhancement unit 104.
  • the value Ev may be obtained.
  • the image including the subject FG does not include the subject FG and is stronger and includes more edges than the image.
  • the evaluation value Ev is the number of pixels having a pixel value V larger than a certain threshold V (that is, a pixel whose edge strength exceeds a predetermined threshold value). Even if acquired as, it is possible to accurately determine the presence or absence of the subject FG.
  • the evaluation value acquisition unit 105 may acquire the evaluation value Ev based on the value of the pixel having the highest edge strength among all the pixels included in the image in which the edge is enhanced by the edge enhancement unit 104. .
  • the maximum pixel value in the image shown in Fig. 10 (C) is' 2257
  • the maximum pixel value is' 428 '! / If the influence of the contour of the subject FG is sufficiently eliminated in the region specified by the region specifying unit 103, there is a large difference in the maximum pixel value depending on the presence or absence of the subject FG, as in the above example. Arise. Therefore, even if the evaluation value Ev is obtained simply based on the maximum pixel value (that is, the value of the pixel having the highest edge intensity), the presence or absence of the subject FG can be accurately determined.
  • the control unit 10 may be realized as software by a computer as in the above-described embodiment, and at least a part of the control unit 10 is hardware such as a signal processing circuit configured to perform the above-described processing content. It may be realized by.
  • the present invention is not limited to this. That is, the present invention can be widely applied to uses for creating a mask used for cutting out various subjects with high image power at high speed with simple processing.

Abstract

 簡易な処理でマスク処理を作成できる画像処理装置及びマスク作成方法と、そのような画像処理装置において実行されるプログラムを提供する。画像のエッジを抽出し、エッジが抽出された画像から、被写体の輪郭に対応する画素の列を抽出し、その近似線に基づいてマスク処理のための境界線を取得する。

Description

明 細 書
画像処理装置、マスク作成方法及びプログラム
技術分野
[0001] 本発明は、画像から所定の被写体の像を切り出す際に用いられるマスクを作成す る画像処理装置とそのマスク作成方法並びにプログラムに関する。
本発明は、例えば、生体認証用に撮像された画像から生体の像を切り出す際に用
Vヽられるマスクを作成する画像処理装置に関する。
背景技術
[0002] ネットワークを利用した情報通信の進展に伴って、より安全性の高い個人認証シス テムが求められている。
ノ ィオメトリタス認証 (生体認証)は、人物の身体的な特徴、たとえば、指紋、声紋、 網膜、手指の静脈パターンなど力も得られる情報に基づいて、その人物が登録者本 人であるか否かを判定するため、別の人物が本人になりすますことを大幅に低減でき る優れた特徴を有して 、る。
[0003] 特開 2004— 329825号公報は、近赤外光を照射して手指の血管のパターンを撮 像し、これを予め登録された血管のノターンと照合することにより個人を認証する装 置を開示している。
血管パターンにより個人を認証する場合、一般に、撮像画像を適当な画像フィルタ によって処理することにより血管の外形を浮き立たせて、その特徴を認識し易くする。 このとき、認証に不要な部分、たとえば、装置や背景なども同様に浮き立ってしまうた め、そのままでは不要な部分を血管として誤認識する可能性がある。
そこで通常は、撮像画像から認証に必要な被写体のみを切り出すマスク処理が行 われる。
特開 2005— 56282号公報に記載されている装置では、撮像画像に含まれる各画 素値の画素の数を表したヒストグラムを作成し、このヒストグラムに基づ 、て被写体と 背景部分とを区別するしき!ヽ値を取得し、そのしき!ヽ値を用いて撮像画像を 2値化す ることによりマスクを作成している。 発明の開示
発明が解決しょうとする課題
[0004] 一般にしき!、値を用いて画像を 2値化する方法では、被写体に照射する光線の強 さや、背景の明るさ、被写体の光透過率などの条件に応じて、被写体を適切に切り出 すしきい値が変化する。そのため、特開 2005— 56282号公報に記載されている装 置のように、撮像画像に応じてしきい値を設定することが必要となり、処理が複雑にな る。
[0005] 以上から、簡易な処理でマスクを作成できる画像処理装置及びマスク作成方法と、 そのような画像処理装置において実行されるプログラムを提供することが要望されて いる。
課題を解決するための手段
[0006] 本発明の第 1の実施の形態は、画像力 所定の被写体の像を切り出すマスクを作 成する画像処理装置に関するものであり、当該画像処理装置は、上記画像のエッジ を抽出する、ように構成されているエッジ抽出部と、上記被写体の像の内部を通るよう に上記画像の平面上に設定される第 1基準直線に接した第 1領域に含まれており、 上記画像の平面上に設定される平行な複数の第 2基準直線上に位置し、かつ上記 複数の第 2基準直線の各々において上記第 1基準直線に最も近い第 1画素の列、並 びに、上記第 1領域の反対側で上記第 1基準直線に接する第 2領域に含まれており 、上記複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々にお いて上記第 1基準直線に最も近い第 2画素の列を、上記エッジ抽出部において抽出 されたエッジの中から抽出する、ように構成されている画素抽出部と、上記複数の第 2基準直線の各々において上記第 1画素と上記第 2画素との間に位置し、かつ当該 第 1画素からの距離と当該第 2画素力 の距離とが所定の比を有する中間点の列を 抽出する、ように構成されている第 1の中間点抽出部と、上記第 1の中間点抽出部に おいて抽出された中間点の列を隣接する中間点同士が所定の距離内にある少なくと も 1つの区間に区分する、ように構成されている区分部と、上記区分部において区分 された最長の区間を形成する中間点に基づいて上記第 1の中間点抽出部において 抽出された中間点の列の近似線を取得する、ように構成されている近似線取得部と、 上記第 1の中間点抽出部において抽出された中間点のうち上記近似線取得部にお V、て取得された近似線との誤差が所定の範囲内にある中間点の列を抽出する、よう に構成されて 、る第 2の中間点抽出部と、上記第 2の中間点抽出部にお!、て抽出さ れた中間点の列と同じ第 2基準直線に位置する第 1画素の列の近似線に基づいて 上記マスクの第 1境界線を取得し、当該第 2基準直線に位置する第 2画素の列の近 似線に基づ 、て上記マスクの第 2境界線を取得する、ように構成されて 、る第 1の境 界線取得部とを有する。
[0007] 本発明の第 2の実施の形態は、画像力 所定の被写体の像を切り出すマスクを作 成する画像処理装置に関するものであり、当該画像処理装置は、上記画像のエッジ を抽出する、ように構成されているエッジ抽出部と、上記被写体の像の内部を通るよう に上記画像の平面上に設定される第 1基準直線に接した 2つの領域の一方に含まれ ており、上記画像の平面上に設定される平行な複数の第 2基準直線上に位置し、か つ上記複数の第 2基準直線の各々において上記第 1基準直線に最も近い画素の列 を上記エッジ抽出部において抽出されたエッジの中から抽出する、ように構成されて いる第 1の画素抽出部と、上記第 1の画素抽出部において抽出された画素の列を隣 接する画素同士が所定の距離内にある少なくとも 1つの区間に区分する、ように構成 されている区分部と、上記区分部において区分された最長の区間を形成する画素に 基づいて上記第 1の画素抽出部において抽出された画素の列の近似線を取得する 、ように構成されている近似線取得部と、上記第 1の画素抽出部において抽出された 画素のうち上記近似線取得部において取得された近似線との誤差が所定の範囲内 にある画素の列を抽出する、ように構成されている第 2の画素抽出部と、上記第 2の 画素抽出部において抽出された画素の列の近似線に基づいて上記マスクの第 1境 界線を取得する、ように構成されて 、る第 1の境界線取得部とを有する。
[0008] 上記第 2の実施の形態の画像処理装置において、好ましくは、平行な 2つの辺によ つて挟まれる帯状の領域を上記第 2基準直線に対して平行に移動させ、その移動し た各位置にぉ 、て、当該領域に含まれる上記エッジ抽出部で抽出されたエッジの画 素数を計数し、当該計数値が最も大きくなる位置において当該領域に含まれる上記 辺と平行な線に応じて、上記マスクの第 2境界線を取得する、ように構成されている 第 2の境界線取得部を有しても良い。
また、好ましくは、上記取得された第 2境界線を上記第 1基準直線として設定しても 良い。
[0009] 本発明の第 3の実施の形態は、画像から所定の被写体の像を切り出すマスクを作 成するマスク作成方法に関するものであり、このマスク作成方法は、上記画像のエツ ジを抽出する第 1の工程と、上記被写体の像の内部を通るように上記画像の平面上 に設定される第 1基準直線に接した第 1領域に含まれており、上記画像の平面上に 設定される平行な複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の 各々において上記第 1基準直線に最も近い第 1画素の列、並びに、上記第 1領域の 反対側で上記第 1基準直線に接する第 2領域に含まれており、上記複数の第 2基準 直線上に位置し、かつ上記複数の第 2基準直線の各々において上記第 1基準直線 に最も近い第 2画素の列を、上記第 1の工程において抽出されたエッジの中カも抽 出する第 2の工程と、上記複数の第 2基準直線の各々において上記第 1画素と上記 第 2画素との間に位置し、かつ当該第 1画素力 の距離と当該第 2画素力 の距離と が所定の比を有する中間点の列を抽出する第 3の工程と、上記第 3の工程において 抽出された中間点の列を隣接する中間点同士が所定の距離内にある 1つ若しくは複 数の区間に区分する第 4の工程と、上記第 4の工程において区分された最長の区間 を形成する中間点に基づいて上記第 3の工程において抽出された中間点の列の近 似線を取得する第 5の工程と、上記第 3の工程において抽出された中間点のうち上 記第 5の工程にぉ 、て取得された近似線との誤差が所定の範囲内にある中間点の 列を抽出する第 6の工程と、上記第 6の工程において抽出された中間点の列と同じ 第 2基準直線に位置する第 1画素の列の近似線に基づいて上記マスクの第 1境界線 を取得し、当該第 2基準直線に位置する第 2画素の列の近似線に基づ 、て上記マス クの第 2境界線を取得する第 7の工程とを有する。
[0010] 本発明の第 4の実施の形態は、画像力 所定の被写体の像を切り出すマスクを作 成するマスク作成方法であって、上記画像のエッジを抽出する第 1の工程と、上記被 写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線に接した 2つの領域の一方に含まれており、上記画像の平面上に設定される平行な複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上記第 1基準 直線に最も近い第 1画素の列を、上記第 1の工程において抽出されたエッジの中か ら抽出する第 2の工程と、上記第 2の工程において抽出された第 1画素の列を隣接す る第 1画素同士が所定の距離内にある少なくとも 1つの区間に区分する第 3の工程と 、上記第 3の工程において区分された最長の区間を形成する第 1画素に基づいて上 記第 2の工程において抽出された第 1画素の列の近似線を取得する第 4の工程と、 上記第 2の工程において抽出された第 1画素のうち上記第 4の工程において取得さ れた近似線との誤差が所定の範囲内にある第 1画素の列を抽出する第 5の工程と、 上記第 5の工程において抽出された第 1画素の列の近似線に基づいて上記マスクの 第 1境界線を取得する第 6の工程とを有する。
[0011] 上記第 4の実施の形態に係るマスク作成方法において、好ましくは、平行な 2つの 辺によって挟まれる帯状の領域を上記第 2基準直線に対して平行に移動させ、その 移動した各位置にぉ 、て、当該領域に含まれる上記第 1の工程で抽出されたエッジ の画素数を計数し、当該計数値が最も大きくなる位置において当該領域に含まれる 上記辺と平行な線に応じて上記マスクの第 2境界線を取得する第 7の工程を更に有 しても良い。
また、好ましくは、上記取得された第 2境界線を上記第 1基準直線として設定しても 良い。
[0012] 本発明の第 5の実施の形態は、画像力 所定の被写体の像を切り出すマスクを作 成するためコンピュータを有する画像処理装置のプログラムに関する。本発明のプロ グラムは、上記画像処理装置に、上記画像のエッジを抽出する第 1のステップと、上 記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線に接 した第 1領域に含まれており、上記画像の平面上に設定される平行な複数の第 2基 準直線上に位置し、かつ上記複数の第 2基準直線の各々において上記第 1基準直 線に最も近い第 1画素の列、並びに、上記第 1領域の反対側で上記第 1基準直線に 接する第 2領域に含まれており、上記複数の第 2基準直線上に位置し、かつ上記複 数の第 2基準直線の各々において上記第 1基準直線に最も近い第 2画素の列を上 記第 1のステップにおいて抽出されたエッジの中力 抽出する第 2のステップと、上記 複数の第 2基準直線の各々において上記第 1画素と上記第 2画素との間に位置しか つ当該第 1画素からの距離と当該第 2画素力 の距離とが所定の比を有する中間点 の列を抽出する第 3のステップと、上記第 3のステップにおいて抽出された中間点の 列を隣接する中間点同士が所定の距離内にある少なくとも 1つの区間に区分する第 4のステップと、上記第 4のステップにおいて区分された最長の区間を形成する中間 点に基づいて上記第 3のステップにおいて抽出された中間点の列の近似線を取得 する第 5のステップと、上記第 3のステップにおいて抽出された中間点のうち上記第 5 のステップにおいて取得された近似線との誤差が所定の範囲内にある中間点の列を 抽出する第 6のステップと、上記第 6のステップにおいて抽出された中間点の列と同 じ第 2基準直線に位置する第 1画素の列の近似線に基づいて上記マスクの第 1境界 線を取得し、当該第 2基準直線に位置する第 2画素の列の近似線に基づいて上記マ スクの第 2境界線を取得する第 7のステップとを実行させる。
本発明の第 6の実施の形態は、画像力 所定の被写体の像を切り出すマスクを作 成するためコンピュータを有する画像処理装置のプログラムに関する。本発明のプロ グラムは、上記画像処理装置に、上記画像のエッジを抽出する第 1のステップと、上 記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線に接 した 2つの領域の一方に含まれており、上記画像の平面上に設定される平行な複数 の第 2基準直線上に位置しかつ上記複数の第 2基準直線の各々にお 、て上記第 1 基準直線に最も近い第 1画素の列を、上記第 1のステップにおいて抽出されたエッジ の中から抽出する第 2のステップと、上記第 2のステップにおいて抽出された第 1画素 の列を隣接する第 1画素同士が所定の距離内にある少なくとも 1つの区間に区分す る第 3のステップと、上記第 3のステップにおいて区分された最長の区間を形成する 第 1画素に基づいて上記第 2のステップにおいて抽出された第 1画素の列の近似線 を取得する第 4のステップと、上記第 2のステップにおいて抽出された第 1画素のうち 上記第 4のステップにおいて取得された近似線との誤差が所定の範囲内にある第 1 画素の列を抽出する第 5のステップと、上記第 5のステップにおいて抽出された第 1 画素の列の近似線に基づいて上記マスクの第 1境界線を取得する第 6のステップとを 実行させる。 [0014] 上記第 6の実施の形態に係るプログラムにおいて、好ましくは、平行な 2つの辺によ つて挟まれる帯状の領域を上記第 2基準直線に対して平行に移動させ、その移動し た各位置にぉ 、て、当該領域に含まれる上記第 1のステップで抽出されたエッジの 画素数を計数し、当該計数値が最も大きくなる位置において当該領域に含まれる上 記辺と平行な線に応じて上記マスクの第 2境界線を取得する第 7のステップを上記画 像処理装置に実行させても良 、。
また、好ましくは、上記取得された第 2境界線を上記第 1基準直線として設定しても 良い。
発明の効果
[0015] 本発明によれば、簡易な処理でマスクを作成できる画像処理装置及びマスク作成 方法と、プログラムが提供できた。
図面の簡単な説明
[0016] [図 1]図 1は本発明の実施形態に係る画像処理装置の構成の一例を示す図である。
[図 2]図 2 (A)、 (B)は撮像画像に含まれる血管の像がフィルタリング等の処理によつ て抽出された中間画像の一例を示す図である。
[図 3]図 3 (A)、(B)はマスク作成部において作成されるマスクと、これを用いてマスク 処理した中間画像の一例を示す図である。
[図 4]図 4 (A)〜(C)は撮像画像にエッジ強調処理を施した結果の第 1の例を示す図 である。
[図 5]図 5 (A)〜(C)は撮像画像にエッジ強調処理を施した結果の第 2の例を示す図 である。
[図 6]図 6 (A)、(B)は図 4 (A)〜(C) ,図 5 (A)〜(C)に示す撮像画像力 被写体を 切り出すマスクの例を示す図である。
[図 7]図 7 (A)〜(C)は図 5 (B)に示すエッジ強調処理後の画像から図 6 (B)に示す マスクによって被写体の内部を切り出す例を示す図である。
[図 8]図 8 (A)〜 (D)は撮像画像に所定の被写体が含まれる場合と含まれな ヽ場合 の一例を示す図である。
[図 9]図 9は図 8 (C)に示す被写体を含む撮像画像における画素値の分布と、図 8 (D )に示す被写体を含まな 、撮像画像における画素値の分布とを比較した図である。
[図 10]図 10 (A)〜(D)はエッジ強調処理後の画像において、しきい値以下の画素値 をゼロにする場合とゼロにしな 、場合とを比較した図である。
[図 11]図 11は、図 10に示す画像において、所定のしきい値以下の画素値をゼロにし た場合の評価値と、しき 、値を設けな 、場合の評価値とを比較した図である。
[図 12]図 12は、第 1の実施形態に係るマスク作成部の構成の一例を示す図である。
[図 13]図 13は、第 1の実施形態に係る画像処理装置におけるマスクの作成動作の一 例を示すフローチャートである。
[図 14]図 14 (A)、 (B)はエッジ抽出部によってエッジ抽出された画像の一例を示す 図である。
[図 15]図 15は図 14 (A)、 (B)に示すエッジ抽出後の画像に対して行われた中間点 の抽出処理の一例を示す図である。
[図 16]図 16は図 15に示す中間点の列が区分部によって連続区間に区分される例を 示す図である。
圆 17]図 17 (A)、 (B)は中間点を補間する近似線の一例を示す第 1の図である。 圆 18]図 18 (A)、(B)は中間点を補間する近似線の一例を示す第 2の図である。
[図 19]図 19は X座標を変数とする指幅の近似関数の一例を示す図である。
[図 20]図 20 (A)、 (B)は境界線取得部において取得されるマスクの境界線の一例を 示す図である。
[図 21]図 21 (A)〜(C)は左右の境界線を取得する処理を説明するための図である。
[図 22]図 22は第 2の実施形態に係る画像処理装置におけるマスク生成部の構成の 一例を示す図である。
[図 23]図 23は第 2の実施形態に係る画像処理装置におけるマスクの作成動作の一 例を示すフローチャートである。
圆 24]図 24 (A)、(B)は撮像装置と被写体との接触面を含んだ撮像画像と、そのェ ッジ抽出後の画像の一例を示す図である。
[図 25]図 25 (A)、 (B)はエッジ画素の y座標ごとの分布例を示す図である。
[図 26]図 26 (A)、 (B)はエッジ画素の計数を行う領域の例を図解した図である。 [図 27]図 27 (A)、(B)は図 26 (A)、(B)に示す領域を y軸に対して平行に移動させ ながら、その領域内に含まれるエッジ画素を計数した結果の一例を示す図である。
[図 28]図 27 (A)、 (B)は第 2の実施形態に係る画像処理装置においてマスクの下側 の境界線を取得する例を示す図である。
符号の説明
[0017] 10…制御部、 20…光源、 30…光学系、 40· ··撮像部、 50…操作部、 60…記憶部 、 101…画像取得部、 102· ··マスク作成部、 103…領域特定部、 104…エッジ強調 部、 105…評価値取得部、 106…判定部、 107…登録部、 108…照合部、 109…表 示処理部、 201, 211· ··エッジ抽出部、 202, 213, 216· ··画素抽出部、 203· ··中間 点抽出部、 204, 214…区分部、 205, 215…近似線取得部、 206…中間点抽出部 、 207, 208, 212, 217, 218· ··境界線取得部、 209, 219· ··マスク生成部。
発明を実施するための最良の形態
[0018] 第 1実施形態
図 1は本発明の実施形態に係る画像処理装置 1の構成の一例を示す図である。 画像処理装置 1は、制御部 10と、光源 20と、光学系 30と、撮像部 40と、操作部 50 と、記憶部 60とを有する。
[0019] 光源 20は、被写体 FG、たとえば、図 1の例では人の指に照射する光線を発生する 。この光線は、例えば 600nm〜1300nm程度の波長を有する近赤外線であり、人体 組織に対する透過性が比較的高ぐかっ血中のヘモグロビンによって特異的に吸収 される性質を有している。光源 20は、例えば発光ダイオードやハロゲンランプ等によ つて構成される。
[0020] 光学系 30は、被写体 FGを透過した光を撮像部 40の受光面に導く。撮像部 40の 受光面に投影される被写体 FGの像では、太い血管の部分ほど暗くなる。
[0021] 撮像部 40は、受光面に投影される被写体 FGの像を撮像し、画像データに変換し て制御部 10に出力する。撮像部 40は、例えば CCD (charge coupled device)や CM OS (.complementary metal oxide semiconductor)センサなどの it像素子によって構成 される。
[0022] 制御部 10は、画像処理装置の全体的動作の制御や各種の信号処理を行う。例え ば、光源 20における光線の発生や、撮像部 40における画像の撮像などを、操作部 5 0から入力されるユーザの指示に応じて制御する。また、撮像部 40において撮像さ れた画像から被写体を切り出すマスク処理や、撮像画像に基づ!、て作成した血管パ ターンの情報 (テンプレート)を記憶部 60に登録する処理、撮像画像とテンプレートと を照合する処理など、生体認証に係わる各種の画像処理を行う。
制御部 10は、例えばコンピュータによって構成されており、記憶部 60に格納される プログラム PRGに基づいて上記の制御や信号処理を実行する。
[0023] 操作部 50は、ユーザの指示を入力するためのインターフェースであり、例えばキー
、ボタン、ダイヤル、タツチパネル、マウスなどの入力機器によって構成される。
[0024] 記憶部 60は、制御部 10がコンピュータで実現された場合、そのコンピュータにおい て実行されるプログラム PRGや、テンプレート DATを記憶する。また、制御部 10の処 理で利用する定数データや、処理過程において一時的に保持する必要がある変数 データなどを記憶する。
S己憶部 60は、例 は RAM、ranaom access memory)や ROM (read only memory) 、不揮発性メモリ、ハードディスク等の記憶装置によって構成される。
[0025] 制御部 10の各構成要素について説明する。
制御部 10は、画像処理に係わる機能的な構成要素として、画像取得部 101と、マ スク作成部 102と、領域特定部 103と、エッジ強調部 104と、評価値取得部 105と、 判定部 106と、登録部 107と、照合部 108とを有する。
領域特定部 103は、本発明の領域特定部および領域特定手段の一実施形態であ る。
エッジ強調部 104は、本発明のエッジ強調部およびエッジ強調手段の一実施形態 である。
評価値取得部 105は、本発明の評価値取得部および評価値取得手段の一実施形 態である。
判定部 106は、本発明の判定部および判定手段の一実施形態である。
[0026] 画像取得部
画像取得部 101は、撮像部 40において撮像された画像を順次に取得する。すな わち画像取得部 101は、操作部 50から入力される指示に応じてテンプレートの登録 処理や照合処理が開始されると、光源 20や撮像部 40の動作を制御することにより、 被写体 FGに近赤外線を照射し、その投影画像を撮像し、撮像画像データを取り込 む。
[0027] マスク作成部
マスク作成部 102は、画像取得部 101にお ヽて取り込まれた撮像画像から被写体 FGを切り出すためのマスクを作成する。
[0028] 02 (A)、 (B)は、撮像画像に含まれる血管の像がフィルタリング等の処理によって 抽出された中間画像の一例を示す図である。図 2 (A)は元の撮像画像を示し、図 2 ( B)はその中間画像を示す。
図 2 (B)を参照すると、指の部分において確かに血管の像が太く抽出されているが 、それ以外の部分 (指の輪郭や背景など)においても血管と同様に像が抽出されて いる。このような不要な像を後の処理で除去する方法も考えられるが、その場合、背 景に応じて抽出される像が変化したり、血管像とそれ以外の像の特徴がほとんど等し くなつたりすると、不要な像だけ除去するのは困難である。し力も、不要な像を残した まま処理を進めれば、常に画像の全体に対して処理を行わなければならなくなるた め、計算量が多くなる。
[0029] 図 3 (A)、 (B)は、マスク作成部 102において作成されるマスクと、これを用いてマス ク処理した中間画像の一例を示す図である。図 3 (A)は作成されるマスクを示し、図 3 (B)はマスク処理された中間画像を示す。
図 3 (A)、(B)に示すように、マスク処理を施すことによって、指の輪郭や背景など、 血管でない部分の情報を除去することができる。また、マスク処理によって切り出され る領域が既知であることから、マスク処理された中間画像にフィルタリング等の処理を 施す際に、画像全体のうち必要な部分のみを処理すれば良い。そのため、画像全体 を処理する場合に比べて計算量を減らすことが可能である。
[0030] マスク作成部 102のより詳細な構成については、図 12を参照して説明する。
[0031] エッジ強調部
エッジ強調部 104は、画像取得部 101にお 、て取り込まれた撮像画像のエッジを 強調する。
画像のエッジの強調には、例えばガウシアンフィルタやラプラシアンフィルタなどの 画像フィルタを用いる。すなわち、ガウシアンフィルタによって画像に含まれるノイズ 成分を除去した後、ラプラシアンフィルタによって画素値の変化を強調する。これによ り、画像に含まれる点状のノイズ成分が除去され、線状のエッジ成分が強調される。
[0032] 図 4 (A)、 (B)、 (C)は、被写体 FGの撮像画像に対して上述したガウシアンフィルタ とラプラシアンフィルタによるエッジ強調処理を施した結果の第 1の例を示す図である 図 4 (A)はエッジ強調処理前の画像を示し、図 4 (B)はエッジ強調処理後の画像を 示す。図 4 (C)は図 4 (B)に示す画像の画素値を 3次元で図解した図である。
図 4 (A)、 (B)、 (C)の例力も分力るように、撮像部 40において撮像された画像にェ ッジ強調処理を施すと、指の血管 (特に静脈)部分の画素値が他の部分に比べて突 出する。
[0033] 図 4 (A)に示すエッジ強調処理前の画像及び図 4 (B) , (C)に示すエッジ強調処理 後の画像は、何れも正負の符号なしの 8ビットの画素値を有して 、る。
ガウシアンフィルタとラプラシアンフィルタによって 8ビットの画素値を持つ画像を処 理した場合、その処理後の画素値は 8ビットを超えた値になり得る。ところが、図 4 (B) , (C)の例では、処理後の画素値を 8ビットに制限しているため、図 4 (A)に示す元の 画像の血管と図 4 (B)に示すエッジ強調処理後の画像の血管は、その視覚的な強さ があまり一致していない。すなわち、細くて薄い血管も、太くて濃い血管も、エッジ強 調処理後の画像ではほぼ同じ強さになっている。
[0034] これに対し、図 5 (A)、 (B)、 (C)は、ガウシアンフィルタとラプラシアンフィルタによる 同様なエッジ強調処理を施した結果の第 2の例を示す図であり、図 4 (A)、(B)、 (C) に示す第 1の例との違いはエッジ強調処理後の画素値のビット制限を撤廃したことに ある。
図 5 (A)はエッジ強調処理前の画像を示し、図 5 (B) , (C)はエッジ強調処理後の 画像を示す。
図 4 (A)ゝ (B)、 (C)と図 5 (A)ゝ (B)、(C)を比較して分力るように、画素値のビット 制限を撤廃した場合、元の画像における濃淡の違 、がエッジ強調処理後の画像に 敏感に現れており、濃い血管の画素値は大きぐ薄い血管の画素値は小さくなつて いる。
[0035] マスク作成部 102において作成されたマスクによって生体認証処理に望ましい血管 の像が切り出される力否かを判定部 106において正しく判定するためには、評価値 取得部 105において血管の濃淡が正しく反映された評価値 Evを取得することが望ま しい。
そこでエッジ強調部 104は、例えば図 4 (A)、(B)、 (C)の画像に示すようなビット制 限を撤廃し、エッジ強調処理後の画素値のビット長を適切な長さに設定する。これに より、図 5 (A)、 (B)、 (C)に示すような血管の濃淡の違いを敏感に表した画像が評価 値取得部 105に供給される。
[0036] ただし、エッジ強調処理後の画素値のビット制限を撤廃すると、上述のように血管の 濃淡を正確に反映した画像が得られる一方で、図 5 (B) , (C)に示すように、テンプレ ートとして不要な指の輪郭部分のエッジも強調されてしまう。特に被写体 FGの背景が 明るい場合には、血管よりも輪郭が強く現れてしまう。輪郭が強調され過ぎると、仮に 輪郭に沿って正確に被写体 FGを切り取るマスクを作成しても、輪郭カゝら更に内側の 部分にまで輪郭の影響が及んで 、るため、評価値 Evの信頼性が低下してしまう。 そこで、次に述べる領域特定部 103では、輪郭部分の影響を排除した状態で評価 値 Evが取得されるように、指の輪郭より確実に内側の領域を切り出すマスクを作成す る。
[0037] 領域特定部
領域特定部 103は、マスク作成部 102において作成されたマスクの更に内側の領 域を特定し、この特定した領域をエッジ強調処理後の画像から切り出す評価値取得 用のマスクを作成する。
[0038] 図 6 (A)、 (B)は、図 4 (A)、(B)、 (C) ,図 5 (A)、(B)、 (C)に示す撮像画像から被 写体 FGの内側の領域を特定する例を示す図である。
図 6 (A)は、マスク作成部 102において作成されるマスクの一例を示す。図 6 (A)の 黒い部分はマスクによって除去される領域を示し、白い部分はマスクによって切り取 られる領域を示す。
図 6 (B)は、領域特定部 103において特定される被写体 FGの内側の領域の一例 を示す。図 6 (B)の白い部分は、領域特定部 103において特定される被写体 FGの 内側の領域を示す。また、灰色の部分は、図 6 (A)に示すマスクの境界線より内側で あって、領域特定部 103において特定される領域力もは除外される部分を示す。
[0039] 図 6 (A)、 (B)の例において、マスク作成部 102が作成したマスクの境界線は、上下 左右の 4つの辺から構成されて!、る。マスクの境界線がこのように複数の辺から構成 されている場合、領域特定部 103は、例えばこれらの辺を境界線より内側へそれぞ れ所定の距離だけ移動させる。そして、移動後の各辺によって囲まれた領域を、被写 体 FGの内側の領域として特定する。図 6 (B)の例では、上側の辺を画像の下方向へ 、下側の辺を画像の上方向へ、それぞれ距離 d だけ移動するとともに、左側の辺を
LR
画像の右方向へ、右側の辺を画像の左方向へ、それぞれ距離 d
UDだけ移動する。そ して、移動後の 4つの辺に囲まれた領域を、被写体 FGの内側の領域として特定する
[0040] このように領域特定部 103によって特定される領域は、被写体 FGの輪郭力も確実 に離れる。そのため、図 5 (B) , (C)に示すように輪郭の画素値が異常に高い場合で も、その影響が領域の内部にほとんど及ばなくなる。したがって、エッジ強調処理後 の画像から、領域特定部 103によって特定される領域のみをマスク処理によって切り 出せば、輪郭の影響が排除された純粋な血管の像を得ることができる。
[0041] 上述のように被写体 FGの輪郭より内側の部分をマスク処理で切り出した場合、輪 郭の近傍にある血管の像は、評価値 Evを求める際の対象から排除される。すなわち 、血管の情報の一部が失われてしまうことになる。し力しながら、輪郭近傍に存在する 血管の像は、指の置き方に応じて変化し易ぐ例えば指を少し回転するだけで撮像 画像に表れなくなる。このような血管の像は、そもそも生体認証処理 (テンプレート登 録処理や照合処理など)には相応しくない像であるから、これをマスク処理によって 排除した結果力 評価値 Evを求めても不都合は生じない。
[0042] 評価値取得部
評価値取得部 105は、エッジ強調部 104にお 、てエッジを強調された画像に含ま れる画素の値に基づ 、て、撮像部 40から入力した信号処理の対象となる画像に含ま れるエッジの強度及び Z又はエッジの量に関する評価値 Evを取得する。例えば、ェ ッジ強調処理後の画像に含まれる全画素の値の合計を算出し、これを評価値 Evとし て取得する。
ただし、本実施形態に係る評価値取得部 105は、エッジ強調処理後の画像に含ま れる全画素のうち、領域特定部 103において特定された被写体 FGの内部領域に含 まれる画素の値に基づ 、て評価値 Evを取得し、この領域外の画素の値は評価値 Ev の決定に際して利用しない。すなわち、領域特定部 103によって作成されたマスクに より切り出される、純粋な血管像を含んだ領域の画素値に基づいて、評価値 Evを取 得する。
[0043] 07 (A)、 (B)、 (C)は、図 5 (B)に示すエッジ強調処理後の画像から、図 6 (B)に 示すマスクによって被写体 FGの内側の領域を切り出す例を示す図である。
07 (A)はエッジ強調処理前の画像を示す。また図 7 (B) , (C)は、エッジ強調処理 後の画像カゝら被写体 FGの内側領域をマスク処理によって切り出した画像を示す。 エッジ強調処理後の画像力も領域特定部 103で特定された領域のみを切り出すと 、図 7 (B) , (C)の画像に示すように被写体 FGの輪郭の影響が排除され、被写体 FG の内部に存在する血管の像だけが浮き彫りになる。この血管の像においては、元の 画像における血管の太さや濃さに応じて画素値が大きく変化している。
評価値取得部 105は、このように血管の濃淡の状態が適切に反映された画像にお ける画素値の合計を、評価値 Evとして算出する。この評価値 Evは、テンプレート登 録処理や照合処理に相応しい被写体 FGの特徴を示す値となる。
[0044] 図 8 (A)、 (B)、 (C)、 (D)は、撮像部 40にお ヽて撮像された画像に被写体 FGが 含まれる場合と含まれな!/、場合の一例を示す図である。
図 8 (A)は、被写体 FGを含む撮像画像を示し、図 8 (C)は、図 8 (A)に示す画像に エッジ強調処理とマスク処理を施した後の画像を示す。
図 8 (B)は、被写体 FGを含まない撮像画像を示し、図 8 (D)は、図 8 (B)に示す画 像にエッジ強調処理とマスク処理を施した後の画像を示す。
[0045] 図 8 (A)の画像には指の内部の血管が綺麗に映し出されているため、これにエッジ 強調処理とマスク処理を施した図 8 (C)の画像では、血管の部分に局所的に強いェ ッジが集中している。一方、図 8 (B)に示す画像には血管の像が全く映し出されてお らず、濃淡が乏しいため、これにエッジ強調処理とマスク処理を施した図 8 (D)の画 像では、弱いエッジが全体に散在し、血管の像に対応する明確なエッジが現れてい ない。
両者の画素値の合計を比較すると、図 8 (C)の画像は' 2434244'、図 8 (D)の画 像は' 1177685,となった。このように、被写体 FGを含む場合と含まない場合とでは 、画素値の合計に大きな差異がある。したがって、評価値取得部 105により取得され る評価値 Ev (すなわちエッジ強調処理及びマスク処理を施した画像の画素値の合計 )は、その値の違いによって、被写体 FGの有無を表すことができる。
[0046] 図 8 (C)と図 8 (D)を比較すると、被写体 FGを含まな ヽ画像は被写体 FGを含む画 像に比べて画素値の小さい画素(すなわち弱いエッジ)が多く含まれており、画素値 の大きい画素(すなわち強いエッジ)が少なくなつている。そこで、評価値取得部 105 は、単に全部の画素値を合計するのではなぐあるしきい値より大きい画素値のみを 合計し、これを評価値 Evとして取得しても良い。すなわち、エッジ強調部 104におい てエッジを強調された画像に含まれる全画素(ただし領域特定部 103によって特定さ れた領域内)のうち、エッジの強度が所定しきい値を超える画素の値の合計に基づい て、評価値 Evを取得しても良い。これにより、被写体 FGを含む場合と含まない場合 の評価値 Evの違いを、より一層際立たせることができる。
[0047] 図 9は、図 8 (C)に示す画像 (被写体 FGを含む場合)における画素値の分布と、図 8 (D)に示す画像 (被写体 FGを含まない場合)における画素値の分布とを比較した 図である。横軸は画素値を示し、縦軸は画素数を示す。
撮像画像に被写体 FGが含まれて 、な 、場合、エッジ強調処理とマスク処理を施し た後の画像には、一定の画素値(図 9の例では' 500' )より小さい範囲にほとんど画 素が分布している。一方、撮像画像に被写体 FGが含まれている場合は、小さい画素 値から大き 、画素値まで広 、範囲に画素が分布して 、る。
[0048] 図 10 (A)〜(D)は、エッジ強調処理後の画像において、しきい値以下の画素値を ゼロにする場合とゼロにしな 、場合とを比較した図である。 図 10 (A) , (B)は、図 8 (C) , (D)と同じ画像であり、しきい値以下の画素値をゼロ にしな 、場合の画像を示す。
図 10 (C) , (D)は、それぞれ図 10 (A) , (B)の画像に含まれるしき 、値' 255 '以下 の画素値を全てゼロにした場合の画像を示す。
撮像画像に被写体 FGが含まれる場合は、図 10 (A)と図 10 (C)を比較して分かる ように、しきい値以下の画素値をゼロにしてもエッジの主要な特徴、すなわち血管の 像が維持されている。これに対し、撮像画像に被写体 FGが含まれていない場合は、 図 10 (B)と図 10 (D)を比較して分力るように、しきい値以下の画素値をゼロにすると エッジの大半が消えてしまい、エッジの特徴が大きく変化する。
[0049] 図 11は、図 10 (A)〜(D)に示す画像にお 、てしき 、値 ' 255,以下の画素値をゼ 口にした場合の評価値 (画素値の合計)としき!/、値を設けな!/、場合の評価値とを比較 した図である。
しき 、値を設けな 、場合、被写体 FGを含む画像(図 10 (A) )の評価値 Evは ' 243 4244'、被写体を含まない画像(図 10 (B) )の評価値 Ενは' 1177685'となった。こ れに対して、しきい値' 255'以下の画素値をゼロにした場合、被写体 FGを含む画像 (図 10 (C) )の評価値 Evは ' 2145659'、被写体 FGを含まな 、画像(図 10 (D) )の 評価値 Evは' 117921 'になった。この図 11から明らかなように、エッジ強調処理後 の画像において所定のしきい値以下の画素値を除外して評価値 Evを算出すること により、被写体 FGの有無に応じた評価値 Evの差異をより明確にすることができる。
[0050] 判定部
判定部 106は、評価値取得部 105において取得された評価値 Evに基づいて、マス ク作成部 102で作成されたマスクが適切に被写体 FGの像を切り出している力否かを 判定する。例えば、所定のしきい値と評価値 Evとを比較し、当該比較結果に応じて、 血管の像を切り出して 、る力否か判定する。
[0051] 登録部
登録部 107は、マスク作成部 102で作成されたマスクが適切に被写体 FGの像を切 り出して 、ると判定部 106にお 、て判定された場合、このマスクを用いて撮像画像に マスク処理を施し、マスク処理された画像から血管パターンの情報を抽出し、これを テンプレート DATとして記憶部 60に格納する。
また、登録部 107は、判定部 106においてマスクが血管の像を切り出していないと 判定された場合、上記のテンプレート登録処理を停止する。
[0052] 照合部
照合部 108は、マスク作成部 102で作成されたマスクが適切に被写体 FGの像を切 り出して 、ると判定部 106にお 、て判定された場合、このマスクを用いて撮像画像に マスク処理を施し、マスク処理された画像から血管パターンの情報を抽出し、この抽 出した情報と記憶部 60に格納されるテンプレート DATと照合する。
また、照合部 108は、判定部 106においてマスクが血管の像を切り出していないと 判定された場合、上記の照合処理を停止する。
[0053] マスク作成部 102のより詳細な構成について説明する。
図 12は、マスク作成部 102の構成の一例を示す図である。マスク作成部 102は、ェ ッジ抽出部 201と、画素抽出部 202と、中間点抽出部 203と、区分部 204と、近似線 取得部 205と、中間点抽出部 206と、境界線取得部 207, 208と、マスク生成部 209 とを有する。
エッジ抽出部 201は、本発明のエッジ抽出部およびエッジ抽出手段の一実施形態 である。
画素抽出部 202は、本発明の画素抽出部および画素抽出手段の一実施形態であ る。
中間点抽出部 203は、本発明の第 1の中間点抽出部および第 1の中間点抽出手 段の一実施形態である。
区分部 204は、本発明の区分部および区分手段の一実施形態である。 近似線取得部 205は、本発明の近似線取得部および近似線取得手段の一実施形 態である。
中間点抽出部 206は、本発明の第 2の中間点抽出部および第 2の中間点抽出手 段の一実施形態である。
境界線取得部 207は、本発明の第 1の境界線取得部および第 1の境界線取得手 段の一実施形態である。 境界線取得部 208は、本発明の第 3の境界線取得部および第 3の境界線取得手 段の一実施形態である。
[0054] エッジ抽出部
エッジ抽出部 201は、画像取得部 101において取得された撮像画像 Spのエッジを 抽出する。エッジの抽出には種々の手法を用いることが可能である力 ここでは一例 として' sobelオペレータ'を利用してエッジの画素を抽出する例を説明する。 ' sobel オペレータ'は、ノイズ耐性を有する汎用的なエッジ抽出用のオペレータであり、エツ ジ抽出対象の画像 Iに対して次式に示す 2つのフィルタ f , f を適用する。
H G
[0055] [数 1]
Figure imgf000021_0001
[0056] フィルタ f , f によって計算された画素値をそれぞれ' g ' , 'g,とすると、エッジ評
H G H V
価値 gは次のようになる。
[0057] [数 2]
Figure imgf000021_0002
[0058] ある画素のエッジ評価値 gが所定のしきい値 g より大きい場合、この画素はエッジ thr
を構成する画素(以下、エッジ画素と呼ぶ)と判定され、しき 、値 g
thrより小さ 、場合は
、エッジ画素でないと判定される。
[0059] 画素抽出部
画素抽出部 202は、エッジ抽出部 201においてエッジを抽出された画像から、被写 体 FGの上側の輪郭を形成していると予想されるエッジ画素の列(第 1画素の列)、並 びに、被写体 FGの下側の輪郭を形成していると予想されるエッジ画素の列(第 2画 素の列)をそれぞれ抽出する。
[0060] 以下の記述では、画像の平面上における各画素の位置を、直交座標によって表す ものとする。そして、例えば図 2において画像の横に並ぶ数値が表すように、画像の 上側の縁にぉ 、て横に伸びる座標軸を X軸、画像の左側の縁にぉ 、ての縦に伸び る座標軸を y軸とする。
このように座標軸を定義した場合に、画像平面上には、画素抽出の際の基準となる 2種類の基準直線 (第 1基準直線、第 2基準直線)が設定される。
第 1基準直線は、通常の条件で撮像が行われた場合に被写体 FGの像の内部を通 るように設定される。例えば、画像の y座標の中心付近を通り、 X軸と平行な直線に設 定される。
第 2基準直線は複数本存在し、その各々が y軸と平行な直線に設定される。複数の 第 2基準直線は、好適には一定の間隔で配列される。
[0061] 上記のような基準直線が設定されているものとすると、画素抽出部 202は、第 1基準 直線より上の領域 (第 1領域)に含まれるエッジ画素の中で、上述した第 2基準直線に 位置するエッジ画素であって、同じ第 2基準直線上にエッジ画素が複数ある場合は その中で最も第 1基準直線に近いエッジ画素を、第 1画素として抽出する。また、第 1 基準直線より下の領域 (第 2領域)に含まれるエッジ画素の中で、第 2基準直線に位 置するエッジ画素であって、同じ第 2基準直線上にエッジ画素が複数ある場合はそ の中で最も第 1基準直線に近いエッジ画素を、第 2画素として抽出する。
例えば、画素抽出部 202は、第 1基準直線と第 2基準直線との交点から上方向及 び下方向へ順にエッジ画素を探索していき、上方向で初めに見つかったエッジ画素 を第 1画素、下方向で初めに見つかったエッジ画素を第 2画素として抽出する。
[0062] 上記のようにして画素抽出部 202が第 2基準直線ごとに抽出した第 1画素と第 2画 素は、それぞれ、 X軸方向に配列された画素の列を形成する。第 1画素の列は被写 体 FGの上側の輪郭線に対応し、第 2画素の列は下側の輪郭線に対応する。
[0063] 中間点抽出部
中間点抽出部 203は、上述した複数の第 2基準直線の各々において第 1画素と第 2画素との間に位置する中間点の列を抽出する。中間点抽出部 203が抽出する中間 点は、同一の第 2基準直線上に位置する第 1画素力 の距離と第 2画素力 の距離と が所定の比を有する。以下の例において、この中間点は、同一の第 2基準直線に位 置する第 1画素及び第 2画素と等距離にあるものとする。
[0064] 中間点抽出部 203は、複数の第 2基準直線の一部において画素抽出部 202が第 1 画素及び第 2画素の一方若しくは両方を抽出できな力つた場合に、当該一部の第 2 基準直線に隣接する他の第 2基準直線において抽出した中間点に基づいて、当該 一部の第 2基準直線の中間点を補間する。例えば、ある第 2基準直線において中間 点を抽出できない場合、その隣の第 2基準直線において抽出された中間点があれば 、それと同じ y座標の位置に中間点を補間する。
[0065] 区分部
区分部 204は、中間点抽出部 203において抽出された中間点の列を、隣接する中 間点同士が所定の距離内にある 1つ若しくは複数の区間に区分する。すなわち区分 部 204は、連続的に連なる中間点によって 1の区間が形成されるように、抽出された 中間点の列を区分する。
[0066] 近似線取得部
近似線取得部 205は、区分部 204において区分された最長の区間に属する中間 点に基づいて、中間点抽出部 203において抽出された中間点の列の近似線を取得 する。例えば最小自乗法などによって、最長区間を形成する中間点の列に適合する 1次の近似関数 (ある 、は 2次以上の近似関数)を求める。
[0067] 中間点抽出部
中間点抽出部 206は、中間点抽出部 203において抽出された中間点のうち、近似 線取得部 205において取得された近似線との誤差が所定の範囲内にある中間点の 列を抽出する。
[0068] 境界線取得部
境界線取得部 207は、中間点抽出部 206において抽出された中間点と、画素抽出 部 202において抽出された第 1画素及び第 2画素とに基づいて、マスクの上下の境 界線を取得する。すなわち、中間点抽出部 206において抽出された中間点の列と同 じ第 2基準直線に位置する第 1画素の列の近似線に基づいて、マスクの上側の境界 線 (第 1境界線)を取得し、当該第 2基準直線に位置する第 2画素の列の近似線に基 づ 、て、マスクの下側の境界線 (第 2境界線)を取得する。
例えば、第 1画素の列の近似線を第 1基準直線に向力つて所定の距離だけシフトさ せた線をマスクの上側の境界線として取得し、第 2画素の列の近似線を第 1基準直 線に向力つて所定の距離だけシフトさせた線をマスクの下側の境界線として取得する
[0069] また、境界線取得部 207は、中間点抽出部 206において抽出された中間点と、当 該抽出された中間点を挟んで同一の第 2基準直線に位置する第 1画素及び第 2画素 の間隔 (指の幅)とに基づいて、マスクの上側境界線及び下側境界線を取得しても良 い。
例えば、中間点抽出部 206において抽出された中間点の列の近似線と、 X座標値 を変数として上述した第 1画素及び第 2画素の間隔を近似する関数とを算出し、これ らに基づ 、て上下の境界線を取得しても良 、。
[0070] 境界線取得部
境界線取得部 208は、被写体 FGの上下の輪郭線が互いに近づいてくる部分、す なわち指先の部分をマスクによって除外するための境界線を取得する。
境界線取得部 208は、被写体 FGの上下の輪郭線が互いに近づいてくる部分を判 定するため、判定領域を設定する。この判定領域は、 y軸に平行な左右の 2つの辺及 び X軸に平行な上下の 2つの辺に囲まれており、境界線取得部 207で取得された上 側境界線の一部と下側境界線の一部とを両方に含むように上下 2つの辺の位置が決 められている(図 21参照)。
境界線取得部 208は、上記の判定領域を、画像の所定の位置 (例えば中央付近) 力 X軸に沿って右側へ順に移動させ、その移動した各位置において、判定領域に 含まれるエッジ画素の数を計数する。そして、この計数値が所定のしきい値に達する 位置にお ヽて判定領域を通る y軸と平行な線を、マスクの右側境界線として取得する
[0071] 境界線取得部 208は、マスクの右側境界線と同様な方法で、マスクの左側境界線 を取得しても良い。すなわち、判定領域の左移動を行いながら判定領域内のエッジ 画素の計数値としき ヽ値とを比較し、計数値がしき ヽ値に達する位置を探索する。
[0072] マスク生成部
マスク生成部 209は、境界線取得部 207において取得された上下の境界線と、境 界線取得部 208において取得された左右の境界線とに基づいて、マスク画像 Smsk を生成する。例えば、境界線の外側領域の画素値を' 0'、境界線の内側領域の画素 値を' 1 'に設定したマスク画像を生成する。このマスク画像 Smskと、処理対象の画 像との AND演算を行うことにより、処理対象の画像に含まれる被写体 FGの内部領 域が切り出され、他の領域の画素値が' 0'になる。
[0073] 上述した構成を有する本実施形態に係る画像処理装置におけるマスクの作成動作 について、図 13のフローチャートを参照しながら説明する。
[0074] ステップ ST101 :
エッジ抽出部 201において、撮像画像 Spのエッジが抽出される。
図 14 (A)、(B)は、エッジ抽出部 201によってエッジ抽出された画像の一例を示す 図である。図 14 (A)はエッジ抽出前の撮像画像であり、これに' sobelオペレータ'に よるエッジ抽出処理を施した画像が図 14 (B)に図解されている。エッジ抽出後の画 像では、指の輪郭が大まかに抽出されている。
[0075] ステップ ST102 :
撮像画像 Spのエッジが抽出されると、次に画素抽出部 202において、第 1基準直 線より上の領域に含まれる第 1画素の列、並びに、この第 1基準直線より下の領域に 含まれる第 2画素の列が抽出される。第 1画素及び第 2画素は、複数の第 2基準直線 の各々から 1つずつ抽出する。第 1画素は、第 2基準直線上の第 1基準直線より上の 領域において第 1基準直線に最も近いエッジ画素であり、第 2画素は、第 2基準直線 上の第 1基準直線より下の領域において第 1基準直線に最も近い画素である。
[0076] 第 1基準直線の中心から右方向へ順番に並ぶ n本の第 2基準直線を
rO, rl, r2, · ··, rn— 1;
と表し、同じ第 1基準直線の中心力 左方向へ順番に並ぶ m本の第 2基準直線を 10, 11, 12, · ··, lm- 1 ; と表す。
右の (i+ 1)番目の第 2基準直線 riに位置する第 1画素の座標を
(x , y );
と表し、同じ第 2基準直線 riに位置する第 2画素の座標を
(X , y );
と表す。
左の (j + 1)番目の第 2基準直線 ljに位置する第 1画素の座標を
(X , yd )
1] 1] ;
と表し、同じ第 2基準直線 ljに位置する第 2画素の座標を
(X , y )
1] 1] ;
と表す。
[0077] 画素抽出部 202による第 1画素及び第 2画素の抽出は、例えば、画像の横幅の中 心付近力 左方向と右方向へそれぞれ順番に行われる。
右方向へ抽出を行う場合は、まず第 2基準直線 rOが選択される。第 1基準直線と第 2基準直線 rOとの交点力 上下の方向へ順にエッジ画素が探索され、上側で最初に 見つかったエッジ画素が第 1画素 (X , yd )、下側で最初に見つかった画素が第 2画
rO rO
素 (χ , yu )として抽出される。
rO rO
第 2基準直線 rOにおける画素の抽出が終わると、次にその右隣の第 2基準直線 rl が選択され、これと第 1基準直線との交点力 上下の方向へ順にエッジ画素が探索さ れる。上側で最初に見つかったエッジ画素が第 1画素 (X , yd )、下側で最初に見つ
rl rl
かった画素が第 2画素 (x , y11 )として抽出される。
rl rl
以下、同様な処理が右端の第 2基準直線 rn— 1まで行われると、次には第 2基準直 線 10, 11, · ··, lm—lの順に中心力 左方向へ処理が行われる。
[0078] ステップ ST103 :
画素抽出部 202において第 1画素及び第 2画素が抽出されると、中間点抽出部 20 3では、第 1画素及び第 2画素の中間点が抽出される。
第 2基準直線 rOに位置する中間点 C は、第 1画素 (X , yd )及び第 2画素 (x , yu
rO rO rO rO rO
)に基づいて、次式のように表される。 [0079] [数 3] ^n ,rQ XrQ,
[0080] ステップ ST103における中間点の抽出は、例えば、ステップ ST102における第 1 画素及び第 2画素の抽出と並列に行われる。
[0081] この中間点の抽出と並行して、境界線取得部 207においては、後のステップ ST10
7で用いる第 1画素及び第 2画素の距離 (以下、指幅と呼ぶ)が算出される。
第 2基準直線 rOにおける指幅 Wは、第 1画素 (X , yd )及び第 2画素 (x , y11 )に
r0 rO rO rO rO 基づいて、次式のように表される。
[0082] [数 4]
^ro = y"o - y · ' · · (5)
[0083] 第 1画素及び第 2画素は、全ての第 2基準直線上において常に対をなして抽出され るとは限らない。例えば被写体 FGの輪郭が不鮮明になっていると、第 2基準直線の 一部において、対となる第 1画素及び第 2画素の一方若しくは両方が存在しない可 能性がある。そのような場合、中間点抽出部 203では、当該一部の第 2基準直線に 隣接する他の第 2基準直線において抽出された中間点に基づいて、当該一部の第 2 基準直線の中間点が補間される。
[0084] 図 15は、図 14 (B)に示すエッジ抽出後の画像に対して行われた中間点の抽出処 理の一例を示す図である。
図 15において、丸の点は 2つの画素(第 1画素、第 2画素)の座標から求められた 中間点を示し、三角の点は補間によって求められた中間点を示す。
[0085] 図 15の例では、第 2基準直線 ri+ 1において第 1画素 (X , yd )は抽出されてい
ri+1 ri+1
るが第 2画素 (X , yu )は抽出されていない。他方、その隣の第 2基準直線 riにお
ri+1 ri+1
いては、第 1画素 (X , yd )及び第 2画素 (X , y )が共に抽出されている。この場合、 中間点抽出部 203では、第 2基準直線 ri+ 1の中間点 C を、第 2基準直線 riの中間
ri+1
点じと同じ y座標を有する点に補間する。 [0086] [数 5]
Figure imgf000028_0001
[0087] この場合、第 2基準直線 ri+1における指幅 Wrfは、抽出された第 1画素 (:
と補間された中間点 C とに基づいて、次式のように補間される。
ri+1
[0088] [数 6]
Figure imgf000028_0002
[0089] 以上の処理により、右方向に探索した n個の中間点 C , ···, C 及び n個の指幅 W r0 rn-1
, ···, W と、左方向に探索した m個の中間点 C , ···, C 及び m個の指幅 W , r0 rn-1 10 lm— 1 10
…, W とが求められる。
lm-1
これらを X座標値の昇順に並べて表すと、次式のようになる。
[0090] [数 7]
= M m-li^25-"^/0,H'r0,Wrl,---,Wm_2,Wri!1 .·'·(9)
[0091] ステップ ST104:
中間点の列(C , ···, C , C , ···, C )が抽出されると、次に区分部 204では、 lm-1 10 r0 rn-1
指の中心線に対して明らかにずれて 、る中間点を見分けるために、中間点の列を連 続区間に区分する。すなわち、中間点抽出部 203において抽出された中間点の列を 、隣接する中間点同士が所定の距離内にある 1つ若しくは複数の区間に区分する。 第 2基準直線が等 、間隔 dxで並んで 、るものと仮定すると、隣接する 2つの中間 点じ及び C の距離は、次式で表される y座標のずれ dyによって評価できる。
k k+1 k
[0092] [数 8] dyk (10)
Figure imgf000028_0003
[0093] 上式にぉ 、て、 '(C ) ,は中間点 Cの y座標を表す。 y座標のずれ dyが所定のしき k y k k
い値 dy よりも大きい場合、中間点 C及び C の間で連続区間が区切られる。
thr k k+1
図 16は、図 15に示す中間点の列が区分部 204によって連続区間に区分される例 を示す図である。図 16の例では、 3つの連続区間(左力も順に Al, A2, A3)に区分 されている。
[0094] ステップ ST105 :
中間点の列(C , · ··, C , C , · ··, C )が連続区間に区分されると、次に近似線 lm-1 10 r0 rn-1
取得部 205では、区分された連続区間(1つのみの場合もあり得る)の中で最長の区 間に属する中間点に基づいて、中間点の列(C , · ··, C , C , · ··, C )の近似線 lm-1 10 r0 rn-1 を取得する。例えば、最長の連続区間を 'P'とし、その区間を構成する第 p番目の中 間点 Cから第 q番目の中間点 C (C , C , · ··, C , C )に基づいて、例えば 1次関
P q p p+1 q-1 q
数 (直線)の近似線が計算される。
[0095] 図 17は、近似線取得部 205によって取得される近似線の一例を示す図である。図 17 (A)は、 3つの連続区間 Al, A2, A3に区分された中間点の列を示し、図 17 (B) は、そのうちの最長区間 A1に基づ 、て取得される近似線を示す。
[0096] ステップ ST106 :
近似線取得部 205において中間点の最長の連続区間に基づく近似線が取得され ると、次に中間点抽出部 206では、中間点抽出部 203において抽出された全体の中 間点(C , · ··, C , C , · ··, C )の中から、近似線取得部 205において取得され lm-1 10 r0 rn-1
た近似線との誤差が所定の範囲内にある中間点の列が抽出される。
[0097] 図 17 (A)、(B)の例では、指の形状を表すエッジが比較的綺麗に抽出されている 力 指中央部に別のエッジが抽出されており、そのため指の形状の誤認識が生じて いる。
このような誤認識が生じると、指の幅が他の部分に比べて著しく異なったり、指の中 心線が実体力も大きくずれる。そこで、中間点抽出部 206では、比較的正しく指の中 心線を表していると推定される近似線取得部 205の近似直線と、中間点抽出部 203 において抽出された各中間点との誤差が算出される。そして、この誤差が所定のしき い値 dL より大きい中間点については、指の中心線を構成しない中間点と見なされ て、次のステップ ST107で用いる中間点の候補から除外される。
[0098] 図 17 (B)の例において、中央部の連続区間 A2は、近似線取得部 205で取得され た連続区間 A1に基づく近似線に対して著しくずれている。そのため、この例では中 間点抽出部 206によって中央部の連続区間 A2が除外され、他の連続区間 A1及び A3が抽出されている。
[0099] ステップ ST107 :
最長の連続区間に基づく近似線との誤差が所定範囲内にある中間点の列が抽出 されると、次に境界線取得部 207では、中間点抽出部 206において抽出された中間 点の列と同じ第 2基準直線に位置する第 1画素の列の近似線に基づいて、マスクの 上側の境界線 (第 1境界線)が取得され、当該第 2基準直線に位置する第 2画素の列 の近似線に基づいて、マスクの下側の境界線 (第 2境界線)が取得される。
ここで、中間点抽出部 206により抽出された Z個の中間点の列を改めて
C , c , · ··, C ;
0 1 z-l
と表し、これに対応する Z個の指幅を改めて
Z , C , · ··, C ;
0 1 z-l
と表す。境界線取得部 207では、この Z個の中間点に基づいて、指の中心の近似線 (例えば 1次関数)を求めるとともに、 Z個の指幅に基づいて、 X座標を変数とする指幅 の近似関数 (例えば 1次関数)を求める。
[0100] 図 18 (A)は、最長連続区間の中間点のみに基づいて取得される近似線を示し、図 18 (B)は、中間点抽出部 206において抽出された中間点に基づいて取得される近 似線を示す。
両者を比較して分力るように、中間点抽出部 206で抽出された中間点に基づいて 近似線を取得することにより、最長連続区間の中間点のみに基づいて近似線を取得 する場合と比べて、中間点と近似線との誤差を全体的に小さくすることができる。
[0101] 図 19は、中間点抽出部 206で抽出された Z個の中間点に対応する Z個の指幅に基 づ 、て取得された、指幅の近似関数(1次関数)の例を示す図である。
[0102] 上述のようにして、中間点の列の近似直線と、指幅の近似関数が求まると、境界線 取得部 207では、これらの近似に基づいてマスクの上下の境界線が取得される。 x座標の値が' i' (i=0, · ··, 319)のとき、上述の近似計算によって得られる中間点 の y座標を' C '、指幅の y座標を' w '、指の上側輪郭の y座標を 'E '、指の下側輪 βの y座標を 'E 'とすると、次式の関係が成立する c
[0103] [数 9]
W Ft
^Di = Cfi一 (11)
2
Figure imgf000031_0001
図 20 (A)は、式(11) , (12)に基づいて求められた指の上側輪郭の近似線 (y座標 が' 100 '付近)及び下側輪郭の近似線 (y座標が ' 200,付近)をプロットした図である 図 20 (A)の近似線は、指の輪郭とよく一致している力 これをそのままマスクの境 界線に用いると、輪郭に現れる強いエッジに血管の像が影響を受ける可能性がある 。そこで、指の上側輪郭の近似線を所定のオフセット Ofsだけ下方向へシフトし、指の 下側輪郭の近似線をオフセット Ofsだけ上方向へシフトするように、式(11) , (12)を 修正する。
[0105] [数 10]
Figure imgf000031_0002
[0106] 境界線取得部 207においては、例えばこの式(13) , (14)に基づく近似線力 マス クの上下の境界線として取得される。この境界線により、指の上下の輪郭から内側の 部分の画像を切り出すことが可能となる。
[0107] ステップ ST108 :
上記の処理によってマスクの上下の境界線が取得されると、次に境界線取得部 20 8では、指先力 外部を除外するための左右の境界線が取得される。
[0108] 図 21 (A)、(B)、(C)は、境界線取得部 208において左右の境界線を取得する処 理を説明するための図である。図 21 (A)は、指先を含んだ撮像画像を示す。図 21 ( B)は、この撮像画像にエッジ抽出処理を施した画像を示し、図 21 (C)は図 21 (B)の 要部を拡大した図である。
[0109] 境界線取得部 208では、指の上下の輪郭線が互いに近づいてくる部分を判定する ため、図 21 (B) , (C)に示すような判定領域を設定する。この判定領域は、 y軸に平 行な左右の 2つの辺と、 X軸に平行な上下の 2つの辺に囲まれている。
判定領域の中心は、例えば、境界線取得部 207において近似された中間点に設 定される。判定領域の左右の辺は、中間点 (i, C )から、 X軸方向にそれぞれ所定の
Fi
距離 dxだけ離れている。また、判定領域の上下の辺は、境界線取得部 207において 近似された指幅 wの半分に所定の距離 dyを加えた長さ、すなわち' dy+ (w ) /2'
Fi H だけ中間点 (i, C )から離れている。
Fi
このように、設定された判定領域は、図 21 (B) , (C)に示すように、境界線取得部 2 07で取得された上側境界線の一部及び下側境界線の一部を含んでいる。
[0110] 判定領域の中心 (i, C )は、画像の所定の位置 (例えば中央付近)力 X軸に沿つ て右側へ順に移動され、その各位置において、上記のように設定された判定領域に 含まれるエッジ画素の数が計数される。この計数値が所定のしき 、値に達する位置 において判定領域を通る y軸と平行な線 (例えば判定領域の中心 (i, C )を通る線) 力 マスクの右側境界線として取得される。
マスクの左側境界線も、右側境界線と同様な処理によって取得可能である。
[0111] 以上説明したように、本実施形態によれば、まず、撮像された画像のエッジが抽出 される。そして、被写体 FGの像の内部を通るように設定される第 1基準直線の上側の 領域に含まれており、平行な複数の第 2基準直線 (lm—1, · ··, 10, rO, 〜rn— 1)に 位置し、かつ、この第 2基準直線の各々において第 1基準直線に最も近い位置にあ るエッジ画素が、第 1画素として抽出される。また、これと並行して、第 1基準直線の下 側の領域に含まれており、第 2基準直線 (lm—1, · ··, 10, rO, 〜rn— 1)に位置し、か つ、この第 2基準直線の各々において第 1基準直線に最も近い位置にあるエッジ画 素が、第 2画素として抽出される。
このようにして第 1画素及び第 2画素が抽出されると、次に、第 2基準直線 (lm—1, · ··, 10, rO, 〜rn—l)の各々において第 1画素と第 2画素との間に位置し、かつ当該 第 1画素からの距離と当該第 2画素力 の距離とが所定の比を有する中間点の列 (C
1
, · ··, C ,
m - 1 10 c , · ··, C
rO rn— 1 )が抽出される。
この中間点の列 (c , · ··, C ,
lm-1 10 c , · ··, C )は、隣接する中間点同士が所定の
rO rn-1
距離内にある 1つ若しくは複数の区間に区分される。そして、区分された最長の区間 を形成する中間点に基づいて、中間点の列(c , · ··, C ,
lm-1 10 c , · ··, C
rO rn-1 )の近似線 が取得される。
次いで、元の中間点の列(C , · ··, C ,
0 c , · ··, C
rO rn-1 )から、上記の近似線との誤 lm-1 1
差が所定の範囲内にある z個の中間点の列(C , · ··, C )が抽出される。
0 z-1
そして、この z個の中間点の列(C , · ··, C )と同じ第 2基準直線に位置する第 1画
0 z-1
素の列の近似線に基づいて、マスクの上側の境界線が取得され、当該第 2基準直線 に位置する第 2画素の列の近似線に基づ 、て、マスクの下側の境界線が取得される このように、エッジ抽出された画像から、被写体の輪郭に対応する画素の列を抽出 し、その近似線に基づいてマスクの境界線を取得するため、撮像画像ごとにしきい値 を調節しながら画像を 2値ィ匕する方式に比べて簡易な処理でマスクを作成できる。
[0112] 上述した実施形態によれば、第 1基準直線と平行な 2つの辺及び第 2基準直線と平 行な 2つの辺に囲まれ、その内部に第 1境界線の一部及び第 2境界線の一部が含ま れた領域を、撮像画像上の所定位置力ゝら第 1基準直線に対して平行な一の方向へ 順に移動させ、その移動した各位置において、当該領域に含まれるエッジ画素の数 が計数される。そして、当該計数値が所定のしきい値に達する位置において当該領 域を通る第 2基準直線と平行な線力 マスクの境界線として取得される。
これにより、被写体の輪郭に直線的でない複雑な形状の部分 (例えば指先)があつ ても、近似計算を行うことなくその輪郭の内側を切り出す境界線を取得できるため、 処理の簡易化と高速ィ匕を図ることができる。
[0113] 上述した実施形態によれば、撮像画像のエッジが強調され、このエッジ強調後の画 像の中で、マスクにより切り出される被写体の更に内側の領域に含まれる画素の値に 基づいて、当該領域に含まれるエッジの強度及び Z又は量に関する評価値が取得 される。そして、取得された評価値に基づいて、マスクが被写体の像を適切に切り出 して 、る力否かが判定される。
したがって、例えばテンプレート登録処理や認証処理を行って 、る最中に装置から 指を離してしまった場合など、処理対象の被写体像が撮像画像に含まれて!/ヽな ヽこ とを的確に判別できる。これにより、マスク処理の後に続く各種の処理 (テンプレート 登録処理や照合処理など)の無駄な実行を止めることができるため、消費電力を低 減できる。
[0114] 第 2の実施形態
本発明の第 2の実施形態について説明する。
本発明の第 2の実施形態に係る画像処理装置では、エッジ画素の分布に基づ!/、て 被写体の境界線の位置が推定される。
[0115] 図 22は、本実施形態に係る画像処理装置におけるマスク作成部 102Aの構成の 一例を示す図である。マスク作成部 102Aは、エッジ抽出部 211と、境界線取得部 2 12と、画素抽出部 213と、区分部 214と、近似線取得部 215と、画素抽出部 216と、 境界線取得部 217, 218と、マスク生成部 219とを有する。
エッジ抽出部 211は、本発明のエッジ抽出部およびエッジ抽出手段の一実施形態 である。
境界線取得部 212は、本発明の第 2の境界線取得部および第 2の境界線取得手 段の一実施形態である。
画素抽出部 213は、本発明の第 1の画素抽出部および第 1の画素抽出部手段の 一実施形態である。
区分部 214は、本発明の区分部および区分部手段の一実施形態である。 近似線取得部 215は、本発明の近似線取得部および近似線取得手段の一実施形 態である。
画素抽出部 216は、本発明の第 2の画素抽出部および第 2の画素抽出手段の一 実施形態である。
境界線取得部 217は、本発明の第 1の境界線取得部および第 1の境界線取得手 段の一実施形態である。 境界線取得部 218は、本発明の第 3の境界線取得部および第 3の境界線取得手 段の一実施形態である。
[0116] 本実施形態に係る画像処理装置は、図 1に示す画像処理装置 1におけるマスク作 成部 102を、図 22に示すマスク作成部 102Aに置き換えたものであり、他の構成は 図 1に示す画像処理装置と同じである。
以下では、図 22に示すマスク作成部 102Aの各構成要素を述べる。
[0117] エッジ抽出部
エッジ抽出部 211は、先に述べたエッジ抽出部 201と同様な構成要素であり、例え ば ' sobelオペレータ,を用いて撮像画像 Spのエッジを抽出する。
[0118] 境界線取得部
境界線取得部 212は、平行な 2つの辺によって挟まれる帯状の領域を、画像の y軸 に対して平行に移動させ、その移動した各位置において、当該領域に含まれるエツ ジ画素を計数する。そして、その計数値が最も大きくなる位置において当該領域に含 まれる上記辺と平行な線に応じて、マスクの上側の境界線を取得する。
[0119] 画素抽出部
画素抽出部 213は、エッジ抽出部 211においてエッジを抽出された画像から、被写 体 FGの下側の輪郭を形成して ヽると予想されるエッジ画素の列を抽出する。すなわ ち、画素抽出部 213は、境界線取得部 212において取得されたマスクの上側の境界 線より下の領域に含まれており、所定の複数の第 2基準直線に位置し、かつ、第 2基 準直線の各々において第 1基準直線と最も近い位置にあるエッジ画素を抽出する。 例えば、画素抽出部 213は、マスクの上側境界線と第 2基準直線との交点から下方 向へ順にエッジ画素を探索していき、初めに見つ力つたエッジ画素を抽出する。
[0120] 上記のようにして画素抽出部 213が第 2基準直線ごとに抽出したエッジ画素は、そ れぞれ、 X軸方向に配列されたエッジ画素の列を形成しており、被写体 FGの下側の 輪郭線に対応する。
[0121] 区分部
区分部 214は、画素抽出部 213において抽出されたエッジ画素の列を、隣接する エッジ画素同士が所定の距離内にある 1つ若しくは複数の区間に区分する。すなわ ち区分部 214は、連続的に連なるエッジ画素によって 1まとまりの区間が形成されるよ うに、抽出されたエッジ画素の列を区分する。
[0122] 近似線取得部
近似線取得部 215は、区分部 214において区分された最長の区間に属するエッジ 画素に基づいて、画素抽出部 213で抽出されたエッジ画素の列の近似線を取得す る。例えば最小自乗法などによって、最長区間を形成するエッジ画素の列に適合す る 1次の近似関数 (あるいは 2次以上の近似関数)を求める。
[0123] 画素抽出部
画素抽出部 216は、画素抽出部 213において抽出されたエッジ画素のうち、近似 線取得部 215にお 、て取得された近似線との誤差が所定の範囲内にあるエッジ画 素の列を抽出する。
[0124] 境界線取得部
境界線取得部 217は、画素抽出部 216において抽出されたエッジ画素の列の近似 線に基づいて、マスクの下側の境界線を取得する。
例えば、画素抽出部 216において抽出されたエッジ画素の列の近似線を、マスク の上側の境界線に向力つて所定の距離だけシフトさせた線を、マスクの下側の境界 線として取得する。
[0125] 境界線取得部
境界線取得部 218は、先に説明した境界線取得部 208と同様な動作によって、被 写体 FGの上下の輪郭線が互いに近づいてくる部分、すなわち指先の部分をマスク によって除外するための境界線を取得する。
[0126] マスク生成部
マスク生成部 219は、先に説明したマスク生成部 209と同様な動作により、境界線 取得部 212, 217, 218で取得される境界線を有したマスク画像 Smskを生成する。
[0127] 上述した構成を有する本実施形態に係る画像処理装置におけるマスクの作成動作 について、図 23のフローチャートを参照しながら説明する。
[0128] ステップ ST201 :
エッジ抽出部 201において、撮像画像 Spのエッジが抽出される。 [0129] ステップ ST202 :
撮像画像 Spのエッジが抽出されると、次に境界線取得部 212において、被写体 F Gの上側の境界線が取得される。
[0130] 図 24 (A)、 (B)は撮像画像とそのエッジ抽出後の画像の一例を示す図である。
図 24 (A)、 (B)にお 、て、点線で囲まれた領域は、撮像装置の指との接触面であり 、図の例では、この接触面より上の領域 (y座標が小さい領域)に指は存在しない。
[0131] 図 24 (A)、(B)に図解した例において、撮像装置と指の接触面は平坦であり、指の 形状に影響されない。また、接触面は、撮像画像の X軸方向とほぼ水平であり、エツ ジ抽出された画像にぉ 、ても、接触面のエッジ画素は X軸と水平な方向に配列される 。そこで、境界線取得部 212においては、この接触面に対応する境界線を、 X軸に水 平な直線として取得する処理が行われる。
[0132] 接触面のエッジを構成する画素が X軸とほぼ水平な方向に配列される場合、 y座標 ごとのエッジ画素の数を計数すると、接触面の位置にぉ 、てエッジ画素の数が急激 に大きくなる。したがって、 y座標ごとのエッジ画素の数が最大になる位置に基づいて 、接触面の境界線を検出することが可能である。
[0133] ただし、指の下側の輪郭 (y座標が大きい領域)が著しく平らになっていると、接触 面ではなく下側の輪郭で計数値が最大になる可能性がある。このように、上下の輪郭 の位置において画素数の分布がピークを持っており、どちらのピークが接触面による ものカゝを計数値だけで推定できない場合には、上下のどちらに撮像装置と指の接触 面があるのかを予め把握して 、る必要がある。
図 24 (A)、(B)の例では、画像の上側の輪郭が装置と指の接触面である。
[0134] 図 25 (A)、 (B)は、エッジ画素の y座標ごとの分布例を示す図である。
図 25 (A)は、エッジ抽出後の画像であり、図 25 (B)は、この画像に含まれるエッジ 画素の数を y座標ごとに計数した分布図を示す。エッジ画素数が最大となる y座標の 直線と、接触面によって形成されるエッジの輪郭線とがよく一致している。
[0135] し力しながら、図 25 (B)の分布図を見ると、画素数の変化が非常に激しくなつてい る。この例ではうまく接触面を検出できている力 微妙に接触面が斜めになつている 場合などでは、最大値のピークが分布図において綺麗に現れなくなり、接触面のエツ ジを誤って抽出する可能性がある。そこで、本実施形態に係る境界線取得部 212で は、図 25に示すように y座標ごとに画素数を求めるのでなぐある程度の幅を持った 領域内、すなわち注目する y座標の前後の座標を含んだ領域 (X軸と並行な帯状の 領域)に含まれるエッジ画素が計数される。
[0136] 図 26 (A)、 (B)は、エッジ画素の計数を行う領域の例を図解した図である。
図 26 (A)において点線で囲まれた領域は、エッジ画素の計数を行う領域を示す。 また図 26 (B)は、図 26 (A)において円で囲まれた領域を拡大した図である。
図 26 (A)、(B)の例では、注目している y座標 (y= 100)の前後に幅 d (d = 5)を
y y 持つ領域が、エッジ画素の計数を行う領域として設定されている。つまり、
100— d ≤ y ≤ 100 + d ;
y y
の領域内に含まれるエッジ画素の数が計数される。このように計数範囲に幅を持た せること〖こよって、エッジ抽出された画像に多少の乱れが生じていても、接触面の位 置を安定に求めることが可能となる。
[0137] 図 27 (B)は、図 26に示す領域^ y軸に対して平行に移動させながら、その領域内 に含まれるエッジ画素を計数した結果の一例を示す図である。
図 27 (B)からも分力るように、 y軸方向に幅を持った領域内の画素数を計数するこ とによって、画素数の激しい変化が緩和され、かつ最大ピークの位置 (y= 92)が明 瞭に現れている。
ただし、 y軸方向に幅 d (d = 5)を持たせたことにより、 y軸方向にその分の幅が生
y y
じるため、マスクの境界線は、最大ピークの位置よりオフセット d (d = 10)だけ下側
ofs ofs
に設定されている(図 27 (A) )。これにより、マスクの上側の境界線が被写体 FGの境 界より内側に設定される。
[0138] ステップ ST203 :
上述のようにしてマスクの上側の境界線が取得されると、次に画素抽出部 213にお V、て、被写体 FGの下側の輪郭を形成して 、ると予想されるエッジ画素の列が抽出さ れる。すなわち、マスクの上側の境界線より下の領域に含まれており、所定の複数の 第 2基準直線に位置し、かつ、第 2基準直線の各々において第 1基準直線と最も近 い位置にあるエッジ画素が抽出される。 例えば、マスクの上側境界線と第 2基準直線との交点から下方向へ順にエッジ画素 が探索され、初めに見つ力つたエッジ画素が抽出される(図 28 (A) )。
このようなエッジ画素が、第 2基準直線ごとに 1つずつ抽出される。もし、ある第 2基 準直線上にエッジ画素がない場合は、その隣の第 2基準直線において抽出されたェ ッジ画素と同じ y座標を有するエッジ画素を、エッジ画素のな!、第 2基準直線上に補 間しても良い。
[0139] ステップ ST204 :
ステップ ST203においてエッジ画素の列が抽出されると、次に区分部 214では、指 の輪郭線に対して明らかにずれているエッジ画素を見分けるために、エッジ画素の 列の連続区間を求める。すなわち、画素抽出部 213において抽出されたエッジ画素 の列を、隣接するエッジ画素同士が所定の距離内にある 1つ若しくは複数の区間に 区分する。
[0140] ステップ ST205 :
エッジ画素の列が連続区間に区分されると、次に近似線取得部 215では、区分さ れた連続区間( 1つのみの場合もあり得る)の中で最長の区間に属するエッジ画素に 基づいて、エッジ画素の列の近似線を取得する。
[0141] ステップ ST206 :
近似線取得部 215においてエッジ画素の最長の連続区間に基づく近似線が取得 されると、次に画素抽出部 216では、画素抽出部 213において抽出された全体のェ ッジ画素の中から、近似線取得部 205において取得された近似線との誤差が所定の 範囲内にあるエッジ画素の列が抽出される。
[0142] ステップ ST207 :
最長の連続区間に基づく近似線との誤差が所定範囲内にあるエッジ画素の列が抽 出されると、次に境界線取得部 217では、画素抽出部 216において抽出されたエツ ジ画素の列の近似線に基づ 、て、マスクの下側の境界線が取得される。
すなわち、画素抽出部 216において抽出されたエッジ画素の列の近似線 (例えば 1 次関数による直線)を所定のオフセットだけ上方向へシフトしたもの力 マスクの下側 の境界線として取得される(図 28 (B) )。 [0143] ステップ ST208 :
上記の処理によってマスクの上下の境界線が取得されると、次に境界線取得部 20 8では、指先力 外部を除外するための左右の境界線が取得される。この手法は、例 えば、先に説明したステップ ST108と同様である。
[0144] 以上説明したように、本実施形態によれば、マスクの境界線をエッジ画素の分布に 基づいて取得することにより、近似線の計算が必要な場合に比べて処理を簡易化で きるため、より高速にマスクを作成することができる。
[0145] 他方、本実施形態のように、装置と被写体 FGとの接触面が固定の場合には、その 位置に対応するマスクの境界線も固定してしまう方法が考えられる。し力しながら、こ の方法では、装置の組立ての違いや、装置にカ卩えられる振動または衝撃などに応じ て、撮像される接触面がばらつく可能性があり、適切なマスクを安定に作成できない 。したがって、本実施形態のように、エッジ画素の分布に基づいてマスクの境界線を 取得すれば、処理をあまり複雑化することなぐ適切なマスクを安定に作成することが 可能となる。
[0146] 以上、本発明の幾つかの実施形態について説明した力 本発明は上記の形態の みに限定されるものではなぐ種々の変形態様を含んでいる。
[0147] たとえば、第 1の実施形態では、中間点の近似線と指幅 (第 1画素と第 2画素との距 離)の近似関数に基づいてマスクの境界線を求める方法が例示されている力 本発 明はこれに限定されない。例えば、中間点抽出部 206において抽出された中間点の 列に対応する第 1画素の列及び第 2画素の列について、それぞれ個別に近似直線 を算出しても良い。
[0148] たとえば、第 1の実施形態では、中間点の連続区間を求めているが、本発明はこれ に限定されない。例えば、画素抽出部 202で抽出される第 1画素の列及び第 2画素 の列のそれぞれを、図 22に示す区分部 214、近似線取得部 215、画素抽出部 216 及び境界線取得部 217と同様のブロックによって処理すれば、マスクの上側境界線 と下側境界線を個々に取得できる。
[0149] 上述の実施形態では、エッジ強調処理及びマスク処理を施した後の画像における 画素値の合計として評価値 Evを算出しているが、本発明はこれに限定されない。 例えば評価値取得部 105は、エッジ強調部 104にお 、てエッジを強調された画像 に含まれる全画素のうち、エッジの強度が所定のしきい値を超える画素の数に基づ いて、評価値 Evを取得しても良い。図 9の分布図からも分力ゝるように、被写体 FGを含 む画像は被写体 FGを含まな 、画像に比べて強 、エッジを多く含んで 、る。そのため 、エッジ強調処理及びマスク処理を施した後の画像において、あるしきい値より大き V、画素値を有する画素(すなわちエッジの強度が所定のしき 、値を超える画素)の数 を評価値 Evとして取得しても、被写体 FGの有無を精度良く判定することが可能であ る。
また、評価値取得部 105は、エッジ強調部 104においてエッジを強調された画像に 含まれる全画素のうち、エッジの強度が最も高い画素の値に基づいて、評価値 Evを 取得しても良い。具体例を挙げると、図 10 (C)に示す画像において画素値の最大値 は' 2257,、図 10 (D)に示す画像にお 、て画素値の最大値は '428,になって!/、る。 領域特定部 103により特定された領域で被写体 FGの輪郭の影響が十分に排除され ているのであれば、上記の例のように、被写体 FGの有無に応じて画素値の最大値に 大きな差異が生じる。したがって、単純に画素値の最大値 (すなわちエッジの強度が 最も高い画素の値)に基づいて評価値 Evを取得しても、被写体 FGの有無を精度良 く判定することが可能である。
[0150] 制御部 10は、上述の実施形態のようにコンピュータによってソフトウェア的に実現し ても良いし、その少なくとも一部を、上述した処理内容を行うように構成した信号処理 回路などのハードウェアによって実現しても良い。
[0151] 上述した実施形態では、生体認証処理 (テンプレート登録処理、照合処理など)に 利用されるマスクの作成に本発明を適用する例を挙げたが、本発明はこれに限定さ れない。すなわち、種々の被写体を画像力も切り出すために用いられるマスクを、簡 易な処理で高速に作成する用途に本発明は広く適用可能である。

Claims

請求の範囲
画像から所定の被写体の像を切り出すマスクを作成する画像処理装置であって、 上記画像のエッジを抽出する、ように構成されているエッジ抽出部と、
上記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線 に接した第 1領域に含まれており、上記画像の平面上に設定される平行な複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上記第 1基準 直線に最も近い第 1画素の列、並びに、上記第 1領域の反対側で上記第 1基準直線 に接する第 2領域に含まれており、上記複数の第 2基準直線上に位置し、かつ上記 複数の第 2基準直線の各々において上記第 1基準直線に最も近い第 2画素の列を、 上記エッジ抽出部において抽出されたエッジの中から抽出する、ように構成されてい る画素抽出部と、
上記複数の第 2基準直線の各々において上記第 1画素と上記第 2画素との間に位 置し、かつ当該第 1画素力 の距離と当該第 2画素力 の距離とが所定の比を有する 中間点の列を抽出する、ように構成されている第 1の中間点抽出部と、
上記第 1の中間点抽出部において抽出された中間点の列を、隣接する中間点同士 が所定の距離内にある少なくとも 1つの区間に区分する、ように構成されている区分 部と、
上記区分部において区分された最長の区間を形成する中間点に基づいて、上記 第 1の中間点抽出部にぉ 、て抽出された中間点の列の近似線を取得する、ように構 成されて!/ゝる近似線取得部と、
上記第 1の中間点抽出部にお 、て抽出された中間点のうち上記近似線取得部に ぉ 、て取得された近似線との誤差が所定の範囲内にある中間点の列を抽出する、よ うに構成されて 、る第 2の中間点抽出部と、
上記第 2の中間点抽出部において抽出された中間点の列と同じ第 2基準直線に位 置する第 1画素の列の近似線に基づいて上記マスクの第 1境界線を取得し、当該第 2基準直線に位置する第 2画素の列の近似線に基づいて上記マスクの第 2境界線を 取得する、ように構成されている第 1の境界線取得部と
を有する画像処理装置。 [2] 上記第 1の境界線取得部は、上記第 1画素の列の近似線を上記第 1基準直線に向 力つて所定の距離だけシフトさせた線を上記第 1境界線として取得し、上記第 2画素 の列の近似線を上記第 1基準直線に向力つて所定の距離だけシフトさせた線を上記 第 2境界線として取得する、
請求項 1に記載の画像処理装置。
[3] 上記第 1基準直線と平行な 2つの辺及び上記第 2基準直線と平行な 2つの辺に囲 まれ、その内部に上記第 1境界線の一部及び上記第 2境界線の一部を含んだ領域 を、上記画像上の所定位置力 上記第 1基準直線に対して平行な一の方向へ順に 移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で 抽出されたエッジの画素数を計数し、当該計数値が所定のしき!ヽ値に達する位置に おいて当該領域を通る上記第 2基準直線と平行な線を上記マスクの第 3境界線とし て取得する第 3の境界線取得部を有する、
請求項 1に記載の画像処理装置。
[4] 上記第 1の中間点抽出部は、上記複数の第 2基準直線の一部において上記画素 抽出部が上記第 1画素及び上記第 2画素の少なくとも一方を抽出できなかった場合 に、当該一部の第 2基準直線に隣接する他の第 2基準直線において抽出した中間 点に基づいて、当該一部の第 2基準直線の中間点を補間する、
請求項 1に記載の画像処理装置。
[5] 上記第 1境界線取得部は、上記第 2の中間点抽出部において抽出された中間点と 、当該抽出された中間点を挟んで同一の第 2基準直線に位置する第 1画素及び第 2 画素の間隔とに基づいて上記第 1境界線及び上記第 2境界線を取得する、
請求項 1に記載の画像処理装置。
[6] 上記エッジ抽出部で抽出した上記画像のエッジを強調する、ように構成されて 、る エッジ強調部と、
上記マスクによって切り出された被写体の更に内側の領域を特定する、ように構成 されている領域特定部と、
上記エッジ強調部にお 、てエッジを強調された上記画像中の上記領域特定部に ぉ 、て特定された領域に含まれる画素の値に基づ 、て当該領域に含まれるエッジの 強度及び z又はエッジの量に関する評価値を取得する、ように構成されている評価 値取得部と、
上記評価値取得部にお 、て取得された評価値に基づ 、て上記マスクが上記被写 体の像を切り出して 、る力否かを判定する、ように構成されて 、る判定部と
を有する、
請求項 1に記載の画像処理装置。
[7] 画像から所定の被写体の像を切り出すマスクを作成する画像処理装置であって、 上記画像のエッジを抽出する、ように構成されているエッジ抽出部と、
上記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線 に接した 2つの領域の一方に含まれており、上記画像の平面上に設定される平行な 複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上 記第 1基準直線に最も近い画素の列を上記エッジ抽出部において抽出されたエッジ の中から抽出する、ように構成されている第 1の画素抽出部と、
上記第 1の画素抽出部において抽出された画素の列を、隣接する画素同士が所定 の距離内にある 1つ若しくは複数の区間に区分する、ように構成されている区分部と 上記区分部において区分された最長の区間を形成する画素に基づいて上記第 1 の画素抽出部において抽出された画素の列の近似線を取得する、ように構成されて いる近似線取得部と、
上記第 1の画素抽出部において抽出された画素のうち上記近似線取得部において 取得された近似線との誤差が所定の範囲内にある画素の列を抽出する、ように構成 されて 、る第 2の画素抽出部と、
上記第 2の画素抽出部において抽出された画素の列の近似線に基づいて上記マ スクの第 1境界線を取得する、ように構成されて 、る第 1の境界線取得部と
を有する画像処理装置。
[8] 平行な 2つの辺によって挟まれる帯状の領域を、上記第 2基準直線に対して平行に 移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で 抽出されたエッジの画素数を計数し、当該計数値が最も大きくなる位置において当 該領域に含まれる上記辺と平行な線に応じて、上記マスクの第 2境界線を取得する、 ように構成されて 、る第 2の境界線取得部を有し、
上記取得された第 2境界線を上記第 1基準直線として設定する、
請求項 7に記載の画像処理装置。
[9] 上記第 1の境界線取得部は、上記第 2の画素抽出部において抽出された画素の列 の近似線を上記第 2境界線に向力つて所定の距離だけシフトさせた線を上記第 1境 界線として取得し、
上記第 2の境界線取得部は、上記エッジの画素数の計数値が最も大きくなる位置 において上記領域に含まれる上記辺と平行な線を上記第 1境界線に向力つて所定 の距離だけシフトさせた線を上記第 2境界線として取得する、
請求項 8に記載の画像処理装置。
[10] 上記第 1基準直線と平行な 2つの辺及び上記第 2基準直線と平行な 2つの辺に囲 まれ、その内部に上記第 1境界線の一部及び上記第 2境界線の一部を含んだ領域 を、上記画像上の所定位置力 上記第 1基準直線に対して平行な一の方向へ順に 移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で 抽出されたエッジの画素数を計数し、当該計数値が所定のしき!ヽ値に達する位置に ぉ 、て当該領域を通る上記第 2基準直線と平行な線を、上記マスクの第 3境界線とし て取得する、ように構成されて 、る第 3の境界線取得部を有する、
請求項 8に記載の画像処理装置。
[11] 上記エッジ抽出部で抽出したエッジを強調する、ように構成されて 、るエッジ強調 部と、
上記マスクによって切り出された被写体の更に内側の領域を特定する、ように構成 されている領域特定部と、
上記エッジ強調部にお 、てエッジを強調された上記画像中の上記領域特定部に ぉ 、て特定された領域に含まれる画素の値に基づ 、て、当該領域に含まれるエッジ の強度及び Z又はエッジの量に関する評価値を取得する、ように構成されて 、る評 価値取得部と、
上記評価値取得部にお 、て取得された評価値に基づ 、て、上記マスクが上記被 写体の像を切り出して 、る力否かを判定する、ように構成されて 、る判定部と を有する、
請求項 8に記載の画像処理装置。
[12] 画像から所定の被写体の像を切り出すマスクを作成するマスク作成方法であって、 上記画像のエッジを抽出する第 1の工程と、
上記被写体の像の内部を通るように上記入力画像の平面上に設定される第 1基準 直線に接した第 1領域に含まれており、上記画像の平面上に設定される平行な複数 の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上記第 1 基準直線に最も近い第 1画素の列、並びに、上記第 1領域の反対側で上記第 1基準 直線に接する第 2領域に含まれており、上記複数の第 2基準直線上に位置し、かつ 上記複数の第 2基準直線の各々において上記第 1基準直線に最も近い第 2画素の 列を、上記第 1の工程において抽出されたエッジの中力も抽出する第 2の工程と、 上記複数の第 2基準直線の各々において上記第 1画素と上記第 2画素との間に位 置し、かつ当該第 1画素力 の距離と当該第 2画素力 の距離とが所定の比を有する 中間点の列を抽出する第 3の工程と、
上記第 3の工程において抽出された中間点の列を隣接する中間点同士が所定の 距離内にある少なくとも 1つの区間に区分する第 4の工程と、
上記第 4の工程において区分された最長の区間を形成する中間点に基づいて、上 記第 3の工程において抽出された中間点の列の近似線を取得する第 5の工程と、 上記第 3の工程において抽出された中間点のうち、上記第 5の工程において取得さ れた近似線との誤差が所定の範囲内にある中間点の列を抽出する第 6の工程と、 上記第 6の工程において抽出された中間点の列と同じ第 2基準直線に位置する第 1画素の列の近似線に基づいて上記マスクの第 1境界線を取得し、当該第 2基準直 線に位置する第 2画素の列の近似線に基づいて上記マスクの第 2境界線を取得する 第 7の工程と
を有するマスク作成方法。
[13] 画像から所定の被写体の像を切り出すマスクを作成するマスク作成方法であって、 上記画像のエッジを抽出する第 1の工程と、 上記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線 に接した 2つの領域の一方に含まれており、上記画像の平面上に設定される平行な 複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上 記第 1基準直線に最も近い第 1画素の列を上記第 1の工程において抽出されたエツ ジの中から抽出する第 2の工程と、
上記第 2の工程において抽出された第 1画素の列を、隣接する第 1画素同士が所 定の距離内にある少なくとも 1つの区間に区分する第 3の工程と、
上記第 3の工程において区分された最長の区間を形成する第 1画素に基づいて上 記第 2の工程において抽出された第 1画素の列の近似線を取得する第 4の工程と、 上記第 2の工程において抽出された第 1画素のうち上記第 4の工程において取得さ れた近似線との誤差が所定の範囲内にある第 1画素の列を抽出する第 5の工程と、 上記第 5の工程において抽出された第 1画素の列の近似線に基づいて、上記マス クの第 1境界線を取得する第 6の工程と
を有するマスク作成方法。
[14] 平行な 2つの辺によって挟まれる帯状の領域を、上記第 2基準直線に対して平行に 移動させ、その移動した各位置において、当該領域に含まれる上記第 1の工程で抽 出されたエッジの画素数を計数し、当該計数値が最も大きくなる位置において当該 領域に含まれる上記辺と平行な線に応じて上記マスクの第 2境界線を取得する第 7 の工程を更に有し、
上記取得された第 2境界線を上記第 1基準直線として設定する、
請求項 13に記載のマスク作成方法。
[15] 画像から所定の被写体の像を切り出すマスクを作成するため、コンピュータを有す る画像処理装置に、
上記画像のエッジを抽出する第 1のステップと、
上記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線 に接した第 1領域に含まれており、上記画像の平面上に設定される平行な複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上記第 1基準 直線に最も近い第 1画素の列、並びに、上記第 1領域の反対側で上記第 1基準直線 に接する第 2領域に含まれており、上記複数の第 2基準直線上に位置し、かつ上記 複数の第 2基準直線の各々において上記第 1基準直線に最も近い第 2画素の列を、 上記第 1のステップにおいて抽出されたエッジの中力 抽出する第 2のステップと、 上記複数の第 2基準直線の各々において上記第 1画素と上記第 2画素との間に位 置し、かつ当該第 1画素力 の距離と当該第 2画素力 の距離とが所定の比を有する 中間点の列を抽出する第 3のステップと、
上記第 3のステップにおいて抽出された中間点の列を、隣接する中間点同士が所 定の距離内にある 1つ若しくは複数の区間に区分する第 4のステップと、
上記第 4のステップにお 、て区分された最長の区間を形成する中間点に基づ!/、て 、上記第 3のステップにおいて抽出された中間点の列の近似線を取得する第 5のステ ップと、
上記第 3のステップにおいて抽出された中間点のうち、上記第 5のステップにおい て取得された近似線との誤差が所定の範囲内にある中間点の列を抽出する第 6のス テツプと、 上記第 6のステップにおいて抽出された中間点の列と同じ第 2基準直線 に位置する第 1画素の列の近似線に基づいて、上記マスクの第 1境界線を取得し、 当該第 2基準直線に位置する第 2画素の列の近似線に基づいて、上記マスクの第 2 境界線を取得する第 7のステップと
を実行させるプログラム。
画像から所定の被写体の像を切り出すマスクを作成するため、コンピュータを有す る画像処理装置に、
上記画像のエッジを抽出する第 1のステップと、
上記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線 に接した 2つの領域の一方に含まれており、上記画像の平面上に設定される平行な 複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上 記第 1基準直線に最も近い第 1画素の列を、上記第 1のステップにおいて抽出された エッジの中力も抽出する第 2のステップと、
上記第 2のステップにおいて抽出された第 1画素の列を、隣接する第 1画素同士が 所定の距離内にある少なくとも 1つの区間に区分する第 3のステップと、 上記第 3のステップにおいて区分された最長の区間を形成する第 1画素に基づい て上記第 2のステップにおいて抽出された第 1画素の列の近似線を取得する第 4のス テツプと、
上記第 2のステップにおいて抽出された第 1画素のうち上記第 4のステップにおいて 取得された近似線との誤差が所定の範囲内にある第 1画素の列を抽出する第 5のス テツプと、
上記第 5のステップにおいて抽出された第 1画素の列の近似線に基づいて、上記 マスクの第 1境界線を取得する第 6のステップと
を実行させるプログラム。
[17] 平行な 2つの辺によって挟まれる帯状の領域を上記第 2基準直線に対して平行に 移動させ、その移動した各位置において当該領域に含まれる上記第 1のステップで 抽出されたエッジの画素数を計数し、当該計数値が最も大きくなる位置において当 該領域に含まれる上記辺と平行な線に応じて上記マスクの第 2境界線を取得する第 7のステップを上記第 1画像処理装置に実行させ、
上記取得された第 2境界線を上記第 1基準直線として設定する、
請求項 16に記載のプログラム。
[18] 画像から所定の被写体の像を切り出すマスクを作成する画像処理装置であって、 上記画像のエッジを抽出するエッジ抽出手段と、
上記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線 に接した第 1領域に含まれており、上記画像の平面上に設定される平行な複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上記第 1基準 直線に最も近い第 1画素の列、並びに、上記第 1領域の反対側で上記第 1基準直線 に接する第 2領域に含まれており、上記複数の第 2基準直線上に位置し、かつ上記 複数の第 2基準直線の各々において上記第 1基準直線に最も近い第 2画素の列を、 上記エッジ抽出部において抽出されたエッジの中から抽出する画素抽出手段と、 上記複数の第 2基準直線の各々において上記第 1画素と上記第 2画素との間に位 置し、かつ当該第 1画素力 の距離と当該第 2画素力 の距離とが所定の比を有する 中間点の列を抽出する第 1の中間点抽出手段と、 上記第 1の中間点抽出手段において抽出された中間点の列を、隣接する中間点同 士が所定の距離内にある少なくとも 1つの区間に区分する区分手段と、
上記区分手段にお!、て区分された最長の区間を形成する中間点に基づ!/、て、上 記第 1の中間点抽出手段にお 、て抽出された中間点の列の近似線を取得する近似 線取得手段と、
上記第 1の中間点抽出手段において抽出された中間点のうち上記近似線取得手 段において取得された近似線との誤差が所定の範囲内にある中間点の列を抽出す る第 2の中間点抽出手段と、
上記第 2の中間点抽出手段において抽出された中間点の列と同じ第 2基準直線に 位置する第 1画素の列の近似線に基づいて上記マスクの第 1境界線を取得し、当該 第 2基準直線に位置する第 2画素の列の近似線に基づいて上記マスクの第 2境界線 を取得する第 1の境界線取得手段と
を有する画像処理装置。
[19] 上記第 1基準直線と平行な 2つの辺及び上記第 2基準直線と平行な 2つの辺に囲 まれ、その内部に上記第 1境界線の一部及び上記第 2境界線の一部を含んだ領域 を、上記画像上の所定位置力 上記第 1基準直線に対して平行な一の方向へ順に 移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で 抽出されたエッジの画素数を計数し、当該計数値が所定のしき!ヽ値に達する位置に おいて当該領域を通る上記第 2基準直線と平行な線を上記マスクの第 3境界線とし て取得する第 3の境界線取得手段を有する、
請求項 18に記載の画像処理装置。
[20] 上記エッジ抽出部で抽出した上記画像のエッジを強調するエッジ強調手段と、 上記マスクによって切り出された被写体の更に内側の領域を特定する領域特定手 段と、
上記エッジ強調手段にお 、てエッジを強調された上記画像中の上記領域特定部 にお!/、て特定された領域に含まれる画素の値に基づ!、て当該領域に含まれるエッジ の強度及び Z又はエッジの量に関する評価値を取得する評価値取得手段と、 上記評価値取得手段にお!、て取得された評価値に基づ!、て上記マスクが上記被 写体の像を切り出して ヽるか否かを判定する判定手段と
を有する、
請求項 18に記載の画像処理装置。
[21] 画像から所定の被写体の像を切り出すマスクを作成する画像処理装置であって、 上記画像のエッジを抽出するエッジ抽出手段と、
上記被写体の像の内部を通るように上記画像の平面上に設定される第 1基準直線 に接した 2つの領域の一方に含まれており、上記画像の平面上に設定される平行な 複数の第 2基準直線上に位置し、かつ上記複数の第 2基準直線の各々において上 記第 1基準直線に最も近い画素の列を上記エッジ抽出部において抽出されたエッジ の中から抽出する第 1の画素抽出手段と、
上記第 1の画素抽出手段において抽出された画素の列を、隣接する画素同士が所 定の距離内にある 1つ若しくは複数の区間に区分する区分手段と、
上記区分手段において区分された最長の区間を形成する画素に基づいて上記第 1の画素抽出手段において抽出された画素の列の近似線を取得する近似線取得手 段と、
上記第 1の画素抽出手段にお!、て抽出された画素のうち上記近似線取得手段に おいて取得された近似線との誤差が所定の範囲内にある画素の列を抽出する第 2の 画素抽出手段と、
上記第 2の画素抽出手段において抽出された画素の列の近似線に基づいて上記 マスクの第 1境界線を取得する第 1の境界線取得手段と
を有する画像処理装置。
[22] 平行な 2つの辺によって挟まれる帯状の領域を、上記第 2基準直線に対して平行に 移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で 抽出されたエッジの画素数を計数し、当該計数値が最も大きくなる位置において当 該領域に含まれる上記辺と平行な線に応じて、上記マスクの第 2境界線を取得する 第 2の境界線取得手段を有し、
上記取得された第 2境界線を上記第 1基準直線として設定する、
請求項 21に記載の画像処理装置。 [23] 上記第 1基準直線と平行な 2つの辺及び上記第 2基準直線と平行な 2つの辺に囲 まれ、その内部に上記第 1境界線の一部及び上記第 2境界線の一部を含んだ領域 を、上記画像上の所定位置力 上記第 1基準直線に対して平行な一の方向へ順に 移動させ、その移動した各位置において、当該領域に含まれる上記エッジ抽出部で 抽出されたエッジの画素数を計数し、当該計数値が所定のしき!ヽ値に達する位置に ぉ 、て当該領域を通る上記第 2基準直線と平行な線を、上記マスクの第 3境界線とし て取得する第 3の境界線取得手段を有する、
請求項 22に記載の画像処理装置。
[24] 上記エッジ抽出部で抽出したエッジを強調するエッジ強調手段と、
上記マスクによって切り出された被写体の更に内側の領域を特定する領域特定手 段と、
上記エッジ強調手段にお 、てエッジを強調された上記画像中の上記領域特定手 段において特定された領域に含まれる画素の値に基づいて、当該領域に含まれるェ ッジの強度及び Z又はエッジの量に関する評価値を取得する評価値取得手段と、 上記評価値取得手段にお!、て取得された評価値に基づ!、て、上記マスクが上記 被写体の像を切り出して ヽるか否かを判定する判定手段と
を有する、
請求項 22に記載の画像処理装置。
PCT/JP2006/317205 2005-09-06 2006-08-31 画像処理装置、マスク作成方法及びプログラム WO2007029591A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2006800011724A CN101052989B (zh) 2005-09-06 2006-08-31 图像处理装置以及掩模作成方法
US11/718,784 US8311332B2 (en) 2005-09-06 2006-08-31 Image processing system, mask fabrication method, and program
EP06797165.5A EP1923831A4 (en) 2005-09-06 2006-08-31 IMAGE PROCESSING DEVICE, AND METHOD AND MASK PROCESSING PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005257857A JP4305431B2 (ja) 2005-09-06 2005-09-06 画像処理装置、マスク作成方法及びプログラム
JP2005-257857 2005-09-06

Publications (1)

Publication Number Publication Date
WO2007029591A1 true WO2007029591A1 (ja) 2007-03-15

Family

ID=37835710

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/317205 WO2007029591A1 (ja) 2005-09-06 2006-08-31 画像処理装置、マスク作成方法及びプログラム

Country Status (6)

Country Link
US (1) US8311332B2 (ja)
EP (1) EP1923831A4 (ja)
JP (1) JP4305431B2 (ja)
KR (1) KR101266422B1 (ja)
CN (1) CN101052989B (ja)
WO (1) WO2007029591A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230129044A1 (en) * 2020-05-26 2023-04-27 Air-Clenz Systems, LLC Exhaled air purification unit and system for indoor multi-person venues or environments

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008123206A (ja) * 2006-11-10 2008-05-29 Sony Corp 登録装置、照合装置、登録方法、照合方法及びプログラム
JP5396004B2 (ja) * 2007-01-31 2014-01-22 オリンパス株式会社 蛍光観察装置および蛍光観察装置の作動方法
JP2008287433A (ja) * 2007-05-16 2008-11-27 Sony Corp 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP2008287436A (ja) * 2007-05-16 2008-11-27 Sony Corp 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP2008287428A (ja) * 2007-05-16 2008-11-27 Sony Corp 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP2008287432A (ja) * 2007-05-16 2008-11-27 Sony Corp 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP5244654B2 (ja) * 2009-03-04 2013-07-24 日立オムロンターミナルソリューションズ株式会社 指認証装置
JP5312166B2 (ja) * 2009-04-13 2013-10-09 キヤノン株式会社 画像処理装置及び制御方法及びプログラム
JP5380231B2 (ja) * 2009-09-30 2014-01-08 富士フイルム株式会社 医用画像表示装置および方法ならびにプログラム
JP5507962B2 (ja) * 2009-11-05 2014-05-28 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
JP5570866B2 (ja) * 2010-04-30 2014-08-13 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、および画像処理プログラム
JP5620194B2 (ja) * 2010-08-24 2014-11-05 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP5854774B2 (ja) * 2011-11-11 2016-02-09 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
JP5822664B2 (ja) 2011-11-11 2015-11-24 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
JP5871571B2 (ja) 2011-11-11 2016-03-01 株式会社Pfu 画像処理装置、矩形検出方法及びコンピュータプログラム
US9384711B2 (en) 2012-02-15 2016-07-05 Microsoft Technology Licensing, Llc Speculative render ahead and caching in multiple passes
US9177533B2 (en) 2012-05-31 2015-11-03 Microsoft Technology Licensing, Llc Virtual surface compaction
US9230517B2 (en) 2012-05-31 2016-01-05 Microsoft Technology Licensing, Llc Virtual surface gutters
US9235925B2 (en) * 2012-05-31 2016-01-12 Microsoft Technology Licensing, Llc Virtual surface rendering
US9286122B2 (en) 2012-05-31 2016-03-15 Microsoft Technology Licensing, Llc Display techniques using virtual surface allocation
US8843759B2 (en) * 2012-08-28 2014-09-23 At&T Intellectual Property I, L.P. Methods, systems, and computer program products for media-based authentication
US9307007B2 (en) 2013-06-14 2016-04-05 Microsoft Technology Licensing, Llc Content pre-render and pre-fetch techniques
US9558392B2 (en) * 2015-02-12 2017-01-31 Korecen Co., Ltd. Finger vein authentication system
CN107407930A (zh) * 2015-04-01 2017-11-28 三菱电机株式会社 作业指示系统
CN105718214B (zh) * 2015-10-21 2019-02-26 深圳芯启航科技有限公司 指纹掩膜图像的存取方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282652A (ja) * 1993-03-29 1994-10-07 Olympus Optical Co Ltd 画像の輪郭抽出装置
JP2004178606A (ja) * 2003-12-01 2004-06-24 Hitachi Ltd 個人認証装置及び方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2077970C (en) * 1991-11-19 1999-02-23 Daniel P. Huttenlocher Optical word recognition by examination of word shape
US5321770A (en) * 1991-11-19 1994-06-14 Xerox Corporation Method for determining boundaries of words in text
US5369714A (en) * 1991-11-19 1994-11-29 Xerox Corporation Method and apparatus for determining the frequency of phrases in a document without document image decoding
JP3825222B2 (ja) * 2000-03-24 2006-09-27 松下電器産業株式会社 本人認証装置および本人認証システムならびに電子決済システム
JP3431593B2 (ja) * 2000-10-31 2003-07-28 株式会社東芝 コンテンツ生成装置、電子透かし検出装置、コンテンツ生成方法、電子透かし検出方法及び記録媒体
JP4547869B2 (ja) 2003-05-06 2010-09-22 ソニー株式会社 画像処理方法、および画像処理装置
JP2005056282A (ja) 2003-08-06 2005-03-03 Sony Corp 画像処理方法、画像処理装置、およびプログラム
JP4992212B2 (ja) * 2005-09-06 2012-08-08 ソニー株式会社 画像処理装置、画像判定方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282652A (ja) * 1993-03-29 1994-10-07 Olympus Optical Co Ltd 画像の輪郭抽出装置
JP2004178606A (ja) * 2003-12-01 2004-06-24 Hitachi Ltd 個人認証装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1923831A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230129044A1 (en) * 2020-05-26 2023-04-27 Air-Clenz Systems, LLC Exhaled air purification unit and system for indoor multi-person venues or environments
US11730847B2 (en) * 2020-05-26 2023-08-22 Air-Clenz Systems, LLC Exhaled air purification unit and system for indoor multi-person venues or environments

Also Published As

Publication number Publication date
JP2007072676A (ja) 2007-03-22
CN101052989B (zh) 2010-09-29
EP1923831A4 (en) 2013-10-02
CN101052989A (zh) 2007-10-10
JP4305431B2 (ja) 2009-07-29
EP1923831A1 (en) 2008-05-21
US20090129635A1 (en) 2009-05-21
KR101266422B1 (ko) 2013-05-22
US8311332B2 (en) 2012-11-13
KR20080052507A (ko) 2008-06-11

Similar Documents

Publication Publication Date Title
JP4305431B2 (ja) 画像処理装置、マスク作成方法及びプログラム
JP5107045B2 (ja) 目に関して取得される画像中の虹彩を表す画素を特定する方法
Jiang et al. Detecting the fingerprint minutiae by adaptive tracing the gray-level ridge
US6876757B2 (en) Fingerprint recognition system
JP2009523265A (ja) 画像中の虹彩の特徴を抽出する方法
KR101626837B1 (ko) 손가락 마디 및 지정맥 기반의 융합형 생체 인증 방법 및 그 장치
JP2007188504A (ja) 画像中の画素強度をフィルタリングする方法
US20180101710A1 (en) Method and apparatus for recognizing fingerprint ridge point
Yang et al. Superpixel based finger vein ROI extraction with sensor interoperability
KR20160037305A (ko) 지문 인식을 이용한 사용자 인증 방법
Raghavendra et al. Exploring dorsal finger vein pattern for robust person recognition
CN108734069B (zh) 一种指静脉图像的质量分数计算方法及装置
KR101582467B1 (ko) 인접 합산 이진화를 이용한 동공 추출 방법 및 이를 이용한 동공 추출 제어장치
KR102174083B1 (ko) 딥 러닝 기반의 지정맥을 이용한 생체 인식 장치 및 방법
KR20180108628A (ko) 사용자의 생체측정을 분석하기 위한 방법 및 지문감지 시스템
KR101021134B1 (ko) 지문의 방향 특징을 추출하는 장치 및 방법
KR100489430B1 (ko) 위치이동, 회전에 무관한 지문인식 방법 및 지문인식 장치및 그 방법을 실행시키기 위한 프로그램을 기록한기록매체
KR100698723B1 (ko) 지문 중심점 부위 특징점을 이용한 고속 매칭
KR101767051B1 (ko) 퍼지 추론 기반 지정맥 영상 추출 방법 및 그 장치
KR101626835B1 (ko) 지정맥 영상의 혈관증강처리 방법 및 그 장치
JP4020202B2 (ja) 縞状パターン抽出システムおよび縞状パターン抽出方法
CN112801034A (zh) 一种指静脉识别装置
Iwasokun et al. Review and evaluation of fingerprint singular point detection algorithms
KR100607580B1 (ko) 지문 특징데이터 추출알고리즘에 있어서의 방향 필터링방법
KR20160127206A (ko) 홍채영역에서의 속눈썹 제거 시스템 및 그 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 1020077009530

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2006797165

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200680001172.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11718784

Country of ref document: US