WO2004100069A1 - 画像処理装置、および画像処理方法 - Google Patents

画像処理装置、および画像処理方法 Download PDF

Info

Publication number
WO2004100069A1
WO2004100069A1 PCT/JP2004/006328 JP2004006328W WO2004100069A1 WO 2004100069 A1 WO2004100069 A1 WO 2004100069A1 JP 2004006328 W JP2004006328 W JP 2004006328W WO 2004100069 A1 WO2004100069 A1 WO 2004100069A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
image data
pixel data
pixel
image
Prior art date
Application number
PCT/JP2004/006328
Other languages
English (en)
French (fr)
Inventor
Yumi Kato
Hideo Sato
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/518,607 priority Critical patent/US7450757B2/en
Priority to EP04730682A priority patent/EP1622079B1/en
Publication of WO2004100069A1 publication Critical patent/WO2004100069A1/ja
Priority to US12/246,043 priority patent/US7702174B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Definitions

  • the present invention relates to, for example, an image processing apparatus and an image processing method for processing image data obtained by imaging a subject.
  • an identification device that performs personal identification processing using image data obtained by capturing an image of a living body (subject) is known (see, for example, Japanese Patent Application Laid-Open No. H10-127609). .
  • the transmitted light of the subject's hand is imaged, and binarized image data is generated based on a predetermined threshold value for the pixel value of the image data to perform the identification processing.
  • the identification device performs an identification process based on a pattern indicating the arrangement of blood vessels in the binary image data.
  • the distribution of the pixel values of the imaging data differs for each subject.
  • image data of a subject having a large amount of fat components has a wider range of pixel value distribution data and relatively higher average values of pixel values than image data of a subject having a small amount of fat components.
  • the above-described conventional identification device performs binarization processing based on a predetermined threshold value, for example, image data of a subject having a small amount of fat components can generate appropriate binary image data. With image data of a subject with a large amount of fat components, binarized image data having biased pixel values may be generated and binarization processing may not be properly performed. Therefore, improvement is desired.
  • the image data obtained by imaging the subject described above includes an area of a minute size corresponding to a noise component, and this noise component has a large size in the accuracy of the identification processing. Affect. Therefore, there is a demand for removing a region of a predetermined size corresponding to a noise component from image data.
  • the line-shaped pattern in the image data is important, but the line-shaped pattern may be divided by noise or the like, and the line-shaped pattern may not be clearly visible. Therefore, there is a demand that image data including a clear linear pattern be obtained by connecting pixel data that are close to each other in consideration of noise and the like. Disclosure of the invention
  • an image processing apparatus comprises: first image data obtained by imaging an object; and a pixel value in a first range defined in advance.
  • Distribution data generating means for generating distribution data indicating the distribution of the pixel data for the plurality of pieces of pixel data to be displayed; and 2 of the first range based on the distribution data generated by the distribution data generating means.
  • the distribution data generating means is configured to constitute first image data obtained by imaging the subject and to define pixels in a first range defined in advance. For a plurality of pixel data indicating values, distribution data indicating a distribution of the pixel data is generated.
  • the specifying means specifies a second range to be binarized in the first range based on the distribution data generated by the distribution data generating means.
  • the mapping means maps pixel data in the second range specified by the specifying means from the plurality of pieces of pixel data to the first range, and generates second image data composed of the mapped pixel data. Generate.
  • the binarizing means binarizes the second image data generated by the mapping means based on a threshold defined in the first range to generate third image data.
  • an image processing apparatus includes a plurality of pixel data indicating pixel values, which constitute first image data obtained by imaging an object.
  • a first processing unit that sets the minimum pixel data among the pixel data in the first area around the pixel data as the pixel data; and
  • second processing means for generating second image data using the largest pixel data among the pixel data in the second area larger than the first area surrounding the pixel data as the pixel data.
  • an image processing method comprises: a first image data unit configured to form first image data obtained by imaging an object; A first step of generating distribution data indicating a distribution of the pixel data for a plurality of pieces of pixel data indicating values, and the first range based on the distribution data generated in the first step A second step of specifying a second range to be binarized among the plurality of pieces of pixel data; anda pixel data in the second range specified in the second step among the plurality of pixel data. A third step of mapping to the range of 1 to generate second image data composed of the pixel data that has been mapped, and the second image data generated in the third step.
  • an image processing method includes a plurality of pieces of pixel data indicating pixel values, constituting first image data obtained by imaging an object.
  • an image processing apparatus and an image processing method that can appropriately perform binarization processing even when pixel value distribution data differs for each subject.
  • an image processing apparatus and an image processing method capable of removing an area smaller than a predetermined size from image data obtained by imaging a subject and connecting pixel data close to a certain extent can be provided.
  • FIG. 1 is an overall conceptual diagram showing a first embodiment of a data processing device according to the present invention.
  • FIG. 2 is a hardware block diagram of the data processing device shown in FIG.
  • FIG. 3 is a functional block diagram of the data processing device shown in FIG.
  • FIG. 4A to 4E are diagrams for explaining the operation of the data processing device shown in FIG.
  • FIG. 4A is a diagram showing an example of the image data S11.
  • FIG. 4B is a diagram showing an example of the image data S1081.
  • FIG. 4C is a diagram showing an example of the distribution data d1.
  • FIG. 4D is an enlarged view of the distribution data.
  • FIG. 4E is a diagram showing an example of the image data S 1084.
  • FIGS. 5A and 5B are diagrams for explaining the operation of the specifying unit shown in FIG.
  • FIG. 5A is a diagram illustrating an example of the distribution data d1.
  • Figure 5B shows an example of distribution data d 1 ' FIG.
  • FIG. 6 is a flowchart for explaining the operation related to the mapping process of the data processing device shown in FIG.
  • FIG. 7 is a functional block diagram related to a filtering process of the data processing device shown in FIG.
  • FIG. 8 is a diagram for explaining a Gaussian filter.
  • FIGS. 9A to 9F are diagrams for explaining a Gaussian Laplacian filter.
  • FIG. 9A is a diagram showing an example of the pixel values of the step shape.
  • FIG. 9B is a diagram illustrating an example of a pixel value.
  • FIG. 9C is a diagram showing the pixel values subjected to the primary differentiation processing.
  • FIG. 9D is a diagram illustrating an example of a pixel value.
  • FIG. 9E is a diagram showing an example of a pixel value that has been subjected to the primary differentiation processing.
  • FIG. 9F is a diagram illustrating an example of a pixel value that has been subjected to the secondary differentiation processing.
  • FIGS. 10A to 10C are diagrams for explaining the noise removal processing of the data processing device shown in FIG.
  • FIG. 1OA shows an example of the image data S 1804.
  • FIG. 10B is a diagram showing an example of the image data S 1805.
  • FIG. 10C is a diagram showing an example
  • FIG. 11 is a flowchart for explaining the operation of the data processing device shown in FIG.
  • FIGS. 12A to 12D are conceptual diagrams for explaining the operation of the data processing device shown in FIG.
  • FIG. 12A is a diagram showing an example of image data including a noise component.
  • FIG. 12B is a diagram illustrating an example of image data that has been subjected to noise removal processing.
  • FIG. 12C is a diagram showing an example of image data.
  • FIG. 12D is a diagram showing an example of the image data subjected to the connection processing.
  • FIGS. 13A to 13F are diagrams for explaining the degeneration processing and the expansion processing of the data processing device shown in FIG.
  • FIG. 13A is a diagram showing an example of pixel data.
  • FIG. 13B is an example of pixel data when a degeneration process is performed based on pixels in a cross-shaped element.
  • Figure 13C performs dilation processing based on the pixels in the cross-shaped element. It is an example of the pixel data at the time of the connection.
  • FIG. 13D is a diagram showing an example of pixel data.
  • FIG. 13E is an example of pixel data when the degeneration processing is performed based on the pixels in the 3 ⁇ 3 element.
  • FIG. 13F is an example of pixel data when the dilation processing is performed based on the pixels in the 3 ⁇ 3 element.
  • FIG. 14A to 14C are diagrams for explaining the operation of the data processing device shown in FIG.
  • FIG. 14A is a diagram illustrating an example of the image data S 1807.
  • FIG. 14B is a diagram illustrating an example of the image data S 1808.
  • FIG. 14C is a diagram showing an example of the image data S1810.
  • FIG. 15 is a flowchart for explaining the operation of the data processing device shown in FIG.
  • FIGS. 16A to 16F are diagrams for explaining the operation of the first low-pass filter processing of the data processing device shown in FIG.
  • FIG. 16A is a diagram illustrating an example of a reference region in a two-dimensional Fourier space.
  • FIG. 16B is a diagram showing an example of an area obtained by enlarging the reference area by a predetermined factor.
  • FIG. 16C is a diagram illustrating an example of a low-pass filter.
  • FIG. 16D is a diagram showing an example of image data.
  • FIG. 16E is a diagram showing an example of image data subjected to the low-pass filter processing.
  • FIG. 16F is a diagram showing an example of image data subjected to the binarization processing.
  • FIGS. 17 to 17E are diagrams for explaining the operation of the second low-pass filter processing of the low-pass filter unit.
  • FIG. 17A is a diagram illustrating an example of a reference region on a two-dimensional Fourier space.
  • FIG. 17B is a diagram illustrating an example of a low-pass filter.
  • FIG. 17C is a diagram showing an example of image data.
  • FIG. 17D is a diagram illustrating an example of image data that has been subjected to the low-pass filter processing.
  • FIG. 17E is a diagram showing an example of image data that has been subjected to the binary image processing.
  • FIGS. 18A to 18E are diagrams for explaining the operation of the third mouth-to-pass filter process of the mouth-to-pass filter unit.
  • FIG. 18A is a diagram showing an example of a reference region on a two-dimensional Fourier space.
  • FIG. 17B is a diagram illustrating an example of a low-pass filter.
  • Figure 1 FIG. 8C is a diagram showing an example of image data.
  • FIG. 18D is a diagram illustrating an example of image data that has been subjected to the low-pass filter processing.
  • FIG. 18E is a diagram showing an example of image data that has been subjected to the binary image processing.
  • FIGS. 19 to 19F are diagrams for explaining the operation of the low-pass filter unit of the data processing device shown in FIG.
  • FIG. 19A is a diagram showing an example of the image data S1810.
  • FIG. 19B is a diagram showing an example of the image data S 18102.
  • FIG. 19C is a diagram showing an example of the image data S18103.
  • FIG. 19D is a diagram showing an example of the image data S18102.
  • FIG. 19E is a diagram showing an example of the image data S18104.
  • FIG. 19F is a diagram showing an example of the image data S 1810 05.
  • FIGS. 2OA to 20C are diagrams for explaining the operation of the low-pass filter unit of the data processing device shown in FIG.
  • FIG. 2OA shows an example of the image data S 1804.
  • FIG. 20B is a diagram showing an example of the image data S181006.
  • FIG. 20C is a diagram showing an example of the image data S 1811.
  • FIG. 21 is a flowchart for explaining the operation of the low-pass filter unit of the data processing device shown in FIG.
  • FIGS. 22A to 22C are diagrams for explaining operations of the mask unit and the skeleton unit of the data processing device shown in FIG.
  • FIG. 22A is a diagram illustrating an example of a mask pattern.
  • FIG. 22B is a diagram showing an example of the image data S1812.
  • FIG. 22C is a diagram illustrating an example of the image data S1813.
  • FIG. 23 is a flowchart for explaining the overall operation of the data processing device shown in FIG.
  • FIG. 24 is a diagram for explaining a second embodiment of the remote control device using the data processing device according to the present invention.
  • FIG. 25 is a flowchart for explaining the operation of the remote controller 1a shown in FIG.
  • FIG. 26 shows a third embodiment of a data processing system using the data processing device according to the present invention. It is a figure for explaining an embodiment.
  • FIG. 27 is a flowchart for explaining the operation of the data processing system shown in FIG.
  • FIG. 28 is a diagram for explaining a fourth embodiment of a portable communication device using the data processing device according to the present invention.
  • FIG. 29 is a flowchart for explaining the operation of the data processing device shown in FIG.
  • FIG. 30 is a diagram for explaining a fifth embodiment of the data processing device according to the present invention.
  • FIG. 31 is a flowchart for explaining the operation of the telephone shown in FIG. 30.
  • FIG. 32 is a diagram for explaining a sixth embodiment of the data processing device according to the present invention.
  • FIG. 33 is a diagram for explaining a seventh embodiment of the data processing device according to the present invention.
  • An image processing apparatus includes: a plurality of pixel data that form image data based on image data obtained by imaging a subject and that indicate pixel values in a first predetermined range; Generates distribution data indicating the distribution of the pixel data, specifies a second range to be binarized, maps pixel data in the second range to the first range, and configures the mapped pixel data. Image data to be converted, and the image data is binarized based on a threshold value defined in the first range to generate binary image data.
  • the image processing apparatus removes an area smaller than a predetermined size from image data obtained by imaging the subject, and connects pixel data that is close to some extent. Continue.
  • the image processing apparatus includes, for each of a plurality of pixel data indicating a pixel value, which constitutes first image data obtained by imaging the subject, in a first area around the pixel data.
  • the minimum pixel data among the pixel data of the pixel data and further, for each of the pixel data, the largest pixel data of the pixel data in a second area larger than the first area surrounding the pixel data.
  • the second image data is generated using the data as pixel data.
  • an image processing apparatus a portion of a living body as a subject h in which a blood vessel is formed is imaged to generate image data, and the image data is image-processed to generate a blood vessel.
  • a data processing device that extracts information and performs an authentication process based on the extracted blood vessel information will be described.
  • FIG. 1 is an overall conceptual diagram showing a first embodiment of a data processing device according to the present invention.
  • the data processing device 1 includes an imaging system 101, an extraction unit 102, and an authentication unit 103.
  • the data processing device 1 corresponds to an example of an image processing device according to the present invention.
  • the imaging system 101 captures the subject h to generate image data, and outputs the image data to the extraction unit 102 as a signal S11.
  • the imaging system 101 has an irradiation unit 101 and an optical lens 101.
  • the irradiating unit 101 is configured by, for example, a halogen lamp or the like, and irradiates a part of the subject h with an electromagnetic wave, for example, near infrared rays by a control signal.
  • near-infrared light in the red to infrared region in the wavelength range of about 600 nm to 13011 m is compared with electromagnetic waves in other wavelength areas.
  • electromagnetic waves are absorbed by hemoglobin in the blood, so that the blood flows to a large blood vessel near the surface on the palm side. Image data is obtained in a region corresponding to that of the region other than the region corresponding to the blood vessel.
  • the veins of blood vessels are acquired during the growth process, and the shape of the blood vessels varies greatly between individuals.
  • image data obtained by imaging the blood vessel is used as identification information unique to an individual in the authentication process.
  • the optical lens 101 forms an image of the transmitted light from the subject h on the imaging unit 11.
  • the imaging unit 11 generates image data S11 based on the transmitted light formed by the optical lens 1012.
  • the imaging unit 11 includes a charge-coupled device (CCD) image sensor or a complementary metal-oxide semiconductor (C-MOS) image sensor and extracts image data S11. Output to 102.
  • the image data S11 may be an RGB (red-green-blue) signal, or may be image data of other colors or gray scales.
  • the extraction unit 102 performs image processing based on the image data S 11, extracts image data used for authentication, for example, skeleton image data, and outputs it to the authentication unit 103 as a signal S 102.
  • the authentication unit 103 performs a matching process with registered image data stored in advance based on the signal S102 from the extraction unit 102, and performs an authentication process.
  • FIG. 2 is a hardware block diagram of the data processing device shown in FIG.
  • the data processing device 1 includes an imaging unit 11, an input unit 12, an output unit 13, a communication interface (IZF) 14, a RAM (Random Access Memory) 15, a ROM (Read only). memory) 16, a storage unit 17, and a CPU 18.
  • IZF communication interface
  • RAM Random Access Memory
  • ROM Read only memory
  • Imager 11 input 12, output 13, communication interface (IZF) 14, RAM 15, ROM 16, storage 17, and CPU (Central Processing) Unit) 18 is connected by a bus BS.
  • IZF communication interface
  • ROM read-only memory
  • CPU Central Processing Unit
  • the imaging unit 11 generates image data of the subject h under the control of the CPU 18 and outputs the data as a signal S11.
  • the input unit 12 outputs a signal corresponding to, for example, a user operation to the CPU 18.
  • the input unit 12 includes a keyboard, a mouse, a touch panel, and the like.
  • the output unit 13 performs output according to predetermined data under the control of the CPU 18.
  • the output unit 13 is configured by a display device such as a display.
  • the communication interface (I / F) 14 performs data communication with another data processing device under the control of the CPU 18 via, for example, a communication network (not shown).
  • the RAMI 5 is used as, for example, a workspace of the CPU 18.
  • the ROM 16 stores data such as initial values and initial parameters, and the data is used by the CPU 18.
  • the storage unit 17 predetermined data is written and read by the CPU 18.
  • the storage unit 17 is configured by a storage device such as an HDD (Hard disk drive).
  • the storage unit 17 has a program PRG, image data D-P, and the like, for example, as shown in FIG.
  • the program PRG includes a function according to an embodiment of the present invention, for example, a function of the extraction unit 102 and the authentication unit 103, and the function is realized by being executed by the CPU 18.
  • the image data DP is image data such as registered image data used for an authentication process, for example.
  • FIG. 3 is a functional block diagram of the data processing device shown in FIG.
  • the CPU 18 executes the program PRG as shown in FIG. 3 so that the grayscale conversion unit 1801 and the distribution data generation Component section 1802, Specific section 1803, Mapping section 1804, Gaussian filter 1805, Gaussian Laplacian 1806, First degeneration processing section 1807, First month Peng Zhang processing section 1808, 2nd expansion processing section 1809, 2nd degeneration processing section 1810, low-pass filter section 1811, mask section 1812, and skeleton section 1 Implement the functions of 8 13.
  • the present invention is not limited to this mode.
  • the functions of the components shown in FIG. 3 may be realized by hardware.
  • the distribution data generating unit 1802 corresponds to an example of the distribution data generating unit according to the present invention
  • the specifying unit 1803 corresponds to an example of the specifying unit according to the present invention.
  • the muting section 1804 corresponds to an example of the muving means according to the present invention
  • the low-pass filter section 1811 corresponds to an example of the filter processing means according to the present invention.
  • Gaussian filter 1805, Gaussian Laplacian 1806, first degeneration processing unit 1807, first expansion processing unit 18008, second expansion processing unit 18009, second Degeneration processing section 1810, low-pass filter section 1811, mask section 1812, and skeleton section 1813 3 These correspond to an example of the binarization means according to the present invention.
  • the first degeneration processing unit 1807 corresponds to an example of a first processing unit according to the present invention
  • the first expansion processing unit 18008 corresponds to an example of a fourth processing unit according to the present invention
  • the second expansion processing section 18009 corresponds to an example of the second processing means according to the present invention
  • the second degeneration processing section 18010 corresponds to an example of the third processing means according to the present invention. Is equivalent to
  • the grayscale conversion unit 1801 converts the RGB signal S111 from the imaging unit 11 into grayscale and outputs it as a signal S1801 to the distribution data generation unit 1802. I do.
  • the gray scale conversion section 1801 converts the RGB signal into a predetermined gradation from white to black, for example, 256 gradations. +
  • the imaging unit 11 generates the RGB signal S 11, and the Gracecanoré conversion unit 1801 converts the signal S 11 into gray scale.
  • this embodiment is not limited to this embodiment. It is not something that can be done.
  • the imaging unit 11 When the data S111 is generated, the grayscale conversion unit 1801 is not provided.
  • 4A to 4E are diagrams for explaining the operation of the data processing device shown in FIG.
  • the imaging unit 11 captures, for example, a finger of a living body of the subject h and outputs RGB image data S11 as shown in FIG. 4A.
  • the grayscale conversion unit 1801 generates, for example, grayscale image data S1802 as shown in FIG. 4B based on the image data S111, and a distribution data generation unit 180 Output to 2.
  • the distribution data generation unit 1802 includes a plurality of values representing pixel values in a first range defined in the image data based on the signal S1801 from the grayscale conversion unit 1801. With respect to the pixel data of, distribution data d1 indicating the distribution of the pixel data is generated, and is output to the specifying unit 1803 as a signal S1802.
  • the distribution data generating unit 1802 determines, for example, the horizontal axis c as a gradation value (also referred to as a pixel value) and the vertical axis f as the number of pixel data (frequency). Then, as shown in FIG. 4C, a histogram is generated as distribution data d 1 for pixel data indicating a pixel value in the range of 256 tones as the first range r 1. In FIG. 4C, a small pixel value corresponds to black, and a large pixel value corresponds to white.
  • the distribution data generation unit 1802 generates distribution data d1 indicating the number of pixel data having pixel values for each pixel value in the first range r1.
  • the specifying unit 1803 determines a range that is equal to or less than the largest pixel value among the pixel values of a predetermined number of pixel data in the first range r1 based on the signal S1802. , A second range r 2 to be binarized, and output as a signal S 1803.
  • the identification unit 1803 determines the number of pixels of the distribution data d 1 within the first range r 1 by a predetermined threshold V ⁇ th.
  • the range below the maximum pixel value r11 among the values r11, r12, r13, and r14 is defined as the second range. Specify as box r2.
  • the specifying unit 1803 specifies a range of pixel values from 0 to 110 as a second range r2.
  • the distribution data of the pixel values of the subject h is different for each subject h.
  • the average value is relatively high.
  • the specifying unit 1803 sets the pixel value r of a predetermined threshold V—th in the first range r 1.
  • a range that is equal to or less than the maximum pixel value r 1 1 ′ among 1 1 ′, rl 2, r 1 3 ′, and r 14 ′ is specified as a second range r 2 ′.
  • the mapping unit 1804 converts the pixel data in the second range r2 specified by the specifying unit 1803 out of the plurality of pixel data based on the signal S1803 into a first range r. 1 is generated, and second image data composed of the mapped pixel data is generated and output as a signal S1844.
  • the mapping section 1804 sets the pixel value range from 0 to 110 to the second range r2 as shown in FIG. 4C, for example, as shown in FIG. 4D.
  • the mapping is performed by enlarging the pixel data to the first range r1, which is the range of pixel values from 0 to 256, and as shown in Fig.4E, the central part of the image data without blood vessel information is enlarged. Then, the second image data S ′ l 804 is generated.
  • FIG. 6 is a flowchart for explaining an operation related to the mapping process of the data processing device shown in FIG.
  • the operations of the distribution data generation unit 1802, the identification unit 1803, and the mapping unit 1804 will be described with reference to FIGS. 4, 5A, 5B, and 6.
  • FIG. 6 is a flowchart for explaining an operation related to the mapping process of the data processing device shown in FIG.
  • the operations of the distribution data generation unit 1802, the identification unit 1803, and the mapping unit 1804 will be described with reference to FIGS. 4, 5A, 5B, and 6.
  • the imaging unit 11 images the subject h and outputs image data S 11 to the grayscale conversion unit 1801.
  • the image data S 11 is converted to the gray scale
  • the signal is converted into a gray scale of 256 gradations and input to the distribution data generation unit 1802 as a signal S1801.
  • step ST1 the distribution data generating section 1802 forms the image data S based on the signal S1801, for example, as shown in FIG. For a plurality of pixel data indicating a pixel value within 1, distribution data d1 indicating the number of pixel data having the pixel is generated and output as a signal S1802 as a specific unit 1803.
  • step ST2 the specifying unit 1803 determines a predetermined number in the first range r1 based on the signal S1802, for example, a threshold V ⁇
  • the maximum pixel value r 11 among the pixel values of the th pixel data is specified as the second range r 2 to be binarized, and the mapping unit 1 specifies the signal S 1 803 as the signal S 1803. Output to 804.
  • step ST3 the mapping unit 1804 determines the second pixel data specified by the specifying unit 1803 out of the plurality of pixel data based on the signal S1803.
  • Pixel data in the range r 2 is mapped to the first range r 1 to generate second image data composed of the mapped pixel data, and output the signal as a signal S 1804.
  • step ST4 for example, the second image data S1804 generated by the matting unit 1804 by using the constituent elements 1805-1018
  • the third image data is generated by performing a binary process based on a threshold value defined in the above, for example, 10'0 gradation.
  • distribution data is generated by the distribution data generation unit 1802, and the second range is generated by the identification unit 1803. Then, the pixel data in the second range is mapped to the first range by the mapping unit 1804, and the first range r 1 is determined by the constituent elements 1805-1018, which will be described later. Since the image data is generated by binarizing based on the threshold specified in Even if the pixel value distribution data d1 differs for each pixel, the binarization process can be performed appropriately. Furthermore, since the pixel data in the specified second range is mapped to the first range, the contrast is increased. However, appropriate binarization processing can be performed.
  • the data processing device 1 performs an edge enhancement process after performing a noise removal process on the image data generated in the above-described process. For example, the data processing device 1 performs any one of a plurality of different noise removal processes based on the signal S1804, and performs an edge enhancement process after the noise removal process.
  • FIG. 7 is a functional block diagram related to a filtering process of the data processing device shown in FIG.
  • the CPU 18 realizes the functions of the selection unit 1814 and the plurality of noise removal filters 1815 shown in FIG. 7 by executing, for example, a program PRG.
  • the noise removal filter 1815 corresponds to an example of the noise removal unit according to the present invention.
  • the selecting unit 1814 performs a plurality of different noise removing processes of the noise removing filter 1815, and outputs a signal S 1814 for selecting any one of the noise removing filters to the noise removing filter 1815.
  • the selection unit 1814 detects the noise distribution characteristic of the signal S 1804 and outputs a signal S 1814 for selecting a noise removal filter suitable for the noise characteristic based on the detection result.
  • the selection unit 1814 may output a signal S 1814 for selecting a noise removal filter based on a signal from the input unit 12 according to a user operation.
  • the noise elimination filter 1815 is a filter for a plurality of noise elimination processes, such as a Gaussian filter 1815-1, a median filter 1815_2, a maximum: a filter 1815-3, a minimum value filter 1815-4, and a two-dimensional adaptive noise elimination filter 1815—. 5, Neighborhood filter 1815-6, Averaging filter 1815-7, It has a Gaussian low-pass filter 1815-8, a two-dimensional Laplacian approximation filter 1815-9, and a Gaussian Laplacian filter 1815-10. For example, any one (at least one) according to the signal S 1814 from the selection unit 1814 A noise removal filter is selected, the signal S 1804 is subjected to noise removal processing by the selected noise removal filter, and image data S 1806 is generated.
  • image data u (n 1, ⁇ 2) with grid points (nl, n 2) on a two-dimensional plane as variables are filtered by a filter h (n 1, n 2), and the following equation (1) is obtained.
  • the image data V (nl, n2) is generated as shown in FIG.
  • the convolution is expressed as '*'.
  • the Gaussian finoleta 1815_1 convolves the Gaussian function h g (n, ⁇ 2) as shown in Expression (2) using, for example, the standard deviation ⁇ .
  • ( ⁇ 1, ⁇ 2) is used and the removal process is performed.
  • FIG. 8 is a diagram for explaining a Gaussian filter.
  • the Gaussian filter 18 15-1 is a smoothing filter, for example, as shown in FIG. 8, performs an arithmetic operation with weighting according to a two-dimensional Gaussian distribution centering on the pixel data of interest and performing smoothing processing.
  • the median filter 18 15-2 illustrated in FIG. 8 as the pixel data of interest (0, 0) has, for example, a case where pixel data of the N ⁇ n station Jffg area are arranged in order around the pixel data of interest. The pixel value of the pixel data in the middle of the order is set as the pixel value of the target pixel data.
  • the maximum value filter 1815-3 sets, for example, the pixel value of the maximum value among the pixel data of the local area of n X n around the target pixel as the pixel value of the target pixel data.
  • the minimum value filter 1815-5-4 sets the minimum pixel value of the pixel data of the n ⁇ n local area around the target pixel as the pixel value of the target pixel data.
  • the two-dimensional adaptive noise elimination filter 18 15-5-5 is, for example, a so-called Wiener filter, and performs image processing to minimize the mean square error with the image data to improve the image. .
  • the neighborhood filter 18 15-6 is a filter process for calculating an output pixel based on the pixel value of, for example, n ⁇ n pixels in the image data.
  • the neighborhood filter 1815-5-6 performs a filtering process based on the maximum value, the minimum value, and the standard deviation from the neighborhood value according to the data.
  • the averaging filter 18 15-5-7 performs a filter process of calculating an average value of pixel values of, for example, n ⁇ n pixels in the image data and setting the pixel value as an output pixel value.
  • the Gaussian low-pass filter 1 8 1 5—8 performs noise reduction and smoothing processing. Do. Specifically, the Gaussian low-pass filter 1815-8 performs a smoothing process on the image data based on the Gaussian weighting.
  • the two-dimensional Laplacian approximation filter 1815-9 performs second derivative processing based on image data, and performs edge detection and the like.
  • Laplacian which will be described in detail below, can be expressed in a two-dimensional Euclidean coordinate system as shown in, for example, Expression (4).
  • the Laplacian can be displayed in a 3 ⁇ 3 matrix as shown in Expression (5) using, for example, a predetermined number.
  • the pixel of interest is the center of the matrix.
  • Equation (6) for example, using the standard deviation ⁇ , Equation (6)
  • the convolution of the Gaussian function hg (nl, n 2) is performed as shown in Fig. Specifically, as shown in Equations (7) and (1), the noise removal processing is performed using a Gaussian Laplace filter h (nl, n2).
  • the Laplacian of the Gaussian filter can be expressed as shown in Expression (8), for example, by performing matrix display using a predetermined value ⁇ .
  • the pixel of interest is the center of the matrix.
  • FIGS. 9A to 9F are diagrams for explaining a Gaussian Laplacian filter.
  • the image data is described as one-dimensional.
  • Etsu Di can be detected by performing spatial differentiation. For example, there are 17 differentials and 2nd derivatives in spatial differentiation.
  • the vertical axis is the pixel value
  • the horizontal axis is the X axis.
  • the first pixel value f 1 and the second pixel value f 2 continuously change with a predetermined width L.
  • first-order differentiation processing for example, as shown in FIG.
  • an edge is identified by detecting a sharp change in f ′ (x) of the image after the 17-fire differentiation processing.
  • the edge detection processing may be detected by a second differentiation processing (Laplacian).
  • a second differentiation processing Laplacian
  • the image data is a pixel value f (x) shown in FIG. 9D
  • the second derivative f "(X) shown in Fig. 9F is obtained.
  • the sign of the second derivative f ,, (x) changes at the point where the slope is the largest in the slope of the edge. Therefore, the point at which the second derivative crosses the X-axis (called the zero-crossing point) P — cr indicates the position of the edge.
  • This image data is two-dimensional data, and at the time of actual edge detection, the position of the zero-crossing point P—cr in the image data subjected to the second derivative processing is specified as an edge.
  • the selection unit 1814 has selected a Gaussian filter 1815-1 and a Gaussian Laplacian filter 1815-10 as noise removal processing.
  • the Gaussian filter 1805 is a Gaussian filter 1815-1
  • the Gaussian Laplacian filter 1806 is a Gaussian Labrian filter 1815-10.
  • FIGS. 1OA to 10C are diagrams for explaining the noise removal processing of the data processing device shown in FIG.
  • FIG. 11 illustrates the operation of the data processing device shown in FIG. It is a flowchart for the. The operation of the data processing device, particularly the operation related to the noise removal processing, will be described with reference to FIGS. 10A to 10C and FIG.
  • the selection unit 1814 detects the noise distribution characteristic of the signal S1804, and based on the detection result, sends the signal S1814 for selecting a noise removal filter suitable for the noise characteristic to the noise removal filter 1815. Output.
  • the selection unit 1814 outputs a signal S 1814 for selecting the Gaussian filter 1815-1 and the Gaussian Laplacian filter 1815-10 as noise removal processing to the noise removal filter 1815.
  • the noise elimination filter 1815 selects any (at least one) noise elimination filter based on the signal S1814, and performs noise elimination processing on the signal S1804 using the selected noise elimination filter. Then, the image data S 1806 is generated.
  • the noise removal filter 1815 selects a Gaussian filter 1815-1 and a Gaussian Laplacian filter 1815-10.
  • the Gaussian filter 1815-1 and the Gaussian Laplacian filter 1815-10 will be described as a Gaussian filter 1805 and a Gaussian Laplacian filter 1806, respectively.
  • the Gaussian filter 1805 performs the noise removal processing shown in equations (1) and (3) based on the signal S1804 shown in FIG. 1OA, for example, and generates image data S1805 shown in FIG. 10B, for example. And outputs the result to the Gaussian Laplacian filter 1806.
  • the Gaussian Laplacian filter 1806 performs edge enhancement processing based on, for example, a signal S1805 as shown in FIG. 10B, and generates and outputs image data S1806 as shown in FIG. 10C, for example. I do.
  • This image data S 1806 is binary image data.
  • the binarization processing is performed based on the threshold value defined in the first range r1 shown in 4C.
  • the filter selected by the selection unit 1814 performs noise removal processing based on the signal S1804, and then performs edge enhancement processing using the Gaussian Laplacian filter 1806 to binarize.
  • the object h To remove noise due to random reflection of living organisms and devices such as the imaging unit 11 and generate appropriately binarized image data based on a threshold of 1 in a predetermined first range. Can be.
  • the selection unit 1814 selects a filter according to the noise characteristic, noise can be removed with high accuracy.
  • noise can be removed with high accuracy by using image data generated by imaging transmitted light from a site including a blood vessel of the subject h, and a pattern representing a blood vessel can be appropriately binarized to obtain a pattern.
  • a viewable image can be generated.
  • FIGS. 12A to 12D are conceptual diagrams for explaining the operation of the data processing device shown in FIG.
  • the data processing device 1 based on the binarized image data S 186 generated by the above-described process, for example, as shown in FIG. Pixels having a noise component smaller than _th1 are subjected to removal processing as shown in FIG. 12B. Further, the data processing device 1 generates pixel data g 21, g 2 of the same pixel value within a predetermined distance ar_th 2 based on the binarized image data S 186 shown in FIG. 12C, for example. Two Is performed to generate image data having, for example, a linear pattern g2 shown in FIG. 12D. In the present embodiment, this linear pattern corresponds to an example of a pattern indicating a blood vessel.
  • the data processing device 1 determines, for each of a plurality of pieces of pixel data indicating pixel values, which constitute the image data, a minimum pixel data among pixel data in a first area around the pixel data in a predetermined manner. Decompression processing to be pixel data, and for each piece of pixel data by the degeneration processing, expansion processing of the largest pixel data among pixel data in a second area larger than the first area surrounding the pixel data as predetermined pixel data Is performed to generate image data including a linear pattern.
  • FIGS. 13A to 13F are diagrams for explaining the degeneration processing and the expansion processing of the data processing device shown in FIG.
  • the first degeneration (erode) processing unit 1807 generates, for each of a plurality of pixel data indicating the pixel values constituting the image data S 186, the pixel data based on the image data S 186.
  • the first degeneration processing unit 1807 generates a pixel in the cross-shaped element EL1 centered on the target pixel data g—attt.
  • the smallest pixel data among the data is set as the pixel value of the target pixel g—att.
  • the minimum value 0 is set as the target pixel data g—att.
  • the first dilation processing unit 1808 based on the image data S1807, generates a plurality of pieces of pixel data indicating pixel values,
  • the image data S 188 is generated as the maximum pixel data among the pixel data in the first area around the pixel data as the predetermined pixel data, and is output to the second expansion processing section 189. Power.
  • the first expansion processing unit 1808 generates pixel data in a cross-shaped element EL 1 centered on the target pixel data g—attt as the first area.
  • the target pixel g—attt is the pixel value of the target pixel g—att.
  • the maximum value 1 is set as the target pixel data g—att.
  • the second expansion processing unit 1809 based on the image data S18008, for each of a plurality of pixel data indicating the pixel value constituting the image data S18008, the periphery of the pixel data
  • the image data S 1809 is generated as the maximum pixel data of the pixel data in the second area larger than the first area as the predetermined pixel data, and is output to the second degeneration processing section 1810 .
  • the second expansion processing unit 1809 generates a second area larger than the first area as 3X centered on the target pixel data g—attt.
  • the maximum pixel data among the pixel data in the three rectangular elements EL2 is set as the pixel value of the target pixel g—att.
  • the maximum value 1 is set as the target pixel data g—att.
  • the second degeneration processing unit 1810 is configured to generate a plurality of pieces of pixel data indicating pixel values, which form the image data S 1809, based on the image data S 1809.
  • the image data S 1810 is generated with the minimum pixel data among the pixel data in the second area larger than the first area as the predetermined pixel data.
  • the second degeneracy processing unit 1810 generates a second range larger than the first area as 3X centered on the target pixel data g—attt.
  • the minimum pixel data among the pixel data in the three rectangular elements EL2 is set as the pixel value of the target pixel g—att.
  • FIGS. 10C, 14A to 14C are diagrams for explaining the operation of the data processing device shown in FIG.
  • FIG. 15 is a flowchart for explaining the operation of the data processing device shown in FIG. The operation of the data processing device, particularly the reduction process and the expansion process, will be described with reference to FIGS. 10C, 14A to 14C, and 15.
  • step ST21 the first degeneration processing unit 1807, based on the image data S1806 shown in FIG. 10C, for example, as a first area as shown in FIG.
  • the smallest pixel data among the pixel data in the cross-shaped element EL1 is set as the pixel value of the target pixel g-att, and an image S1807 as shown in FIG. 14A is generated.
  • the first reduction processing unit 1807 generates image data S 1807 from which pixel data smaller than a predetermined size has been removed.
  • step ST22 the first dilation processing unit 1808, for example, based on the image data S1807 shown in FIG. 14A, for example, as shown in FIG.
  • the maximum pixel data among the pixel data in the center cross-shaped element ELI is set as the pixel value of the pixel of interest g-att, and the image data S 1808 shown in FIG. 14B is generated.
  • the second expansion processing unit 1809 determines, for example, based on the image data S1808 shown in FIG. 14B as a second area larger than the first area as shown in FIG.
  • Image data S 1808 is generated with the largest pixel data among the pixel data in the SX 3 rectangular element EL 2 around the pixel data g—attt as the pixel value of the target pixel g_att.
  • the first expansion processing section 1808 and the second expansion processing section connect pixel data of the same pixel value within a predetermined distance ar-th2, Image data having a linear pattern is generated.
  • the second degeneration processing unit 1810 Based on the SI809, for example, as shown in FIG. 13D, as a second area larger than the first area, a 3 ⁇ 3 rectangular element EL 2 centered on the target pixel data g—attt
  • image data S 1810 as shown in FIG. 14C is generated by setting the smallest pixel data among the pixel data in the pixel as the pixel of the target pixel g_attt.
  • the minimum pixel data among the pixel data in the first area around the pixel data is determined for each of the plurality of pixel data representing the pixel values that constitute the image data S1866.
  • a first degeneration processing unit 1807 that generates image data S 1807 as pixel data of the pixel data, and a plurality of pixel data that constitutes the image data S 1807
  • a first dilation processing unit 1808 that generates image data S1880 using the largest pixel data among the pixel data in the area 1 as predetermined pixel data, and image data S18808
  • the largest pixel data among the pixel data in the second area larger than the first area around the pixel data is set as the predetermined pixel data
  • the image data S 18 09 A second dilation processing unit 1809 for generating the image data and
  • image data S1810 is generated with predetermined minimum pixel data among pixel data in a second area larger than the first area surrounding the pixel data as predetermined pixel data. Since the second degeneracy processing section 1810 is provided, it is possible to leave a linear pattern and remove a minute pattern as a noise component.
  • the low-pass filter unit 1811 1 performs a filtering process that leaves a linear pattern on the basis of, for example, the image data S 18 10 to generate image data S 18 11.
  • the low-pass filter unit 1811 determines that the frequency component on the two-dimensional Fourier space obtained by performing the two-dimensional Fourier transform on the image data S1810 is lower than the threshold value that leaves a linear pattern.
  • the frequency component data is specified, and the specified data is subjected to inverse two-dimensional Fourier transform processing to generate image data S 1811.
  • FIGS. 16A to 16F are diagrams for explaining the operation of the first low-pass filter processing of the data processing device shown in FIG. Refer to Fig. 16 to Fig. 16 F The operation of the one-pass filter unit 1811 will be described.
  • the low-pass filter unit 1811 performs low-pass filter processing by changing the threshold value a plurality of times, for example, three times, in order to extract a linear pattern with high accuracy.
  • a threshold value of a frequency component that leaves a linear pattern will be described.
  • the low-pass filter unit 1811 sets an area a r_ref which is a reference value of the threshold in Fourier space as shown in FIG. 16A. .
  • a diamond-shaped reference area ar-ref is set on a Fourier space of 360 ⁇ 360 around the origin O.
  • Figure 16 includes a reference region a r_r ef, as shown in B, and the reference region a r_r ef 'Set, the area ar-ref' region a r_r ef being enlarged by a predetermined expansion rate rover scan '
  • a one-pass filter a r_LPF 1 is set so as to cut a region a r_h indicating a high-frequency component on the Fourier space.
  • the area a r_h corresponds to, for example, a geometrically symmetric pattern in the real space, for example, a substantially circular pattern. By forcing this region ar-h, the above-mentioned geometrically symmetric pattern can be removed. For example, as shown in Fig.
  • the low-pass filter 1811 converts the image data shown in FIG. Based on the data S101, low-frequency component data in an area ar-LPF 1 is specified in Fourier space as shown in FIG. 16C. Then, for example, when the specified low-frequency component data is subjected to an inverse two-dimensional Fourier transform process, for example, an image S102 shown in FIG. 16E is obtained. For example, when binarization processing (for example, 5 rounding off) is performed on the pixel value of the image data S102, image data S103 shown in FIG. 16F is obtained.
  • binarization processing for example, 5 rounding off
  • FIGS. 17 to 17E are diagrams for explaining the operation of the second low-pass filter processing of the low-pass filter unit.
  • the low-pass filter unit 1811 performs a filtering process a plurality of times by setting a region as a threshold value of the low-pass filtering process, that is, a region that is larger than the LPF1.
  • the mouth-to-mouth finolator 1811 sets an area larger than the area a r- LPF 1 shown in FIG. 17A as described above, for example, an area a r-L P F 2 as shown in FIG. 17B.
  • a threshold value for example, as shown in FIG. 17B, on a two-dimensional Fourier space, (180, 156), (156, 180), (1-156, 180), (-180 , 156), (-180, -156), (-156, -180), (156, -180), (180, -156)
  • the area ar- LPF2 is set.
  • the low-pass filter section 1811 In the second mouth-pass filter processing, the low-pass filter section 1811 generates, for example, the image data after the first low-pass filter processing based on the image data S102 shown in FIG. 16C and FIG. Specify the low-frequency component data in the area ar- LPF 2 on the Fourier space shown in. For example, when the specified low-frequency component data is subjected to an inverse two-dimensional Fourier transform process, an image S104 shown in FIG. 17D is obtained. For example, when binarization processing (for example, 5 rounding off) is performed on the elementary value of the image data S104, image data S105 shown in FIG. 17E is obtained.
  • binarization processing for example, 5 rounding off
  • FIGS. 18A to 18E are diagrams for explaining the operation of the third low-pass filter processing of the low-pass filter unit.
  • the low-pass filter unit 1811 sets, as the third low-pass filter processing, an area larger than the area ar_LPF 2 shown in FIG. 18A as described above, for example, an area ar—LPF 3 as shown in FIG. 18B. .
  • a threshold value for example, as shown in FIG. 18B, (180, 157), (157, 180), (-157, 180), Set the area enclosed by (-180, 157), (-180, one 157), (-157, -180), (157, -180), (180, -157) ar- LPF3.
  • the low-pass filter unit 1811 is configured as shown in FIG. 18A based on the image data S shown in FIGS. 17D and 18A, for example, as image data after the second low-pass filter processing. Identify the low frequency component data in the region a r_L PF 3 in Fourier space.
  • an image S106 shown in FIG. 18D is obtained.
  • the pixel value of the image data S106 is subjected to a binarization process (eg, rounded off to the nearest 5)
  • the image data S107 shown in FIG. 18E is obtained.
  • FIGS. 19A to 19F and FIGS. 20A to 20C are diagrams for explaining the operation of the low-pass filter unit of the data processing device shown in FIG.
  • FIG. 21 is a flowchart for explaining the operation of the low-pass filter unit of the data processing device shown in FIG. The operation of the low-pass filter section 1811 will be described with reference to FIGS. 14C, 19A to 19F, 2OA to 20C, and 21.
  • the low-pass filter unit 1811 performs a two-dimensional Fourier transform process on the image data S 1810 shown in FIGS. 14C and 19A as a first low-pass filter process, for example, as shown in FIG. 16C.
  • the area ar-LPF1 is set so as to cut the corner ar-h which is a high-frequency component on the Fourier space, the low-frequency component data in the area ar-LPF1 is specified, and the inverse two-dimensional Fourier Strange
  • the image data S 18 • 11 shown in FIG. 19B is generated by performing the conversion process (ST 32). For example, when the image data S 18011 is subjected to a binarization process (for example, rounding off to the nearest 5), image data S 18103 shown in FIG. 19C is obtained.
  • a binarization process for example, rounding off to the nearest 5
  • step ST33 as a second low-pass filter process, the low-pass finalizer section 1811 performs a two-dimensional Fourier transform process on the basis of the image data S 18102 shown in FIGS. 19B and 19D.
  • a large area for example, an area ar_LPF2 shown in FIG. 17B is set, low-frequency component data in the area ar_LPF2 is specified, and an inverse two-dimensional Fourier transform process is performed, and the image data shown in FIG. S 18014 is generated (ST 33).
  • a binarization process for example, rounded off to the nearest 5
  • step ST34 as a third low-pass filter process, the low-pass filter unit 1811 performs a two-dimensional Fourier transform process based on the image data S18104 shown in FIG. 19E and FIG. 2OA, for example, from the area ar—LPF2.
  • a large area for example, the area shown in FIG. 18B ar—LPF 3 is set (ST34), the low frequency component data in the area ar—LPF 3 is specified (ST 35), and the inverse two-dimensional Fourier is set.
  • a conversion process is performed to generate image data S 18106 shown in FIG. 20B, and the image data S 18106 is subjected to a binarization process (for example, rounded off to the nearest 5) to generate image data S 1811 shown in FIG. 19F.
  • a binarization process for example, rounded off to the nearest 5
  • the one-pass filter unit 181 1 Force A linear pattern with frequency components in a two-dimensional Fourier space obtained by performing a two-dimensional Fourier transform on the image data so as to leave a linear pattern in the image data
  • a linear pattern can be extracted.
  • a geometrically symmetric pattern for example, a substantially circular pattern can be removed.
  • the low-pass filter section 1811 performs the low-pass filter processing a plurality of times by increasing the filter area ar-LPF, so that a linear pattern can be extracted with higher accuracy.
  • FIGS. 22A to 22C are diagrams for explaining operations of the mask unit and the skeleton unit of the data processing device shown in FIG.
  • the data processing device 1 extracts an area used for authentication from the image data.
  • the data processing device 1 extracts a region including a pattern indicating a blood vessel in the image data as a region used for authentication.
  • the mask section 1812 extracts, for example, an area PN used for authentication in the image data S1811 shown in FIG. 20C, and removes a pattern P-ct not used for authentication.
  • the mask section 1812 is used to extract an area P—N used for recognition and verification in the image data S1811 based on the image data S1811.
  • a mask pattern P-M is generated, an area indicated by the mask pattern P-M is extracted from the image data S1811, and for example, the image data S1812 shown in FIG. Generate. ,
  • the skeleton section 1813 performs skeleton processing on the basis of the image data S1812 to generate image data S1813.
  • the skeletonoleton unit 1813 outputs the image data S1813 to the authentication unit 103 as a signal S102.
  • the skeleton unit 18 13 performs a degeneration process using a morphological function based on the image data S 18 12 shown in FIG. 22B, for example, and pays attention as shown in FIG. 22C.
  • a pattern for example, a pattern indicating a blood vessel is narrowed to generate image data S 18 13 by extracting only the central portion of the pattern.
  • Image data S 18 13 shown in FIG. 22C shows an image in which white and black are inverted for simple explanation. '
  • FIG. 23 is a flowchart for explaining the overall operation of the data processing device shown in FIG. It is a chart. The operation of the data processing device 1 will be briefly described with reference to FIG. In the present embodiment, a case will be described in which a living body of a subject h, for example, a finger is imaged to generate image data, a pattern indicating a finger vein in the image data is extracted, and an authentication process is performed based on the pattern. .
  • step ST101 the CPU 18 causes the irradiating section 1011 of the imaging system 101 to irradiate the finger of the subject h with near-infrared rays, for example.
  • the imaging unit 11 generates RBG image data S 11 based on the subject h and the transmitted light input through the optical lens # 012.
  • the gray scale conversion unit 1801 converts the RGB signal S11 into, for example, a gray scale of 256 gradations based on the RGB signal S11 and outputs the converted signal to the distribution data generation unit 1802 as a signal S 1801.
  • the imaging system 101 generates the RGB image data S11, but this is not a limitation.
  • the imaging system 101 when the imaging system 101 generates the grayscale image data S11, the image data S11 is output to the distribution data generation unit 1802 without performing the processing of the grayscale conversion unit 1801 in step ST102. . '
  • step ST103 based on the signal S1801, the distribution data generation unit 1802, for example, plots the horizontal axis c as the gradation value (also called pixel value) and the vertical axis ⁇ ⁇ as the number of pixel data (also called frequency). ), For example, as shown in FIG. 4C, a histogram is generated as distribution data d 1 for pixel data indicating a pixel value in a range of 256 gradations as the first range r 1.
  • the identification unit 1803 uses the signal S 1802 as shown in FIG. 5A, for example, as shown in FIG. Among the pixel values r 11, r 12, r 13, and r 14 of the number th, a range having a maximum pixel value r 11 or less is specified as a second range r 2, and is output as a signal S 180 3.
  • the mapping unit 1804 maps the pixel data in the second range r 2 specified by the specifying unit 1803 to the first range r 1 based on the signal S 1803 and performs the mapping.
  • the second image data composed of pixel data is generated and output to the Gaussian filter 1805 as a signal S 1804.
  • mapping unit 1804 converts the pixel data as shown in FIG. Mapping is performed by enlarging to a first range r1, which is a range of pixel values from 0 to 256, and as shown in FIG.
  • the data S 1804 is generated (ST 105).
  • the selection unit 1814 detects the noise distribution characteristic of the signal S1804, and, based on the detection result, selects one of a plurality of noise removal filters suitable for the noise characteristic.
  • the signal S 1814 for selecting the (at least one) noise elimination filter is output to the noise elimination filter 1815.
  • the selection unit 1814 outputs a signal S 1814 for selecting the Gaussian filter 1815-1 and the Gaussian Laplacian filter 1815-10 as noise removal processing to the noise removal filter 1815.
  • the noise elimination filter 1815 selects one of the noise elimination filters according to the signal S 1814, and selects, for example, a Gaussian filter 1815-1 and a Gaussian Laplacian filter 1815-10. For convenience of explanation, they will be described as a Gaussian filter 1805 and a Gaussian Laplacian filter 1806, respectively.
  • the Gaussian filter 1805 performs, for example, the noise removal processing shown in Expressions (1) and (3) based on the signal S 1804 shown in FIG. 10A, generates the image data S 1805 shown in FIG. Output to Laplacian filter 1806.
  • the Gaussian Laplacian filter 1806 performs edge enhancement processing based on, for example, the signal S1805 shown in FIG. W
  • the Gaussian Laplacian filter 1806 When performing the binarization processing, the Gaussian Laplacian filter 1806 performs the binarization processing based on, for example, a threshold defined in the first range r1 shown in FIG. 4C.
  • the first degeneration processing unit 1807 based on the image data S1806 shown in FIG. 10C, for example, as a first area as shown in FIG. The smallest pixel data among the pixel data in the cross-shaped element EL1 is used as the pixel value of the target pixel g-att, and an image S1807 as shown in FIG. 14A is generated.
  • step ST109 the first dilation processing unit 1808, based on the image data S1807 shown in FIG. 14A, for example, as the first region as shown in FIG.
  • the maximum pixel data among the pixel data in the cross-shaped element EL1 at the center is taken as the pixel of the target pixel g-att, and image data S1808 shown in FIG. 14B is generated.
  • the second expansion processing unit 1809 determines, for example, based on the image data S1808 shown in FIG. 14B as a second area larger than the first area as shown in FIG.
  • Image data S 1809 is generated by using the largest pixel data among the pixel data in the 3 ⁇ 3 rectangular element EL 2 centered on the pixel data g—attt as the pixel value of the target pixel g—att.
  • the second degeneration processing unit 1810 based on the image data S1809, for example, as shown in FIG. 13D, sets the pixel data of interest g_att as a second area larger than the first area as shown in FIG. 13D.
  • image data S 1810 as shown in FIG. 14C is generated using the minimum pixel data among the pixel data in the 3 ⁇ 3 rectangular element EL 2 at the center as the pixel value of the target pixel g—att.
  • the low-pass filter section 1811 performs, for example, image data S1810 shown in FIG. 14C and FIG. 19A as the first low-pass filter processing. Is subjected to a two-dimensional Fourier transform process. For example, as shown in FIG.
  • a region a r_L PF 1 is set so as to force a corner ar—h which is a high-frequency component in a Fourier space, and the region ar—
  • the low-frequency component data in the LPF 1 is specified, and inverse two-dimensional Fourier transform processing is performed to generate image data S 18011 shown in FIG. 19B.
  • the low-pass filter unit 1811 performs a two-dimensional Fourier transform process based on the image data S 18102 shown in FIGS. 19B and 19D.
  • the area of the area a r_LPF 2 shown in FIG. 17B is set, the low frequency component data in the area a r_LPF 2 is specified, the inverse two-dimensional Fourier transform processing is performed, and the image data S 1801 4 shown in FIG.
  • the low-pass filter unit 1811 performs a two-dimensional Fourier transform process based on the image data S 18104 shown in FIGS. 19E and 20A, for example, an area ar—an area larger than LPF2, For example, the area of the area a r_LPF 3 shown in FIG. 18B is set, the low-frequency component data in the area a r_LPF 3 is specified, the inverse two-dimensional Fourier transform processing is performed, and the image data S 18016 shown in FIG. Then, the image data S 18016 is binarized (eg, rounded off to the nearest 5) (ST113) to generate image data S1811 shown in FIG. 19F.
  • a two-dimensional Fourier transform process based on the image data S 18104 shown in FIGS. 19E and 20A, for example, an area ar—an area larger than LPF2, For example, the area of the area a r_LPF 3 shown in FIG. 18B is set, the low-frequency component data in the area a r_LPF 3 is specified
  • step ST114 the mask unit 1812 extracts the mask pattern PM from the image data S 1811 as shown in FIG. Then, an area indicated by a mask pattern PM is extracted from the image data S 1811 to generate, for example, image data S 1812 shown in FIG. 22B.
  • the Schenoreton unit 1813 performs a degeneration process using a morphological function based on, for example, the image data S1812 shown in FIG. 22B, and shows a pattern of interest, for example, a blood vessel, as shown in FIG.
  • the image data S 1813 in which only the central part of the pattern is extracted by narrowing the pattern is generated, and the signal S 102 and the signal S 102 are generated. And outputs it to the authentication unit 1 ⁇ 3.
  • the authentication unit 103 performs a verification process based on the signal S102 with, for example, the registered image data DIP stored in the storage unit 17 in advance.
  • the data processing device 1 generates the distribution data by the distribution data generation unit 1802 as shown in, for example, FIG. 5A and FIG.
  • the range of 2 is specified, the second range is mapped to the first range by the mapping section 1804, and specified within the first range r1 by the constituent elements 1805-1018, etc. Since the third image data is generated by binarizing based on the determined threshold value, even if the pixel value distribution data d1 differs for each subject h, the binarization process can be appropriately performed. .
  • a selection unit 1814 for selecting a noise removal process corresponding to a laser deviation among a plurality of noise removal processes, and a noise removal filter 1815 having a plurality of different types of noise removal filters, for example, are provided.
  • a noise removal process is performed based on the finoletaka S signal S1804 selected by the selection unit 1814, and then an edge enhancement process is performed by the Gaussian Laplacian finoleator 1806, and then the process is performed.
  • an edge enhancement process is performed by the Gaussian Laplacian finoleator 1806, and then the process is performed.
  • the image data S 1804 noise due to irregular reflection of the living body of the subject h and the depth of the imaging unit 11 is removed, and based on a predetermined threshold value of the first range r 1, Appropriate binarized image data can be generated.
  • the minimum pixel data among the pixel data in the first area around the pixel data is defined as predetermined pixel data.
  • a first degeneration processing unit 1807 for generating the image data S 1807, and a first area around the pixel data for each of a plurality of pixel data constituting the image data S 1807 A first dilation processing unit 1808 that generates image data S1888 with the largest pixel data among the pixel data in the pixel data as predetermined pixel data, and image data S18808 For each of a plurality of pixel data to be generated, the largest pixel data among the pixel data in the second area larger than the first area around the pixel data is generated as the predetermined pixel data, and the image data S 1809 is generated.
  • the second expansion processing section 1 8 9 For each of a plurality of pixel data constituting the image data S 1809, the smallest pixel data among the pixel data in the second area larger than the first area around the pixel data is determined as a predetermined pixel. Since the second degeneration processing unit 1810 that generates the image data S1810 as data is provided, the image data obtained by imaging the subject may be smaller than a predetermined size. In addition, the region can be removed, and pixel data close to some extent can be connected. Also, it is possible to remove the pattern as a noise component by leaving the linear pattern and the noise component. Also, the low-pass filter section can be used to perform two-dimensional Fourier transform processing on the image data so as to leave the linear pattern in the image data.
  • the frequency component is specified to be lower than a threshold value that leaves a linear pattern, and the specified low-frequency component data is subjected to an inverse two-dimensional Fourier transform process to form a linear pattern.
  • a threshold value that leaves a linear pattern
  • the specified low-frequency component data is subjected to an inverse two-dimensional Fourier transform process to form a linear pattern.
  • geometrically symmetric patterns can be removed.
  • a pattern indicating a blood vessel of the subject h can be extracted with high accuracy.
  • the data processing apparatus 1 in the conventional data processing apparatus, complicated processing of using an AI filter for vascular tracing was performed based on vascular information from image data, but the data processing apparatus 1 according to the present embodiment is For example, since a pattern indicating a blood vessel can be extracted with high accuracy based on image data obtained by imaging the subject h, the processing load is reduced as compared with the related art.
  • the skeletonoleton section 1813 extracts the central part of the pattern showing the blood vessels when performing the skeleton processing.
  • the skeleton image is less affected by the expansion and contraction of the blood vessels due to the change in the physical condition of the subject h. Data can be generated. Since the authentication unit 103 uses this image data for the authentication process, even if the physical condition of the subject h changes, Authentication processing can be performed with high accuracy.
  • FIG. 24 is a diagram for explaining a second embodiment of the remote control device using the data processing device according to the present invention.
  • a remote controller 1a incorporates the data processing device 1 according to the first embodiment into a general remote controller.
  • the remote control device la includes, for example, an imaging unit 11, an input unit 12, an output unit 13, a communication interface 14, a RAM I, and a data processing device according to the first embodiment shown in FIG. 5, a ROM 16, a storage unit 17, and a CPU 18. Only differences from the data processing device 1 according to the first embodiment will be described.
  • the remote control device 1a is provided with, for example, an irradiation unit 101, an optical lens 101, and an imaging unit 11 as an imaging system 101 in a main body unit 100.
  • the output unit 13 is for example. Under the control of PU 18, a control signal for causing television apparatus m_tv to perform predetermined processing is transmitted using infrared rays as carrier waves.
  • the output unit 13 is configured by an infrared light emitting element.
  • the television device m-tV performs a predetermined process according to the control signal received by the light receiving unit m_r, for example, displays a predetermined image on the display unit m-m.
  • the storage unit 17 stores, for example, data Dt indicating a user's preference, specifically, a preference list Dt as shown in FIG.
  • the data Dt is read and written by the CPU 18 as needed.
  • the CPU 18 performs a process corresponding to the data Dt, for example.
  • FIG. 25 is a flowchart for explaining the operation of the remote controller 1a shown in FIG.
  • step ST201 it is determined whether or not the user has touched the imaging system 101 provided on the side surface of the main body unit 100. For example, when a finger touches the imaging system 101, the process proceeds to step ST202.
  • Step ST202 the CPU 18 irradiates the finger of the subject h with the near-infrared ray from the irradiating unit 1011, and causes the imaging unit 11 to generate image data of the vein of the finger based on the transmitted light.
  • the light emitted from the irradiation unit 1011 is used, but the present invention is not limited to this mode.
  • the imaging unit 11 may generate image data based on transmitted light of the subject h by natural light.
  • step ST203 the CPU 18 extracts image data used for authentication by the extraction unit 102, for example, skeleton image data indicating a pattern indicating a blood vessel by the extraction unit 102 in the same manner as in the first embodiment, and outputs the signal S102 to the authentication unit 103 as a signal S102. Output.
  • step ST204 the CPU 18 causes the authentication / authentication unit 103 to perform an authentication process by comparing the signal S102 with the registered image data DP of the user stored in the storage unit 17 in advance.
  • step ST 205 If it is determined in step ST 205 that the user is not stored in advance by authentication section 103, the process returns to step ST201.
  • step ST205 if the authentication unit 103 identifies that the user is a user stored in advance, the CPU 18 determines the user's preference data D-t stored in the storage unit 17 according to the data D-t. Perform the following processing. For example, a control signal corresponding to the data D_t is output to the television device m-tV.
  • the remote control device including the data processing device according to the first embodiment since the remote control device including the data processing device according to the first embodiment is provided, for example, the television device m-tV can be controlled based on the authentication result.
  • information such as age is included in the data DT. If the authentication unit 103 identifies that the user is a minor as a result of the authentication by the authentication unit 103, the CPU 18 disables a specific button and restricts the television device number a from being viewed. , An age restriction function can be realized.
  • the data DT includes the display of a program guide customized for each user (such as a favorite list and a history) and the use of a scheduled recording list.
  • the CPU 18 controls the data so that the data can be used when the authentication is successful, thereby performing a process corresponding to each user.
  • FIG. 26 is a diagram for explaining a third embodiment of the data processing system using the data processing device according to the present invention.
  • the data processing system 10b includes a remote controller 1a, a recording medium (also referred to as a medium) lb, a data processor 1c, and a television m-tv. Having. Only differences from the first embodiment and the second embodiment will be described.
  • the above-described identification processing is performed on both the remote control device 1a and the recording medium 1b, and the processing according to both identification results is performed.
  • the processing according to both identification results is performed.
  • predetermined data stored in the recording medium 1b is read and written.
  • the remote control device 1a has substantially the same configuration as the remote control device 1a according to the second embodiment, and includes the data processing device 1 according to the first embodiment.
  • the recording medium 1b includes, for example, the data processing device 1 according to the first embodiment.
  • the recording medium lb is a magnetic recording medium such as a video tape, an optical disk, a magneto-optical disk, or a data recording medium such as a semiconductor memory.
  • the recording medium lb includes an imaging unit 11, an input unit 12, an output unit 13, a communication interface 14, a RAM I5, a ROM 16, and a storage unit. 17 and CPU 18. Only differences from the data processing device 1 according to the first embodiment will be described.
  • the recording medium 1 b includes, for example, an irradiation unit 100 1 1 as an imaging system 101 in the main body 100 b.
  • An optical lens 1012 and an imaging unit 11 are provided.
  • the imaging system 101 is provided at a position where the user touches the main body 100b.
  • the imaging unit 11 is provided not in one place but in an area of the main unit 1 • 0b that may be touched by the user.
  • the data processing device 1c can read and write data stored in the recording medium 1b, for example, when the authentication process is normally performed.
  • the data processing device 1c includes the data processing device according to the first embodiment.
  • the data processing device 1c includes an imaging unit 11, an input unit 12, an output unit 13, a communication interface 14, a RAMI 5, a ROM 16, a storage unit 17, and a CPU 18 as in the first embodiment shown in FIG. It has. Only differences from the data processing device 1 according to the first embodiment will be described.
  • the data processing device 1c includes, for example, a holding unit mh holding the recording medium 1b, a driver reading and writing data of the recording medium 1b held by the holding unit m__h, and a light receiving unit mr Etc.
  • the television device m-tv has a display unit m_m that displays an image based on data from a driver of the data processing device 1c, for example.
  • FIG. 27 is a flowchart for explaining the operation of the data processing system shown in FIG. The operation of the data processing system 10b will be described with reference to FIG. 27 only for differences from the first embodiment and the second embodiment.
  • steps ST301 to ST304 The operation of the remote control device 1a in steps ST301 to ST304 is the same as that in steps ST201 to ST204 of the second embodiment, and a description thereof will be omitted.
  • step ST304 the CPU 18 of the remote control device 1a causes the authentication unit 103 to perform the authentication process by comparing the signal S102 with the registered image data DP of a plurality of users stored in the storage unit 17 in advance. Let it do.
  • step ST305 if the authentication unit 103 of the remote control device 1a does not identify the user as the user to be stored in advance, the process returns to step ST301. On the other hand, if it is determined in step ST305 that the user is a user who is stored in advance by authentication section 103, CPU 18 stores the identification result as A in storage section 17 (ST 306).
  • step ST307 for example, the user sets the recording medium 1b in the holding unit mh of the data processing device (also referred to as a reproducing device) 1c.
  • step ST308 for the recording medium 1c, for example, it is determined whether or not the user has touched the imaging system 101 provided on the side surface of the main body 100b. If, for example, a finger touches the imaging system 101, the process proceeds to step ST309.
  • Step ST309 the CPTJ18 of the recording medium 1b irradiates the near-infrared ray from the irradiation unit 1011 to the finger of the subject h, and causes the imaging unit 11 to generate image data of a finger vein based on the transmitted light.
  • step ST310 the CPU 18 of the recording medium lb extracts image data used for authentication by the extraction unit 102, for example, skenoreton image data indicating a pattern indicating a blood vessel by the extraction unit 102 as in the first embodiment, and outputs it as a signal S102.
  • image data used for authentication by the extraction unit 102 for example, skenoreton image data indicating a pattern indicating a blood vessel by the extraction unit 102 as in the first embodiment
  • step ST311 the CPU 18 of the recording medium 1b causes the authentication unit 103 to perform an authentication process by comparing the signal S102 with the registered image data DP of a plurality of users previously stored in the storage unit 17.
  • step ST312 If it is determined in step ST312 that the authentication unit 103 of the recording medium 1b has not identified the user as a user who stores the information in advance, the process returns to step ST308. On the other hand, in the determination of step ST312, if the authentication unit 103 of the recording medium 1b identifies that the user is a user to be stored in advance, the CPU 18 of the recording medium 1b sets the identification result to B, for example (ST313 ).
  • step ST 314 the identification result A in step ST 306 is compared with the identification result B in step ST 313 to determine whether or not the users are the same.
  • the determination process may be performed on the recording medium 1b.
  • the recording medium 1b performs the identification based on the identification result A transmitted from the remote operation device 1a and the identification result B using the recording medium 1b.
  • This determination process may be performed by the data processing device 1c, for example.
  • the data processing device 1c performs the identification based on the identification result A transmitted from the remote control device 1a and the identification result B by the recording medium 1b.
  • the recording medium lb permits the data processing device 1c to read or write the built-in data, for example, playback or recording ( If it is determined that the users are not the same user (ST 315), for example, the data processing device 1c prohibits the data processing device 1c from reproducing or recording the data contained in the recording medium lb (ST 316).
  • the data processing device 1c reads the data contained in the recording medium 1b, and displays an image corresponding to the data on a display device m_tv on a television device m_tv. Display on m.
  • the remote control device 1a since identification is performed by both the remote control device 1a and the recording medium 1b, for example, when the identification result is the same user, data is stored and read out on the recording medium lb. For example, it is possible to prevent data tampering, eavesdropping, and overwriting of data by others.
  • FIG. 28 is a diagram illustrating a portable communication device using a data processing device according to a fourth embodiment of the present invention.
  • the portable communication device 1d according to the present embodiment includes the data processing device 1 according to the first embodiment.
  • the portable communication device 1 d has a general telephone call function, an e-mail function, and a function such as an address book, etc .:
  • a function such as an address book, etc .
  • the portable communication device 1 d includes, for example, an imaging unit 11, an input unit 12, an output unit 13, a communication interface 14, a RAMI 5, a ROM 16, a storage unit 17, and a CPU 18 as in the first embodiment shown in FIG. Having. Only differences from the data processing device 1 according to the first embodiment will be described. '
  • an imaging system 101 is provided on a call button bt or the like as the input unit 12 (all buttons bt may be used).
  • the portable communication device 1d obtains an image of a finger vein when the button bt is operated by the user, and activates the communication function as a mobile phone when the image is identified as an individual registered in advance.
  • a desired call function is executed via a base station (not shown).
  • FIG. 29 is a flowchart for explaining the operation of the data processing device shown in FIG. The differences between the operation of the portable communication device 1d and the data processing devices according to the first to third embodiments will be described with reference to FIG.
  • step ST401 it is determined whether or not the user has touched the imaging system 101 provided on the communication button bt or the like as the input unit 12. If, for example, a finger touches the imaging system 101, the process proceeds to step ST402.
  • step ST402 the CPU 18 irradiates the finger of the subject h with the near-infrared ray from the irradiating unit 1011 and causes the imaging unit 11 to generate image data of the vein of the finger based on the transmitted light.
  • step ST403 as in the first embodiment, the CPU 18 extracts image data used for authentication, for example, skeleton image data indicating a pattern indicating a blood vessel by the extraction unit 102 and authenticates it as a signal S102, as in the first embodiment. Output to section 103.
  • image data used for authentication for example, skeleton image data indicating a pattern indicating a blood vessel by the extraction unit 102 and authenticates it as a signal S102, as in the first embodiment.
  • step ST404 the CPU 18 causes the authentication unit 103 to perform the authentication process by comparing the signal S102 with the registered image data DIP of the user stored in the storage unit 17 in advance.
  • step ST405 if the authentication unit 103 identifies that the user is a pre-stored user, the communication function as a mobile phone is activated, and the user is notified of the mobile phone. Is allowed (ST406).
  • the portable communication device Id is operated by a button unique to the owner user. It is determined whether or not it has been performed (ST408).
  • step ST408 when the CPU 18 determines that the specific button b t has been operated, the CPU 18 enables the predetermined function even when used by another person.
  • the user who is the owner lends the portable communication device 1d to another person in this state (ST409).
  • step ST408 when the CPU 18 determines that the specific button bt is not operated by the user, and in step ST407.
  • step, if it is not to be lent to another person a series of processing ends.
  • step ST 405 authentication section 103 identifies that the user is not a pre-stored user, and if the identification processing has not failed a plurality of times (ST 410), returns to the processing of step ST 401.
  • the CPU 18 prohibits the authentication process (ST411), and the CPU 18 notifies the data communication device PC registered in advance that the authentication process has failed multiple times. Is transmitted (ST412).
  • the portable communication device Id operates a predetermined function when the user is authenticated as the owner who has been registered in advance as a result of the above-described authentication processing. For example, even if it is lost, it can be prevented from being used by others.
  • the information such as the current position of the portable communication device 1d can be obtained when, for example, a key is pressed more than once by a user other than a pre-registered user (when identification fails multiple times). It can be sent to the pre-registered contact data communication device PC.
  • GPS global positioning system: global positioning system
  • the user's address book data ad is stored in a server device s V that is accessible separately through a communication network (not shown) separately from the portable communication device 1 d.
  • the CPU 18 of the portable communication device 1 d accesses the server device s V via a communication network (not shown) to download the address book data ad of the user.
  • unauthorized reading of the address book by another user can be prevented.
  • the portable communication device If the authentication is performed correctly in 1d, the same address book data ad can be used.
  • the owner of the portable communication device 1 d needs to lend the portable communication device 1 d to another person with his / her consent, the owner himself operates the dedicated button bt. This allows others to use it. That is, when a specific button bt is operated, the CPU 18 operates a predetermined function without performing an authentication process even when used by another person.
  • FIG. 30 is a diagram for explaining a fifth embodiment of the data processing device according to the present invention.
  • a telephone 1e using the data processing device according to the present embodiment includes the data processing device 1 according to the first embodiment, and has a personal authentication function using a finger vein.
  • the telephone 1e according to the present embodiment is similar to the portable communication device 1d according to the fourth embodiment, for example, a specific button bt or the like provided in each home (all buttons or the main body is also possible). Is provided with an imaging system 101.
  • the configuration of the phone le is the same as that of the mobile phone according to the fourth embodiment. It is almost the same as the belt type communication device 1d. Only the differences will be described.
  • the telephone 1e acquires an image of a finger vein, for example, when the button bt is pressed.
  • the telephone 1e has a use restriction function and a personal identification function.
  • the telephone 1e has a limit function in which a maximum available time is set in advance for each user, and a telephone call cannot be made when a predetermined time is reached.
  • an imaging system 101 is provided in 1e-r, and the authentication process is continuously performed by periodically imaging the vein of the finger of the subject h.
  • the telephone 1 e periodically performs an authentication process and updates the registered image data in the storage unit 17.
  • FIG. 31 is a flowchart for explaining the operation of the telephone shown in FIG. The operation of the telephone 1e will be described with reference to FIG. For example, a case where the telephone 1e is used by a plurality of users will be described.
  • step ST501 when the CPU 18 receives a signal indicating a call from another phone, the CPU 18 identifies the user based on, for example, the telephone number of the other party, and sets the ring tone associated with the user. From the speaker.
  • the CPU 18 causes the imaging system 101 to irradiate the user's finger with light to image the finger (ST504).
  • step ST505 the same processing as in the data processing device 1 according to the first embodiment is performed to generate image data including a pattern indicating a blood vessel.
  • step ST506 the CPU 18 stores the generated image data, 17 is compared with a list of registered image data stored.
  • step ST507 it is determined whether or not the identification timeout has occurred, that is, whether or not the processing time for the identification processing is longer than a predetermined time, and if it is within the processing time, it is determined whether or not the identification has been performed ( ST 508).
  • step ST507 If it is determined in step ST507 that the call is properly identified, the CPU 18 sets a callable state (ST509).
  • step ST507 determines whether the identification is appropriate. If it is determined in step ST507 that the identification is not appropriate, the process returns to step ST504, and the measurement is repeated. If a timeout occurs in step ST507, for example, a so-called answering machine function (ST 510).
  • step ST502 when the sound is not the user's own sound, similarly, the function is switched to the answering machine function.
  • step ST501 when making a call instead of receiving a telephone call, the CP 18 determines, for example, whether or not the user's finger has touched the imaging system 101 (ST 51 1). If, for example, a finger touches the imaging system 101, the process proceeds to step ST512.
  • step ST512 the CPU 18 irradiates the finger of the subject h with the near-infrared ray from the irradiating unit 1011 and causes the imaging unit 11 to generate image data of the vein of the finger based on the transmitted light.
  • step ST513 as in the first embodiment, the CPU 18 extracts image data used for authentication, for example, skeleton image data indicating a pattern indicating a blood vessel, by the extraction unit i02, and outputs the extracted data to the authentication unit 103 as a signal S102. I do.
  • image data used for authentication for example, skeleton image data indicating a pattern indicating a blood vessel
  • Step ST514 the CPU 18 causes the authentication unit 103 to perform authentication processing by comparing the signal S102 with the registered image data D_P of the user stored in the storage unit 17 in advance.
  • step ST515 the authentication unit 103 recognizes that the user is stored in advance. If not, the process returns to step ST511.
  • step ST515 if it is determined in step ST515 that the user is a user who is stored in advance by authentication section 103, CPU 18 displays the address book data ad of the identified user on the display section of output section 13 (ST516). ), Set to be able to talk (ST 51 7).
  • step S518 it is determined in step S518 whether or not the use time has been set.
  • CPU 18 determines whether or not it is within the available time (ST 519), and if it is within the available time, determines whether or not the call has ended (ST 520). .
  • step ST519 if it is not within the available time, the user is warned, for example, a display indicating the warning is displayed on the display unit, and the call is forcibly terminated (ST521).
  • step ST528 if the use time is not set in step ST518, and if the call is terminated in step ST520, a series of processes is terminated.
  • the telephone 1e is Since the data processing device according to the first embodiment is built in and the use time can be set, for example, a long telephone call can be prevented.
  • the imaging system 101 is provided on the button bt, but this is not a limitation. In this case, it may be provided in the receiver 1 e-r or the like, or may be provided in both the button b t and the receiver 1 e-r and used depending on the situation.
  • a plurality of users for example, the whole family, can use the same telephone 1e, and an address book for a recognized user is displayed. Good.
  • the ringtone when receiving a call, can be set for each user, and it can be set so that only the user can answer the call, so that security is high.
  • security is high because personal identification is performed when the receiver is picked up, and it is possible to make a call for a preset user.
  • the preset user when the preset user is away, for example, even if another family member is at home, the user can switch to answering machine, which is highly secure.
  • FIG. 32 is a diagram for explaining a sixth embodiment of the data processing device according to the present invention.
  • a PDA (Personal Digital Assistant) 1 # according to the present embodiment includes the data processing device 1 according to the first embodiment.
  • the PDA 1f is provided with an imaging system 101 on the side surface of the main body, the button bt, and the like.
  • private data can be displayed only if you are the principal.
  • FIG. 33 is a diagram for explaining a seventh embodiment of the data processing device according to the present invention.
  • the mouse 1 g according to the present embodiment is a so-called mouse as an input device of, for example, a personal computer PC, and includes the data processing device 1 according to the first embodiment.
  • the mouse 1 g is provided with an imaging system 101 at the button bt or the like, for example.
  • the personal computer can be set to log in only if the user is himself. For example, turning on the power of a personal computer PC or logging in It can be used to display a screen.
  • the data processing device 1 is incorporated in a remote control or a portable communication device, the present invention is not limited to this embodiment.
  • an imaging system 101 may be provided on a keyboard, and an image of the subject h may be imaged during key input, for example, and authentication processing may be performed based on the imaged data.
  • the subject h may be imaged while the necessary items are being input, and the authentication process may be performed based on the imaged data.
  • the system is such that the order cannot be made unless the person is the person.
  • it can be managed twice and security is further improved.
  • an imaging system 101 is provided in a touch panel such as an ATM (Automatic teller machine) of a bank, and when inputting necessary information, the subject h is imaged, and authentication processing is performed based on the imaging data. Good. For example, by setting cash to be able to be withdrawn when the individual is identified, security is improved.
  • ATM Automatic teller machine
  • an imaging system 101 may be provided in a house key, a mail box, or the like, an image of the subject h may be taken, and an authentication process may be performed based on the taken data.
  • an authentication process may be performed based on the taken data.
  • the data processing device 1 may be provided on a bicycle, an image of the subject h may be captured, and the authentication processing may be performed based on the captured data.
  • security is improved.
  • security is further improved.
  • it is used as a substitute for a signature when using a credit card.
  • a reader / writer such as a credit card
  • the present invention is applicable to, for example, an image processing apparatus that processes image data obtained by imaging a subject.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

分布データ生成部1802により分布データを生成し、特定部1803により第2の範囲を特定し、マッピング部1804により第2の範囲を第1の範囲にマッピングし、構成要素1805~1812等により第1の範囲r1内に規定された閾値を基に2値化して第3の画像データを生成するので、被検体h毎に画素値の分布データd1が異なる場合であっても、適切に2値化処理できる。

Description

明 細 書 画像処理装置、 および画像処理方法 技術分野
本発明は、 例えば、 被検体を撮像して得られた画像データを処理する画像処理 装置、 および画像処理方法に関するものである。 背景技術
従来、 例えば生体 (被検体) を撮像して得られた画像データを用いて個人識別 処理を行う識別装置が知られている (例えば、 特開平 1 0— 1 2 7 6 0 9号公報 参照)。
上述した従来の識別装置では、 例えば被検体の手の透過光を撮像して、 その画 像データの画素値について予め決められた閾値を基に 2値化画像データを生成し て識別処理を行う。 例えば識別装置は、 2値化画像データの内の血管の配置を示 すパターンを基に識別処理を行う。
ところで、 撮像データの画素値の分布は被検体毎に異なる。 例えば脂肪成分の 多い被検体の撮像データは、 脂肪成分の少ない被検体の撮像データと比べて画素 値の分布データが広範囲に広がり画素値の平均値が比較的高い。
'上述した従来の識別装置は、 予め決められた閾値を基に 2値化処理を行うので 、 例えば脂肪成分の少ない被検体の画像データでは適切な 2ィ直化画像データを生 成できるが、 脂肪成分の多い被検体の画像データでは、 偏った画素値を有する 2 値化画像データを生成してしまい、 適切に 2値化処理できない場合があり、 改善 が望まれている。
また、 上述の被検体を撮像して得られた画像データには、 ノイズ成分に相当す る微小な大きさの領域が含まれており、 このノィズ成分が識別処理の精度に大き く影響する。 そのため、 画像データからノイズ成分に相当する所定の大きさの領 域を除去したいという要望がある。
また、 識別処理では、 画像データ中の線形状のパターンが重要であるが、 ノィ ズ等により線形状のパターンが分断されて明確に線形状のパターンが視認できな い場合がある。 そのため、 ノイズ等を考慮してある程度近い画素データ間を接続 して、 明確な線形状のパターンを含む画像データを得たいという要望がある。 発明の開示
本発明の目的は、 被検体毎に画素値の分布データが異なる場合であっても、 適 切に 2値化処理できる画像処理装置、 および画像処理方法を提供することにある また、 本発明の他の目的は、 被検体を撮像して得られた画像データのうち、 所 定の大きさより小さい領域を除去し、 ある程度近い画素データ間を接続可能な画 像処理装置、 および画像処理方法を提供することにある。
前記目的を達成するために、 本発明の第 1の観点の画像処理装置は、 被検体を 撮像して得られた第 1の画像データを構成し予め規定された第 1の範囲の画素値 を示す複数の画素データについて、 前記画素データの分布を示す分布データを生 成する分布データ生成手段と、 前記分布データ生成手段が生成した前記分布デー タに基いて、 前記第 1の範囲のうち 2値化対象とする第 2の範囲を特定する特定 手段と、 前記複数の画素データのうち、 前記特定手段が特定した前記第 2の範囲 にある画素データを前記第 1の範囲にマッビングして、 当該マッビングした前記 画素データで構成される第 2の画像データを生成するマツビング手段と、 前記マ ッビング手段で生成した前記第 2の画像データを、 前記第 1の範囲内に規定され た閾値を基に 2値化して第 3の画像データを生成する 2値化手段とを有する。 本発明の第 1の観点の画像処理装置によれば、 分布データ生成手段は、 被検体 を撮像して得られた第 1の画像データを構成し予め規定された第 1の範囲の画素 値を示す複数の画素データについて、 画素データの分布を示す分布データを生成 する。
特定手段は、 分布データ生成手段が生成した分布データに基いて、 第 1の範囲 のうち 2値化対象とする第 2の範囲を特定する。
マッピング手段は、 複数の画素データのうち、 特定手段が特定した第 2の範囲 にある画素データを第 1の範囲にマッビングして、 当該マッビングした画素デー タで構成される第 2の画像データを生成する。
2値化手段は、 マッピング手段で生成した第 2の画像データを、 第 1の範囲内 に規定された閾値を基に 2値化して第 3の画像データを生成する。
さらに、 前記目的を達成するために、 本発明の第 2の観点の画像処理装置は、 被検体を撮像して得られた第 1の画像データを構成する、 画素値を示す複数の画 素データ毎に、 当該画素データの周囲の第 1の領域内の画素データのうち最小の 画素データを前記画素データとする第 1の処理手段と、 前記第 1の処理手段によ る前記画素データ毎に、 当該画素データの周囲の前記第 1の領域よりも大きい第 2の領域内の画素データのうち最大の画素データを前記画素データとして第 2の 画像データを生成する第 2の処理手段とを有する。
さらに、 前記目的を達成するために、 本発明の第 3の観点の画像処理方法は、 被検体を撮像して得られた第 1の画像データを構成し予め規定された第 1の範囲 の画素値を示す複数の画素データについて、 前記画素データの分布を示す分布デ ータを生成する第 1の工程と、 前記第 1の工程で生成した前記分布データに基い て、 前記第 1の範囲のうち 2値化対象とする第 2の範囲を特定する第 2の工程と 、 前記複数の画素データのうち、 前記第 2の工程で特定した前記第 2の範囲にあ る画素データを前記第 1の範囲にマッビングして、 当該マッビングした前記画素 データで構成される第 2の画像データを生成する第 3の工程と、 前記第 3の工程 で生成した前記第 2の画像データを、 前記第 1の範囲内に規定された閾値を基に 2値化して第 3の画像データを生成する第 4の工程とを有する。 さらに、 前記目的を達成するために、 本発明の第 4の観点の画像処理方法は、 被検体を撮像して得られた第 1の画像データを構成する、 画素値を示す複数の画 素データ毎に、 当該画素データの周囲の第 1の領域内の画素データのうち最小の 画素データを前記画素データとする第 1の工程と、 前記第 1の工程による前記画 素データ毎に、 当該画素データの周囲の前記第 1の領域よりも大きい第 2の領域 内の画素データのうち最大の画素データを前記画素データとして第 2の画像デー タを生成する第 2の工程とを有する。
本発明によれば、 被検体毎に画素値の分布データが異なる場合であっても、 適 切に 2値化処理できる画像処理装置、 および画像処理方法を提供することができ る。
また、 本発明によれば、 被検体を撮像して得られた画像データのうち、 所定の 大きさより小さい領域を除去し、 ある程度近い画素データ間を接続可能な画像処 理装置、 および画像処理方法を提供することができる。 図面の簡単な説明
図 1は、 本発明に係るデータ処理装置の第 1実施形態を示す全体の概念図であ る。
図 2は、 図 1に示したデータ処理装置のハードウェア的なプロック図である。 図 3は、 図 1に示したデータ処理装置の機能プロック図である。
図 4 A〜図 4 Eは、 図 1に示したデータ処理装置の動作を説明するための図で ある。 図 4 Aは画像データ S 1 1の一例を示す図である。 図 4 Bは画像データ S 1 0 8 1の一例を示す図である。 図 4 Cは分布データ d 1の一例を示す図である 。 図 4 Dは分布データを拡大した図である。 図 4 Eは画像データ S 1 0 8 4の一 例を示す図である。
図 5 A, 図 5 Bは、 図 3に示した特定部の動作を説明するための図である。 図 5 Aは分布データ d 1の一例を示す図である。 図 5 Bは分布データ d 1 ' の一例 を示す図である。
図 6は、 図 1に示したデータ処理装置のマッビング処理に係る動作を説明する ためのフローチヤ一トである。
図 7は、 図 1に示したデータ処理装置のフィルタ処理に係る機能ブロック図で ある。
図 8は、 ガウシアンフィルタを説明するための図である。
図 9 A〜図 9 Fは、 ガウシアンラプラシアンフィルタを説明するための図であ る。 図 9 Aはステツプ形状の画素値の一例を示す図である。 図 9 Bは画素値の一 例を示す図である。 図 9 Cは一次微分処理を施した画素値を示す図である。 図 9 Dは画素値の一例を示す図である。 図 9 Eは一次微分処理を施した画素値の一例 を示す図である。 図 9 Fは 2次微分処理を施した画素値の一例を示す図である。 図 1 0 A〜図 1 0 Cは、 図 1に示したデータ処理装置のノィズ除去処理を説明 するための図である。 図 1 O Aは画像データ S 1 8 0 4の一例を示す図である。 図 1 0 Bは画像データ S 1 8 0 5の一例を示す図である。 図 1 0 Cは画像データ S 1 8 0 6の一例を示す図である。
図 1 1は、 図 1に示したデータ処理装置の動作を説明するためのフローチヤ一 トである。
図 1 2 A〜図 1 2 Dは、 図 1に示したデータ処理装置の動作を説明するための 概念図である。 図 1 2 Aはノィズ成分を含む画像データの一例を示す図である。 図 1 2 Bはノィズ除去処理を施した画像データの一例を示す図である。 図 1 2 C は画像データの一例を示す図である。 図 1 2 Dは接続処理を施した画像データの 一例を示す図である。
図 1 3 A〜図 1 3 Fは、 図 1に示したデータ処理装置の縮退処理および膨張処 理を説明するための図である。 図 1 3 Aは画素データの一例を示す図である。 図 1 3 Bは十字形状のェレメント内の画素を基に縮退処理を行ったときの画素デー タの一例である。 図 1 3 Cは十字形状のエレメント内の画素を基に膨張処理を行 つたときの画素データの一例である。 図 1 3 Dは画素データの一例を示す図であ る。 図 1 3 Eは 3 X 3エレメント内の画素を基に縮退処理を行ったときの画素 データの一例である。 図 1 3 Fは 3 X 3エレメント内の画素を基に膨張処理を 行ったときの画素データの一例である。
図 1 4 A〜図 1 4 Cは、 図 1に示したデータ処理装置の動作を説明するための 図である。 図 1 4 Aは、 画像データ S 1 8 0 7の一例を示す図である。 図 1 4 B は画像データ S 1 8 0 8の一例を示す図である。 図 1 4 Cは画像データ S 1 8 1 0の一例を示す図である。
図 1 5は、 図 1に示したデータ処理装置の動作を説明するためのフローチヤ一 トである。
図 1 6 A〜図 1 6 Fは、 図 1に示したデータ処理装置の第 1のローパスフィル タ処理の動作を説明するための図である。 図 1 6 Aは 2次元フーリエ空間上の基 準領域の一例を示す図である。 図 1 6 Bは基準領域を所定倍拡大した領域の一例 を示す図である。 図 1 6 Cはローパスフィルタの一例を示す図である。 図 1 6 D は画像データの一例を示す図である。 図 1 6 Eはローパスフィルタ処理を施した 画像データの一例を示す図である。 図 1 6 Fは 2値化処理を施した画像データの 一例を示す図である。
図 1 7 〜図1 7 Eは、 ローパスフィルタ部の第 2のローパスフィルタ処理の 動作を説明するための図である。 図 1 7 Aは 2次元フーリエ空間上の基準領域の 一例を示す図である。 図 1 7 Bはローパスフィルタの一例を示す図である。 図 1 7 Cは画像データの一例を示す図である。 図 1 7 Dはローパスフィルタ処理を施 した画像データの一例を示す図である。 図 1 7 Eは 2値ィヒ処理を施した画像デー タの一例を示す図である。
図 1 8 A〜図 1 8 Eは、 口一パスフィルタ部の第 3の口一パスフィルタ処理の 動作を説明するための図である。 図 1 8 Aは 2次元フーリェ空間上の基準領域の —例を示す図である。 図 1 7 Bはローパスフィルタの一例を示す図である。 図 1 8 Cは画像データの一例を示す図である。 図 1 8 Dはローパスフィルタ処理を施 した画像データの一例を示す図である。 図 1 8 Eは 2値ィ匕処理を施した画像デー タの一例を示す図である。
図 1 9 〜図1 9 Fは、 図 1に示したデータ処理装置のローパスフィルタ部の 動作を説明するための図である。 図 1 9 Aは画像データ S 1 8 1 0の一例を示す 図である。 図 1 9 Bは画像データ S 1 8 1 0 2の一例を示す図である。 図 1 9 C は画像データ S 1 8 1 0 3の一例を示す図である。 図 1 9 Dは画像データ S 1 8 1 0 2の一例を示す図である。 図 1 9 Eは画像データ S 1 8 1 0 4の一例を示す 図である。 図 1 9 Fは画像データ S 1 8 1 0 5の一例を示す図である。
図 2 O A〜図 2 0 Cは、 図 1に示したデータ処理装置のローパスフィルタ部の 動作を説明するための図である。 図 2 O Aは画像データ S 1 8 0 4の一例を示す 図である。 図 2 0 Bは画像データ S 1 8 1 0 6の一例を示す図である。 図 2 0 C は画像データ S 1 8 1 1の一例を示す図である。
図 2 1は図 1に示したデータ処理装置のローパスフィルタ部の動作を説明する ためのフローチャートである。
図 2 2 A〜図 2 2 Cは、 図 1に示したデータ処理装置のマスク部およびスケル トン部の動作を説明するための図である。 図 2 2 Aは、 マスクパターンの一例を 示す図である。 図 2 2 Bは画像データ S 1 8 1 2の一例を示す図である。 図 2 2 Cは画像データ S 1 8 1 3の一例を示す図である。
図 2 3は、 図 1に示したデータ処理装置の全体の動作を説明するためのフロー チャートである。
図 2 4は、 本発明に係るデータ処理装置を用いた遠隔操作装置の第 2実施形態 を説明するための図である。
図 2 5は、 図 2 4に示した遠隔操作装置 1 aの動作を説明するためのフローチ ヤートである。
図 2 6は、 本発明に係るデータ処理装置を用いたデータ処理システムの第 3実 施形態を説明するための図である。
図 2 7は、 図 2 6に示したデータ処理システムの動作を説明するためのフロー チャートである。
図 2 8は、 本発明に係るデータ処理装置を用いた携帯型通信装置の第 4実施形 態を説明するための図である。
図 2 9は、 図 2 8に示したデータ処理装置の動作を説明するためのフローチヤ ートである。
図 3 0は、 本発明に係るデータ処理装置の第 5実施形態を説明するための図で ある。
図 3 1は、 図 3 0に示した電話の動作を説明するためのフローチャートである 図 3 2は、 本発明に係るデータ処理装置の第 6実施形態を説明するための図で ある。
図 3 3は、 本発明に係るデータ処理装置の第 7実施形態を説明するための図で ある。 発明を実施するための最良の形態
本発明に係る画像処理装置は、 被検体を撮像して得られた画像データを基に、 画像データを構成し予め規定された第 1の範囲の画素値を示す複数の画素データ について、 画素データの分布を示す分布データを生成し、 2値化対象とする第 2 の範囲を特定し、 その第 2の範囲内の画素データを第 1の範囲にマッビングして 、 そのマッピングした画素データで構成される画像データを生成し、 その画像デ ータを第 1の範囲内で規定された閾値を基に 2値ィヒして 2ィ直化画像データを生成 する。
さらに、 本発明に係る画像処理装置は、 被検体を撮像して得られた画像データ のうち、 所定の大きさより小さい領域を除去し、 ある程度近い画素データ間を接 続する。
詳細には、 画像処理装置は、 被検体を撮像して得られた第 1の画像データを構 成する、 画素値を示す複数の画素データ毎に、 当該画素データの周囲の第 1の領 域内の画素データのうち最小の画素データを前記画素データし、 さらに、 その画 素データ毎に、 当該画素データの周囲の第 1の領域よりも大きい第 2の領域内の 画素データのうち最大の画素データを画素データとして第 2の画像データを生成 する。
以下、 本発明に係る画像処理装置の第 1実施形態として、 被検体 hとしての生 体中の血管が形成された部位を撮像して画像データを生成し、 その画像データを 画像処理して血管情報を抽出して、 その抽出した血管情報を基に認証処理を行う データ処理装置を説明する。
図 1は、 本発明に係るデータ処理装置の第 1実施形態を示す全体の概念図であ る。
本実施形態に係るデータ処理装置 1は、 図 1に示すように、 撮像系 1 0 1、 抽 出部 1 0 2、 および認証部 1 0 3を有する。 データ処理装置 1は本発明に係る画 像処理装置の一例に相当する。
撮像系 1 0 1は、 被検体 hを撮像して画像データを生成し、 その画像データを 信号 S 1 1として抽出部 1 0 2に出力する。
撮像系 1 0 1は、 詳細には照射部 1 0 1 1および光学レンズ 1 0 1 2を有する 。
照射部 1 0 1 1は、 例えばハロゲンランプ等より構成され、 制御信号により被 検体 hの一部に電磁波、 例えば近赤外線を照射する。
例えば被検体 hとしての生体に電磁波を照射した場合、 波長領域 6 0 0 n m〜 1 3 0 0 11 m程度の赤色から赤外領域の近赤外線は、 他の波長領域の電磁波と比 較して透過性が高い。 この波長領域では血中のヘモグロビンによる光吸収が支配 的である。 例えば被検体 hとしての手に甲側から近赤外線を照射し、 掌側から透過光を撮 像した場合に、 電磁波は血中のヘモグロビンにより吸収されるため、 掌側の表面 近傍の太い血管に相当する領域が、 血管に相当する領域以外の領域よりも喑ぃ画 像データが得られる。
血管の静脈は、 成長過程で形成され後天性のものであり、 この血管の形状は個 人差が大きい。 本実施形態では、 この血管を撮像して得られた画像データを個人 特有の識別情報として認証処理に用いる。
光学レンズは 1 0 1 2は、 被検体 hからの透過光を撮像部 1 1に結像する。 撮像部 1 1は、 光学レンズ 1 0 1 2により結像された透過光を基に画像データ S 1 1を生成する。 例えば撮像部 1 1は、 CCD (Charge-coupled device :電 荷結合素子) 型画像センサや、 C -MO S (Complementary metal-oxide semiconductor ) 型画像センサにより構成され、 画像データ S 1 1を抽出部 10 2に出力する。 この際、 画像データ S 1 1は RGB (red-green-blue) 信号であ つてもよいし、 それ以外の色やグレースケール等の画像データであってもよい。 抽出部 1 02は、 画像データ S 1 1を基に画像処理を行い、 認証に用いる画像 データ、 例えばスケルトン画像データを抽出して信号 S 1 02として認証部 1 0 3に出力する。
認証部 1 03は、 抽出部 102による信号 S 102を基に、 予め記憶する登録 画像データと照合処理を行い、 認証処理を行う。
図 2は、 図 1に示したデータ処理装置のハードウェア的なプロック図である。 データ処理装置 1は、 例えば図 2に示すように、 撮像部 1 1、 入力部 1 2、 出 力部 1 3、 通信インタフェース (IZF) 14、 RAM (Random access Memory ) 1 5、 ROM (Read only memory) 16、 記憶部 1 7、 および CPU 1 8を有 する。
撮像部 1 1、 入力部 1 2、 出力部 1 3、 通信インタフェース (IZF) 14、 R AM 1 5、 R OM 1 6、 記憶部 1 7、 および C P U (Central Processing Unit) 18は、 バス B Sにより接続されている。
撮像部 1 1は、 CPU18の制御により、 被検体 hの画像データを生成し信号 S 1 1として出力する。
入力部 12は、 例えばユーザの操作に応じた信号を CPU 18に出力する。 例 えば入力部 12は、 キーボード、 マウス、 およびタツチパネル等により構成され る。
出力部 13は、 CPU 18の制御により所定のデータに応じた出力を行う。 例 えば出力部 1 3はディスプレイ等の表示装置等により構成される。
通信インタフェース (I/F) 14は、 CPU 18の制御により、 例えば不図 示の通信ネットワークを介して、 他のデータ処理装置とデータ通信を行う。
RAMI 5は、 例えば CPU 18のワークスペースとして用いられる。 ROM 16は、 例えば初期値や初期パラメータ等のデータを記憶し、 そのデー タは CPU 18により利用される。
記憶部 17は、 CPU18により所定のデータの書込みおよび読出しが行われ る。 例えば記憶部 17は、 HDD (Hard disk drive ) 等の記憶装置で構成され る。
記憶部 17は、 例えば図 2に示すように、 プログラム P R G、 画像データ D— P等を有する。
プログラム PRGは、 本発明の一実施形態に係る機能、 例えば抽出部 102お よび認証部 103等の機能を含み、 C P U 18により実行されることで、 その機 能が実現される。
画像データ D— Pは、 例えば認証処理に用いられる登録画像データ等の画像デ ータである。
図 3は、 図 1に示したデータ処理装置の機能プロック図である。
例えば CPU 18は、 図 3に示すようにプログラム PRGを実行することによ り、 抽出部 102の機能として、 グレースケール変換部 1801、 分布データ生 成部 1 8 0 2、 特定部 1 8 0 3、 マッピング部 1 8 0 4、 ガウシアンフィルタ 1 8 0 5、 ガウシアンラプラシアン 1 8 0 6、 第 1の縮退処理部 1 8 0 7、 第 1の 月彭張処理部 1 8 0 8、 第 2の膨張処理部 1 8 0 9、 第 2の縮退処理部 1 8 1 0、 ローパスフィルタ部 1 8 1 1、 マスク部 1 8 1 2、 およびスケルトン部 1 8 1 3 の機能を実現する。
本発明はこの形態に限られるものではない。 例えば図 3に示す構成要素の機能 をハードウエアにより実現してもよい。
分布データ生成部 1 8 0 2は本発明に係る分布データ生成手段の一例に相当し 、 特定部 1 8 0 3は本発明に係る特定手段の一例に相当する。
マツビング部 1 8 0 4は本発明に係るマツビング手段の一例に相当し、 ローパ スフィルタ部 1 8 1 1は本発明に係るフィルタ処理手段の一例に相当する。 ガウシアンフィルタ 1 8 0 5、 ガウシアンラプラシアン 1 8 0 6、 第 1の縮退 処理部 1 8 0 7、 第 1の膨張処理部 1 8 0 8、 第 2の膨張処理部 1 8 0 9、 第 2 の縮退処理部 1 8 1 0、 ローパスフィルタ部 1 8 1 1、 マスク部 1 8 1 2、 およ びスケルトン部 1 8 1 3 ί 本発明に係る 2値化手段の一例に相当する。
第 1の縮退処理部 1 8 0 7は本発明に係る第 1の処理手段の一例に相当し、 第 1の膨張処理部 1 8 0 8は本発明に係る第 4の処理手段の一例に相当し、 第 2の 膨張処理部 1 8 0 9は本発明に係る第 2の処理手段の一例に相当し、 第 2の縮退 処理部 1 8 1 0は本発明に係る第 3の処理手段の一例に相当する。
' グレースケール変換部 1 8 0 1は、 撮像部 1 1からの R G Bの信号 S 1 1を基 にグレースケールに変換して信号 S 1 8 0 1として、 分布データ生成部 1 8 0 2 に出力する。 詳細にはグレースケール変換部 1 8 0 1は、 R G B信号を白から黒 までの所定の階調、 例えば 2 5 6階調に変換する。 +
本実施形態では、 撮像部 1 1は R G Bの信号 S 1 1を生成し、 グレースケーノレ 変換部 1 8 0 1がその信号 S 1 1をグレースケールに変換処理を行ったが、 この 形態に限られるものではない。 例えば、 撮像部 1 1がグレースケールの画像デー タ S 1 1を生成した場合には、 グレースケール変換部 1 8 0 1を設けない。 図 4 A〜図 4 Eは、 図 1に示したデータ処理装置の動作を説明するための図で ある。
本実施形態では、 撮像部 1 1は、 例えば被検体 hの生体の指を撮像して図 4 A に示すような R G B画像データ S 1 1を出力する。
グレースケール変換部 1 8 0 1は、 その画像データ S 1 1を基に、 例えば図 4 Bに示すような、 グレースケールの画像データ S 1 8 0 2を生成し、 分布データ 生成部 1 8 0 2に出力する。
分布データ生成部 1 8 0 2は、 グレースケール変換部 1 8 0 1からの信号 S 1 8 0 1を基に、 画像データを構成し予め規定された第 1の範囲の画素値を示す複 数の画素データについて、 画素データの分布を示す分布データ d 1を生成し、 信 号 S 1 8 0 2として特定部 1 8 0 3に出力する。
詳細には分布データ生成部 1 8 0 2は、 信号 S 1 8 0 1を基に、 例えば横軸 c を階調の値 (画素値ともいう), 縦軸 f をその画素データの数 (度数ともいう) とすると、 図 4 Cに示すように第 1の範囲 r 1として 2 5 6階調の範囲の画素値 を示す画素データについて、 分布データ d 1としてヒストグラムを生成する。 図 4 Cでは小さな画素値は黒に相当し、 大きな画素値は白に相当する。
分布データ生成部 1 8 0 2は、 詳細には第 1の範囲 r 1内の各画素値について 、 画素値を持つ画素データの数を示す分布データ d 1を生成する。
図 5 A, 図 5 Bは、 図 3に示した特定部の動作を説明するための図である。 特定部 1 8 0 3は、 信号 S 1 8 0 2を基に、 第 1の範囲 r 1のうち予め決めら れた数の画素データが持つ画素値のなかで最大の画素値以下の範囲を、 2値化対 象とする第 2の範囲 r 2として特定し、 信号 S 1 8 0 3として出力する。 詳細には特定部 1 8 0 3は、 例えば図 5 Aに示すように、 分布データ d 1につ いて、 第 1の範囲 r 1内のうち、 予め決められた閾値 V—t hの数の画素値 r 1 1, r 1 2 , r 1 3 , r 1 4のなかで最大の画素値 r 1 1以下の範囲を第 2の範 囲 r 2として特定する。
例えば特定部 1 8 0 3は、 図 5 Aに示すような分布データ d 1の場合には 0〜 1 1 0の画素値の範囲を第 2の範囲 r 2として特定する。
ところで、 被検体 hの画素値の分布データは被検体 h毎に異なる。 例えば脂肪 成分の多レ、被検体 hの画像データのヒストグラム d は、 脂肪成分の少なレヽ被 検体の画像データと比べて、 図 5 Bに示すように分布データ d 1, が広範囲に広 がり画素値の平均値が比較的高い。
特定部 1 8 0 3は、 例えば図 5 Bに示すような分布データ d 1 ' の場合には、 第 1の範囲 r 1内のうち、 予め決められた閾値 V— t hの数の画素値 r 1 1 ' , r l 2,, r 1 3 ' , r 1 4 ' のなかで最大の画素値 r 1 1 ' 以下の範囲を第 2の 範囲 r 2 ' として特定する。
マッビング部 1 8 0 4は、 信号 S 1 8 0 3を基に、 複数の画素データのうち、 特定部 1 8 0 3が特定した第 2の範囲 r 2にある画素データを第 1の範囲 r 1に マッビングして、 当該マッビングした画素データで構成される第 2の画像データ を生成し信号 S 1 8 0 4として出力する。
詳細にはマッビング部 1 8 0 4は、 例えば図 4 Cに示すように 0〜 1 1 0の画 素値の範囲を第 2の範囲 r 2とする場合には、 図 4 Dに示すように画素データを 0 - 2 5 6の画素値の範囲である第 1の範囲 r 1に拡大することでマッビングを 行い、 図 4 Eに示すように血管情報を含まない画像データのうち中心部分を拡大 して第 2の画像データ S' l 8 0 4を生成する。
図 6は、 図 1に示したデータ処理装置のマッビング処理に係る動作を説明する ためのフローチャートである。 図 4 , 図 5 A, 図 5 B, 図 6を参照しながら、 分 布データ生成部 1 8 0 2 , 特定部 1 8 0 3 , マツビング部 1 8 0 4の動作を説明 する。
撮像部 1 1では、 被検体 hを撮像して画像データ S 1 1をグレースケール変換 部 1 8 0 1に出力する。 画像データ S 1 1は、 グレースケール変換部 1 8 0 1に より 2 5 6階調のグレースケールに変換され、 信号 S 1 8 0 1として分布データ 生成部 1 8 0 2に入力される。
ステップ S T 1において、 分布データ生成部 1 8 0 2は、 信号 S 1 8 0 1を基 に、 例えば図 4 Cに示すように、 画像データ Sを構成し予め規定された第 1の範 囲 r 1内の画素値を示す複数の画素データについて、 その画素 を持つ画素デ一 タの数を示す分布データ d 1を生成し信号 S 1 8 0 2として特定部 1 8 0 3とし て出力する。
ステップ S T 2において、 特定部 1 8 0 3は、 図 4 Cに示すように、 信号 S 1 8 0 2を基に、 第 1の範囲 r 1内のうち予め決められた数、 例えば閾値 V— t h の画素データが持つ画素値のなかで最大の画素値 r 1 1以下の範囲を、 2値化対 象とする第 2の範囲 r 2として特定し、 信号 S 1 8 0 3としてマッピング部 1 8 0 4に出力する。
ステップ S T 3において、 マッピング部 1 8 0 4は、 図 4 Dに示すように、 信 号 S 1 8 0 3を基に複数の画素データのうち、 特定部 1 8 0 3が特定した第 2の 範囲 r 2にある画素データを第 1の範囲 r 1にマッビングして、 当該マッビング した画素データで構成される第 2の画像データを生成し、 信号 S 1 8 0 4として 出力する。
ステップ S T 4において、 例えば後述する構成要素 1 8 0 5〜1 8 1 2等によ りマツビング部 1 8 0 4で生成した第 2の画像データ S 1 8 0 4を、 第 1の範囲 r 1内に規定された閾値、 例えば 1 0' 0階調を基に 2値ィヒして第 3の画像データ を生成する。
上述したように本実施形態では、 例えば図 4 C, 図 4 Dに示すように、 分布デ ータ生成部 1 8 0 2により分布データを生成し、 特定部 1 8 0 3により第 2の範 囲を特定し、 マッピング部 1 8 0 4により第 2の範囲にある画素データを第 1の 範囲にマッピングし、 後述する構成要素 1 8 0 5〜1 8 1 2等により第 1の範囲 r 1内に規定された閾値を基に 2値化して画像データを生成するので、 被検体 h 毎に画素値の分布データ d 1が異なる場合であっても、 適切に 2値化処理できる また、 特定した第 2の範囲にある画素データを第 1の範囲にマッビングするの でコントラストが強くなり、 適切に 2 化処理を行うことができる。
本実施系形態に係るデータ処理装置 1は、 上述した工程で生成した画像データ にノイズ除去処理後、 エッジ強調処理を行う。 例えば、 データ処理装置 1は信号 S 1804を基に複数の異なるノィズ除去処理のうち、 いずれかのノィズ除去処 理を行い、 ノイズ除去処理の後、 エッジ強調処理を行う。
図 7は、 図 1に示したデータ処理装置のフィルタ処理に係る機能ブロック図で ある。
C P U 18は、 例えばプログラム P R Gを実行することにより、 図 7に示す選 択部 18 14および複数のノイズ除去フィルタ 1815の機能を実現する。 ノイズ除去フィルタ 1815は、 本発明に係るノイズ除去手段の一例に相当す る。
選択部 1814は、 ノィズ除去フィルタ 1815のうちの複数の異なるノイズ 除去処理を行ぅノィズ除去フィノレタのうち、 いずれかのノィズ除去フィルタを選 択させる信号 S 1814をノイズ除去フィルタ 1815に出力する。
例えば選択部 1814は、 信号 S 1804のノイズ分布特性を検出し、 検出結 果を基にノイズ特性に適したノイズ除去フィルタを選択させる信号 S 1814を 出力する。
また、 例えば選択部 1814は、 ユーザの操作に応じた入力部 12からの信号 を基にノイズ除去フィルタを選択させる信号 S 1814を出力してもよレ、。 ノィズ除去フィルタ 1815は、 複数のノィズ除去処理用のフィルタ、 例えば ガウシアンフィルタ 1815— 1、 メディアンフィルタ 1815_2、 最大 :フ ィルタ 1815— 3、 最小値フィルタ 1815— 4、 2次元適応ノイズ除去フィ ノレタ 1815— 5、 近傍フィルタ 1815— 6、 平均化フィルタ 1815— 7、 ガウシアンローパスフィルタ 1815— 8、 2次元ラプラシアン近似フィルタ 1 815— 9、 およびガウシアンラプラシアンフィルタ 1815—10を有し、 例 えば選択部 1814からの信号 S 1814に応じていずれかの (少なくとも 1つ の) ノイズ除去フィルタを選択し、 その選択したノイズ除去フィルタで信号 S 1 804をノイズ除去処理を行い、 画像データ S 1806を生成する。
以下、 フィルタ処理を説明する。 一般的に 2次元平面の格子点 (n l, n 2) を変数とする画像データ u (n 1 , η 2) をフィルタ h (n 1 , n 2) でフィル タ処理を行い、 数式 (1) に示すように画像データ V (n l, n 2) を生成する 。 ここで畳込み積分 (コンボリューシヨン) を' *' と表す。
vnl,n2)^u n n2yh{nl,n1)
> h(m m2)u[nl-ml,n1 -m2)
Figure imgf000019_0001
… (1) ガウシアンフィノレタ 1815 _1は、 例えば標準偏差 σを用いて数式 (2) に 示すようにガウス関数 h g (n , η 2) を畳込み処理を行う。 詳細には数式 ( 3), (1) に示すように、 (η 1, η 2) を用レ、 除去処理を行う。
¾("い" 2) = e一
(2)
Figure imgf000020_0001
… (3 ) 図 8は、 ガウシアンフィルタを説明するための図である。
ガウシアンフィルタ 1 8 1 5—1は平滑ィ匕フィルタであり、 例えば図 8に示す ように注目画素データを中心に、 2次元のガウス分布に応じた重み付けで演算を '行い平滑ィ匕処理を行う。 例えば注目画素データ (0, 0 ) として図 8に図示する メディアンフィルタ 1 8 1 5— 2は、 例えば注目画素データを中心に n X n の局Jffg域の画素データを順番に並べた場合に、 順番が真ん中の画素データの画 素値を注目画素データの画素値とする。 ' 最大値フィルタ 1 8 1 5— 3は、 例えば注目画素を中心に n X nの局所領域 の画素データのうち、 最大値の画素値を注目画素データの画素値とする。 最小値フィルタ 1 8 1 5— 4は、 例えば注目画素を中心に n X nの局所領域 の画素データのうち、 最小値の画素値を注目画素データの画素値とする。
2次元適応ノイズ除去フィルタ 1 8 1 5— 5は、 例えばいわゆる Wiener フィ ルタであり、 画像データを基に、 画像データとの平均 2乗誤差を最小化するフィ ルタ処理を行い、 画像を改善する。
近傍フィルタ 1 8 1 5— 6は、 画像データのうちの例えば n X n画素の画素 値を基に出力ピクセルを計算するフィルタ処理である。 例えば詳細には近傍フィ ルタ 1 8 1 5— 6は、 そのデータに応じて近傍の値から最大値、 最小値、 および 標準偏差を基にフィルタ処理を行う。
平均化フィルタ 1 8 1 5— 7は、 画像データのうちの例えば n X n画素の画 素値の平均値を計算し出力ピクセノレとするフィルタ処理を行う。
ガウシアンローパスフィルタ 1 8 1 5— 8は、 ノイズ除去おょぴ平滑ィ匕処理を 行う。 詳細には、 ガウシアンローパスフィルタ 1815— 8は、 画像データをガ ゥシァン型の重み付けを基に平滑化処理を行う。
2次元ラプラシアン近似フィルタ 1815— 9は、 画像データを基に 2次微分 処理を行い、 エッジ検出などを行う。
ガウシアンラプラ1 -シ « α44アンフィルタ 1815—10は、 ガウシアンフィルタにラ
(2次微分) を演算させるフィルタ処理である。 以下詳細に説明する ラプラシアンは、 2次元ユークリッド座標系では例えば数式 (4) に示すよう に表現できる。
d'
+
dx dy'
… (4) また、 ラプラシアンは、 例えば所定の数ひを用いて数式 (5) に示すように 3 X 3のマトリクス表示を行うことができる。 ここで注目画素をマトリクスの中 心とする。
-a a
4 4
4 -a -a
(α+ΐ) 4 4
-a a
4 4
… (5) t、 例えば標準偏差 σを用いて数式 (6) に示すようにガウス関数 h g (n l, n 2) を畳込み処理を行う。 詳細には数式 (7), (1) に示すように、 ガウシアンラプラスフィルタ h (n l, n 2) を用 いてノイズ除去処理を行う。
_(«ι2+" /(2び2)
(6)
Figure imgf000022_0001
… (7) また、 ガウシアンフィルタのラプラシアンは、 所定の値 αを用いて、 マトリク ス表示を行うと例えば数式 (8) に示すように表現できる。 ここで注目画素をマ トリクスの中心とする。
-a a -1 - "ー丄 "+5 -1
-a a -1 -a
… (8) 図 9 A〜図 9 Fは、 ガウシアンラプラシアンフィルタを説明するための図であ る。 簡単な説明のため画像データを 1次元として説明する。
エッジは画素値 (明るさ) の変化によって生じる面と面との境界である。 エツ ジは空間微分を行うことにより検出可能である。 例えば空間微分には 17火微分と 2次微分がある。
例えば図 9 Aに示すステップ形状の画素値 ί (χ) の場合を説明する。 ここで 縦軸を画素値、 横軸を X軸とする。
エツジ領域は、 詳細には図 9 Βに示すように、 第 1の画素値 f 1と第 2の画素 値 f 2間は所定の幅 Lで連続的に変ィヒする。 画像データ f ) を 1次微分処理 すると、 例えば図 9 Cに示すように境界領域において所定の幅 Lで急激に変化す る。
例えばエッジ検出処理は、 この 17火微分処理後の画像の f ' (x) の急激な変 化を検出して、 エッジを特定する。
また、 エッジ検出処理は 2次微分処理 (ラプラシアン) により検出してもよい 例えば画像データが図 9 Dに示す画素値 f (x) の場合には、 図 9Eに示す 1 次微分値 i ' ) と、 図 9 Fに示す 2次微分値 f " ( X ) が得られる。
この 2次微分値 f ,, (x) は、 エッジのスロープ中で傾きが最も大きい点で符 号が変化する。 したがって、 2次微分が X軸を横切る点 (ゼロ交差点という) P — c rは、 エッジの位置を示す。 この画像データは 2次元データであり、 実際の ェッジ検出の際には、 2次微分処理した画像データのうちゼロ交差点 P— c rの 位置をエッジとして特定する。
例えば選択部 1814が、 ノイズ除去処理としてガウシアンフィ^/タ 1815 —1およびガウシアンラプラシアンフィルタ 1815—10を選択した場合を説 明する。 例えば図 3に示すように、 ガウシアンフィルタ 1805をガウシアンフ ィルタ 1815— 1、 ガゥシアンラプラシァンフィルタ 1806をガ'ゥシアンラ ブラシアンフィルタ 181 5—10とする。
図 1 OA〜図 10 Cは、 図 1に示したデータ処理装置のノイズ除去処理を説明 するための図である。 図 1 1は、 図 1に示したデータ処理装置の動作を説明する ためのフローチャートである。 図 10A〜図 10C, 図 1 1を参照しながらデー タ処理装置の動作、 特にノイズ除去処理に関する動作を説明する。
ステップ ST 11において、 例えば選択部 1814は、 信号 S 1804のノィ ズ分布特性を検出し、 検出結果を基にそのノィズ特性に適したノィズ除去フィル タを選択させる信号 S 1814をノイズ除去フィルタ 1815に出力する。 例え ば選択部 1814はノイズ除去処理としてガウシアンフィルタ 1815—1およ びガウシアンラプラシアンフィルタ 1815—10を選択させる信号 S 1814 をノイズ除去フィルタ 18 1 5に出力する。
ステップ ST 12において、 ノイズ除去フィルタ 1815では、 信号 S 181 4を基にいずれかの (少なくとも 1つの) ノイズ除去フィルタを選択し、 その選 択したノィズ除去フィルタで信号 S 1804をノィズ除去処理を行レヽ、 画像デー タ S 1806を生成する。
例えばノイズ除去フィルタ 1815は、 ガウシアンフィルタ 1815—1およ びガウシアンラプラシアンフィルタ 1815—10を選択する。 説明の便宜上、 ガウシアンフィルタ 1815—1およびガウシアンラプラシアンフィルタ 181 5—10それぞれを、 ガウシアンフィルタ 1805およびガウシアンラプラシァ ンフィルタ 1806として説明する。
ステップ ST 12において、 ガウシアンフィルタ 1805は、 例えば図 1 OA に示す信号 S 1804を基に数式 (1), (3) に示すノイズ除去処理を行い、 例 えば図 10Bに示す画像データ S 1805を生成してガウシアンラプラシアンフ ィルタ 1806に出力する。
ステップ ST 13において、 ガウシアンラプラシアンフィルタ 1806は、 例 えば図 10 Bに示すような信号 S 1805を基にエッジ強調処理を行い、 例えば' 図 10 Cに示すような画像データ S 1806を生成して出力する。 この画像デー タ S 1806は 2値化画像データである。
- 806は、 2値化処理を行う際に例えば図 4 Cに示す第 1の範囲 r 1内に規定された閾値を基に 2値化処理を行う。 以上説明したように、 複数のノィズ除去処理のうちレヽずれかのノィズ除去処理 を選択する選択部 1 8 1 4と、 例えばノイズ除去フィルタ 1 8 1 5として、 ガウ シアンフィルタ 1 8 1 5— 1、 メディアンフィルタ 1 8 1 5— 2、 最大値フィル タ 1 8 1 5— 3は、 最小値フィルタ 1 8 1 5—4、 2次元適応ノイズ除去フィル タ 1 8 1 5— 5、 近傍フィルタ 1 8 1 5— 6、 平均化フィルタ 1 8 1 5— 7、 ガ ゥシアンローパスフィルタ 1 8 1 5— 8、 2次元ラプラシァン近似フィルタ 1 8 1 5— 9、 ガウシアンラプラシアンフィルタ 1 8 1 5—1 0とを設け、 例えば選 択部 1 8 1 4により選択されたフィルタが信号 S 1 8 0 4を基にノイズ除去処理 を行い、 その後ガウシアンラプラシアンフィルタ 1 8 0 6によりエッジ強調処理 を行い 2値化するので、 例えば画像データ S 1 8 0 4から被検体 hの生体の乱反 射や撮像部 1 1等のデバイスに起因するノイズを除去し、 予め決められた第 1の 範囲で 1の閾値を基に、 適切に 2値化した画像データを生成することができる。 また、 選択部 1 8 1 4は、 ノィズ特性に応じたフィルタを選択するので高精度 にノイズを除去することができる。
また、 例えば被検体 hの血管を含む部位を透過光を撮像して生成した画像デー ことで高精度にノイズを除去処理でき、 また適切に 2値化処理して血管を示すパ タ一ンを視認可能な画像を生成することができる。
図 1 2 A〜図 1 2 Dは、 図 1に示したデータ処理装置の動作を説明するための 概念図である。
本実施形態に係るデータ処理装置 1は、 上述した処理で生成した 2値化画像デ ータ S 1 8 0 6を基に、 例えば図 1 2 Aに示すように、 所定の大きさの領域 a r _ t h 1より小さいノイズ成分の画素を図 1 2 Bに示すように除去処理を行う。 また、 データ処理装置 1は、 例えば図 1 2 Cに示す 2値化画像データ S 1 8 0 6を基に、 所定の距離 a r _ t h 2内の同じ画素値の画素データ g 2 1, g 2 2 を接続する処理を行い、 例えば図 1 2 Dに示す線形状のパターン g 2を有する画 像データを生成する。 本実施形態では、 この線形状のパターンは血管を示すパタ ーンの一例に相当する。
詳細には、 データ処理装置 1は、 画像データを構成する、 画素値を示す複数の 画素データ毎に、 当該画素データの周囲の第 1の領域内の画素データのうち最小 の画素データを所定の画素データとする縮退処理と、 縮退処理による画素データ 毎に、 当該画素データの周囲の第 1の領域より大きい第 2の領域内の画素データ のうち最大の画素データを所定の画素データとして膨張処理を行い、 線形状のパ ターンを含む画像データを生成する。
本実施形態では、 例えばモルフォロジ関数を用いて上述の機能を実現する。 図 1 3 A〜図 1 3 Fは、 図 1に示したデータ処理装置の縮退処理および膨張処 理を説明するための図である。
第 1の縮退 (erode ) 処理部 1 8 0 7は、 画像データ S 1 8 0 6を基に、 画像 データ S 1 8 0 6を構成する画素値を示す複数の画素データ毎に、 当該画素デー タの周囲の第 1の領域内の画素データのうち最小の画素データを所定の画素デー タとして画像データ S 1 8 0 7を生成し、 第 1の膨張処理部 1 8 0 8に出力する 詳細には、 第 1の縮退処理部 1 8 0 7は、 例えば図 1 3 Aに示すように、 第 1 の領域として、 注目画素データ g— a t tを中心とした十字形状のエレメント E L 1内の画素データのうち最小の画素データを注目画素 g— a t tの画素値とす る。 本実施形態では図 1 3 Bに示すように最小値 0を注目画素データ g— a t t とする。
第 1の膨張処理 (dilate) 処理部 1 8 0 8は、 画像データ S 1 8 0 7を基に、 画像データ S 1 8 0 7を構成する、 画素値を示す複数の画素データ毎に、 当該画 素データの周囲の第 1の領域内の画素データのうち最大の画素データを所定の画 素データとして画像データ S 1 8 0 8を生成し、 第 2の膨張処理部 1 8 0 9に出 力する。
詳細には第 1の膨張処理部 1 8 0 8は、 例えば図 1 3 Aに示すように、 第 1の 領域として注目画素データ g— a t tを中心とした十字形状のエレメント E L 1 内の画素データのうち最大の画素データを注目画素 g— a t tの画素値とする。 本実施形態では図 1 3 Cに示すように最大値 1を注目画素データ g— a t tとす る。
第 2の膨張処理部 1 8 0 9は、 画像データ S 1 8 0 8を基に、 画像データ S 1 8 0 8を構成する画素値を示す複数の画素データ毎に、 当該画素データの周囲の 第 1の領域より大きい第 2の領域内の画素データのうち最大の画素データを所定 の画素データとして画像データ S 1 8 0 9を生成し、 第 2の縮退処理部 1 8 1 0 に出力する。
詳細には、 第 2の膨張処理部 1 8 0 9は、 例えば図 1 3 Dに示すように、 第 1 の領域より大きい第 2の領域として、 注目画素データ g— a t tを中心とした 3 X 3矩形状のエレメント E L 2内の画素データのうち最大の画素データを注目 画素 g— a t tの画素値とする。 本実施形態では例えば図 1 3 Eに示すように最 大値 1を注目画素データ g— a t tとする。
本実施形態では 3 X 3のエレメントを例に説明するが、 この形態に限られる ものではない。 例えば 5 X 5や 7 X 7等の所望の大きさであってもよレ、。 第 2の縮退処理部 1 8 1 0は、 画像データ S 1 8 0 9を基に、 画像データ S 1 8 0 9を構成する、 画素値を示す複数の画素データ毎に、 当該画素データの周囲 の第 1の領域より大きい第 2の領域内の画素データのうち最小の画素データを所 定の画素データとして画像データ S 1 8 1 0を生成する。
詳細には、 第 2の縮退処理部 1 8 1 0は、 例えば図 1 3 Dに示すように、 第 1 の領域より大きい第 2の範囲として、 注目画素データ g— a t tを中心とした 3 X 3矩形状のエレメント E L 2内の画素データのうち最小の画素データを注目 画素 g— a t tの画素値とする。 本実施形態では図 1 3 Fに示すように最小値 0 W
を注目画素データ g— a t tとする。
図 14 A〜図 14 Cは、 図 1に示したデータ処理装置の動作を説明するための 図である。 図 15は、 図 1に示したデータ処理装置の動作を説明するためのフロ 一チャートである。 図 10C, 図 14A〜図 14C, 図 15を参照しながらデー タ処理装置の動作、 特に縮退処理および膨張処理を中心に説明する。
ステップ S T 21において、 第 1の縮退処理部 1807は、 例えば図 10 Cに 示す画像データ S 1806を基に、 例えば図 13 Aに示すように第 1の領域とし て、 注目画素データを中心とした十字形状のエレメント EL 1内の画素データの うち最小の画素データを注目画素 g— a t tの画素値とし、 図 14Aに示すよう な画像 S 1807を生成する。
第 1の縮退処理部 1807は、 この第 1の縮退処理の結果、 所定の大きさより 小さい画素データを除去した画像データ S 1807を生成する。
ステップ S T 22において、 第 1の膨張処理部 1808は、 例えば図 14 Aに 示す画像データ S 1807を基に、 例えば図 13 Aに示すように、 第 1の領域と して注目画素データ g_a t tを中心とした十字形状のエレメント ELI内の画 素データのうち最大の画素データを注目画素 g— a t tの画素値とし、 図 14B に示す画像データ S 1808を生成する。
ステップ ST23において、 第 2の膨張処理部 1809は、 例えば図 14 Bに 示す画像データ S 1808を基に、 例えば図 13 Dに示すように、 第 1の領域よ り大きい第 2の領域として、 注目画素データ g— a t tを中心とした S X 3矩 形状のエレメント E L 2内の画素データのうち最大の画素データを注目画素 g_ a t tの画素値とし画像データ S 1808を生成する。
上述したステップ ST 22および ST23の処理により、 第 1の膨張処理部 1 808およぴ第 2の膨張処理部は、 所定の距離 a r— t h 2内の同じ画素値の画 素データを接続し、 線形状のパターンを有する画像データを生成する。
24において、 第 2の縮退処理部 1810は、 例えば画像データ S I 8 0 9を基に、 例えば図 1 3 Dに示すように、 第 1の領域より大きい第 2の 領域として、 注目画素データ g— a t tを中心とした 3 X 3矩形状のエレメン ト E L 2内の画素データのうち最小の画素データを注目画素 g __ a t tの画素ィ直 として、 例えば図 1 4 Cに示すような画像データ S 1 8 1 0を生成する。 以上説明したように、 画像データ S 1 8 0 6を構成する、 画素値を示す複数の 画素データ毎に、 当該画素データの周囲の第 1の領域内の画素データのうち最小 の画素データを所定の画素データとして画像データ S 1 8 0 7を生成する第 1の 縮退処理部 1 8 0 7と、 画像データ S 1 8 0 7を構成する複数の画素データ毎に 、 当該画素データの周囲の第 1の領域内の画素データのうち最大の画素データを 所定の画素データとして画像データ S 1 8 0 8を生成する第 1の膨張処理部 1 8 0 8と、 画像データ S 1 8 0 8を構成する複数の画素データ毎に、 当該画素デー タの周囲の第 1の領域より大きい第 2の領域内の画素データのうち最大の画素デ ータを所定の画素データとして画像データ S 1 8 0 9を生成する第 2の膨張処理 部 1 8 0 9と、 画像データ S 1 8 0 9を構成する複数の画素データ毎に、 当該画 素データの周囲の第 1の領域より大きい第 2の領域内の画素データのうち最小の 画素データを所定の画素データとして画像データ S 1 8 1 0を生成する第 2の縮 退処理部 1 8 1 0とを設けたので、 線形状のパターンを残し、 ノイズ成分として の微小なパターンを除去できる。
ローパスフィルタ部 1 8 1 1は、 例えば画像データ S 1 8 1 0を基に、 線形状 のパターンを残すフィルタ処理を行い画像データ S 1 8 1 1を生成する。 詳細にはローパスフィルタ部 1 8 1 1は、 例えば画像データ S 1 8 1 0を 2次 元フーリェ変換処理した 2次元フーリェ空間上で周波数成分が、 線形状のパター ンを残させる閾値よりも低周波数成分データを特定し、 特定したデータを逆 2次 元フーリエ変換処理を行い画像データ S 1 8 1 1を生成する。
図 1 6 A〜図 1 6 Fは、 図 1に示したデータ処理装置の第 1のローパスフィル タ処理の動作を説明するための図である。 図 1 6 〜図1 6 Fを参照しながら口 一パスフィルタ部 181 1の動作を説明する。
本実施形態に係るローパスフィルタ部 1811は、 高精度に線形状のパターン を抽出するために複数回、 例えば 3回、 閾値を変化させてローパスフィルタ処理 を行う。
線形状のパターンを残させる周波数成分の閾値を説明する。
ローパスフィルタ部 1811は、 例えば横軸をフーリエ空間の X成分、 縦軸を フーリェ空間の y成分とすると図 16 Aに示すようにフーリェ空間上で閾値の基 準となる領域 a r_r e f を設定する。
本実施形態では、 例えば図 16 Aに示すように、 原点 Oを中心として、 360 X 360のフーリェ空間上で菱形の基準領域 a r— r e f を設定する。 図 16 Bに示すように基準領域 a r_r e f を含み、 基準領域 a r_r e f を所定の拡 大率で拡大した領域 a r_r e f ' を設定し、 その領域 a r— r e f ' をローバ ス'
第 1のローパスフィルタ処理では、 例えば図 16 Cに示すように、 フーリエ空 間上で高周波成分を示す領域 a r _hをカットするように、 口一パスフィルタ a r_LPF 1を設定する。 この領域 a r_hは実空間上では、 例えば幾何学的に 対称なパターン、 例えば略円形状のパターン等に相当する。 この領域 a r— hを 力ットすることで、 上述した幾何学的に対称なパターンを除去することができる 閾値として例えば図 1 6 Cに示すように 2次元フーリエ空間上で、 (180, 150), (150, 180), (-150, 180)、 (— 180, 150), (一 1 80, 一 150), (—150, 180), (150, 一 180), (180, -15 0) で囲まれる領域 a r— LPF 1を設定する。 領域 a r— LPF 1は実空間上 では、 例えば線形状のパターンに相当する。 この領域 a r一 LPF 1を特定する ことで、 線形状のパターンを特定することができる。
ローパスフィルタ部 1811は、 画像データとして例えば図 16 Dに示す画像 データ S 101を基に、 図 16 Cに示すようにフーリェ空間上で領域 a r— L P F 1内の低周波数成分データを特定する。 そして例えば特定した低周波成分デー タに逆 2次元フーリェ変換処理を施すと、 例えば図 16 Eに示す画像 S 102力 S 得られる。 例えば画像データ S 102の画素値に対して 2値化処理 (例えば 5捨 6入) を行うと、 図 16 Fに示す画像データ S 103が得られる。
図 17 〜図17Eは、 ローパスフィルタ部の第 2のローパスフィルタ処理の 動作を説明するための図である。
ローパスフィルタ部 1811は、 ローパスフィルタ処理の閾値としての領域 a r— LPF 1より大きい領域を設定して、 複数回フィルタ処理を行う。
口一パスフイノレタ部 1811は、 例えば上述したように図 17 Aに示す領域 a r— LPF 1より大きい領域、 例えば図 17 Bに示すように領域 a r— L P F 2 を設定する。
第 2のローパスフィルタ処理では、 詳細には閾値として例えば図 17Bに示す ように、 2次元フーリエ空間上で (180, 156), (156, 180), (一 1 56, 180), (- 180, 156), (—180, —156), (—156, - 1 80), (156, - 180), (180, — 156) で囲まれる領域 a r— L P F 2を設定する。
第 2の口一パスフィルタ処理において、 ローパスフィルタ部 181 1は、 例え ば第 1のローパスフィルタ処理後の画像データとして、 図 16C, 図 17Cに示 す画像データ S 102を基に、 図 17 Bに示すフーリェ空間上で領域 a r— L P F 2内の低周波数成分データを特定する。 例えば特定した低周波成分データに逆 2次元フーリエ変換処理を施すと、 図 17 Dに示す画像 S 104が得られる。 例 えば画像データ S 104の ®素値に対して 2値化処理 (例えば 5捨 6入) を行う と、 図 17 Eに示す画像データ S 105が得られる。
図 18 A〜図 18 Eは、 ローパスフィルタ部の第 3のローパスフィルタ処理の 動作を説明するための図である。 ローパスフィルタ部 1811は、 第 3のローパスフィルタ処理として、 例えば 上述したように図 18 Aに示す領域 a r_L P F 2より大きい領域、 例えば図 1 8 Bに示すように領域 a r— LPF 3を設定する。
第 3の口一パスフィルタ処理では、 詳細には閾値として例えば図 18 Bに示す ように、 2次元フーリエ空間上で (180, 157), (157, 180), (- 1 57, 180), (- 180, 157), (-180, 一 157), (—157, — 1 80), (157, —180), (180, - 157) で囲まれる領域 a r— L P F 3を設定する。
第 3のローパスフィルタ処理において、 ローパスフィルタ部 1811は、 例え ば第 2のローパスフィルタ処理後の画像データとして、 図 17D, 図 18Aに示 す画像データ Sを 104を基に、 図 18 Aに示すフーリエ空間上で領域 a r_L PF 3内の低周波数成分データを特定する。
例えば特定した低周波成分データに逆 2次元フーリェ変換処理を施すと、 例え ば図 18 Dに示す画像 S 106が得られる。 例えば画像データ S 106の画素値 に対して 2値化処理 (例えば 5捨 6入) を行うと、 図 18 Eに示す画像データ S 107が得られる。
図 19 A〜図 19 F, 図 20 A〜図 20 Cは、 図 1に示したデータ処理装置の ローパスフィルタ部の動作を説明するための図である。 図 21は図 1に示したデ ータ処理装置のローパスフィルタ部の動作を説明するためのフローチヤ一トであ る。 図 14C, 図 1 9 A〜図 19 F, 図 2 OA〜図 20 C, 図 21を参照しなが らローパスフィルタ部 181 1の動作を説明する。
ステップ ST 31において、 ローパスフィルタ部 181 1は、 第 1のローパス フィルタ処理として、 例えば図 14 C, '図 19 Aに示す画像データ S 1810を 2次元フーリェ変換処理を行い、 例えば図 16 Cに示すように、 フーリェ空間上 で高周波成分である隅 a r—hをカットするように領域 a r— LPF 1を設定し 、 その領域 a r— LP F 1内の低周波成分データを特定し、 逆 2次元フーリエ変 換処理を行い図 1 9 Bに示す画像データ S 18◦ 11を生成する (S T 32)。 例えば画像データ S 18011を 2値化処理 (例えば 5捨 6入) を行うと図 19 Cに示す画像データ S 18103が得られる。
ステップ ST 33において、 第 2のローパスフィルタ処理として、 ローパスフ イノレタ部 181 1は、 図 19B, 図 19 Dに示す画像データ S 18102を基に 2次元フーリェ変換処理を行い、 例えば領域 a r— L P F 1より大きい領域、 例 えば図 17 Bに示す領域 a r _ L P F 2の領域を設定し、 その領域 a r_LPF 2内の低周波成分データを特定し、 逆 2次元フーリエ変換処理を行い図 19Eに 示す画像データ S 18014を生成する (S T 33)。 例えば画像データ S 18 014を 2値化処理 (例えば 5捨 6入) を行うと図 19 Fに示す画像データ S 1 8105が得られる。
ステップ ST 34において、 第 3のローパスフィルタ処理として、 ローパスフ イノレタ部 1811は、 図 19 E, 図 2 OAに示す画像データ S 18104を基に 2次元フーリェ変換処理を行い、 例えば領域 a r— LPF 2よりも大きい領域、 例えば図 18 Bに示す領域 a r— LPF 3の領域を設定し (ST34)、 その領 域 a r—LPF 3内の低周波成分データを特定し (ST 35)、 逆 2次元フーリ ェ変換処理を行い図 20 Bに示す画像データ S 18106を生成し、 画像データ S 18106を 2値化処理 (例えば 5捨 6入) を行い図 19 Fに示す画像データ S 181 1を生成する。
以上説明したように、 口一パスフィルタ部 181 1力 画像データ内の線形状 のパターンを残すように、 画像データを 2次元フーリエ変換処理した 2次元フー リエ空間上で周波数成分が線形状のパターンを残させる閾値よりも低周波数成分 データを特定し、 その特定した低周波数成分データ 逆 2次元フーリェ変換処理 することで線形状のパターンを抽出することができる。 また、 その閾値より高周 波成分データを除去することで、 幾何学的に対称なパターン、 例えば略円形状の パターンを除去することができる。 また、 ローパスフィルタ部 1 8 1 1は、 フィルタ領域 a r— L P Fを大きくし て複数回、 ローパスフィルタ処理を行うので、 より高精度に線形状のパターンを 抽出することができる。
図 2 2 A〜図 2 2 Cは、 図 1に示したデータ処理装置のマスク部およびスケル トン部の動作を説明するための図である。
データ処理装置 1は、 画像データ中から認証に用いる領域を抽出する。 本実施 系形態では、 データ処理装置 1は画像データ中の血管を示すパターンを含む領域 を、 認証に用いる領域として抽出する。
マスク部 1 8 1 2は、 例えば図 2 0 Cに示す画像データ S 1 8 1 1中の認証に 用いる領域 P—Nを抽出し、 認証に用いないパターン P—c tを除去する。 詳細には、 マスク部 1 8 1 2は、 画像データ S 1 8 1 1を基に、 画像データ S 1 8 1 1中の認、証に用いる領域 P—Nを抽出するために、 図 2 2 Aに示すように マスクパターン P—Mを生成し、 画像データ S 1 8 1 1からマスクパターン P— Mで示される領域を抽出し、 例えば図 2 2 Bに示す画像データ S 1 8 1 2を生成 する。 ,
スケルトン部 1 8 1 3は、 画像データ S 1 8 1 2を基に、 スケルトン処理を行 い画像データ S 1 8 1 3を生成する。 またスケノレトン部 1 8 1 3は、 画像データ S 1 8 1 3を信号 S 1 0 2として認証部 1 0 3に出力する。
詳細には、 スケルトン部 1 8 1 3は、 例えば図 2 2 Bに示す画像データ S 1 8 1 2を基にモルフォロジ関数を用いて縮退処理を行い、 図 2 2 Cに示すように、 注目するパターン、 例えば血管を示すパターンを細らせてパターンの中心部分の みを抽出した画像データ S 1 8 1 3を生成する。 図 2 2 Cに示す画像データ S 1 8 1 3は、 簡単な説明のため白と黒を反転した画像を示す。 '
認証部 1 0 3は、 抽出部 1 0 2による信号 S 1 0 2を基に、 例えば予め記憶部 1 7に記憶する登録画像データ D—Pと照合処理を行い、 認証処理を行う。 図 2 3は、 図 1に示したデータ処理装置の全体の動作を説明するためのフロー チャートである。 図 23を参照しながら、 データ処理装置 1の動作を簡単に説明 する。 本実施形態では、 被検体 hの生体、 例えば指を撮像して画像データを生成 し、 画像データ中の指の静脈を示すパターンを抽出し、 そのパターンを基に認証 処理を行う場合を説明する。
ステップ ST101において、 C P U 18は、 例えば撮像系 101の照射部 1 011から被検体 hの指に近赤外線を照射させる。 撮像部 11では、 被検体 h, 光学レンズ丄 012を介して入力された透過光を基に RBGの画像データ S 1 1 を生成する。
ステップ ST 102において、 グレースケール変換部 1801では、 RGBの 信号 S 11を基に例えば 256階調のグレースケールに変換して信号 S 1801 として分布データ生成部 1802に出力する。
本実施形態では、 撮像系 101は、 RGBの画像データ S 11を生成したが、 この形態に限られるものではなレ、。 例えば、 撮像系 101がグレースケールの画 像データ S 11を生成した場合には、 ステップ S T 102のグレースケール変換 部 1801の処理を行わずに、 画像データ S 11を分布データ生成部 1802に 出力する。 '
ステップ S T 103において、 分布データ生成部 1802では、 信号 S 180 1を基に、 例えば横軸 cを階調の値 (画素値ともいう), 縦軸 ίをその画素デー タの数 (度数ともいう) とすると、 例えば図 4 Cに示すように第 1の範囲 r 1と して 256階調の範囲の画素値を示す画素データについて、 分布データ d 1とし てヒストグラムを生成する。
ステップ S T 104において、 特定部 1803では、 信号 S 1802を基に例 えば図 5 Aに示すように、 分布データ d 1について第 1の範囲 r 1内のうち、 '予 め決められた閾値 V— t hの数の画素値 r 1 1, r 12, r 13, r 14のなか で最大の画素値 r 1 1以下の範囲を第 2の範囲 r 2として特定し、 信号 S 180 3として出力する。 マッビング部 1804は、 信号 S 1803を基に、 複数の画素データのうち、 特定部 1803が特定した第 2の範囲 r 2にある画素データを第 1の範囲 r 1に マツビングして、 当該マツビングした画素データで構成される第 2の画像データ を生成し、 信号 S 1804としてガウシアンフィルタ 1805に出力する。 詳細にはマッビング部 1804は、 例えば図 4 Cに示すように 0〜: L 10の画 素値の範囲を第 2の範囲 r 2とする場合には、 図 4 Dに示すように画素データを 0〜 256の画素値の範囲である第 1の範囲 r 1に拡大することでマッビングを 行い、 図 4 Eに示すように血管情報を含む画像データのうち中心部分を拡大して 第 2の画像データ S 1804を生成する (ST 105)。
ステップ ST106にお!/、て、 例えば選択部 1814は、 信号 S 1804のノ ィズ分布特性を検出し、 検出結果を基に複数のノイズ除去フィルタのうち、 その ノィズ特性に適した、 いずれかの (少なくとも 1つの) ノィズ除去フィルタを選 択させる信号 S 1814をノイズ除去フィルタ 1815に出力する。 例えば選択 部 1814はノイズ除去処理としてガウシアンフィルタ 1815—1およびガウ シアンラプラシアンフィルタ 1815—10を選択させる信号 S 1814をノィ ズ除去フィルタ 18 1 5に出力する。
ノイズ除去フィルタ 1815では、 信号 S 1814に応じていずれかのノイズ 除去フィルタを選択し、 例えばガゥシアンフィルタ 1815—1およびガウシァ ンラプラシアンフィルタ 1815—10を選択する。 説明の便宜上、 それぞれを ガウシアンフィ^^タ 1805およびガウシアンラプラシアンフィルタ 1806と して説明する。
ガウシアンフィルタ 1805は、 例えば図 10 Aに示す信号 S 1804を基に 数式 ( 1 ), (3) に示すノィズ除去処理を行い、 例えば図 10 Bに示す画像デ一 タ S 1805を生成してガウシアンラプラシアンフィルタ 1806に出力する。 ステップ ST 107において、 ガウシアンラプラシアンフィルタ 1806は、 例えば図 10 Bに示す信号 S 1805を基にエッジ強調処理を行い、 例えば図 1 W
0 Cに示す画像データ S 1806を生成して出力する。 この際、 画像データ S 1 806は 2値化画像データである。
ガウシアンラプラシアンフィルタ 1806は、 2値化処理を行う際に例えば図 4 Cに示す第 1の範囲 r 1内に規定された閾値を基に 2値化処理を行う。 ステップ S T 108において、 第 1の縮退処理部 1807は、 例えば図 10 C に示す画像データ S 1806を基に、 例えば図 13 Aに示すように第 1の領域と して、 注目画素データを中心とした十字形状のエレメント EL 1内の画素データ のうち最小の画素データを注目画素 g— a t tの画素値とし、 図 14Aに示すよ うな画像 S 1807を生成する。
ステップ ST 109において、 第 1の膨張処理部 1808は、 例えば図 14A に示す画像データ S 1807を基に、 例えば図 13 Aに示すように第 1の領域と して、 注目画素データ g— a t tを中心とした十字形状のエレメント EL 1内の 画素データのうち最大の画素データを注目画素 g— a t tの画素ィ直とし、 図 14 Bに示す画像データ S 1808を生成する。
ステップ ST 110において、 第 2の膨張処理部 1809は、 例えば図 14 B に示す画像データ S 1808を基に、 例えば図 13 Dに示すように第 1の領域よ り大きい第 2の領域として、 注目画素データ g— a t tを中心とした 3 X 3矩 形状のエレメント EL 2内の画素データのうち最大の画素データを注目画素 g— a t tの画素値とし画像データ S 1809を生成する。
ステップ ST11 1において、 第 2の縮退処理部 1810は、 例えば画像デー タ S 1809を基に、 例えば図 13Dに示すように、 第 1の領域より大きい第 2 の領域として、 注目画素データ g_a t tを中心とした 3 X 3矩形状のエレメ ント EL 2内の画素データのうち最小の画素データを注目画素 g— a t tの画素 値として、 例えば図 14 Cに示すような画像データ S 1810を生成する。 ステップ ST 1 12において、 ローパスフィルタ部 1811は、 第 1のローバ スフィルタ処理として、 例えば図 14 C, 図 19 Aに示す画像データ S 1810 を 2次元フーリェ変換処理を行い、 例えば図 16 Cに示すように、 フーリェ空間 上で高周波成分である隅 a r— hを力ットするように領域 a r_L P F 1を設定 し、 その領域 a r— LPF 1内の低周波成分データを特定し、 逆 2次元フーリエ 変換処理を行い図 1 9 Bに示す画像データ S 1801 1を生成する。
第 2のローパスフィルタ処理として、 ローパスフィルタ部 181 1は、 図 19 B, 図 19 Dに示す画像データ S 18102を基に 2次元フーリエ変換処理を行 い、 例えば領域 a r— LPF 1よりも大きい領域、 例えば図 17 Bに示す領域 a r_LPF 2の領域を設定し、 その領域 a r_LPF 2内の低周波成分データを 特定し、 逆 2次元フーリエ変換処理を行い図 19 Eに示す画像データ S 1801 4を生成する。
第 3のローパスフィルタ処理として、 ローパスフィルタ部 181 1は、 図 19 E, 図 20 Aに示す画像データ S 18104を基に 2次元フーリェ変換処理を行 い、 例えば領域 a r— LPF2よりも大きい領域、 例えば図 18 Bに示す領域 a r_LPF 3の領域を設定し、 その領域 a r_LPF 3内の低周波成分データを 特定し、 逆 2次元フーリェ変換処理を行い図 20 Bに示す画像データ S 1801 6を生成し、 画像データ S 18016を 2値化処理 (例えば 5捨 6入) を行い ( ST 1 1 3)、 図 1 9 Fに示す画像データ S 181 1を生成する。
ステップ ST 114において、 マスク部 1812は、 画像データ S 1811を 基に画像データ S 1811中の認証に用いる領域 P—Nを抽出するために、 図 2 2 Aに示すようにマスクパターン P—Mを生成し、 画像データ S 1811からマ スクパターン P—Mで示される領域を抽出し、 例えば図 22 Bに示す画像データ S 1812を生成する。
ステップ ST 114において、 スケノレトン部 1813は、 例えば図 22 Bに示 す画像データ S 1812を基にモルフォロジ関数を用いて縮退処理を行い、 図 2 2に示すように、 注目するパターン、 例えば血管を示すパターンを細らせてパタ ーンの中心部分のみを抽出した画像データ S 1813を生成し、 信号 S 102と して認証部 1◦ 3に出力する。
認証部 1 0 3では、 信号 S 1 0 2を基に、 例えば予め記憶部 1 7に記憶する登 録画像データ D一 Pと照合処理を行い、 認証処理を行う。
以上説明したように、 データ処理装置 1は、 例えば図 5 Aや図 5 Bに示すよう に、 分布データ生成部 1 8 0 2により分布データを生成し、 特定部 1 8 0 3によ り第 2·の範囲を特定し、 マッビング部 1 8 0 4により第 2の範囲を第 1の範囲に マッピングし、 構成要素 1 8 0 5〜1 8 1 2等により第 1の範囲 r 1内に規定さ れた閾値を基に 2値ィヒして第 3の画像データを生成するので、 被検体 h毎に画素 値の分布データ d 1が異なる場合であっても、 適切に 2値化処理できる。
また、 複数のノィズ除去処理のうちレヽずれかのノィズ除去処理を選択する選択 部 1 8 1 4と、 例えば複数の異なる種類のノィズ除去フィルタを有するノィズ除 去フィルタ 1 8 1 5とを設け、 例えば選択部 1 8 1 4により選択されフィノレタカ S 信号 S 1 8 0 4を基にノイズ除去処理を行い、 その後ガウシアンラプラシアンフ イノレタ 1 8 0 6によりエッジ強調処理を行い 2ィ直ィ匕するので、 例えば画像データ S 1 8 0 4から被検体 hの生体の乱反射や撮像部 1 1等のデパイスに起因するノ ィズを除去し、 予め決められた第 1の範囲 r 1の閾値を基に、 適切に 2値化した 画像データを生成することができる。
また、 画像データ S 1 8 0 6を構成する、 画素値を示す複数の画素データ毎に 、 当該画素データの周囲の第 1の領域内の画素データのうち最小の画素データを 所定の画素データとして画像データ S 1 8 0 7を生成する第 1の縮退処理部 1 8 0 7と、 画像データ S 1 8 0 7を構成する複数の画素データ毎に、 当該画素デー タの周囲の第 1の領域内の画素データのうち最大の画素データを所定の画素デー タとして画像データ S 1 8 0 8を生成する第 1の膨張処理部 1 8 0 8と、 画像デ ータ S 1 8 0 8を構成する複数の画素データ毎に、 当該画素データの周囲の第 1 の領域よりも大きい第 2の領域内の画素データのうち最大の画素データを所定の 画素データとして画像データ S 1 8 0 9を生成する第 2の膨張処理部 1 8 0 9と 、 画像データ S 1 8 0 9を構成する複数の画素データ毎に、 当該画素データの周 囲の第 1の領域よりも大きい第 2の領域内の画素データのうち最小の画素データ を所定の画素データとして画像データ S 1 8 1 0を生成する第 2の縮退処理部 1 8 1 0とを設けたので、 '被検体を撮像して得られた画像データのうち、 所定の大 きさより小さレ、領域を除去し、 ある程度近い画素データ間を接続することができ る。 また、 ,線形状のパターンを残し、 ノイズ成分としてのパターンを除去できる また、 ローパスフィルタ部 1 8 1 1力 画像データ内の線形状のパターンを残 すように、 画像データを 2次元フーリェ変換処理した 2次元フーリェ空間上で周 波数成分が線形状のパターンを残させる閾値よりも低周波数成分データを特定し 、 その特定した低周波数成分データを逆 2次元フーリェ変換処理することで線形 状のパターンを抽出することができる。 また、 幾何学的に対称なパターンを除去 することができる。
また、 一連の処理動作を行うことにより、 例えば被検体 hの血管を示すパター ンを高精度に抽出することができる。
また、 個々人特有の血管の静脈を示すパターンを高精度に抽出できるので、 そ のパターンを基により高精度に認証を行うことができる。
また、 従来のデータ処理装置では、 画像データから血管情報を基に、 血管トレ ース用の A Iフィルターを使用するという煩雑な処理を行っていたが、 本実施形 態に係るデータ処理装置 1は、 例えば被検体 hを撮像して得られた画像データを 基に高精度に血管を示すパターンを抽出することができるので、 従来に比べて処 理負担が軽くなる。
• また、 スケノレトン部 1 8 1 3は、 スケルトン処理を行う際に血管を示すパター ンの中心部分を抽出するので、 例えば被検体 hの体調の変化に伴う血管の伸縮に よる影響が少ないスケルトン画像データを生成することができる。 認証部 1 0 3 は、 この画像データを認証処理に用いるので被検体 hの体調が変化した場合でも 高精度に認証処理を行うことができる。
また、 本実施形態では、 処理の軽いフィルタの組み合わせで実現できるため、 高速な処理速度の個人識別システムを構築することができる。
図 2 4は、 本発明に係るデータ処理装置を用いた遠隔操作装置の第 2実施形態 を説明するための図である。
本実施形態に係る遠隔操作装置 (リモートコントローラ: リモコンともいう) 1 aは、 例えば図 2 4に示すように、 一般的なリモコンに第 1実施形態に係るデ ータ処理装置 1を内蔵する。
詳細には、 遠隔操作装置 l aは、 例えば図 2に示す第 1実施形態に係るデータ 処理装置と同様に、 撮像部 1 1、 入力部 1 2、 出力部 1 3、 通信インタフェース 1 4、 RAM I 5、 R OM 1 6、 記憶部 1 7、 および C P U 1 8を有する。 第 1 の実施形態に係るデータ処理装置 1との相違点のみ説明する。
遠隔操作装置 1 aは、 例えば本体部 1 0 0に撮像系 1 0 1として、 照射部 1 0 1 1、 光学レンズ 1 0 1 2および撮像部 1 1が設けられている。
出力部 1 3は、 例えば。 P U 1 8の制御により、 テレビジョン装置 m_ t vに 所定処理を行わせる制御信号を赤外線を搬送波として送信する。 例えば出力部 1 3は赤外線発光素子で構成される。
テレビジョン装置 m一 t Vは、 受光部 m_ rで受信した制御信号に応じた所定 処理、 例えば表示部 m—mに所定の画像を表示させる。
記憶部 1 7は、 例えばユーザの嗜好を示すデータ D— t、 詳細には図 2 4に示 すようにお好みリスト D—tを記憶する。 そのデータ D— tは、 C P U 1 8によ り必要に応じて読み出しおよぴ書き込みが行われる。
C P U 1 8は、 認証が正常に行われた場合には、 例えばそのデータ D— tに応 じた処理を行う。
図 2 5は、 図 2 4に示した遠隔操作装置 1 aの動作を説明するためのフローチ ヤートである。 ステップ ST201において、 例えばユーザが本体部 100の側面に設けられ た撮像系 101に触れた力否かが判別される。 撮像系 101に例えば指が触れた 場合にはステップ ST 202の処理に進む。
ステップ ST 202において、 CPU 18は、 照射部 1011から近赤外線を 被検体 hの指に照射させ、 撮像部 11に透過光を基に指の静脈の画像データを生 成させる。 本実施形態では照射部 1011から照射された光を用いたが、 この形 態に限られるものではない。 例えば撮像部 11は自然光による被検体 hの透過光 を基に画像データを生成してもよい。
ステップ S T 203において、 C P U 18は、 第 1実施形態と同様に抽出部 1 02により認証に用いる画像データ、 例えば血管を示すパターンを示すスケルト ン画像データを抽出して信号 S 102として認証部 103に出力する。
ステップ ST 204において、 CPU18は、 認、証部 103に、 信号 S 102 と記憶部 17が予め記憶するユーザの登録画像データ D—Pとを比較させて認証 処理を行わせる。
ステップ S T 205において、 認証部 103で予め記憶するユーザであると識 別されない場合には、 ステップ ST201の処理に戻る。
—方、 ステップ ST 205の判別において、 認証部 103で予め記憶するユー ザであると識別した場合には、 CPU 18は、 記憶部 17に記憶するユーザの嗜 好を示すデータ D— tに応じた処理を行う。 例えばデータ D_ tに応じた制御信 号をテレビジョン装置 m— t Vに出力する。
以上説明したように、 本実施形態では、 第 1実施形態に係るデータ処理装置を 含む遠隔操作装置を設けたので、 例えば認証結果を基にテレビジョン装置 m一 t Vを制御することができる。
また、 例えばデータ D— tに年齢等の情報を含ませる。 C P U 18は、 認証部 103による認証の結果、 ユーザが未成年であると識別した場合には、 特定のボ タンを無効にして、 テレビジョン装置番aを見られないようにする等の制限処理 を行うことで、 年齢制限機能を実現することができる。
また、 データ D— tに、 ユーザ毎にカスタマイズされた番組表の表示 (お好み リストや履歴等)、 予約録画リストの使用等を含ませる。 C P U 1 8は、 認証部 1 0 3による認証の結果、 正常に認証された場合にそのデータを使用可能に制御 することで、 ユーザそれぞれに対応した処理を行うことができる。
またデータ D— tに、 ユーザ毎に複数の所定のデータを登録してもよい。 図 2 6は、 本発明に係るデータ処理装置を用いたデータ処理システムの第 3実 施形態を説明するための図である。
本実施形態に係るデータ処理システム 1 0 bは、 図 2 6に示すよう.に、 遠隔操 作装置 1 a、 記録媒体 (メディアともいう) l b、 データ処理装置 1 c、 テレビ ジョン装置 m— t vを有する。 第 1実施形態および第 2実施形態との相違点のみ 説明する。
本実施形態では、 例えば遠隔操作装置 1 aと記録媒体 1 bの両方で上述した識 別処理を行レ、、 その両方の識別結果に応じた処理を行う。 例えば遠隔操作装置 1 aの使用者と記録媒体 1 bの使用者が同一人物である場合に、 記録媒体 1 bが記 憶する所定のデータを読出しおよび書込みを行う。
遠隔操作装置 1 aは、 第 2実施形態に係る遠隔操作装置 1 aとほぼ同様な構成 であり、 第 1実施形態に係るデータ処理装置 1を含む。
記録媒体 1 bは、 例えば第 1実施形態に係るデータ処理装置 1を含む。 例えば記録媒体 l bは、 ビデオテープ等の磁気記録媒体や、 光学ディスクや光 磁気ディスクや、 半導体メモリ等のデータ記録媒体である。
記録媒体 l bは、 例えば図 2に示す第 1実施形態と同様に、 撮像部 1 1、 入力 部 1 2、 出力部 1 3、 通信インタフェース 1 4、 R AM I 5、 R OM 1 6、 記憶 部 1 7、 および C P U 1 8を有する。 第 1の実施形態に係るデータ処理装置 1と の相違点のみ説明する。
記録媒体 1 bは、 例えば本体部 1 0 0 bに撮像系 1 0 1として照射部 1 0 1 1 、 光学レンズ 1012およぴ撮像部 1 1が設けられている。
撮像系 101は、 本体部 100 bのうち、 ユーザが触る位置に設けることが好 ましい。 ユーザが触れる位置が定まっていなレ、場合には、 1箇所ではなく、 本体 部 1◦ 0 b中のユーザが触る可能性のある領域に撮像部 1 1を設ける。
データ処理装置 1 cは、 例えば正常に認証処理が行われた場合に、 記録媒体 1 bが記憶するデータを読出および書込み可能である。 例えばデータ処理装置 1 c は第 1実施形態に係るデータ処理装置を含む。 例えばデータ処理装置 1 cは、 図 2に示す第 1実施形態と同様に、 撮像部 1 1、 入力部 12、 出力部 13、 通信ィ ンタフェース 14、 RAMI 5、 ROM16、 記憶部 17、 および CPU 18を 有する。 第 1実施形態に係るデータ処理装置 1との相違点のみ説明する。 また、 データ処理装置 1 cは、 例えば記録媒体 1 bを保持する保持部 m— hと 、 保持部 m__hにより保持された記録媒体 1 bのデータの読み書きを行う ドライ バと、 受光部 m— r等を有する。
テレビジョン装置 m— t vは、 例えばデータ処理装置 1 cのドライバからのデ ータを基に画像を表示する表示部 m_mを有する。
図 27は、 図 26に示したデータ処理システムの動作を説明するためのフロー チャートである。 図 27を参照しながら、 データ処理システム 10 bの動作を第 1実施形態および第 2実施形態との相違点のみ説明する。
ステップ ST301〜ST304の遠隔操作装置 1 aの動作は、 第 2実施形態 のステップ ST201〜ST 204と同様なので説明を省略する。
ステップ ST 304において、 遠隔操作装置 1 aの CPU 18は、 認証部 10 3に、 信号 S 102と記憶部 17に予め記憶する複数のユーザの登録画像データ D— Pとを比較して認証処理を行わせる。
ステップ ST305において、 遠隔操作装置 1 aの認証部 103では、 予め記 憶するユーザであると識別されない場合には、 ステップ ST301の処理に戻る 一方、 ステップ ST305の判別において、 認証部 103で予め記憶するユー ザであると識別した場合には、 CPU18は、 例えば識別結果を Aとして記憶部 1 7に記憶する (ST 306)。
ステップ ST307において、 例えばユーザは、 記録媒体 1 bをデータ処理装 置 (再生機ともいう) 1 cの保持部 m— hにセットする。
ステップ ST308において、 記録媒体 1 cでは、 例えばユーザが本体部 10 0 bの側面に設けられた撮像系 101に触れた力否かが判別される。 撮像系 10 1に例えば指が触れた場合には、 ステップ S T 309の処理に進む。
ステップ ST 309において、 記録媒体 1 bの CPTJ18は、 照射部 101 1 から近赤外線を被検体 hの指に照射させ、 撮像部 1 1に透過光を基に、 指の静脈 の画像データを生成させる。
ステップ S T 310において、 記録媒体 l bの CPU18は、 第 1実施形態と 同様に抽出部 102により認証に用いる画像データ、 例えば血管を示すパターン を示すスケノレトン画像データを抽出して信号 S 102として認証部 103に出力 する。
ステップ ST 311において、 記録媒体 1 bの C PU 18は、 認証部 103に 、 信号 S 102と記憶部 17に予め記憶する複数のユーザの登録画像データ D— Pとを比較して認証処理を行わせる。
ステップ ST312において、 記録媒体 1 bの認証部 103で予め記憶するュ 一ザであると識別されない場合には、 ステップ ST 308の処理に戻る。 一方、 ステップ ST312の判別において、 記録媒体 1 bの認証部 103で予 め記憶するユーザであると識別した場合には、 記録媒体 1 bの CPU 18は、 例 えば識別結果を Bとする (ST313)。
ステップ ST 314において、 ステップ ST 306による識別結果 Aと、 ステ ップ S T 313による識別結果 Bとを比較し、 同一ユーザであるか否かを判別す る。 判別処理は、 記録媒体 1 bで行ってもよい。 この場合には記録媒体 1 bは、 遠 隔操作装置 1 aから送信された識別結果 Aと、 記録媒体 1 bによる識別結果 Bと に基いて行う。
また、 この判別処理は、 例えぱデ一タ処理装置 1 cで行ってもよい。 この場合 には、 データ処理装置 1 cは、 遠隔操作装置 1 aから送信された識別結果 Aと、 記録媒体 1 bによる識別結果 Bとに基いて行う。
ステップ S T 3 1 4の判別処理の結果、 同一ユーザであると判別した場合には 、 例えば記録媒体 l bは、 内蔵するデータの読出しや書込み、 例えば再生や録画 をデータ処理装置 1 cに許可し (S T 3 1 5 )、 同一ユーザでないと判別した場 合には、 例えば記録媒体 l bは、 内蔵するデータの再生や録画をデータ処理装置 1 cに禁止する (S T 3 1 6 )。
例えば同一ユーザであると判別した場合には、 例えばデータ処理装置 1 cは、 記録媒体 1 bが内蔵するデータを読み出し、 テレビジョン装置 m_ t vにそのデ 一タに応じた画像を表示部 m—mに表示させる。
以上説明したように本実施形態では、 遠隔操作装置 1 aと記録媒体 1 bの両方 で識別を行うので、 例えば識別結果が同一のユーザの場合に、 記録媒体 l bにデ ータの記憶や読み出しを行わせることができ、 例えば他人によるデータの改ざん や盗み見、 データの上書き等を防止することができる。
図 2 8は、 本発明に係るデータ処理装置を用いた携帯型通信装置の第 4実施形 態を説明するだめの図である。
本実施形態に係る携帯型通信装置 1 dは、 第 1実施形態に係るデータ処理装置 1を含む。
例えば携帯型通信装置 1 dは、 一般的な通話機能、 電子メール機能や、 ァドレ ス帳等の機能を有し、 :述した認証処理の結果、 例えば予め登録しているユーザ である場合には所定の機能を実行し、 登録しているユーザでない場合には所定の 機能を実行しない。 携帯型通信装置 1 dは、 例えば図 2に示す'第 1実施形態と同様に、 撮像部 1 1 、 入力部 12、 出力部 13、 通信インタフェース 14、 RAMI 5、 ROM16 、 記憶部 17、 および CPU18を有する。 第 1の実施形態に係るデータ処理装 置 1との相違点のみ説明する。 '
携帯型通信装置 1 dは、 例えば入力部 12としての通話ボタン b t等 (全ての ポタン b tでもよい) に撮像系 101を設ける。
例えば携帯型通信装置 1 dは、 ユーザによりボタン b tが操作された際に、 指 静脈の画像を取得し、 予め登録されている個人と識別した場合に、 携帯電話とし ての通信機能を動作させ、 不図示の基地局を介して所望の通話機能を実行する。 図 29は、 図 28に示したデータ処理装置の動作を説明するためのフローチヤ ートである。 図 29を参照しながら携帯型通信装置 1 dの動作を第 1〜3実施形 態に係るデータ処理装置との相違点を説明する。
ステップ S T 401において、 例えばユーザが入力部 12としての通話ポタン b t等に設けられた撮像系 101に触れた力否かが判別される。 撮像系 101に 例えば指が触れた場合にはステップ S T 402の処理に進む。
ステップ ST 402において、 CPU 18は、 照射部 1011から近赤外線を 被検体 hの指に照射させ、 撮像部 11に透過光を基に指の静脈の画像データを生 成させる。
ステップ ST403におレ、て、 C P U 18は、 第 1実施形態と同様に抽出部 1 02により認証に用いる画像データ、 例えば血管を示すパターンを示すスケルト ン画像データを抽出して信号 S 102として認証部 103に出力する。
ステップ S T 404において、 C PU 18は、 認証部 103に、 信号 S 102 と記憶部 17が予め記憶するユーザの登録画像データ D一 Pとを比較させて認証 処理を行わせる。
ステップ ST405におレ、て、 認証部 103で予め記憶するユーザであると識 別された場合には、 携帯電話としての通信機能を動作させて、 ユーザに携帯電話 の使用を許可する (ST406)。
例えば携帯型通信装置 1 dの所有者であるユーザが、 他人に携帯型通信装置 1 dを貸す場合に (ST407)、 携帯型通信装置 I dは、 所有者であるユーザに 特有のポタンが操作されたか否かを判別する (ST408)。
ステップ ST408の判別にぉレ、て、 C P U 18は、 特定のボタン b tが操作 されたと判別した場合には、 他人が使用しても所定機能を動作可能にする。 所有 者であるユーザは、 その状態で携帯型通信装置 1 dを他人に貸す (ST409) 一方、 ステップ ST408において、 CPU 18が本人により特定ポタン b t が操作されていないと判別した場合、 およびステップ ST407において、 他人 に貸さない場合には、 一連の処理を終了する。
一方、 ステップ ST 405の判別において、 認証部 103で予め記憶するユー ザでないと識別し、 識別処理が複数回失敗していない場合には (ST410)、 ステップ ST 401の処理に戻る。
一方、 識別処理が複数回、 失敗している場合には、 CPU 18は認証処理を禁 止し (ST411)、 CPU18は、 例えば予め登録したデータ通信装置 PCに 、 認証処理が複数回失敗した旨を示すデータを送信する (ST412)。
以上説明したように、 本実施形態では、 携帯型通信装置 I dは、 上述した認証 処理の結果、 予め登録した所有者であるユーザであると認証した場合に、 所定の 機能を動作するので、 例えば紛失した際にも他人に使用されることを防止するこ とができる。
また、 例えば予め登録したユーザでなければ、 受信した電子メールやアドレス 帳はもちろん、 発着信履歴等を見ることもできないため、 セキュリティ性が高い また、 予めメールァドレス等の連絡先を示すデータを記憶部 17に登録し、 か つ例えば GPS (global positioning system :グローバノレポジショニングシス テム) 機能を設けることにより、 例えば予め登録したユーザ以外に複数回キーを 押された場合 (複数回、 識別に失敗した場合) に、 携帯型通信装置 1 dの現在位 置等の情報を、 予め登録した連絡先のデータ通信装置 P Cに送信することができ る。
また、 携帯型通信装置 1 dとは別体で、 不図示の通信ネットワークを介してァ クセス可能なサーバ装置 s Vに、 ユーザのアドレス帳データ a dを保存しておき 、 例えば携帯型通信装置 1 dにおいてユーザが適切に認証された場合に、 携帯型 通信装置 1 dの C P U 1 8が、 不図示の通信ネットワークを介してサーバ装置 s Vにアクセスして、 そのユーザのァドレス帳データ a dをダウンロードすること で、 他のユーザにより不正にアドレス帳を閲覧することを防止することができる この場合には、 例えば他の携帯型通信装置 1 dを用いた場合であっても、 その 携帯型通信装置 1 dで認証が正しく行われた場合には、 同じァドレス帳データ a dを使用することができる。
また、 携帯型通信装置 1 dの所有者であるユーザが、 本人の了解の上で、 携帯 型通信装置 1 dを他人に貸す必要がある場合に、 所有者本人が専用のボタン b t を操作することにより他人の使用を許可することができる。 つまり C P U 1 8は 、 特定のポタン b tが操作されると、 他人が使用する場合であっても認証処理を 行わずに、 所定の機能を動作させる。
図 3 0は、 本発明に係るデータ処理装置の第 5実施形態を説明するための図で ある。
本実施形態に係るデータ処理装置を用いた電話 1 eは、 第 1実施形態に係るデ ータ処理装置 1を含み、 指静脈による個人認証機能を有する。
例えば本実施形態に係る電話 1 eは、 第 4実施形態に係る携帯型通信装置 1 d と同様に、 例えば各家庭に設けらた特定のボタン b t等 (全てのボタン又は、 本 体でも可) に撮像系 1 0 1を設ける。 電話 l eの構成は、 第 4実施形態に係る携 帯型通信装置 1 dとほぼ同様である。 相違点のみ説明する。
電話 1 eは、 例えばボタン b tが押された際に指静脈の画像を取得する。 また 電話 1 eは使用制限機能や個人識別機能を有する。
また、 電話 1 eは、 予めユーザ毎に最大利用可能時間を設定し、 所定時間に達 したら通話ができなくなる制限機能を有する。
また例えば長電話の場合、 最初にボタンを押した時だけ認証を行うように設定 すると、 その後ずつと同一人物が使用しているとは限らないので、 例えば受話器
1 e— rに撮像系 1 0 1を設け、 定期的に被検体 hの指の静脈を撮像して認証処 理を行い続けることが好ましい。
また、 電話 1 eは、 定期的に認証処理を行い、 記憶部 1 7の登録画像データを 更新する。
また、 例えば電話 l eは、 ユーザ毎に異なる呼び出し音を登録可能であり、 例 えばユーザに対応した呼び出し音を不図示のスピーカから発音可能である。 図 3 1は、 図 3 0に示した電話の動作を説明するためのフローチャートである 。 図 3 1を参照しながら電話 1 eの動作を説明する。 例えば電話 1 eを複数のュ 一ザにより使用する場合を説明する。
ステップ S T 5 0 1において、 C P U 1 8は他の電話からの呼び出しを示す信 号を受信した場合、 例えば相手の電話番号等に基いてユーザを特定し、 そのユー ザに対応付けられた呼び出し音をスピーカから発音させる。
呼び出し音による個人識別がされているかどうかの判断を行い (S T 5 0 2 ) 、 個人識別が行われている場合には、 例えば呼び出し音に対応するユーザ (S T 5 0 3 ) の指が受話器等の撮像系 1 0 1を触れると、 C P U 1 8は撮像系 1 0 1 に、 ユーザの指に光を照射させて、 指を撮像する (S T 5 0 4 )。
ステップ S T 5 0 5において、 第 1実施形態に係るデータ処理装置 1と同様な 処理を行い、 血管を示すパターンを含む画像データを生成する。 ■
ステップ S T 5 0 6において、 C P U 1 8は、 生成した画像データと、 記憶、部 17が記憶する登録画像データのリストと比較する。
ステップ ST 507において、 識別タイムアウトカ、否か、 つまり識別処理に係 る処理時間が所定時間より長いか否かが判別され、 処理時間内であれば、 識別さ れたか否かの判別を行う ( S T 508 )。
ステップ ST 507の判別において、 適正に識別した場合には、 CPU18は 通話可能に設定する (ST 509)。
一方、 ステップ ST 507の判別において、 適正に識別できない場合には、 ス テツプ ST 504の処理に戻り、 計測を繰り返すが、 ステップ ST 507におい て、 タイムアウトになった場合には、 例えばいわゆる留守番電話機能に切り替え る (S T 510)。
一方、 ステップ ST 502において、 自分の音でなかった場合も同様に、 留守 番電話機能に切り替える。
一方、 ステップ ST 501において、 電話を受信するのではなく発信する場合 には、 CP 18は、 例えばユーザの指が撮像系 101に触れた力否かの判別を行 う (S T 51 1 )。 撮像系 101に例えば指が触れた場合には、 ステップ S T 5 1 2の処理に進む。
ステップ ST 512において、 CPU 18は、 照射部 1011から近赤外線を 被検体 hの指に照射させ、 撮像部 11に透過光を基に指の静脈の画像データを生 成させる。
ステップ ST513において、 C P U 18は、 第 1実施形態と同様に抽出部 i 02により認証に用いる画像データ、 例えば血管を示すパターンを示すスケルト ン画像データを抽出して信号 S 102として認証部 103に出力する。
ステップ ST 514において、 CPU18は、 認証部 103に、 信号 S 102 と記憶部 17が予め記憶するユーザの登録画像データ D_Pとを比較させ認証処 理を行わせる。
ステップ ST515において、 認証部 103で予め記憶するユーザであると識 別されない場合には、 ステップ ST 51 1の処理に戻る。
一方、 ステップ ST515の判別において、 認証部 103で予め記憶するユー ザであると識別した場合には、 C PU 18は識別したユーザのァドレス帳データ a dを出力部 13の表示部に表示し (ST516)、 通話可能に設定する (ST 51 7)。
例えば通話中に、 ステップ S 518において、 利用時間の設定がされているか 否かの判断を行う。
CPU 18は、 その設定がされている場合には、 利用可能時間内か否かの判別 を行い (ST51 9)、 利用可能時間内であれば通話が終了したかの判断を行う (ST 520)。
一方、 ステップ ST519において、 利用可能時間内でなければユーザに警告 、 例えば警告の旨を示す表示を表示部に表示させ、 通話を強制終了させる (ST 521)。
一方、 ステップ ST518において、 利用時間が設定されていない場合、 およ びステップ S T 520において通話が終了した場合には、 一連の処理を終了する 以上説明したように、 本実施形態では電話 1 eに第 1実施形態に係るデータ処 理装置を内蔵させ、 利用時間を設定可能なので、 例えば長電話を防止することが できる。
また、 ユーザ毎に通話料金の請求書を分割して、 ユーザ毎に通話料金を支払う システムにすることもできる。
また、 撮像系 101をボタン b tに設けたが、 この形態に限られるものではな レヽ。 ィ列えば受話器 1 e— r等に設けてもよいし、 ボタン b tおよび受話器 1 e— r両方に設けて状況に応じて使い分けてもよい。
また、 携帯型通信装置と異なり、 複数のユーザ、 例えば家族全員が同じ電話 1 eを使用可能であり、 認識したユーザ用のアドレス帳を表示するので、 操作性が よい。
また、 電話を受信する場合、 ユーザ毎に呼び出し音を設定可能であり、 また本 人以外は電話に出られないように設定可能なので、 セキュリティ性が高い。 また、 受話器を取った際に個人識別を行い、 予め設定したユーザの場合に通話 可能に設定することで、 セキュリティ性が高い。
また、 予め設定されたユーザが留守の場合、 例えば他に家族が在宅していても 留守電に切.り替えることができ、 セキュリティ性が高い。
図 3 2は、 本発明に係るデータ処理装置の第 6実施形態を説明するための図で ある。
本実施形態に係る P DA (Personal Digital Assistant) 1 ίは、 第 1実施形 態に係るデータ処理装置 1を含む。
例えば P D A 1 f は、 図 3 2に示すように、 本体部の側面やボタン b t等に撮 像系 1 0 1を設ける。
例えばユーザが、 P D A 1 ίに触れた際に、 指静脈の画像を取得し、 認証の結 果、 本人である場合に使用可能である。
または認証の結果、 本人である場合にのみ、 プライベートデータを表示可能に §ΧΛ£する。
図 3 3は、 本発明に係るデータ処理装置の第 7実施形態を説明するための図で ある。
本実施形態に係るマウス 1 gは、 例えばパーソナルコンピュータ P C等の入力 装置としてのいわゆるマウスであり、 第 1実施形態に係るデータ処理装置 1を含 む。
マウス 1 gは、 例えばボタン b t等に撮像系 1 0 1を設ける。
例えばユーザがマウス 1 gのボタン b tに触れた際に、 指静脈の画像を取得し 、 認証の結果、 本人である場合にのみ、 パーソナルコンピュータにログイン可能 に設定する。 例えばパーソナルコンピュータ P Cの電源をオンしたり、 ログイン 画面を表示させる等の使い方ができる。
なお、 本発明は本実施形態に限られるものではなく、 任意好適な種々の変更が 可能である。
リモコンや携帯型通信装置にデータ処理装置 1を内蔵させた例を説明したが、 この形態に限られるものではない。
例えば、 キーボードに撮像系 1 0 1を設け、 例えばキー入力中に、 被検体 hを 撮像し、 撮像データを基に認証処理を行つてもよい。
また、 ネットショッピング等を利用する際に、 必要事項を入力している間に、 被検体 hを撮像し、 撮像データを基に認証処理を行ってもよい。 この際、 本人で ないと注文できない仕組みにする。 また、 クレジットカード番号やパスワード等 との併用で使用することにより、 二重に管理することができ、 よりセキュリティ 性が向上する。
また、 例えば銀行の A TM (Automatic teller machine) 等のタツチパネノレに 撮像系 1 0 1を設け、 必要事項を入力する際に、 被検体 hを撮像し、 撮像データ を基に認証処理を行ってもよい。 例えば本人と識別すると現金を引き出し可能に 設定することで、 セキュリティ性が向上する。
また、 キャッシュカードや、 パスワード等との併用で使用すると、 よりセキュ リティ性が向上する。 ' また、 例えば家の鍵や郵便受け等に撮像系 1 0 1を設け、 被検体 hを撮像し、 撮像データを基に認証処理を行ってもよい。 正しく識別された場合に、 扉が開く 機構を設けることにより、 セキュリティ性が向上する。 また、 鍵等と併用して使 用すると、 よりセキュリティ性が向上する。
また、 例えば自転車にデータ処連装置 1を設け、 被検体 hを撮像し、 撮像デー タを基に認証処理を行ってもよい。 正しく識別された場合に鍵の O N/〇 F Fを 行う機構を設けることにより、 セキュリティ性が向上する。 また、 鍵との併用で 使用すると、 よりセキュリティ性が向上する。 また、 例えば、 クレジットカード使用時のサインの代用として使う。 例えばク レジットカード等のリーダライタに、 データ処理装置 1を設けることにより、 例 えば正しく認識された場合に、 カード番号を表示させるようにし、 手持ちのカー ドとの一致を見ることが可能となる。
また、 カード等との併用で使用することにより、 よりセキュリティ性が向上す る。 また、 これらを併用で使用することにより、 カードや鍵を紛失した場合に悪 用されることを防止することができる。 産業上の利用可能性
本発明は、 例えば、 被検体を撮像して得られた画像データを処理する画像処理 装置に適用可能である。

Claims

請 求 の 範 囲
1 . 被検体を撮像して得られた第 1の画像データを構成し予め規定された第 1 の範囲の画素値を示す複数の画素デ一夕について、 前記画素データの分布を示す 分布データを生成する分布データ生成手段と、
前記分布データ生成手段が生成した前記分布データに基いて、 前記第 1の範囲 のうち 2値化対象とする第 2の範囲を特定する特定手段と、
前記複数の画素データのうち、 前記特定手段が特定した前記第 2の範囲にある 画素データを前記第 1の範囲にマツビングして、 当該マツビングした前記画素デ 一夕で構成される第 2の画像データを生成するマツビング手段と、
前記マツピング手段で生成した前記第 2の画像データを、 前記第 1の範囲内に 規定された閾値を基に 2値化して第 3の画像データを生成する 2値化手段と を有する画像処理装置。
2 . 前記分布デ一夕生成手段は、 前記第 1の範囲内の各画素値について、 当該 画素値を持つ前記画素データの数を示す前記分布データを生成し、
前記特定手段は、 前記第 1の範囲のうち予め決められた数の前記画素データが 持つ画素値のなかで最大の画素値以下の範囲を前記第 2の範囲として特定する 請求項 1に記載の画像処理装置。
3. 前記マッピング手段で生成した前記第 2の画像データをノイズ除去処理の 後、 エッジ強調処理を行い第 4の画像データを生成するノイズ除去手段を有し、 前記 2値化手段は、 前記ノィズ除去手段が生成した前記第 4の画像データを、 前記第 1の範囲内に規定された閾値を基に 2値化して前記第 3の画像データを生 成する
請求項 1に記載の画像処理装置。
4. 前記ノイズ除去手段は、 前記マッピング手段で生成した前記第 2の画像デ —夕に、 ノイズ除去処理としてガウシアンフィル夕処理の後、 エッジ強調処理と してガウシアンラプラシアンフィルタ処理を行い前記第 4の画像デ一夕を生成す る
請求項 3に記載の画像処理装置。
5 . 前記ノイズ除去手段は、 前記マッピング手段で生成した前記第 2の画像デ 一夕を基に、 ガウシアンフィルタ、 最大値フィルタ、 最小値フィル夕、 2次元適 応ノイズ P余去フィル夕、 近傍フィル夕、 平均化フィル夕、 ガウシアン口一パスフ ィル夕、 2次元ラプラシアン演算子近似フィル夕、 またはガウシアンラプラシァ ンフィル夕のいずれかのノィズ除去処理を行い前記第 4の画像データを生成する 請求項4に記載の画像処理装置。
6 . 前記マッピング手段で生成した前記第 2の画像データを基に、 線形状のパ ターンを残すフィルタ処理を行い第 5の画像データを生成するフィルタ処理手段 を有し、
前記 2値化手段は、 前記フィル夕処理手段が生成した前記第 5の画像データを 、 前記第 1の範囲内に規定された閾値を基に 2値化して前記第 3の画像データを 生成する
請求項 1に記載の画像処理装置。
7 . 前記フィル夕処理手段は、 前記マッピング手段が生成した前記第 2の画像 データを 2次元フーリェ変換処理した 2次元フーリェ空間上で周波数成分が、 前 記線形状のパターンを残させる閾値よりも低周波数成分の前記第 5の画像データ を特定する
請求項 6に記載の画像処理装置。
8 . 被検体を撮像して得られた第 1の画像データを構成する、 画素値を示す複 数の画素データ毎に、 当該画素データの周囲の第 1の領域内の画素データのうち 最 /J、の画素データを前記画素データとする第 1の処理手段と、
前記第 1の処理手段による前記画素デ一夕毎に、 当該画素データの周囲の前記 第 1の領域よりも大きい第 2の領域内の画素デ一夕のうち最大の画素データを前 記画素データとして第 2の画像データを生成する第 2の処理手段と
を有する画像処理装置。
9 . 前記第 2の処理手段により得られた前記第 2の画像データを構成する前記 画素データ毎に、 当該画素データの周囲の前記第 2の領域内の画素データのうち 最小の画素データを前記画素データとして第 3の画像データを生成する第 3の処 理手段を有する
請求項 8に記載の画像処理装置。
1 0 . 前記第 1の処理手段により得られた前記画素データ毎に、 当該画素デ一 夕の周囲の前記第 1の領域内の画素データのうち最大の画素データを、 前記画素 データとする第 4の処理手段をさらに有し、
前記第 2の処理手段は、 前記第 4の処理手段により得られた前記画素データ毎 に、 当該画素デ一夕の周囲の前記第 1の領域よりも大きい前記第 2の領域内の画 素デ一夕のうち最大の画素データを、 前記画素データとして前記第 2の画像デー 夕を生成する
請求項 8に記載の画像処理装置。
1 1 . 被検体を撮像して得られた第 1の画像データを構成し予め規定された第 1の範囲の画素値を示す複数の画素データについて、 前記画素データの分布を示 す分布データを生成する第 1の工程と、
前記第 1の工程で生成した前記分布データに基いて、 前記第 1の範囲のうち 2 値化対象とする第 2の範囲を特定する第 2の工程と、
前記複数の画素データのうち、 前記第 2の工程で特定した前記第 2の範囲にあ る画素データを前記第 1の範囲にマツビングして、 当該マツビングした前記画素 データで構成される第 2の画像データを生成する第 3の工程と、
前記第 3の工程で生成した前記第 2の画像データを、 前記第 1の範囲内に規定 された閾値を基に 2値化して第 3の画像データを生成する第 4の工程と
を有する画像処理方法。
1 2. 前記第 1の工程は、 前記第 1の範囲内の各画素値について、 当該画素値 を持つ前記画素データの数を示す前記分布データを生成し、
前記第 2の工程は、 前記第 1の範囲のうち予め決められた数の前記画素データ が持つ画素値のなかで最大の画素値以下の範囲を前記第 2の範囲として特定する 請求項 1 1に記載の画像処理方法。
1 3. 前記第 3の工程で生成した前記第 2の画像データにノィズ除去処理の後 、 エッジ強調処理を行い第 4の画像データを生成する第 5の工程を有し、 前記第 4の工程は、 前記第 5の工程において生成した前記第 4の画像データを 、 前記第 1の範囲内に規定された閾値を基に 2値化して第 3の画像データを生成 する
請求項 1 2に記載の画像処理方法。
1 4. 前記第 5の工程は、 前記第 3の工程で生成した前記第 2の画像データに 、 前記ノイズ除去処理としてガウシアンフィル夕処理の後、 前記エッジ強調処理 としてガウシアンラプラシアンフィルタ処理を行い前記第 4の画像データを生成 する
請求項 1 3に記載の画像処理方法。
1 5. 前記第 5の工程は、 前記第 3の工程で生成した前記第 2の画像データを 基に、 複数の異なるノイズ除去処理のうち、 いずれかの前記ノイズ除去処理を行 い前記第 4の画像データを生成する
請求項 1 3に記載の画像処理方法。
1 6 . 前記第 5の工程は、 前記第 3の工程で生成した前記第 2の画像データを 基に、 前記複数の異なるノイズ除去処理として、 ガウシアンフィルタ、 最大値フ ィル夕、 最小値フィルタ、 2次元適応ノイズ除去フィル夕、 近傍フィル夕、 平均 化フィルタ、 ガウシアンローパスフィルタ、 2次元ラプラシアン演算子近似フィ ル夕、 またはガウシアンラプラシアンフィル夕のいずれかのノイズ除去処理を行 い前記第 4の画像データを生成する 請求項 1 5に記載の画像処理方法。
1 7. 前記第 3の工程で生成した前記第 2の画像データを基に、 線形状のパ夕 —ンを残すフィル夕処理を行い第 5の画像データを生成する第 6の工程と、 前記第 4の工程は、 前記第 6の工程において生成した前記第 5の画像デ一夕を 、 前記第 1の範囲内に規定された閾値を基に 2値化して前記第 3の画像データを 生成する
請求項 1 1に記載の画像処理方法。
1 8. 前記第 6の工程は、 前記第 3の工程で生成した前記第 2の画像デ一夕を 2次元フーリェ変換処理した 2次元フーリェ空間上で周波数成分が、 前記線形状 のパターンを残させる閾値よりも低周波数成分の第 5の画像デ一夕を特定し、 前記第 4の工程は、 前記第 6の工程において特定した前記第 5の画像データを 、 前記第 1の範囲内に規定された閾値を基に 2値化して前記第 3の画像データを 生成する
請求項 1 7に記載の画像処理方法。
1 9. 前記第 6の工程は、 前記第 3の工程で生成した前記第 2の画像データを 2次元フーリェ変換処理した 2次元フーリェ空間上で周波数成分としての前記閾 値を、 当該閾値より大きな閾値に再設定し、 前記再設定した閾値よりも低周波数 成分を特定して前記第 6の画像データを特定する
請求項 1 8に記載の画像処理方法。
2 0. 被検体を撮像して得られた第 1の画像データを構成する、 画素値を示す 複数の画素データ毎に、 当該画素データの周囲の第 1の領域内の画素データのう ち最小の画素データを前記画素データとする第 1の工程と、
前記第 1の工程による前記画素データ毎に、 当該画素データの周囲の前記第 1 の領域よりも大きい第 2の領域内の画素データのうち最大の画素データを前記画 素データとして第 2の画像データを生成する第 2の工程と
を有する画像処理方法。
2 1 . 前記第 2の工程により得られた前記第 2の画像データを構成する前記画 素データ毎に、 当該画素データの周囲の前記第 2の領域内の画素データのうち最 小の画素データを前記画素データとして第 3の画像データを生成する第 3の工程 を有する
請求項 2 0に記載の画像処理方法。
2 2. 前記第 1の工程により得られた前記画素データ毎に、 当該画素データの 周囲の前記第 1の領域内の画素データのうち最大の画素データを、 前記画素デー 夕とする第 4の工程をさらに有し、
前記第 2の工程は、 前記第 4の工程により得られた前記画素データ毎に、 当該 画素データの周囲の前記第 1の領域よりも大きい前記第 2の領域内の画素デ一夕 のうち最大の画素データを、 前記画素データとして前記第 2の画像データを生成 する
請求項 2 0に記載の画像処理方法。
2 3. 前記第 2の工程で生成した前記第 2の画像データを基に、 線形状のパタ —ンを残すフィル夕処理を行い、 第 4の画像データを生成する第 5の工程を有す る
請求項 2 0に記載の画像処理方法。
2 4. 前記第 5の工程は、 前記第 2の工程で生成した前記第 2の画像データを 2次元フーリェ変換処理した 2次元フーリェ空間上で周波数成分が、 前記線形状 のパターンを残させる閾値よりも低周波数成分の前記第 4の画像データを生成す る
請求項 2 3に記載の画像処理方法。
2 5. 前記第 5の工程は、 前記第 2の工程で生成した前記第 2の画像データを 2次元フーリェ変換処理した 2次元フーリェ空間上で周波数成分が、 前記閾値よ り大きな閾値に再設定し、 前記閾値よりも低周波数成分を特定して前記第 4の画 像データを生成する 請求項 2 4に記載の画像処理方法。
PCT/JP2004/006328 2003-05-06 2004-04-30 画像処理装置、および画像処理方法 WO2004100069A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US10/518,607 US7450757B2 (en) 2003-05-06 2004-04-30 Image processing device and image processing method
EP04730682A EP1622079B1 (en) 2003-05-06 2004-04-30 Image processing device and image processing method
US12/246,043 US7702174B2 (en) 2003-05-06 2008-10-06 Image processing apparatus and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003164372A JP4547869B2 (ja) 2003-05-06 2003-05-06 画像処理方法、および画像処理装置
JP2003164373A JP4389489B2 (ja) 2003-05-06 2003-05-06 画像処理方法、および画像処理装置
JP2003-164372 2003-05-06

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/518,607 A-371-Of-International US7450757B2 (en) 2003-05-06 2004-04-30 Image processing device and image processing method
US12/246,043 Division US7702174B2 (en) 2003-05-06 2008-10-06 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2004100069A1 true WO2004100069A1 (ja) 2004-11-18

Family

ID=40346603

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/006328 WO2004100069A1 (ja) 2003-05-06 2004-04-30 画像処理装置、および画像処理方法

Country Status (4)

Country Link
US (2) US7450757B2 (ja)
EP (1) EP1622079B1 (ja)
JP (2) JP4389489B2 (ja)
WO (1) WO2004100069A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004329826A (ja) * 2003-05-06 2004-11-25 Sony Corp 画像処理方法、および画像処理装置
CN111507310A (zh) * 2020-05-21 2020-08-07 国网湖北省电力有限公司武汉供电公司 一种基于φ-otdr的光缆通道内人为触缆作业信号识别方法

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI297875B (en) * 2004-09-16 2008-06-11 Novatek Microelectronics Corp Image processing method and device using thereof
JP3877748B1 (ja) * 2005-10-28 2007-02-07 京セラ株式会社 生体認証装置
JP4992212B2 (ja) 2005-09-06 2012-08-08 ソニー株式会社 画像処理装置、画像判定方法及びプログラム
JP4305431B2 (ja) 2005-09-06 2009-07-29 ソニー株式会社 画像処理装置、マスク作成方法及びプログラム
JP2007207009A (ja) 2006-02-02 2007-08-16 Fujitsu Ltd 画像処理方法及び画像処理装置
JP4816321B2 (ja) * 2006-08-14 2011-11-16 ソニー株式会社 認証装置及び認証方法並びにプログラム
JP5121204B2 (ja) 2006-10-11 2013-01-16 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US8068673B2 (en) * 2006-12-01 2011-11-29 Beihang University Rapid and high precision centroiding method and system for spots image
JP4588015B2 (ja) * 2006-12-25 2010-11-24 京セラ株式会社 生体認証装置
JP2008287436A (ja) * 2007-05-16 2008-11-27 Sony Corp 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP2008287428A (ja) * 2007-05-16 2008-11-27 Sony Corp 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP2008287432A (ja) * 2007-05-16 2008-11-27 Sony Corp 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP2009187520A (ja) * 2008-01-09 2009-08-20 Sony Corp 認証装置、認証方法、登録装置及び登録方法
JP4941311B2 (ja) 2008-01-09 2012-05-30 ソニー株式会社 マウス
EP2291822A1 (en) * 2008-05-21 2011-03-09 Koninklijke Philips Electronics N.V. Image resolution enhancement
US8238654B2 (en) * 2009-01-30 2012-08-07 Sharp Laboratories Of America, Inc. Skin color cognizant GMA with luminance equalization
US8798385B2 (en) * 2009-02-16 2014-08-05 Raytheon Company Suppressing interference in imaging systems
KR101129220B1 (ko) * 2009-11-03 2012-03-26 중앙대학교 산학협력단 레인지 영상의 노이즈 제거장치 및 방법
US20110103655A1 (en) * 2009-11-03 2011-05-05 Young Warren G Fundus information processing apparatus and fundus information processing method
US20120019727A1 (en) * 2010-07-21 2012-01-26 Fan Zhai Efficient Motion-Adaptive Noise Reduction Scheme for Video Signals
KR20120089101A (ko) * 2011-02-01 2012-08-09 삼성전자주식회사 터치 패널의 멀티 터치 검출 방법 및 이를 이용한 터치 스크린 장치의 동작 방법
JP2013011856A (ja) * 2011-06-01 2013-01-17 Canon Inc 撮像システムおよびその制御方法
JP5178898B1 (ja) * 2011-10-21 2013-04-10 株式会社東芝 画像信号補正装置、撮像装置、内視鏡装置
US9326008B2 (en) * 2012-04-10 2016-04-26 Google Inc. Noise reduction for image sequences
CA2906973C (en) * 2013-04-04 2020-10-27 Illinois Tool Works Inc. Helical computed tomography
US9105102B1 (en) * 2013-10-01 2015-08-11 The United States Of America As Represented By The Secretary Of The Navy Method for processing radiographic images of rapidly moving objects such as shaped charge jet particles
CA3002902C (en) * 2015-12-18 2023-05-09 Ventana Medical Systems, Inc. Systems and methods of unmixing images with varying acquisition properties

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06339028A (ja) * 1993-05-27 1994-12-06 Toshiba Corp 画像表示装置
JPH07210655A (ja) * 1994-01-21 1995-08-11 Nikon Corp 眼科用画像処理装置
JPH08287255A (ja) * 1995-04-12 1996-11-01 Nec Corp 皮膚紋様画像の画像特徴抽出装置および画像処理装置
JP2001144960A (ja) * 1999-11-18 2001-05-25 Kyocera Mita Corp 画像処理装置
JP2002092616A (ja) * 2000-09-20 2002-03-29 Hitachi Ltd 個人認証装置
JP2002135589A (ja) * 2000-10-27 2002-05-10 Sony Corp 画像処理装置および方法、並びに記録媒体

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3656695B2 (ja) * 1997-09-30 2005-06-08 富士写真フイルム株式会社 骨計測方法および装置
JP2003098117A (ja) * 1997-12-25 2003-04-03 Nec Corp 画像の欠陥検出装置及びその欠陥検出方法
JPH11224892A (ja) * 1998-02-05 1999-08-17 Nippon Inter Connection Systems Kk テープキャリアの欠陥検出装置および欠陥検出方法
US6507670B1 (en) * 1998-03-05 2003-01-14 Ncr Corporation System and process for removing a background pattern from a binary image
US6714674B1 (en) * 1998-04-30 2004-03-30 General Electric Company Method for converting digital image pixel values
JP2000090290A (ja) * 1998-07-13 2000-03-31 Sony Corp 画像処理装置および画像処理方法、並びに媒体
JP2000134491A (ja) * 1998-10-26 2000-05-12 Canon Inc 画像処理装置及びその制御方法及び記憶媒体
JP2000134476A (ja) * 1998-10-26 2000-05-12 Canon Inc 画像処理装置及びその制御方法及び記憶媒体
US6891967B2 (en) * 1999-05-04 2005-05-10 Speedline Technologies, Inc. Systems and methods for detecting defects in printed solder paste
JP2001076074A (ja) * 1999-09-03 2001-03-23 Canon Inc 医療用画像処理装置
JP4046465B2 (ja) * 1999-09-17 2008-02-13 株式会社リコー 画像処理装置、画像処理方法、及び画像処理システム
JP2001160902A (ja) * 1999-12-01 2001-06-12 Canon Inc 画像処理装置およびその方法
JP4148443B2 (ja) * 2001-05-21 2008-09-10 株式会社リコー 画像形成装置
JP3742313B2 (ja) * 2001-05-10 2006-02-01 日本電信電話株式会社 画像照合装置、画像照合方法、プログラム及び記録媒体
JP3983101B2 (ja) * 2001-05-25 2007-09-26 株式会社リコー 画像処理装置、画像読み取り装置、画像形成装置およびカラー複写装置
US7130463B1 (en) * 2002-12-04 2006-10-31 Foveon, Inc. Zoomed histogram display for a digital camera
JP4389489B2 (ja) * 2003-05-06 2009-12-24 ソニー株式会社 画像処理方法、および画像処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06339028A (ja) * 1993-05-27 1994-12-06 Toshiba Corp 画像表示装置
JPH07210655A (ja) * 1994-01-21 1995-08-11 Nikon Corp 眼科用画像処理装置
JPH08287255A (ja) * 1995-04-12 1996-11-01 Nec Corp 皮膚紋様画像の画像特徴抽出装置および画像処理装置
JP2001144960A (ja) * 1999-11-18 2001-05-25 Kyocera Mita Corp 画像処理装置
JP2002092616A (ja) * 2000-09-20 2002-03-29 Hitachi Ltd 個人認証装置
JP2002135589A (ja) * 2000-10-27 2002-05-10 Sony Corp 画像処理装置および方法、並びに記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP1622079A4
WIECEK B ET AL.: "Advanced thermal image processing, for medical and biological application", PROCEEDINGS OF THE 23RD. ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY. 2001 CONFERENCE PROCEEDINGS (EMBS). ISTANBUL, TURKEY, OCT. 25 - 28, 2001, vol. 3, 25 October 2001 (2001-10-25), pages 2805 - 2807, XP010592244

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004329826A (ja) * 2003-05-06 2004-11-25 Sony Corp 画像処理方法、および画像処理装置
US7702174B2 (en) 2003-05-06 2010-04-20 Sony Corporation Image processing apparatus and image processing method
CN111507310A (zh) * 2020-05-21 2020-08-07 国网湖北省电力有限公司武汉供电公司 一种基于φ-otdr的光缆通道内人为触缆作业信号识别方法
CN111507310B (zh) * 2020-05-21 2023-05-23 国网湖北省电力有限公司武汉供电公司 一种基于φ-otdr的光缆通道内人为触缆作业信号识别方法

Also Published As

Publication number Publication date
EP1622079A1 (en) 2006-02-01
JP2004329826A (ja) 2004-11-25
US20090041351A1 (en) 2009-02-12
JP4389489B2 (ja) 2009-12-24
EP1622079A4 (en) 2010-09-29
JP4547869B2 (ja) 2010-09-22
US7450757B2 (en) 2008-11-11
US20050232483A1 (en) 2005-10-20
US7702174B2 (en) 2010-04-20
EP1622079B1 (en) 2012-05-02
JP2004329825A (ja) 2004-11-25

Similar Documents

Publication Publication Date Title
WO2004100069A1 (ja) 画像処理装置、および画像処理方法
US8275174B2 (en) Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration
WO2022066955A1 (en) Method to verify identity using a previously collected biometric image/data
US8111878B2 (en) Vein authentication device and vein authentication method
JP5045344B2 (ja) 登録装置、登録方法、認証装置及び認証方法
US20160259960A1 (en) Texture features for biometric authentication
US20140241598A1 (en) Method and Apparatus for Processing Biometric Images
EP2148295A1 (en) Vein pattern management system, vein pattern registration device, vein pattern authentication device, vein pattern registration method, vein pattern authentication method, program, and vein data structure
WO2005052859A1 (ja) 眼画像入力装置および認証装置ならびに画像処理方法
JP2003168084A (ja) 本人認証システム及び方法
CN101465736A (zh) 一种身份认证方法和系统
JP2005062990A (ja) 虹彩認証装置
EP2148302A1 (en) Vein pattern management system, vein pattern registration device, vein pattern authentication device, vein pattern registration method, vein pattern authentication method, program, and vein data structure
US20040175023A1 (en) Method and apparatus for checking a person's identity, where a system of coordinates, constant to the fingerprint, is the reference
US8320639B2 (en) Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration
JP2005027135A (ja) 盗撮防止システム及び盗撮防止端末機
CN110930154A (zh) 身份验证方法和装置
US20200074255A1 (en) Graphic two-dimensional barcode and creating method thereof
CN110858360A (zh) 扫图支付法
JP2010020670A (ja) 認証装置
JP4935213B2 (ja) 登録装置、認証装置、画像処理方法及びプログラム
Mil’shtein et al. Applications of Contactless Fingerprinting
JP2001052178A (ja) データの作成方法および作成装置ならびに照合方法およびシステム
WO2004086292A1 (en) Method and device for classifying field types of a digital image
CN110910115A (zh) 扫物支付法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 10518607

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004730682

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2004730682

Country of ref document: EP