WO2020065798A1 - 個体識別システム - Google Patents

個体識別システム Download PDF

Info

Publication number
WO2020065798A1
WO2020065798A1 PCT/JP2018/035810 JP2018035810W WO2020065798A1 WO 2020065798 A1 WO2020065798 A1 WO 2020065798A1 JP 2018035810 W JP2018035810 W JP 2018035810W WO 2020065798 A1 WO2020065798 A1 WO 2020065798A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
feature amount
image
unit
parameter
Prior art date
Application number
PCT/JP2018/035810
Other languages
English (en)
French (fr)
Inventor
高橋 徹
佑太 工藤
賢吾 牧野
石山 塁
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2020547693A priority Critical patent/JP7081677B2/ja
Priority to US17/278,470 priority patent/US11651582B2/en
Priority to PCT/JP2018/035810 priority patent/WO2020065798A1/ja
Publication of WO2020065798A1 publication Critical patent/WO2020065798A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/431Frequency domain transformation; Autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • the present invention relates to an individual identification system, an individual identification device, an individual registration device, an individual identification method, an individual registration method, and a recording medium.
  • an image of the uneven pattern is captured by using a photographing aid having an illumination angle for imaging the uneven pattern formed by a satin-finished pattern formed on the surface of the object with good contrast, and authentication and verification of the object are performed. It is described that it is used for.
  • Patent Document 2 an illumination angle of light according to an optical characteristic of a given fine substance is specified, and reference image data is obtained by optically reading a reference article while being illuminated at the illumination angle. It describes that reference feature data is calculated from the reference image data and stored in the storage unit.
  • Patent Literature 1 and Patent Literature 2 In order to extract a random pattern unique to an object from an image obtained by imaging the object, it is necessary to capture an image that can stably read the random pattern unique to the object. Therefore, in Patent Literature 1 and Patent Literature 2, an illumination angle specified in advance is stored as a value of an imaging parameter, an imaging condition determined by the value of the imaging parameter is set, and authentication and collation are performed under the imaging condition. It is conceivable to capture an image of an object that performs. However, when there are many types of objects to be authenticated or collated, it is difficult in terms of time and cost to specify the value of the imaging parameter in advance for each type of object. In the case of a new object such as a new product, it is impossible to specify the value of the imaging parameter in advance. Therefore, there is a problem that an appropriate imaging condition cannot be set for an object whose imaging parameter value is not specified in advance.
  • An individual identification system includes: Storage means for storing imaging parameters in association with data characterizing the surface of the reference object, When data characterizing the surface of the individual identification target object is input, the degree of approximation between the input data and each data stored in the storage means is calculated, and the individual identification is performed based on the calculated degree of approximation.
  • Acquisition means for acquiring the imaging parameters to be applied to the target object from the storage means,
  • Condition setting means for setting imaging conditions determined by the obtained imaging parameters, Under the set imaging conditions, imaging means for obtaining an image of the surface of the individual identification target object, Extracting means for extracting a feature amount from the obtained image; Matching means for comparing the extracted feature quantity with a registered feature quantity.
  • An individual identification device When data characterizing the surface of the object to be collated is input, the degree of approximation between each data stored in the storage unit that stores imaging parameters in association with the data characterizing the surface of the reference object and the input data is calculated.
  • Calculating means for calculating, from the storage means, the imaging parameters to be applied to the object to be checked based on the calculated degree of approximation;
  • Condition setting means for setting imaging conditions determined by the obtained imaging parameters, Imaging means for obtaining an image of the surface of the object to be checked under the set imaging conditions; Extracting means for extracting a feature amount from the obtained image; Matching means for comparing the extracted feature quantity with a registered feature quantity.
  • An individual registration device When data characterizing the surface of the registration target object is input, the degree of approximation between each data stored in the storage unit that stores imaging parameters in association with the data characterizing the surface of the reference object and the input data is calculated.
  • Calculating means for calculating, from the storage means, the imaging parameters to be applied to the registration target object based on the calculated degree of approximation;
  • Condition setting means for setting imaging conditions determined by the obtained imaging parameters, Imaging means for obtaining an image of the surface of the registration target object under the set imaging conditions; Extracting means for extracting a feature amount from the obtained image;
  • Registering means for registering the extracted feature amount as a registered feature amount.
  • a recording medium includes: Computer When data characterizing the surface of the object to be collated is input, the degree of approximation between each data stored in the storage unit that stores imaging parameters in association with the data characterizing the surface of the reference object and the input data is calculated.
  • Calculating means for calculating, from the storage means, the imaging parameters to be applied to the object to be checked based on the calculated degree of approximation;
  • Condition setting means for setting imaging conditions determined by the obtained imaging parameters, Imaging means for obtaining an image of the surface of the object to be checked under the set imaging conditions; Extracting means for extracting a feature amount from the obtained image; A matching unit that matches the extracted feature amount with a registered feature amount, And a computer-readable recording medium on which a program for causing the computer to function is recorded.
  • An individual identification method When data characterizing the surface of the object to be collated is input, the degree of approximation between each data stored in the storage unit that stores imaging parameters in association with the data characterizing the surface of the reference object and the input data is calculated. Calculating, acquiring the imaging parameters to be applied to the object to be checked based on the calculated degree of approximation from the storage unit, Setting imaging conditions determined by the obtained imaging parameters, Under the set imaging conditions, obtain an image of the surface of the object to be checked, Extracting a feature amount from the obtained image, The extracted feature amount is compared with the registered feature amount.
  • An individual registration method When data characterizing the surface of the registration target object is input, the degree of approximation between each data stored in the storage unit that stores imaging parameters in association with the data characterizing the surface of the reference object and the input data is calculated. Calculating, acquiring the imaging parameter to be applied to the registration target object based on the calculated degree of approximation from the storage unit, Setting imaging conditions determined by the obtained imaging parameters, Imaging means for obtaining an image of the surface of the registration target object under the set imaging conditions; Extracting a feature amount from the obtained image, The extracted feature amount is registered as a registered feature amount.
  • the present invention has the above-described configuration, even if an object whose imaging parameter value is not specified in advance, an object having a surface very similar to the object whose imaging parameter value is specified in advance Then, the imaging conditions can be set.
  • FIG. 3 is a diagram illustrating an example of a shape characterizing the surface of an object according to the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an outline of pre-processing performed on an image of an object to be identified in the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an outline of a feature extraction process according to the first embodiment of the present invention.
  • It is a block diagram of an individual identification device concerning a 1st embodiment of the present invention.
  • It is a sectional view showing an example of the structure of the imaging part of the individual identification device concerning a 1st embodiment of the present invention.
  • FIG. 2 is a top view illustrating an example of a structure of an imaging unit of the individual identification device according to the first embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of a group of sample objects according to the first embodiment of the present invention.
  • 5 is an operation flow illustrating an example of a process of determining values of specific imaging parameters and image processing parameters in the individual identification device according to the first embodiment of the present invention.
  • 5 is a flowchart illustrating an example of processing for determining values of specific imaging parameters and image processing parameters in the individual identification device according to the first embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of contents of a parameter storage unit in the individual identification device according to the first embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of contents of an image storage unit in the individual identification device according to the first embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of contents of a feature amount storage unit in the individual identification device according to the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of contents of a first feature amount pair storage unit in the individual identification device according to the first embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of contents of a second feature amount pair storage unit in the individual identification device according to the first embodiment of the present invention. It is a figure showing the example of contents of the distribution storage part in the individual identification device concerning a 1st embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of a measure of the degree of separation used in the individual identification device according to the first embodiment of the present invention.
  • FIG. 4 is a diagram illustrating another example of a measure of the degree of separation used in the individual identification device according to the first embodiment of the present invention.
  • FIG. 6 is a diagram illustrating still another example of a measure of the degree of separation used in the individual identification device according to the first embodiment of the present invention.
  • 6 is a diagram illustrating still another example of a measure of the degree of separation used in the individual identification device according to the first embodiment of the present invention.
  • 6 is a flowchart illustrating another example of a process for determining a value of a specific imaging parameter in the individual identification device according to the first embodiment of the present invention.
  • 5 is an operation flow illustrating an example of individual registration in the individual identification device according to the first embodiment of the present invention.
  • 5 is a flowchart illustrating an example of individual registration in the individual identification device according to the first embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of the content of individual registration information stored in a feature amount storage unit in the individual identification device according to the first embodiment of the present invention.
  • FIG. 4 is an operation flow of individual identification and individual collation in the individual identification device according to the first embodiment of the present invention.
  • 5 is a flowchart illustrating an example of processing for individual identification and individual collation in the individual identification device according to the first embodiment of the present invention.
  • It is a block diagram of an individual identification system concerning a 2nd embodiment of the present invention. It is a figure showing the example of contents of the parameter storage part of the individual identification device concerning a 3rd embodiment of the present invention.
  • It is a block diagram of the individual identification system concerning a 4th embodiment of the present invention.
  • It is a block diagram of an individual identification device concerning a 5th embodiment of the present invention.
  • It is a block diagram of an individual registration device concerning a 6th embodiment of the present invention.
  • the values of the imaging parameter and the image processing parameter are determined in advance for each reference object, and the determined values are stored in the storage device in association with the values of the data characterizing the surface of the reference object. ing. Further, in the present embodiment, at the time of individual identification, the values of the imaging parameters and the image processing parameters that are associated with the values of the data characterizing the surface of the reference object, which approximate the values of the data characterizing the surface of the object to be identified, are stored. It is configured to be obtained from the device. In the present embodiment, an imaging condition and an image processing condition determined by the values of the acquired imaging parameter and image processing parameter are set, and an image of the surface of the object to be identified is acquired under the imaging condition. Image processing is performed under processing conditions to extract a feature amount from the image, and the extracted feature amount is compared with a registered feature amount.
  • Data that characterizes the surface of an object is data representing a material of the surface of the object.
  • data representing materials for example, resin, metal, ceramic, carbon fiber, glass, paper, wood, steel, and the like are examples of data representing materials.
  • Another example of data characterizing the surface of an object is data expressing roughness of the surface of the object.
  • the arithmetic average roughness (Ra) is an example of data expressing the roughness of the object surface.
  • FIG. 1 shows some examples of the shape.
  • the outer rectangle is the captured image, and the hatched portion inside is the shape of the object.
  • FIG. 1 illustrates a plane (rectangular), polygon, circle, and ring (doughnut) as shapes, but other shapes are also possible.
  • the shape can be said to be a two-dimensional shape of the surface to be imaged. It can also be said that the shape is the shape of the image area on the surface of the object from which the feature is extracted.
  • the data characterizing the surface of the object is not limited to the above-described material, roughness, and shape. Reflectance, transmittance, optical properties, processing methods such as satin finishing and lathe processing of the surface of the object are other examples of data characterizing the surface of the object.
  • Imaging parameters One example of an imaging parameter is an illumination angle.
  • the illumination angle is an angle at which the illumination light is incident on the surface of the object.
  • the imaging parameter is image resolution.
  • the image resolution is represented by, for example, DPI (Dot @ Per @ Inch). Further, since there is a certain causal relationship between the image resolution and the imaging magnification, the imaging magnification may be used as an imaging parameter instead of the image resolution.
  • the imaging parameters are not limited to the above-described illumination angles and image resolutions.
  • the distance between the object and the camera, the intensity of the illumination light, the wavelength of the illumination light, the size of the illumination, and the like are other examples of the imaging parameters.
  • Image processing parameters are roughly classified into pre-processing parameters and feature extraction parameters.
  • the pre-processing parameter is a parameter used in pre-processing performed before feature extraction for an image to be identified.
  • the feature extraction parameter is a parameter used in a feature extraction process performed on an image of an individual identification target subjected to preprocessing.
  • FIG. 2 is a diagram showing an outline of preprocessing performed on an image of an object to be identified.
  • preprocessing three processes of a masking process, noise removal, and sharpening are performed on the captured image in that order.
  • the area of the captured image is divided into the area of the object to be identified and the other area (background), and pixels belonging to the background are replaced with specific pixel values.
  • One method is to replace with a pre-given pixel value (generally zero).
  • Another method is to determine, for each background pixel to be replaced, the value of a pixel after replacement based on the values of that pixel and the pixels around it.
  • the range of surrounding pixels is determined by a local image block given in advance. For example, when a 3 ⁇ 3 block is used as a local image block, the value of a pixel after replacement is determined by, for example, an average value of a total of 9 pixels including a target pixel and eight surrounding pixels.
  • the specific pixel value such as the zero and the local image block are referred to as mask processing parameters.
  • the mask processing parameter is an example of a pre-processing parameter.
  • noise existing in the region to be identified in the captured image after the mask processing is removed by, for example, a median filter.
  • the noise is removed by a smoothing filter.
  • noise (sensor noise) is removed by a bilateral filter.
  • the median filter, smoothing filter, and bilateral filter are called noise removal parameters.
  • the noise removal parameter is another example of the preprocessing parameter.
  • a pattern having individual identification is emphasized by optimizing the contrast of a captured image for each local region.
  • the captured image from which noise has been removed is divided into local regions of an image block size given in advance, and CLAHE (Contrast Limited Adaptive histogram) is applied to each local region.
  • the image block size is called a sharpening processing parameter.
  • the sharpening processing parameter is another example of the preprocessing parameter.
  • FIG. 3 is a diagram showing an outline of the feature extraction process.
  • four processes of window function application, frequency conversion process, frequency band selection, and weighting for each element of the feature amount are performed on the captured image after the preprocessing is applied in that order.
  • the application of the window function is performed in the subsequent frequency conversion in order to suppress noise from being mixed into the feature amount due to discontinuity at the image edge.
  • a window function for example, a generalized Hamming window function
  • Parameters for adjusting the shape of the window function are called window function application parameters.
  • the window function application parameter is an example of a feature extraction parameter.
  • the frequency conversion process is, for example, a Fourier transform.
  • a frequency band element having individual discrimination is selected from a two-dimensional data array (complex number), which is data after frequency conversion, according to the size and center position coordinates of an array block given in advance.
  • the size of the array block and the coordinates of the center position are called frequency band selection parameters.
  • the frequency band selection parameter is another example of the feature extraction parameter.
  • Weighting of each element of the feature amount is performed by multiplying each element of the frequency band selected by the frequency band selection, for example, by a two-dimensional Gaussian function.
  • a parameter that determines the shape of each two-dimensional direction of the two-dimensional Gaussian function is called a weight parameter for each element of the feature amount. This weight parameter is another example of the feature extraction parameter.
  • FIG. 4 is a block diagram of the individual identification device according to the present embodiment.
  • the individual identification apparatus 100 includes an imaging unit 101, a condition control unit 102, an image storage unit 103, a feature amount extraction unit 104, a feature amount storage unit 105, a feature amount pair generation unit 106, First feature amount pair storage unit 107, second feature amount pair storage unit 108, score calculation unit 109, distribution generation unit 110, distribution storage unit 111, parameter determination unit 113, and parameter storage unit 114. , A determination unit 115, an information presentation unit 116, and an object information input unit 117.
  • the object information input unit 117 is configured to input a value of a predetermined type of data that characterizes the surface of the sample object (reference object) and the surface of the identification / collation object.
  • a predetermined type of data that characterizes the surface of the sample object (reference object) and the surface of the identification / collation object.
  • the above-described three data of the material, the surface roughness, and the shape are used as the predetermined types of data.
  • the type and number of data used are not limited to the above.
  • the condition control unit 102 is configured to control the imaging conditions of the imaging unit 101.
  • the condition control unit 102 controls the imaging condition based on a combination of one or more types of predetermined imaging parameter values.
  • three illumination parameters, an image resolution, and a relative posture between the object and the camera are used as predetermined imaging parameters.
  • the illumination angle and the image resolution are two imaging parameters determined in advance.
  • the relative posture between the object and the camera is used not as an imaging parameter determined in advance but as a disturbance factor.
  • the type and number of imaging parameters determined in advance are not limited to the above. Further, the type and number of imaging parameters used as disturbance factors are not limited to the above.
  • the condition control unit 102 is configured to control image processing conditions in the feature amount extraction unit 104.
  • the condition control unit 102 controls the image processing conditions based on a combination of one or more types of predetermined image processing parameter values.
  • two pre-processing parameter sets and a feature extraction parameter set are used as predetermined image processing parameters.
  • the pre-processing parameter set includes one or more than two parameters belonging to the above-described mask processing parameters, noise removal parameters, and sharpening processing parameters.
  • the feature extraction parameter set includes one or more than two parameters belonging to the above-described window function application parameter, frequency band selection parameter, and weight parameter.
  • the imaging unit 101 is configured to capture an image of an uneven pattern on the surface of an object to be managed by a camera based on the imaging conditions set by the condition control unit 102.
  • the concavo-convex pattern on the surface of the target object may be a satin pattern formed on the surface of the product as the target object, or microscopic irregularities or patterns naturally occurring during the manufacturing process.
  • FIGS. 5A and 5B show examples of the structure of the imaging unit 101.
  • FIG. FIG. 5A is a sectional view taken along line XX
  • FIG. 5B is a top view.
  • the imaging unit 101 of this example includes a camera 161 having a zoom lens 162.
  • the camera 161 may be, for example, a digital camera.
  • the optical axis of the camera 161 is a direction perpendicular to the plane of the identification target 164.
  • the identification object 164 is placed on the table 165. By tilting or rotating the table 165, the posture of the identification target 164 with respect to the camera 161 can be changed.
  • the distance between the camera 161 and the identification target 164 is substantially constant.
  • the image resolution can be controlled.
  • the imaging unit 101 includes an illuminator 163 whose illumination angle is variable.
  • the illuminator 163 includes illumination units 166 such as LEDs having different positions in the latitude direction (height direction) in eight directions in the longitude direction (circumferential direction). By changing the position of the lighting unit 166 to be turned on, the lighting angle can be controlled.
  • the image storage unit 103 is configured to store an image of a concavo-convex pattern on the surface of the object obtained by imaging by the imaging unit 101.
  • the feature amount extraction unit 104 is configured to perform image processing on the image of the uneven pattern on the surface of the object stored in the image storage unit 103, based on the image processing conditions set by the condition control unit 102. Have been. That is, first, the feature amount extraction unit 104 performs the preprocessing described with reference to FIG. 2 on the image. Next, the feature amount extraction unit 104 performs the feature extraction process described with reference to FIG.
  • the feature amount storage unit 105 is configured to store the feature amount extracted by the feature amount extraction unit 104.
  • the feature amount pair generation unit 106 is configured to generate a first feature amount pair for each of the objects from the plurality of feature amounts of the plurality of objects stored in the feature amount storage unit 105.
  • the first feature amount pair means a pair of feature amounts extracted from a plurality of images of an object having the same two feature amounts forming the pair.
  • the feature amount pair generation unit 106 is configured to generate a second feature amount pair for all combinations of the objects from the plurality of feature amounts of the plurality of objects stored in the feature amount storage unit 105. Have been.
  • the second feature amount pair means a pair of feature amounts extracted from a plurality of images of an object in which two feature amounts forming the pair are different from each other.
  • the first feature value pair storage unit 107 is configured to store the plurality of first feature value pairs generated by the feature value pair generation unit 106.
  • the second feature value pair storage unit 108 is configured to store the plurality of second feature value pairs generated by the feature value pair generation unit 106.
  • the score calculation unit 109 is configured to calculate a correlation between two feature amounts and calculate a matching score indicating a degree of similarity between the two feature amounts.
  • the two feature value pairs for which scores are to be calculated include a first feature value pair, a second feature value pair, and a feature value and a feature value to be identified and collated by the feature value extraction unit 104.
  • the pair includes the reference feature amount stored in the storage unit 105.
  • the score calculation unit 109 calculates a score using, for example, the number of elements of a feature amount corresponding to both feature amounts. Alternatively, the score calculation unit 109 calculates a score based on a Hamming distance between codes representing both feature amounts, for example.
  • the score may be a value that increases as the two feature amounts are more similar, that is, the smaller the distance between the two feature amounts, or may be a smaller value.
  • the method of calculating the score is not limited to the above example.
  • the distribution generation unit 110 is configured to generate a first distribution that is a distribution of the matching scores of the plurality of first feature amount pairs.
  • the distribution generation unit 110 is configured to generate a second distribution that is a distribution of the matching scores of the plurality of second feature amount pairs.
  • the first distribution and the second distribution divide the range of the score into several sections, and indicate the number of the first feature amount pair and the second feature amount pair appearing in each section in a table format or This is information expressed in a graph format.
  • the distribution storage unit 111 is configured to store the first distribution and the second distribution generated by the distribution generation unit 110.
  • the parameter determination unit 113 is configured to calculate the degree of separation between the first distribution and the second distribution stored in the distribution storage unit 111. Further, the parameter determination unit 113 is configured to determine values of predetermined imaging parameters and image processing parameters based on the calculated degree of separation.
  • the parameter storage unit 114 is configured to store the values of the imaging parameters and the image processing parameters determined by the parameter determination unit 113 in association with the values of the data characterizing the surface of the object.
  • the determination unit 115 calculates a score calculated by the score calculation unit 109 for a pair including the feature amount to be identified and collated and extracted from the feature amount extraction unit 104 and the reference feature amount stored in the feature amount storage unit 105. Is configured to generate a determination result of identification and collation based on.
  • the information presenting unit 116 is configured to present the object management information based on the determination result of the determining unit 115.
  • the individual identification device 100 includes an imaging unit 151 such as a camera, an operation input unit 152 such as a keyboard and a mouse, a screen display unit 153 such as a liquid crystal display, a communication interface unit 154, a memory
  • An information processing device 150 such as a personal computer having a storage unit 155 such as a hard disk or a hard disk, and an arithmetic processing unit 156 such as one or more microprocessors, and a program 157 can be realized.
  • the program 157 is read into the memory from an external computer-readable storage medium when the information processing device 150 is started up, and controls the operation of the arithmetic processing unit 156.
  • the values of two image parameters of the illumination angle and the image resolution are determined in advance.
  • a set of pre-processing parameters and a set of feature extraction parameters that are predetermined as specific image processing parameters are determined in advance.
  • the set of pre-processing parameters includes at least one pre-processing parameter.
  • the set of feature extraction parameters includes at least one feature extraction parameter.
  • the process of determining the values of the specific imaging parameters and the image processing parameters is performed by classifying the sample objects into a plurality of groups based on the values of the data characterizing the object surface, and for each group.
  • three data that is, a material, a surface roughness, and a shape are used as data characterizing the object surface.
  • FIG. 7 shows an example of a group of sample objects.
  • a sample is made of a metal, has a surface roughness (Ra) of 0.2 ⁇ m, and has a donut shape and forms one group.
  • a sample object whose material is metal, whose surface roughness (Ra) is 1.0 ⁇ m, and whose shape is flat forms another group.
  • a sample object having resin as a material, a surface roughness (Ra) of 0.45 ⁇ m, and a circular shape forms another group.
  • FIG. 8 is an operation flow illustrating an example of processing for determining values of specific imaging parameters and image processing parameters performed for each group.
  • FIG. 9 is a flowchart illustrating an example of processing for determining values of specific imaging parameters and image processing parameters performed for each group.
  • FIG. 10 shows an example of the contents of the parameter storage unit 114.
  • the parameter storage unit 114 stores, for each group of sample objects, the values of the imaging parameters and the image processing parameters determined by the parameter determination unit 113 in association with the values of the data characterizing the surface of the object.
  • data relating to one group includes a group number, data characterizing the object surface, and parameters.
  • the data characterizing the surface of the object is composed of three data: material, surface roughness, and shape.
  • parameters are roughly classified into imaging parameters and image processing parameters.
  • the imaging parameters include two parameters, an illumination angle and an image resolution.
  • the image processing parameters are composed of two sets: a preprocessing parameter set and a feature extraction parameter set.
  • the value of each parameter set is a specified value. This specified value is updated with the value determined by the parameter determination unit 113.
  • the condition control unit 102 determines a predetermined imaging parameter (in this example, an illumination angle and an image resolution) and a predetermined image processing parameter (in this example, a preprocessing parameter set and a feature extraction parameter set). ) Is set as a parameter set A, and an imaging parameter (in this example, a relative attitude between an object and a camera) used as a disturbance factor determined in advance is set as a parameter set B.
  • the set B value candidates are exhaustively generated (step S102).
  • the condition control unit 102 includes a value of a predetermined lighting angle, an image resolution, a preprocessing parameter set, and a feature extraction parameter set, and includes a parameter set A in which at least one parameter value is different from other candidates. Generate value candidates comprehensively.
  • the condition control unit 102 generates a relative posture between the target object and the camera as a candidate for the value of the parameter set B.
  • FIG. 11 shows an example of a candidate for the value of the parameter set A.
  • the condition control unit 102 changes the illumination angle from a1 to ⁇ a in a way, changes the image resolution from m1 to mb in b ways, and changes the preprocessing parameter set from pr1 to prc in c ways.
  • a ⁇ b ⁇ c ⁇ d kinds of parameter set A value candidates a1 to an are generated.
  • FIG. 12 shows an example of a candidate for the value of the parameter set B.
  • the condition control unit 102 generates m kinds of parameter set B value candidates b1 to bm by changing the posture of the target at the time of imaging into m ways.
  • condition control unit 102 sets the variable i for selecting a candidate for the value of the parameter set A to 1 (step S103), and selects a candidate a1 for the value of the parameter set A (step S104).
  • condition control unit 102 sets a variable j for selecting a value candidate of the parameter set B to 1 (step S105), and selects a candidate b1 as the parameter set B (step S106).
  • condition control unit 102 sets imaging conditions (illumination angle, image resolution, posture) determined by the selected candidate a1 and candidate b1 in the imaging unit 101, and sets image processing conditions determined by the selected candidate a1. (Preprocessing parameter set, feature extraction parameter set) is set in the feature amount extraction unit 104 (step S107).
  • the setting of the imaging conditions in the imaging unit 101 may be automated, or the imaging parameters may be displayed on the screen display unit 153 and manually set by the user.
  • the setting of the image processing conditions in the feature extraction unit 104 may be automated, or the image processing parameters may be displayed on the screen display unit 153 and set manually by the user.
  • the imaging unit 101 captures at least one image of N ( ⁇ 2, preferably ⁇ 3) sample objects at least once from the group with the group number 1 and stores it in the image storage unit 103 (step S108).
  • the image storage unit 103 stores, for example, the N images G111, G211,..., GN11 shown in FIG. 13 corresponding to the imaging / image processing conditions determined by the sample object ID and the candidates a1 and b1. Saved with
  • the feature amount extraction unit 104 reads out the images of the N sample objects obtained by being imaged under the imaging / image processing conditions determined by the candidates a1 and b1, from the image storage unit 103, and reads the image determined by the candidate a1.
  • a feature amount is extracted from each image based on the processing conditions and stored in the feature amount storage unit 105 (step S109). Accordingly, the feature amount storage unit 105 stores, for example, N feature amounts V111, V211,..., VN11 shown in FIG. 14 in the imaging / image processing conditions determined by the ID of the sample object and the candidates a1 and b1. Is stored in association with.
  • the condition control unit 102 increments the variable j (step S110), and if the variable j is not greater than m, returns to step S106 and repeats the same processing as the above-described processing.
  • the same N images of the sample object are captured under the imaging / image processing conditions determined by the candidates a1 and b2, and the feature amount is extracted from each image.
  • the same operation is repeated until the variable j becomes larger than m (step S111).
  • the value of the parameter set A is fixed to a1
  • the value of the parameter set B is changed to b1, b2,..., Bm in order, and each of the N sample objects is imaged a plurality of times. Is extracted from the data.
  • VN12,..., V11m, V21m,..., VN1m are images and feature amounts obtained by imaging in this manner.
  • the feature amount pair generation unit 106 reads out the feature amounts V111, V211,..., VN11, V112, V212,.
  • a quantity pair and a second feature quantity pair are generated and stored in the first feature quantity pair storage unit 107 and the second feature quantity pair storage unit 108 (step S112).
  • the first feature amount pair storage unit 107 stores a combination of selecting two from m feature amounts (V111, V112,..., V11m) shown in FIG. V21, V212,..., V21m), and a combination of selecting two from m feature amounts (VN11, VN12,..., VN1m).
  • the quantity pair is stored in association with the parameter set A candidate a1.
  • the score calculation unit 109 reads out the first feature amount pair associated with the candidate a1 of the parameter set A from the first feature amount pair storage unit 107, and calculates the correlation between the feature amounts forming the pair.
  • the distribution generating unit 110 generates a first distribution from the calculated matching score of the first feature amount pair and stores the first distribution in the distribution storage unit 111 (step S113). Accordingly, the distribution D11 of the first feature amount pair is stored in the distribution storage unit 111 in association with the candidate a1 of the parameter set A, for example, as illustrated in FIG.
  • the score calculation unit 109 reads the second feature amount pair associated with the candidate a1 of the parameter set A from the second feature amount pair storage unit 108, and calculates the correlation between the feature amounts forming the pair.
  • the collation score is calculated, and the distribution generation unit 110 generates a second distribution from the calculated collation score of the second feature amount pair, and stores the second distribution in the distribution storage unit 111 (step S114).
  • the distribution storage unit 111 stores the second feature amount pair distribution D12 in association with the parameter set A candidate a1, as shown in FIG. 17, for example.
  • the parameter determination unit 113 reads out the first distribution D11 and the second distribution D12 from the distribution storage unit 111, calculates their degree of separation, and stores them in the distribution storage unit 111 (step S115).
  • the distribution storage unit 111 stores the degree of separation SP1 in association with the candidate a1 of the parameter set A, for example, as shown in FIG.
  • the degree of separation SP1 between the two distributions is a scale or index value indicating how much the two distributions D11 and D12 are separated.
  • a scale as exemplified below can be used as the degree of separation.
  • Example 1 of scale of separation degree As shown in FIG. 18, the average of the distribution of scores for the first feature quantity pair (first distribution) m g, dispersed sigma g, the number of pairs and omega g, scores second feature pairs
  • the average of the distribution (second distribution) is m i
  • the variance is ⁇ i
  • the number of pairs is ⁇ i
  • the intra-class variance ⁇ w and the inter-class variance ⁇ b are given by the following equations, respectively.
  • ⁇ w ( ⁇ g ⁇ g 2 + ⁇ i ⁇ i 2 ) / ( ⁇ g + ⁇ i ) (1)
  • ⁇ b ⁇ g ⁇ i ( mg ⁇ m i ) 2 / ( ⁇ g + ⁇ i ) 2 (2)
  • Example 2 of scale of separation> the minimum value of the score distribution (first distribution) of the first feature value pair is S g , and the maximum value of the score distribution (second distribution) of the second feature value pair is When S i is used, the ratio of the maximum value S i to the minimum value S g given by the following equation can be used as a measure of the degree of separation.
  • Example 3 of scale of separation degree An EER (Equal Error Rate) where the FRR (False Rejection Rate) obtained from the distribution of the score of the first feature amount pair and the FAR (False Acceptance Rate) obtained from the distribution of the score of the second feature amount pair are equal.
  • EER Equal Error Rate
  • the FRR can be obtained as a cumulative histogram of scores of the first feature value pair (normalized by the total number of the first feature value pairs).
  • the FAR can be obtained as a cumulative histogram of the scores of the second feature amount pairs (normalized by the total number of the second feature amount pairs).
  • the EER can be obtained as the frequency (probability) of the intersection of the EER and the FRR, as shown in FIG. 20A.
  • the cumulative histogram of the first score and the histogram of the second score are completely separated from each other as shown in FIG. can do.
  • the parameter determination unit 113 compares the calculated degree of separation SP1 with a predetermined threshold, thereby obtaining a first distribution D11 based on the first feature amount pair and a second distribution D11 based on the second feature amount pair. It is determined whether the distribution D12 is separated from the distribution D12 by a threshold value or more (step S116). If the degree of separation SP1 between the first distribution D11 and the second distribution D12 is equal to or greater than the threshold, the parameter determination unit 113 determines the values of the imaging parameter and the image processing parameter represented by the candidate a1 of the parameter set A at that time Is stored in the parameter storage unit 114 in association with the group number 1 (step S118), and the processing illustrated in FIG. 9 ends.
  • the parameter determination unit 113 performs imaging using the imaging parameter and the image processing parameter represented by the candidate a1 of the parameter set A at that time. Under the conditions / image processing conditions, it is determined that the N sample objects cannot be distinguished from each other. Then, the parameter determination unit 113 increments the variable i (step S117), confirms that i is not larger than n (NO in step S119), and returns to step S104. Accordingly, the same processing as the above-described processing is repeated with the value of the parameter set A fixed to the candidate a2 (steps S104 to S116).
  • the parameter determination unit 113 outputs an error message (step S120), and the processing shown in FIG. To end.
  • FIG. 21 is a flowchart showing another example of the processing for determining values of specific imaging parameters and image processing parameters performed for each group.
  • the processing shown in FIG. 21 is different from the processing shown in FIG. 9 in that steps S116, S118, and S120 are replaced with steps S116A, S118A, and S120A, and otherwise, the processing shown in FIG. Is the same as
  • step S116A the parameter determination unit 113 determines whether the calculated degree of separation is equal to or greater than the threshold value and equal to or greater than the degree of separation of the parameter set A candidates of the same group stored in the parameter storage unit 114. If the calculated degree of separation is equal to or greater than the threshold value and equal to or greater than the degree of separation of the parameter set A candidate of the same group stored in the parameter storage unit 114, the same group stored in the parameter storage unit 114 Overwrites the parameter set A candidate and its degree of separation with the current parameter set A candidate and its degree of separation (step S118A). Then, the process proceeds to step S117.
  • step S118A if the calculated degree of separation is not greater than or equal to the threshold, or if the calculated degree of separation is not greater than or equal to the degree of separation of the parameter set A of the same group stored in the parameter storage unit 114, the process proceeds to step S118A. And skips to step S117.
  • the parameter determination unit 113 outputs an error message unless a candidate for the parameter set A is stored in the parameter storage unit 114 (step S120A), and FIG. Finish the process.
  • a candidate for the parameter set A is stored in the parameter storage unit 114
  • the stored candidate is a candidate for the parameter set A that provides a maximum degree of separation that is equal to or greater than a threshold, that is, a predetermined imaging parameter and image processing. The value of the parameter.
  • FIGS. 22 and 23 are a processing flow and a flowchart of the individual registration operation.
  • the operator who manages individual registration inputs the value of data characterizing the surface of the object to be registered from now on to the condition control unit 102 through the object information input unit 117 (step S121).
  • the object information input unit 117 In the case of the present embodiment, three data of the material of the object surface, the roughness of the object surface, and the shape are input.
  • the condition control unit 102 calculates the degree of approximation between the value of the data characterizing the surface of the object to be registered, which is input from the object information input unit 117, and the value of the data characterizing the object surface of each group stored in the parameter storage unit 114. Based on the degree of approximation, a group number having a data value most similar to a data value characterizing the surface of the object to be registered is determined (step S122).
  • the method of calculating the degree of approximation between data characterizing the surface may be any method as long as the degree of approximation between data can be quantitatively compared. For example, the following method can be adopted, but the method is not limited thereto.
  • the material, the surface roughness, and the shape that characterize the surface of the object to be registered are referred to as a first material, a first surface roughness, and a second shape, respectively.
  • the material, surface roughness, and shape characterizing the object surface of each group stored in the parameter storage unit 114 are referred to as a second material, a second surface roughness, and a second shape, respectively. Also, the closer the approximation degree is to 0, the closer the approximation is.
  • a material point is given based on a result of comparing the first material and the second material
  • a surface roughness point is given based on a result of comparing the first surface roughness and the second surface roughness
  • Shape points are given based on the result of comparison between the first shape and the second shape
  • the sum of the material point, the surface roughness point, and the shape point is used as the degree of approximation.
  • the maximum value (for example, 1 point) of the material points is given when the first material and the second material match, and the minimum value (for example, 0 points) is given when they do not match.
  • the maximum value (for example, 1 point) of the surface roughness point is given to the surface roughness point, and when the first surface roughness and the second surface roughness do not match, the maximum value is given according to the degree of the mismatch. 0 to 0.9 points will be given. For example, if the difference or ratio between the two is not within the range of the predetermined threshold, the point is 0. If the difference or ratio is between the two, the difference is closer to 0 or the ratio of both is closer to 1. Give close points.
  • the maximum value (for example, 1 point) of the material points is given to the shape points, and when they do not match, the minimum value (for example, 0 points) is given. . Then, a group number having the smallest degree of approximation obtained by summing the material point, the surface roughness point, and the shape point is determined.
  • ⁇ Method 2 for calculating degree of approximation> The material point, the surface roughness point, and the shape point calculated by the same method as the calculation method 1 of the degree of approximation are added with a point obtained by multiplying the material weight, the surface roughness weight, and the shape weight by the degree of approximation. I do.
  • the value of the weight is increased for the element that is regarded as important. For example, the material weight is set to the highest, the surface roughness weight is set to the next highest, and the shape weight is set to the lowest. Alternatively, the surface roughness weight is set to the largest, then the material weight is set to the largest, and the shape weight is set to the smallest.
  • the condition control unit 102 reads the values of the imaging parameters and the image processing parameters corresponding to the determined group number from the parameter storage unit 114, and sets an imaging condition determined by the values of the imaging parameters in the imaging unit 101; Then, an image processing condition determined by the value of the image processing parameter is set in the feature amount extraction unit 104 (step S123). For example, when it is determined to be the group number 1, the condition control unit 102 sets the illumination angle and the image resolution stored in association with the group number 1 in the imaging unit 101, and is stored in association with the group number 1. The values of the pre-processing parameters and the feature extraction parameters are set in the feature amount extraction unit 104.
  • the setting of the imaging conditions in the imaging unit 101 may be automated, or the imaging conditions may be displayed on the screen display unit 153 and manually set by an operator.
  • the setting of the image processing conditions in the feature amount extraction unit 104 may be automated, or the image processing conditions may be displayed on the screen display unit 153 and manually set by the operator.
  • the imaging unit 101 captures at least once an image of the uneven pattern on the surface of the object to be identified and collated, and stores it in the image storage unit 103 (step S124).
  • the feature amount extraction unit 104 reads the image of the uneven pattern on the surface of the object to be registered stored in the image storage unit 103, and performs image processing on the image based on the set image processing conditions. Then, the feature amount is extracted, and the extracted feature amount is stored in the feature amount storage unit 105 as a registered feature amount (step S125). At this time, the feature amount storage unit 105 links (corresponds to) information (also referred to as supplementary information) relating to the registration target object, such as the ID number of the registration target individual, the registration date and time, dimensions, and product specifications. , And register the characteristic amount unique to the individual. By doing so, it becomes possible to present individual management information of an object such as a product based on the determination results of individual identification and solid authentication described later.
  • steps S121 to S125 are repeated by the number of individuals to be registered.
  • FIG. 24 shows an example of the contents of the individual registration information stored in the feature amount storage unit 105.
  • PFn and accompanying information SI1, SI2,..., SIn are feature amounts and accompanying information corresponding to the registration target individuals on a one-to-one basis.
  • FIGS. 25 and 26 are a processing flow and a flowchart of an operation at the time of individual identification and individual verification.
  • the operator who manages individual identification and collation inputs the value of data characterizing the surface of the object to be identified and collated to the condition control unit 102 through the object information input unit 117 (step S131).
  • the object information input unit 117 In the case of the present embodiment, three data of the material of the object surface, the roughness of the object surface, and the shape are input.
  • the condition control unit 102 approximates the value of the data input from the object information input unit 117 that characterizes the surface of the object to be identified and collated with the value of the data that characterizes the object surface of each group stored in the parameter storage unit 114. Then, based on the degree of approximation, a group number having a data value most similar to a data value characterizing the surface of the object to be identified and collated is determined (step S132). As a method of calculating the degree of approximation between data characterizing the surface, the same method as that at the time of individual registration can be used.
  • the condition control unit 102 reads the values of the imaging parameters and the image processing parameters corresponding to the determined group number from the parameter storage unit 114, and sets an imaging condition determined by the values of the imaging parameters in the imaging unit 101; Then, an image processing condition determined by the value of the image processing parameter is set in the feature amount extraction unit 104 (step S133). For example, when it is determined to be the group number 1, the condition control unit 102 sets the illumination angle and the image resolution stored in association with the group number 1 in the imaging unit 101, and is stored in association with the group number 1. The values of the pre-processing parameters and the feature extraction parameters are set in the feature amount extraction unit 104.
  • the setting of the imaging conditions in the imaging unit 101 may be automated, or the imaging conditions may be displayed on the screen display unit 153 and manually set by an operator.
  • the setting of the image processing conditions in the feature amount extraction unit 104 may be automated, or the image processing conditions may be displayed on the screen display unit 153 and manually set by the operator.
  • the imaging unit 101 captures at least once an image of the uneven pattern on the surface of the object to be identified and collated under the set imaging conditions, and stores it in the image storage unit 103 (step S134).
  • the feature amount extraction unit 104 reads the image of the uneven pattern on the surface of the object to be identified and collated stored in the image storage unit 103, and performs image processing on the image based on the set image processing conditions. Is performed to extract a feature amount, and output to the score calculation unit 109 (step S135). At this time, the feature amount output from the feature amount extraction unit 104 to the score calculation unit 109 is hereinafter referred to as a feature amount to be identified / matched.
  • the score calculation unit 109 calculates a correlation between the feature amount to be identified and matched and all the feature amounts PF1 to PFn registered in the feature amount storage unit 105, and calculates all the feature amounts.
  • the matching score for PF1 to PFn is calculated (step S136).
  • the determination unit 115 determines, based on the matching score calculated by the score calculation unit 109, which feature amount the individual identification / matching target feature amount matches with the feature amount stored in the feature amount storage unit 105. I do. For example, the determination unit 115 sorts the matching scores of the feature amounts to be identified and matched and all registered feature amounts, and selects a feature amount with the largest matching score (maximum correlation) (step S137). ). Then, the determination unit 115 reads the incidental information associated with the selected feature amount from the feature amount storage unit 105, and outputs it as product information of the product to be identified and collated.
  • the determination unit 115 may determine whether or not the matching score between the feature amount to be individually identified and matched and all the feature amounts stored in the feature amount storage unit 105 exceeds a preset threshold. . Then, if none of the matching scores of the feature amount to be identified and matched and all feature amounts stored in the feature amount storage unit 105 exceed the threshold, the determination unit 115 registers the product to be identified and matched. It is determined that the authentication has not been performed, and information indicating an authentication error is output.
  • the determining unit 115 that operates in this manner can be used for the purpose of individual authentication, such as authenticity determination of an identification target.
  • the information presenting unit 116 receives the product information and the authentication error information obtained from the determination unit 115, and displays the product information as the individual identification result of the product to be identified and collated, and the display (not shown) of the individual authentication information. It is displayed on the device or output to an external terminal (step S138).
  • the imaging condition is set. Can be.
  • the imaging condition is associated with the value of the data that characterizes the surface of the object specified in advance, and the parameter storage unit 114 that stores the value of the imaging parameter, and the data that characterizes the surface of the object that is the object of individual identification.
  • a condition control unit 102 that, when a value is input, acquires an imaging parameter value associated with a value of data that is close to the value of the input data from the parameter storage unit 114 and sets an imaging condition. That's why. That is, objects having similar data values such as a material, roughness, and shape that characterize the surface of the object use the fact that the optimal imaging conditions are the same.
  • the image processing condition can be set.
  • the image processing conditions are associated with the values of the data characterizing the surface of the object specified in advance, and the parameter storage unit 114 that stores the values of the image processing parameters, and characterizes the surface of the object to be identified.
  • a condition control unit 102 that obtains, from the parameter storage unit 114, an image processing parameter value associated with a data value that is close to the input data value and sets an image processing condition; It is because it has. That is, objects having similar data values such as a material, roughness, and shape that characterize the surface of the object use the fact that the optimal image processing conditions are the same.
  • an imaging unit 101 that acquires a plurality of images obtained by imaging each of N (N ⁇ 2, preferably N ⁇ 3) types of target objects a plurality of times, and extracts a feature amount from each of the plurality of images.
  • a distribution generation unit 110 that generates the data
  • a parameter determination unit 113 that determines whether to adopt the candidate value of the parameter set A based on the degree of separation between the first distribution and the second distribution. .
  • the two feature amounts constituting the first feature amount pair are the feature amounts extracted from a plurality of images of the physically same object.
  • the two feature amounts forming the second feature amount pair are the feature amounts extracted from a plurality of images of objects that are physically different from each other.
  • two feature values constituting the first feature value pair are imaged for physically identical or different objects manufactured on the same production line or manufacturing die. A plurality of images obtained by picking up feature amounts extracted from a plurality of images and capturing two feature amounts constituting a second feature amount pair with respect to physically different objects manufactured on different production lines or manufacturing dies. May be used as the feature amount extracted from.
  • the manufacturing die means a die or a cutting device used for manufacturing a product by casting, forging, cutting, or the like.
  • the production line means a step of manufacturing a product by a flow operation using one or more manufacturing dies.
  • a product is mass-produced by casting or forging using the manufacturing mold X1, and in parallel with this, the product is cast or forged using the manufacturing mold X2 that is the same mold as the manufacturing mold X1. Shall be mass-produced.
  • a pattern unique to the manufacturing die X1 is transferred to the entire surface of the product manufactured by the manufacturing die X1. Further, in a product manufactured by the manufacturing die X2, a pattern unique to the manufacturing die X2 is transferred to the entire surface.
  • mass production is performed by cutting the material using the cutting device Y1, and in parallel with this, the material is cut using the cutting device Y2, which is the same cutting device as the cutting device Y1.
  • Products shall be mass-produced.
  • fine irregularities having a surface roughness unique to the cross section of the blade used for cutting included in the cutting device Y1 appear on the cut surface.
  • fine irregularities having a surface roughness inherent to a cross section of a blade used for cutting included in the cutting device Y2 appear on the cut surface.
  • the same processing methods and equipment described here are merely examples, and other same manufacturing processes and processing equipment can be similarly handled.
  • the feature amount extracted from the image obtained by imaging the target under the determined imaging conditions is specific to the production line or the manufacturing die that manufactured the target. Therefore, by using such a feature amount for identification and collation, it is possible to identify and collate which production line or production die the product is manufactured on.
  • the individual identification device 100 is configured to determine specific imaging parameters and image processing parameters by the processing shown in FIG. 9 or FIG.
  • the individual identification apparatus 100 is configured to determine a specific imaging parameter by the processing illustrated in FIG. 9 or FIG. 21 and use a predetermined fixed value as the image processing parameter. You may.
  • an individual identification system 200 includes an individual identification device 210, a parameter storage device 220, an individual registration device 230, a feature amount storage device 240, an individual verification device 250, and a network 260 that connects these devices so that they can communicate with each other.
  • the individual identification device 210 is different from the individual identification device 100 according to the first embodiment described with reference to FIG. 4 in that the individual identification device 210 does not include the parameter storage unit 114 and includes the communication unit 211. Otherwise, the configuration is the same as that of the individual identification device 100.
  • the communication unit 211 is configured to transmit and receive data to and from another device such as the parameter storage device 220 connected to the network 260.
  • the parameter storage device 220 includes a communication unit 221, a parameter storage unit 222, and a parameter providing unit 223.
  • the communication unit 221 is configured to transmit and receive data to and from another device such as the individual identification device 210 connected to the network 260.
  • the parameter storage unit 222 associates the imaging parameters and the It is configured to store the value of the image processing parameter.
  • the parameter providing unit 223 is configured to receive a parameter inquiry request specifying a value of data characterizing the surface of the object from another device such as the individual registration device 230 via the communication unit 221.
  • the parameter providing unit 223 upon receiving the parameter inquiry request, captures the imaging parameter and the image stored in association with the value of the data characterizing the surface of the object, which approximates the value of the data characterizing the surface of the specified object.
  • the processing parameter value is acquired from the parameter storage unit 222.
  • the parameter providing unit 223 is configured to transmit a response including the acquired values of the imaging parameters and the image processing parameters to the apparatus that has requested the parameter inquiry via the communication unit 221.
  • the individual registration device 230 includes a communication unit 231, an object information input unit 232, a condition control unit 233, an imaging unit 234, an image storage unit 235, and a feature amount extraction unit 236.
  • the communication unit 231 is configured to transmit and receive data to and from another device such as the feature storage device 240 connected to the network 260.
  • the object information input unit 232, the condition control unit 233, the imaging unit 234, the image storage unit 235, and the feature amount extraction unit 236 are provided by the object information in the individual identification device 100 according to the first embodiment described with reference to FIG.
  • the configuration is the same as that of the input unit 117, the condition control unit 102, the imaging unit 101, the image storage unit 103, and the feature amount extraction unit 104.
  • the feature storage device 240 includes a communication unit 241 and a feature storage unit 242.
  • the communication unit 241 is configured to transmit and receive data to and from another device such as the individual registration device 230 connected to the network 260.
  • the feature amount storage unit 242 is, similarly to the feature amount storage unit 105 of the individual identification device 100 according to the first embodiment described with reference to FIG. 4, a feature extracted from an image obtained by imaging an object. It is configured to store the quantity.
  • the individual matching device 250 includes a communication unit 251, an object information input unit 252, a condition control unit 253, an imaging unit 254, an image storage unit 255, a feature amount extraction unit 256, a score calculation unit 257, a determination unit 258, and an information presentation unit 259. It has.
  • the communication unit 251 is configured to transmit and receive data to and from another device such as the feature storage device 240 connected to the network 260.
  • the object information input unit 252, the condition control unit 253, the imaging unit 254, the image storage unit 255, the feature amount extraction unit 256, the score calculation unit 257, the determination unit 258, and the information presentation unit 259 are the same as those described with reference to FIG.
  • the object information input unit 117, the condition control unit 102, the imaging unit 101, the image storage unit 103, the feature amount extraction unit 104, the score calculation unit 109, the determination unit 115, and the information presentation unit 116 It is configured similarly to.
  • This operation is performed by the individual identification device 210.
  • the operation of the individual identification device 210 at this time is as follows.
  • the correspondence information between the values of the specific imaging parameters and image processing parameters determined by the individual identification device 210 and the values of the data characterizing the surface of the object is transmitted by the communication unit 211 via the network 260.
  • the operation is basically the same as the operation of the pre-processing in the individual identification device 100, except that the operation of transmitting to the parameter storage device 220 is performed.
  • the parameter storage unit 222 of the parameter storage device 220 receives, from the individual identification device 210, the correspondence information between the values of the specific imaging parameters and image processing parameters and the values of the data characterizing the surface of the object, via the communication unit 221, it stores the information. I do.
  • the parameter storage unit 222 stores, for example, the same data as the data shown in FIG. 10, that is, the imaging parameters in association with the data characterizing the object surface (the material, surface roughness, and shape in the example of FIG. 10). (The illumination angle and the image resolution in the example of FIG. 10) and the values of the image processing parameters (the values of the preprocessing parameter set and the feature extraction parameter set in the example of FIG. 10) are stored.
  • This operation is performed by the individual registration device 230.
  • an operator who manages individual registration inputs data characterizing the surface of an object to be individual-registered to the condition control unit 233 through the object information input unit 232. For example, data on the material, surface roughness, and shape of the surface of the object is input.
  • the condition control unit 233 sends a parameter inquiry request specifying data characterizing the surface of the object input from the object information input unit 232 to the parameter storage device 220 via the communication unit 231, the network 260, and the communication unit 221. To the unit 223.
  • the parameter providing unit 223 stores the values of the image parameters and the image processing parameters stored in association with the values of the data approximating the values of the data characterizing the surface of the object specified by the received parameter inquiry request in the parameter storage unit 222. And transmits a response including the values of the acquired image parameters and image processing parameters to the condition control unit 233 through the communication unit 221, the network 260, and the communication unit 231.
  • the condition control unit 233 sets the imaging condition determined by the value of the imaging parameter included in the received response in the imaging unit 234, and extracts the image processing condition determined by the value of the image processing parameter included in the received response into the feature amount. Set in the section 236.
  • the imaging unit 234 captures an image of the uneven pattern on the surface of the object to be registered as an individual under the set imaging conditions, and stores the image in the image storage unit 235.
  • the feature amount extraction unit 236 reads out the image of the uneven pattern on the surface of the object to be registered for the individual stored in the image storage unit 235, and extracts the feature amount from the image based on the set image processing conditions. Extract.
  • the feature amount extraction unit 236 transmits the extracted feature amount and the supplementary information related to the registration target object to the feature amount storage unit 242 of the feature amount storage device 240 through the communication unit 231, the network 260, and the communication unit 241. .
  • the feature amount storage unit 242 stores the received feature amount and the accompanying information in association with each other. As a result, in the feature amount storage unit 242, for example, data similar to the data shown in FIG. 23, that is, feature amounts and supplementary information corresponding to the registration target individuals on a one-to-one basis are registered.
  • the condition control unit 253 sets the imaging condition determined by the value of the imaging parameter included in the received response in the imaging unit 254, and extracts the image processing condition determined by the value of the image processing parameter included in the received response into the feature amount.
  • the imaging unit 254 captures an image of the uneven pattern on the surface of the object to be individually identified and verified, and stores the image in the image storage unit 255.
  • the feature amount extraction unit 256 reads the image of the uneven pattern on the surface of the object to be subjected to individual identification and individual comparison stored in the image storage unit 255, and extracts a feature amount from the image based on the set image processing conditions. Extract.
  • the processing up to this point is basically the same as the operation of individual registration.
  • the feature amount extraction unit 256 outputs the extracted feature amount to the score calculation unit 257.
  • the feature amount output from the feature amount extraction unit 256 to the score calculation unit 257 is hereinafter referred to as a feature amount to be identified / matched.
  • the score calculation unit 257 reads out all the feature amounts and the accompanying information from the feature amount storage unit 242 of the feature amount storage device 240 through the communication unit 251, the network 260, and the communication unit 241.
  • the score calculation unit 257 calculates the correlation between the feature amount of the individual identification / collation target input from the feature amount extraction unit 256 and all the feature amounts read from the feature amount storage unit 242 of the feature amount storage device 240. By performing the calculation, the matching scores for all the feature amounts are calculated.
  • the determination unit 258 determines, based on the collation score calculated by the score calculation unit 257, with which characteristic amount the individual identification / collation target characteristic amount stored in the characteristic amount storage unit 242 matches. I do. For example, the determination unit 258 sorts the matching scores of the feature amounts to be individually identified and matched and all registered feature amounts, and selects a feature amount with the largest matching score (maximum correlation). Then, the determination unit 258 outputs the incidental information associated with the selected feature amount as product information of the product to be identified and collated. Further, the determination unit 258 may determine whether or not the matching score between the feature amount to be identified and matched and all the feature amounts stored in the feature amount storage unit 242 exceeds a preset threshold. .
  • the determination unit 258 registers the product to be identified and matched. It is determined that the authentication has not been performed, and information indicating an authentication error is output.
  • the determining unit 258 that operates in this manner can be used for the purpose of individual authentication, such as authenticity determination of a management target.
  • the information presentation unit 259 receives the product information and the authentication error information obtained from the determination unit 258, and displays the product information as the individual identification result of the product to be identified and collated, and the display device (not shown). Or output to an external terminal.
  • the individual registration device 230 and the individual verification device 250 do not have the function of specifying the imaging conditions and the image processing conditions in advance, the individual identification device 210 may use the object whose imaging conditions and image processing conditions are specified in advance. In the case of individual registration and individual verification of an object having a very similar surface, imaging conditions and image processing conditions can be set. The reason is that the individual registration device 230 and the individual verification device 250 store the values of the data characterizing the surface of the object in the parameter storage device 220 that stores the values of the image parameters and the image processing parameters determined in advance by the individual identification device 210. This is because if a designated parameter inquiry request is issued, a response including the values of the corresponding imaging parameter and image processing parameter can be obtained.
  • the present embodiment differs from the first embodiment in the type and number of data characterizing the surface of the object.
  • the data characterizing the surface of the object includes material information composed of a material name and a reflectance, surface roughness information composed of a processing name and a surface average roughness, a shape name, an inner diameter and an outer shape. And shape information composed of dimensions.
  • FIG. 28 is a diagram showing an example of the contents of the parameter storage unit 314 of the individual identification device according to the present embodiment.
  • the parameter storage unit 314 corresponds to the parameter storage unit 114 in FIG.
  • the parameter storage unit 314 stores, for each group of sample objects, values of imaging parameters and image processing parameters in association with values of data characterizing the surface of the object.
  • Data relating to one group includes a group number, data characterizing the object surface, and parameters.
  • the data characterizing the object surface is composed of material information, surface roughness information, and shape information.
  • the material information is composed of a material name and a reflectance
  • the surface roughness information is composed of a processing name and a surface average roughness
  • the shape information is composed of a shape name and inner and outer diameter dimensions.
  • parameters are roughly classified into imaging parameters and image processing parameters.
  • the imaging parameters include two parameters, an illumination angle and an image resolution.
  • the image processing parameters are composed of two sets: a preprocessing parameter set and a feature extraction parameter set.
  • the material name is the same as the material in the first embodiment, and is a category name such as metal or resin.
  • the reflectance is a numerical value such as 70% or 30%.
  • the processing name is a category name representing a processing method such as satin finishing, lathing, and sandblasting.
  • the surface average roughness is the same as the surface roughness in the first embodiment, and is numerical data such as 2 ⁇ m and 0.3 ⁇ m.
  • the shape name is the same as the shape in the first embodiment, and is a category name such as rectangle, circle, and ring.
  • the inner and outer diameters are numerical data such as 0 mm and 15 mm.
  • the outer diameter of the rectangle is the length from the center of gravity of the rectangle to the end point.
  • the outer diameter of a circle is the radius of the circle.
  • the outer diameter of the ring is the length from the center of the ring to the outer periphery of the ring.
  • the inner diameter of the ring is the length from the center of the ring to
  • the “standard value” described in the material name column is an item to be selected when the material information on the collation side is unknown or does not match the material information stored in the parameter storage unit 314.
  • the “standard value” described in the column of the processing name is an item to be selected when the surface roughness information on the collation side is unknown or does not match the surface roughness information stored in the parameter storage unit 314.
  • the “standard value” described in the column of the shape name is an item selected when the shape information on the collation side is unknown or does not match the shape information stored in the parameter storage unit 314.
  • the parameter storage unit 314 is associated with optimum parameters (image resolution, illumination angle, pre-processing parameter set, feature extraction parameter set) for all combinations of material information, surface roughness information, and shape information. I have.
  • the condition control unit inputs data characterizing the surface of the object to be identified and collated.
  • the data characterizing the surface of the object to be identified and collated is composed of collation material information, collation surface roughness information, and collation shape information.
  • the collation-side material information includes a material name and a reflectance.
  • the verification-side surface roughness information includes a processing method and a surface average roughness.
  • the collation-side shape information includes a shape name and inner and outer diameter dimensions. However, among the material name, the reflectance, the processing method, the surface average roughness, the shape name, and the inner diameter / outer diameter dimensions on the collation side, the input of unknown ones is omitted.
  • the condition control unit initializes a set that stores the group number of the search result to be empty.
  • the condition control unit performs processing of the collation-side material information.
  • the condition control unit searches the parameter storage unit 314 for a group number having a material name that matches the material name of the collation-side material information. If one or more group numbers are found, the condition control unit saves the found group numbers in a set, and ends the processing of the collation-side material information. If no group having a material name that matches the material name of the collation-side material information has been found, or if the material name of the collation-side material information is omitted, the condition control unit determines the reflectance of the collation-side material information.
  • the parameter storage unit 314 searches the parameter storage unit 314 for a group number having a reflectance that matches within a predetermined threshold range. If one or more group numbers are found, the condition control unit saves the found group numbers in a set, and ends the processing of the collation-side material information. If none of the group numbers having the reflectance matching the reflectance of the collation-side material information within the range of the specified threshold is found, or if the reflectance of the collation-side material information is omitted, the condition control unit Then, a group number having a standard value of the material name is retrieved from the parameter storage unit 314, the retrieved group number is stored in a set, and the processing of the collation-side material information is completed.
  • the condition control unit After completing the processing of the collation-side material information, the condition control unit performs the processing of the collation-side surface roughness information. First, the condition control unit matches any one of the group numbers stored in the set and has a group number having a surface average roughness that matches within a predetermined threshold value with the surface average roughness of the matching-side surface roughness information. Is retrieved from the parameter storage unit 314. If one or more group numbers have been searched, the condition control unit overwrites the group numbers stored in the set with the searched group numbers, and ends the processing of the matching-side surface roughness information.
  • the condition control unit determines whether any of the group numbers stored in the set is correct. A group number that matches and has a processing method that matches the processing method of the verification-side surface roughness information is searched from the parameter storage unit 314. If one or more group numbers have been searched, the condition control unit overwrites the group numbers stored in the set with the searched group numbers, and ends the processing of the matching-side surface roughness information.
  • the condition control unit matches one of the group numbers stored in the set, and The processing method retrieves the group number of the standard value from the parameter storage unit 314, overwrites the group number stored in the set with the retrieved group number, and ends the processing of the collation-side surface roughness information.
  • the condition control unit After completing the processing of the matching-side surface roughness information, the condition control unit performs the processing of the matching-side shape information. First, the condition control unit matches a group having any of the group numbers stored in the set and having the inside and outside diameters that match the inside and outside diameters of the collation side shape information within a predetermined threshold range. The number is retrieved from the parameter storage unit 314. If one or more group numbers have been searched, the condition control unit overwrites the group numbers stored in the set with the searched group numbers, and ends the processing of the collation-side shape information.
  • the condition control unit determines whether any one of the group numbers stored in the set is available. Then, a group number having a shape name that matches the shape name of the matching-side shape is searched from the parameter storage unit 314. If one or more group numbers have been searched, the condition control unit overwrites the group numbers stored in the set with the searched group numbers, and ends the processing of the collation-side shape information.
  • condition control unit matches any one of the group numbers stored in the set, and retrieves the group number of the standard value from the parameter storage unit 314, overwrites the group number stored in the set with the retrieved group number, and ends the processing of the collation side shape information.
  • the condition control unit After finishing the processing of the collation side shape information, the condition control unit extracts one group number from the set, and stores the parameters stored in the parameter storage unit 314 corresponding to the group number, that is, the illumination angle, the image resolution, The preprocessing parameter set and the feature extraction parameter set are extracted.
  • the operations similar to those of the first embodiment such as setting of imaging conditions and setting of image processing conditions using the extracted parameters, are performed.
  • an individual identification system 400 includes a storage unit 401, an acquisition unit 402, a condition setting unit 403, an imaging unit 404, an extraction unit 405, and a matching unit 406. I have.
  • the storage unit 401 is configured to store imaging parameters in association with data characterizing the surface of the reference object.
  • the storage unit 401 can be configured, for example, in the same manner as the parameter storage unit 114 in FIG. 4, but is not limited thereto.
  • the acquisition unit 402 calculates the degree of approximation between the input data and each data stored in the storage unit 401, and performs matching based on the calculated degree of approximation. It is configured to acquire the imaging parameters applied to the target object from the storage unit 401.
  • the condition setting unit 403 is configured to set an imaging condition determined by the imaging parameter acquired by the acquisition unit 402.
  • the acquisition unit 402 and the condition setting unit 403 can be configured, for example, in the same manner as the condition control unit 102 in FIG. 4, but are not limited thereto.
  • the imaging unit 404 is configured to acquire an image of the surface of the object to be checked under the imaging conditions set by the condition setting unit 403.
  • the imaging unit 404 can be configured, for example, in the same manner as the imaging unit 101 in FIG. 4, but is not limited thereto.
  • the extraction unit 405 is configured to extract a feature amount from an image acquired by the imaging unit 404.
  • the extracting unit 405 can be configured in the same manner as, for example, the feature amount extracting unit 104 in FIG. 4, but is not limited thereto.
  • the matching unit 406 is configured to match the feature amount extracted by the extracting unit 405 with the registered feature amount.
  • the matching unit 406 can be configured, for example, in the same manner as the score calculation unit 109 and the determination unit 115 in FIG. 4, but is not limited thereto.
  • the individual identification system 400 operates as follows. That is, first, the storage unit 401 stores the imaging parameters in advance in association with the data characterizing the surface of the reference object. Next, when the data that characterizes the surface of the object to be checked is input, the obtaining unit 402 calculates the degree of approximation between the input data and each data stored in the storage unit 401, and based on the calculated degree of approximation. Then, the imaging parameters to be applied to the object to be verified are acquired from the storage unit 401. Next, the condition setting unit 403 sets an imaging condition determined by the imaging parameter acquired by the acquisition unit 402. Next, the imaging unit 404 acquires an image of the surface of the matching target object under the imaging conditions set by the condition setting unit 403. Next, the extraction unit 405 extracts a feature amount from the image acquired by the imaging unit 404. Next, the matching unit 406 compares the feature amount extracted by the extracting unit 405 with the registered feature amount.
  • the imaging conditions can be set if the object has.
  • the reason is that when the storage unit 401 previously stores the imaging parameters in association with the data characterizing the surface of the reference object, and when the acquisition unit 402 receives the data that characterizes the surface of the object to be checked, the input data and The degree of approximation with each data stored in the storage unit 401 is calculated, and the imaging parameter to be applied to the object to be checked is acquired from the storage unit 401 based on the calculated degree of approximation. This is for setting imaging conditions determined by the acquired imaging parameters.
  • the individual identification device 500 includes an acquisition unit 502, a condition setting unit 503, an imaging unit 504, an extraction unit 505, and a matching unit 506.
  • the acquiring unit 502 stores each of the data stored in the storage unit that stores the imaging parameter in association with the data that characterizes the surface of the reference object, and the input data. Is calculated, and an imaging parameter to be applied to the object to be verified is acquired from the storage unit based on the calculated degree of approximation.
  • the condition setting unit 503 is configured to set an imaging condition determined by the imaging parameter acquired by the acquisition unit 502.
  • the acquisition unit 502 and the condition setting unit 503 can be configured in the same manner as, for example, the condition control unit 102 in FIG. 4, but are not limited thereto.
  • the imaging unit 504 is configured to acquire an image of the surface of the matching target object under the imaging conditions set by the condition setting unit 503.
  • the imaging unit 504 can be configured, for example, similarly to the imaging unit 101 in FIG. 4, but is not limited thereto.
  • the extraction unit 505 is configured to extract a feature amount from an image acquired by the imaging unit 504.
  • the extracting unit 505 can be configured, for example, in the same manner as the feature amount extracting unit 104 in FIG. 4, but is not limited thereto.
  • the matching unit 506 is configured to match the feature amount extracted by the extracting unit 505 with the registered feature amount.
  • the matching unit 506 can be configured in the same manner as, for example, the score calculation unit 109 and the determination unit 115 in FIG. 4, but is not limited thereto.
  • the thus configured individual identification device 500 operates as follows. That is, first, when the data that characterizes the surface of the object to be checked is input, the acquisition unit 502 stores each of the data stored in the storage unit that stores the imaging parameters in advance in association with the data that characterizes the surface of the reference object. The degree of approximation to the input data is calculated, and the imaging parameters to be applied to the object to be verified are acquired from the storage unit based on the calculated degree of approximation.
  • the condition setting unit 503 sets an imaging condition determined by the imaging parameter acquired by the acquisition unit 502.
  • the imaging unit 504 acquires an image of the surface of the matching target object under the imaging conditions set by the condition setting unit 503.
  • the extraction unit 505 extracts a feature amount from the image acquired by the imaging unit 504.
  • the collating unit 506 collates the feature amount extracted by the extracting unit 505 with the registered feature amount.
  • the individual identification device 500 even for an object for which the value of the imaging parameter is not specified in advance, the surface is very similar to the object for which the value of the imaging parameter is specified in advance.
  • the imaging conditions can be set if the object has. The reason is that, when the data that characterizes the surface of the object to be checked is input to the acquisition unit 502, the data stored in the storage unit that stores the imaging parameters in advance in association with the data that characterizes the surface of the reference object is The degree of approximation to the input data is calculated, and an imaging parameter to be applied to the object to be checked is obtained from the storage unit based on the calculated degree of approximation. This is for setting imaging conditions that are determined.
  • the individual registration device 600 includes an acquisition unit 602, a condition setting unit 603, an imaging unit 604, an extraction unit 605, and a registration unit 606.
  • the acquisition unit 602 stores each data stored in the storage unit that stores the imaging parameter in association with the data that characterizes the surface of the reference object, and the input data. Is calculated, and an imaging parameter to be applied to the registration target object is acquired from the storage unit based on the calculated degree of approximation.
  • the condition setting unit 603 is configured to set an imaging condition determined by the imaging parameter acquired by the acquisition unit 602.
  • the acquisition unit 602 and the condition setting unit 603 can be configured in the same manner as, for example, the condition control unit 102 in FIG. 4, but are not limited thereto.
  • the imaging unit 604 is configured to acquire an image of the surface of the registration target object under the imaging conditions set by the condition setting unit 603.
  • the imaging unit 604 can be configured, for example, similarly to the imaging unit 101 in FIG. 4, but is not limited thereto.
  • the extraction unit 605 is configured to extract a feature amount from an image acquired by the imaging unit 604.
  • the registration unit 606 is configured to register the feature amount extracted by the extraction unit 605 as a registered feature amount.
  • the extracting unit 605 and the registering unit 606 can be configured in the same manner as, for example, the feature amount extracting unit 104 in FIG. 4, but are not limited thereto.
  • the individual registration device 600 operates as follows. That is, first, when the data characterizing the surface of the registered object is input, the acquisition unit 602 inputs each data stored in the storage unit that stores the imaging parameters in advance in association with the data characterizing the surface of the reference object. A degree of approximation with the obtained data is calculated, and an imaging parameter to be applied to the registration target object is acquired from the storage unit based on the calculated degree of approximation. Next, the condition setting unit 603 sets an imaging condition determined by the imaging parameter acquired by the acquisition unit 602. Next, the imaging unit 604 acquires an image of the surface of the registration target object under the imaging conditions set by the condition setting unit 603. Next, the extraction unit 605 extracts a feature amount from the image acquired by the imaging unit 604. Next, the registration unit 606 registers the feature amount extracted by the extraction unit 605 as a registered feature amount.
  • the surface is very similar to the object for which the value of the imaging parameter is specified in advance.
  • the imaging conditions can be set if the object has. The reason is that, when the data that characterizes the surface of the registration target object is input to the acquisition unit 602, each data stored in the storage unit that stores the imaging parameters in advance in association with the data that characterizes the surface of the reference object is stored in the storage unit. The degree of approximation with the input data is calculated, and an imaging parameter to be applied to the registration target object is acquired from the storage unit based on the calculated degree of approximation.
  • the condition setting unit 603 uses the imaging parameter acquired by the acquisition unit 602 to acquire the imaging parameter. This is for setting imaging conditions that are determined.
  • the present invention obtains an image of a naturally occurring fine pattern difference occurring in the same manufacturing process as an image using a camera or the like, such as fine irregularities and patterns on a product surface, a random pattern on a material surface, and the like.
  • fine patterns it can be used in the field of individual identification and management of individual products. For example, it can be used for traceability on a production line in a factory or the like, or management of traceability by a fastener of a branded product.
  • Storage means for storing imaging parameters in association with data characterizing the surface of the reference object When data characterizing the surface of the object to be collated is input, the degree of approximation between the input data and each data stored in the storage unit is calculated, and the object to be collated is calculated based on the calculated degree of approximation.
  • Acquisition means for acquiring the imaging parameters to be applied to the storage means, Condition setting means for setting imaging conditions determined by the obtained imaging parameters, Imaging means for obtaining an image of the surface of the object to be checked under the set imaging conditions; Extracting means for extracting a feature amount from the obtained image; A matching means for matching the extracted feature quantity with a registered feature quantity.
  • the storage unit is configured to store image processing parameters in association with data characterizing the surface of the reference object
  • the obtaining unit is further configured to obtain the image processing parameter to be applied to the matching target object from the storage unit based on the calculated degree of approximation
  • the condition setting means is further configured to set an image processing condition determined by the obtained image processing parameter
  • the individual identification system according to claim 1, wherein the extraction unit is configured to perform image processing on the image under the set image processing conditions to extract a feature amount from the image.
  • the extraction means is configured to perform, in the image processing, pre-processing on the image and feature extraction processing on the image after the pre-processing,
  • the image processing parameters include at least one of one or more parameters used in the pre-processing and one or more parameters used in the feature extraction processing.
  • the individual identification system according to attachment 2.
  • the imaging parameters include at least one parameter of a parameter representing an illumination angle that is an angle at which illumination light is incident on the surface of the matching target object, and a parameter representing an image resolution of the image.
  • the individual identification system according to any one of supplementary notes 1 to 3.
  • the data characterizing the surface includes at least one of data representing the type of surface material, data representing the degree of surface roughness, and data representing the shape of the surface.
  • a feature amount extracted from each of a plurality of images obtained by imaging a plurality of types of surfaces of the reference object a plurality of times using the value of the imaging parameter as a candidate value is input to form a pair 2
  • a feature amount pair extracted from a plurality of images of the reference object of the same type with one feature amount is generated as a first feature amount pair for each of the plurality of types of reference objects, and two features constituting the pair are generated.
  • a feature amount pair generating unit configured to generate feature amount pairs extracted from a plurality of images of the reference object of different types as a second feature amount pair for all combinations of the plurality of types of reference objects; Generating a first distribution that is a distribution of the matching scores of the plurality of first feature quantity pairs; generating a second distribution that is a distribution of the matching scores of the second feature quantity pair;
  • the individual identification system according to any one of supplementary notes 1 to 5, further comprising: a parameter determination unit that determines whether to adopt the candidate value based on a degree of separation between the distribution and the second distribution.
  • the storage unit is configured to store image processing parameters in association with data characterizing the surface of the reference object, The obtaining further obtains the image processing parameters to be applied to the object to be checked based on the calculated degree of approximation from the storage unit, In the setting, further, an image processing condition determined by the obtained image processing parameters is set, In the extraction, under the set image processing conditions, perform image processing on the image to extract a feature amount from the image, An individual identification method according to Supplementary Note 10.
  • the image processing parameters include at least one of one or more parameters used in the pre-processing and one or more parameters used in the feature extraction processing.
  • the imaging parameters include at least one parameter of a parameter representing an illumination angle that is an angle at which illumination light is incident on the surface of the matching target object, and a parameter representing an image resolution of the image. 13.
  • the data characterizing the surface includes at least one of data representing the type of surface material, data representing the degree of surface roughness, and data representing the shape of the surface. 14. The individual identification method according to any one of supplementary notes 10 to 13.
  • a feature amount extracted from each of a plurality of images obtained by imaging a plurality of types of surfaces of the reference object a plurality of times using the value of the imaging parameter as a candidate value is input to form a pair 2
  • a feature amount pair extracted from a plurality of images of the reference object of the same type with one feature amount is generated as a first feature amount pair for each of the plurality of types of reference objects, and two features constituting the pair are generated.
  • Amount of feature pairs extracted from a plurality of images of the reference object of different types are generated as a second feature pair for all combinations of the plurality of types of reference objects, Generating a first distribution that is a distribution of the matching scores of the plurality of first feature quantity pairs; generating a second distribution that is a distribution of the matching scores of the second feature quantity pair; Determining whether to adopt the candidate value based on the degree of separation between the distribution and the second distribution, 15.
  • the individual identification method according to any one of supplementary notes 10 to 14.
  • Acquisition unit 503 ... Condition setting unit 504 ... Imaging unit 505 ... Extraction unit 506 ... Collation unit 6 0 ... individual registration unit 602 ... acquiring unit 603 ... condition setting unit 604 ... imaging unit 605 ... extraction unit 606 ... registration means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Immunology (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

個体識別システムは、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段と、照合対象物体の表面を特徴付けるデータが入力されると、該入力されたデータと記憶手段に記憶されている各データとの近似度を算出し、算出した近似度に基づいて照合対象物体に適用する撮像パラメータを記憶手段から取得する取得手段と、取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、設定された撮像条件の下で、照合対象物体の表面の画像を取得する撮像手段と、取得された画像から特徴量を抽出する抽出手段と、抽出された特徴量と登録特徴量とを照合する照合手段と、を含む。

Description

個体識別システム
 本発明は、個体識別システム、個体識別装置、個体登録装置、個体識別方法、個体登録方法、および、記録媒体に関する。
 物体を撮像して得られた画像から物体固有のランダムパターンを抽出し、このランダムパターンの個体差を認証や照合に利用する試みがなされている。
 例えば特許文献1には、物体の表面に形成された梨地紋様による凹凸パターンをコントラスト良く撮像するための照明角度を有する撮影補助具を使用して、上記凹凸パターンを撮像し、物体の認証や照合に利用することが記載されている。また特許文献2には、付与した微細物質の光学的特徴に応じた光の照明角度を特定し、その照明角度で照明された状態で基準物品を光学的に読み取ることで基準画像データを取得し、その基準画像データから基準特徴量データを算出し、記憶部に記憶することが記載されている。
再特WO2014/021449号公報 特開2013-64625号公報
 物体を撮像して得られた画像から物体固有のランダムパターンを抽出するためには、物体固有のランダムパターンを安定して読み取れる画像を撮影する必要がある。そのため、特許文献1および特許文献2において、事前に特定した照明角度を撮像パラメータの値として記憶しておき、その撮像パラメータの値で定まる撮像条件を設定し、その撮像条件の下で認証や照合を行う物体を撮像することが考えられる。しかしながら、認証や照合を行う物体の種類が多い場合、個々の種類の物体毎に事前に撮像パラメータの値を特定しておくことは時間的かつコスト的に困難である。また新製品など新しい物体の場合、そもそも事前に撮像パラメータの値を特定することは不可能である。そのため、撮像パラメータの値が事前に特定されていない物体には、適切な撮像条件を設定することができない、という課題がある。
 本発明の目的は、上述した課題を解決する個体識別システムを提供することにある。
 本発明の一形態に係る個体識別システムは、
 基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段と、
 個体識別対象物体の表面を特徴付けるデータが入力されると、該入力されたデータと前記記憶手段に記憶されている各データとの近似度を算出し、前記算出した近似度に基づいて前記個体識別対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
 前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
 前記設定された撮像条件の下で、前記個体識別対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出する抽出手段と、
 前記抽出された特徴量と登録特徴量とを照合する照合手段と、を含む。
 本発明の他の形態に係る個体識別装置は、
 照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
 前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
 前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出する抽出手段と、
 前記抽出された特徴量と登録特徴量とを照合する照合手段と、を含む。
 本発明の他の形態に係る個体登録装置は、
 登録対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記登録対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
 前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
 前記設定された撮像条件の下で、前記登録対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出する抽出手段と、
 前記抽出された特徴量を登録特徴量として登録する登録手段と、を含む。
 本発明の他の形態に係る記録媒体は、
 コンピュータを、
 照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
 前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
 前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出する抽出手段と、
 前記抽出された特徴量と登録特徴量とを照合する照合手段と、
して機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体である。
 本発明の他の形態に係る個体識別方法は、
 照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得し、
 前記取得された撮像パラメータで定まる撮像条件を設定し、
 前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得し、
 前記取得された画像から特徴量を抽出し、
 前記抽出された特徴量と登録特徴量とを照合する。
 本発明の他の形態に係る個体登録方法は、
 登録対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記登録対象物体に適用する前記撮像パラメータを前記記憶手段から取得し、
 前記取得された撮像パラメータで定まる撮像条件を設定し、
 前記設定された撮像条件の下で、前記登録対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出し、
 前記抽出された特徴量を登録特徴量として登録する。
 本発明は上述したような構成を有することにより、撮像パラメータの値が事前に特定されていない物体であっても、撮像パラメータの値が事前に特定されている物体とよく似た表面を有する物体であれば、撮像条件を設定することができる。
本発明の第1の実施形態における物体の表面を特徴付ける形状の例を示す図である。 本発明の第1の実施形態において、個体識別対象の物体の画像に対して行われる前処理の概要を示す図である。 本発明の第1の実施形態における特徴抽出処理の概要を示す図である。 本発明の第1の実施形態に係る個体識別装置のブロック図である。 本発明の第1の実施形態に係る個体識別装置の撮像部の構造の例を示す断面図である。 本発明の第1の実施形態に係る個体識別装置の撮像部の構造の例を示す上面図である。 本発明の第1の実施形態に係る個体識別装置のハードウェアの一例を示すブロック図である。 本発明の第1の実施形態におけるサンプル対象物のグループの例を示す図である。 本発明の第1の実施形態に係る個体識別装置において特定の撮像パラメータおよび画像処理パラメータの値を決定する処理の一例を示す動作フローである。 本発明の第1の実施形態に係る個体識別装置において特定の撮像パラメータおよび画像処理パラメータの値を決定する処理の一例を示すフローチャートである。 本発明の第1の実施形態に係る個体識別装置におけるパラメータ記憶部の内容例を示す図である。 本発明の第1の実施形態に係る個体識別装置におけるパラメータセットAの値の候補の例を示す図である。 本発明の第1の実施形態に係る個体識別装置におけるパラメータセットBの値の候補の例を示す図である。 本発明の第1の実施形態に係る個体識別装置における画像記憶部の内容例を示す図である。 本発明の第1の実施形態に係る個体識別装置における特徴量記憶部の内容例を示す図である。 本発明の第1の実施形態に係る個体識別装置における第1の特徴量ペア記憶部の内容例を示す図である。 本発明の第1の実施形態に係る個体識別装置における第2の特徴量ペア記憶部の内容例を示す図である。 本発明の第1の実施形態に係る個体識別装置における分布記憶部の内容例を示す図である。 本発明の第1の実施形態に係る個体識別装置で使用する分離度の尺度の一例を示す図である。 本発明の第1の実施形態に係る個体識別装置で使用する分離度の尺度の他の例を示す図である。 本発明の第1の実施形態に係る個体識別装置で使用する分離度の尺度の更に他の例を示す図である。 本発明の第1の実施形態に係る個体識別装置で使用する分離度の尺度の更に他の例を示す図である。 本発明の第1の実施形態に係る個体識別装置において特定の撮像パラメータの値を決定する処理の他の例を示すフローチャートである。 本発明の第1の実施形態に係る個体識別装置における個体登録の一例を示す動作フローである。 本発明の第1の実施形態に係る個体識別装置における個体登録の一例を示すフローチャートである。 本発明の第1の実施形態に係る個体識別装置における特徴量記憶部に保存された個体登録情報の内容例を示す図である。 本発明の第1の実施形態に係る個体識別装置における個体識別および個体照合の動作フローである。 本発明の第1の実施形態に係る個体識別装置における個体識別および個体照合の処理例を示すフローチャートである。 本発明の第2の実施形態に係る個体識別システムのブロック図である。 本発明の第3の実施形態に係る個体識別装置のパラメータ記憶部の内容例を示す図である。 本発明の第4の実施形態に係る個体識別システムのブロック図である。 本発明の第5の実施形態に係る個体識別装置のブロック図である。 本発明の第6の実施形態に係る個体登録装置のブロック図である。
 次に本発明の実施の形態について、図面を参照して詳細に説明する。
[第1の実施形態]
 本実施形態では、基準物体毎に撮像パラメータおよび画像処理パラメータの値を事前に決定し、この決定した値を基準物体の表面を特徴付けるデータの値に対応付けて記憶装置に記憶するように構成されている。また、本実施形態では、個体識別時、識別対象の物体の表面を特徴付けるデータの値に近似する、基準物体の表面を特徴付けるデータの値に対応付けられた撮像パラメータおよび画像処理パラメータの値を記憶装置から取得するように構成されている。また、本実施形態では、上記取得した撮像パラメータおよび画像処理パラメータの値で定まる撮像条件および画像処理条件を設定し、上記撮像条件の下で個体識別対象物体の表面の画像を取得し、上記画像処理条件の下で画像処理を行って上記画像から特徴量を抽出し、その抽出した特徴量と登録特徴量とを照合するように構成されている。
 最初に、物体の表面を特徴付けるデータ、撮像パラメータおよび画像処理パラメータについて説明する。
<物体の表面を特徴付けるデータ>
 物体の表面を特徴付けるデータの1つの例は、物体表面の素材を表現するデータである。例えば、樹脂、金属、セラミック、炭素繊維、ガラス、紙、木材、鉄鋼などが素材を表現するデータの例である。
 物体の表面を特徴付けるデータの他の1つの例は、物体表面の粗さを表現するデータである。例えば、算術平均粗さ(Ra)は、物体表面の粗さを表現するデータの例である。
 物体の表面を特徴付けるデータの更に他の1つの例は、撮像画像中の物体(個体識別対象)の形状である。図1に形状の幾つかの例を示す。外側の矩形が撮像画像であり、その内部のハッチングを施した部分が物体の形状である。図1には、形状として、平面(矩形)、多角形、円、リング(ドーナツ形状)が例示されているが、それ以外の形状もあり得る。形状は、撮像対象の面の2次元的な形であるとも言える。また、形状は、特徴量を抽出する物体表面の画像領域の形状であるとも言える。
 物体の表面を特徴付けるデータは、上述した素材、粗さ、形状に限定されない。物体の表面の反射率、透過率、光物性、梨地加工・旋盤加工などの加工方法などが、物体の表面を特徴付けるデータの他の例である。
<撮像パラメータ>
 撮像パラメータの1つの例は、照明角度である。照明角度は、照明光が物体の表面に入射する角度である。
 撮像パラメータの他の1つの例は、画像解像度である。画像解像度は、例えばDPI(Dot Per Inch)で表される。また、画像解像度と撮像倍率とには一定の因果関係があるため、画像解像度の代わりに撮像倍率を撮像パラメータとして使用してもよい。
 撮像パラメータは、上述した照明角度、画像解像度に限定されない。対象物とカメラとの距離、照明光の強度、照明光の波長、照明の大きさなどが、撮像パラメータの他の例である。
<画像処理パラメータ>
 画像処理パラメータは、前処理パラメータと特徴抽出パラメータとに大別される。
 前処理パラメータは、個体識別対象の画像に対して、特徴抽出の前に実施される前処理で使用されるパラメータのことである。特徴抽出パラメータは、前処理が施された個体識別対象の画像に対して実施される特徴抽出処理で使用されるパラメータのことである。
 先ず、前処理の概要を説明し、前処理で使用する幾つかのパラメータについて説明する。
 図2は、個体識別対象の物体の画像に対して行われる前処理の概要を示す図である。前処理では、撮像画像に対してマスク処理、ノイズ除去、鮮明化の3つの処理がその順に実施される。
 マスク処理では、撮像画像の領域を個体識別対象の物体の領域とそれ以外の領域(背景)とに分け、背景に属する画素を特定の画素値に置き換える。特定の画素値を定める方法は2通りある。1つの方法は、事前に与えられた画素値(一般にはゼロ)で置き換える方法である。他の1つの方法は、置き換え対象となる背景の画素毎に、その画素とその周辺の画素の値に基づいて置き換え後の画素の値を決定する方法である。周辺の画素の範囲は、事前に与えられる局所画像ブロックで決定される。例えば、局所画像ブロックとして3×3ブロックを使用する場合、注目画素とその周囲8画素との合計9画素の例えば平均値で置き換え後の画素の値が決定される。上記ゼロ等の特定の画素値、および上記局所画像ブロックを、マスク処理パラメータと呼ぶ。マスク処理パラメータは、前処理パラメータの一例である。
 ノイズ除去では、マスク処理後の撮像画像における個体識別対象の領域に存在するノイズを、例えばメディアンフィルタによって除去する。或いは、上記ノイズを、平滑化フィルタによって除去する。或いは、バイラテラルフィルタによってノイズ(センサノイズ)を除去する。上記メディアンフィルタ、平滑化フィルタ、バイラテラルフィルタを、ノイズ除去パラメータと呼ぶ。ノイズ除去パラメータは、前処理パラメータの他の例である。
 鮮明化では、撮像画像のコントラストを局所領域毎に最適化することにより、個体識別性のあるパターンを強調する。例えば、ノイズ除去後の撮像画像を、事前に与えられる画像ブロックサイズの局所領域に分割し、局所領域毎にCLAHE(Contrast Limited Adaptive Histogram)を適用する。上記画像ブロックサイズを、鮮明化処理パラメータと呼ぶ。鮮明化処理パラメータは、前処理パラメータの更に他の例である。
<特徴抽出パラメータ>
 次に、特徴抽出処理の概要を説明し、特徴抽出処理で使用する幾つかのパラメータについて説明する。
 図3は、特徴抽出処理の概要を示す図である。図3に示す特徴抽出処理では、前処理適用後の撮像画像に対して窓関数適用、周波数変換処理、周波数帯域選択、特徴量の各要素に対する重み付けの4つの処理がその順に実施される。
 窓関数適用は、後段の周波数変換において、画像端の不連続に起因する特徴量へのノイズ混入を抑制するために実施する。窓関数適用では、撮像画像中の個体識別性のあるパターンを極力残せるような形状の窓関数(例えば一般化ハミング窓関数)を使用する。窓関数の形状を調整するパラメータを、窓関数適用パラメータと呼ぶ。窓関数適用パラメータは、特徴抽出パラメータの例である。
 周波数変換処理は、例えばフーリエ変換である。
 周波数帯域選択では、周波数変換後のデータである2次元データ配列(複素数)から、事前に与えられる配列ブロックのサイズと中心位置座標に従って、個体識別性を有する周波数帯域の要素を選択する。上記配列ブロックのサイズと中心位置座標を、周波数帯域選択パラメータと呼ぶ。周波数帯域選択パラメータは、特徴抽出パラメータの他の例である。
 特徴量の各要素に対する重み付けは、周波数帯域選択で選択された周波数帯域の各要素に対して、例えば2次元ガウス関数を乗じることで行う。2次元ガウス関数の2次元それぞれの方向に対する形状を決めるパラメータを、特徴量の各要素に対する重みパラメータと呼ぶ。この重みパラメータは、特徴抽出パラメータの更に他の例である。
 続いて、本実施形態に係る個体識別装置の構成について説明する。
 図4は、本実施形態に係る個体識別装置のブロック図である。本実施形態に係る個体識別装置100は、撮像部101と、条件制御部102と、画像記憶部103と、特徴量抽出部104と、特徴量記憶部105と、特徴量ペア生成部106と、第1の特徴量ペア記憶部107と、第2の特徴量ペア記憶部108と、スコア算出部109と、分布生成部110と、分布記憶部111と、パラメータ決定部113と、パラメータ記憶部114と、判定部115と、情報提示部116と、物体情報入力部117とを備える。
 物体情報入力部117は、サンプル対象物(基準物体)および識別・照合対象物の表面を特徴付ける予め定められた種類のデータの値を入力するように構成されている。本実施形態では、予め定められた種類のデータとして、前述した素材、表面粗さ、および形状の3つのデータを使用する。但し、使用するデータの種類と数は、上記に限定されない。
 条件制御部102は、撮像部101の撮像条件を制御するように構成されている。条件制御部102は、予め定められた1種類以上の撮像パラメータの値の組合せによって撮像条件を制御する。本実施形態では、予め定められた撮像パラメータとして、照明角度、画像解像度、および対象物とカメラとの相対的な姿勢の3つを使用する。このうち、照明角度と画像解像度の2つは、事前に決定しておく撮像パラメータである。対象物とカメラとの相対的な姿勢は、事前に決定しておく撮像パラメータではなく、外乱要因として使用する。但し、事前に決定しておく撮像パラメータの種類と数は、上記に限定されない。また、外乱要因として使用する撮像パラメータの種類と数は、上記に限定されない。
 また、条件制御部102は、特徴量抽出部104における画像処理の条件を制御するように構成されている。条件制御部102は、予め定められた1種類以上の画像処理パラメータの値の組合せによって画像処理条件を制御する。本実施形態では、予め定められた画像処理パラメータとして、前処理パラメータセットと特徴抽出パラメータセットとの2つを使用する。前処理パラメータセットは、前述したマスク処理パラメータ、ノイズ除去パラメータ、および鮮明化処理パラメータに属する1つ、或いは2つ以上のパラメータを含む。また、特徴抽出パラメータセットは、前述した窓関数適用パラメータ、周波数帯域選択パラメータ、重みパラメータに属する1つ、或いは2つ以上のパラメータを含む。
 撮像部101は、条件制御部102によって設定された撮像条件に基づいて、管理対象である対象物の表面の凹凸パターンの画像をカメラによって撮像するように構成されている。対象物の表面の凹凸パターンは、対象物である製品表面に形成された梨地紋様、製造過程で生じる自然発生的な微小な凹凸や紋様などであってよい。
 図5Aおよび図5Bは、撮像部101の構造の例を示す。図5AはX-X線に沿う断面図、図5Bは上面図である。この例の撮像部101は、ズームレンズ162を有するカメラ161を備える。カメラ161は、例えばデジタルカメラであってよい。カメラ161の光軸は、識別対象物164の面に対して垂直な方向である。識別対象物164は、テーブル165の上に置かれている。テーブル165を傾け、或いは、回転させることにより、カメラ161に対する識別対象物164の姿勢を変えることができる。カメラ161と識別対象物164との距離はほぼ一定である。ズームレンズ162により撮像倍率を変化させることで、画像解像度を制御することができる。また、撮像部101は、照明角度可変な照明器163を備える。照明器163は、緯度方向(高さ方向)の位置が異なるLED等の照明部166を経度方向(周方向)8方位に備える。点灯する照明部166の位置を変化させることで、照明角度を制御することができる。
 画像記憶部103は、撮像部101によって撮像して得られた対象物の表面の凹凸パターンの画像を記憶するように構成されている。
 特徴量抽出部104は、条件制御部102によって設定された画像処理の条件に基づいて、画像記憶部103に記憶された対象物の表面の凹凸パターンの画像に対して画像処理を行うように構成されている。即ち、先ず、特徴量抽出部104は、上記画像に対して図2を参照して説明した前処理を行う。次に特徴量抽出部104は、図3を参照して説明した特徴抽出処理を行う。
 特徴量記憶部105は、特徴量抽出部104によって抽出された特徴量を記憶するように構成されている。
 特徴量ペア生成部106は、特徴量記憶部105に記憶された複数の対象物の複数の特徴量から、対象物のそれぞれについて、第1の特徴量ペアを生成するように構成されている。第1の特徴量ペアは、ペアを構成する2つの特徴量が同一の対象物の複数の画像から抽出された特徴量のペアを意味する。また、特徴量ペア生成部106は、特徴量記憶部105に記憶された複数の対象物の複数の特徴量から、対象物の全ての組み合わせについて、第2の特徴量ペアを生成するように構成されている。第2の特徴量ペアは、ペアを構成する2つの特徴量が互いに異なる対象物の複数の画像から抽出された特徴量のペアを意味する。
 第1の特徴量ペア記憶部107は、特徴量ペア生成部106によって生成された複数の第1の特徴量ペアを記憶するように構成されている。第2の特徴量ペア記憶部108は、特徴量ペア生成部106によって生成された複数の第2の特徴量ペアを記憶するように構成されている。
 スコア算出部109は、2つの特徴量間の相関を計算し、2つの特徴量が類似している程度を表す照合スコアを算出するように構成されている。スコアを算出する対象となる2つの特徴量ペアは、第1の特徴量ペア、第2の特徴量ペア、及び、特徴量抽出部104で抽出された識別・照合対象とする特徴量と特徴量記憶部105に記憶された基準の特徴量とから成るペアである。スコア算出部109は、例えば、双方の特徴量間で対応する特徴量の要素数を用いてスコアを算出する。或いはスコア算出部109は、例えば、双方の特徴量を表すコード間のハミング距離によりスコアを算出する。スコアは、2つの特徴量が類似している程、即ち2つの特徴量の距離が小さい程、大きくなる値であってもよいし、その反対に小さくなる値であってもよい。但し、スコアの算出方法は上記の例に限定されない。
 分布生成部110は、複数の第1の特徴量ペアの照合スコアの分布である第1の分布を生成するように構成されている。また分布生成部110は、複数の第2の特徴量ペアの照合スコアの分布である第2の分布を生成するように構成されている。ここで、第1の分布および第2の分布は、スコアの範囲を幾つかの区間に分けて、各区間に出現する第1の特徴量ペアおよび第2の特徴量ペアの数を表形式あるいはグラフ形式で表現した情報である。
 分布記憶部111は、分布生成部110によって生成された第1の分布および第2の分布を記憶するように構成されている。
 パラメータ決定部113は、分布記憶部111に記憶された第1の分布と第2の分布との分離度を算出するように構成されている。またパラメータ決定部113は、算出した分離度に基づいて、予め定められた撮像パラメータおよび画像処理パラメータの値を決定するように構成されている。
 パラメータ記憶部114は、物体の表面を特徴付けるデータの値に対応付けて、パラメータ決定部113によって決定された撮像パラメータおよび画像処理パラメータの値を記憶するように構成されている。
 判定部115は、特徴量抽出部104で抽出された識別・照合対象とする特徴量と特徴量記憶部105に記憶された基準の特徴量とから成るペアについてスコア算出部109によって算出されたスコアに基づき、識別および照合の判定結果を生成するように構成されている。
 情報提示部116は、判定部115の判定結果に基づき物体管理情報を提示するように構成されている。
 個体識別装置100は、例えば図6に示すように、カメラ等の撮影部151と、キーボードやマウスなどの操作入力部152と、液晶ディスプレイ等の画面表示部153と、通信インタフェース部154と、メモリやハードディスク等の記憶部155と、1以上のマイクロプロセッサ等の演算処理部156とを有するパーソナルコンピュータ等の情報処理装置150と、プログラム157とで実現することができる。
 プログラム157は、情報処理装置150の立ち上げ時等に外部のコンピュータ読み取り可能な記憶媒体からメモリに読み込まれ、演算処理部156の動作を制御することにより、演算処理部156上に、撮像部101、条件制御部102、画像記憶部103、特徴量抽出部104、特徴量記憶部105、特徴量ペア生成部106、第1の特徴量ペア記憶部107、第2の特徴量ペア記憶部108、スコア算出部109、分布生成部110、分布記憶部111、パラメータ決定部113、パラメータ記憶部114、判定部115、情報提示部116、物体情報入力部117といった機能的手段を実現する。
 次に、本実施形態に係る個体識別装置100の動作を説明する。個体識別装置100の動作は、以下の三つに大別される。
(a)特定の撮像パラメータおよび画像処理パラメータの値を決定する事前処理の動作
(b)個体登録の動作
(c)個体識別および個体照合の動作
[特定の撮像パラメータおよび画像処理パラメータの値を決定する事前処理の動作]
 本実施形態では、照明角度および画像解像度の2つの画像パラメータの値を事前に決定する。また、本実施形態では、特定の画像処理パラメータとして予め定められた前処理パラメータのセットおよび特徴抽出パラメータのセットを事前に決定する。前処理パラメータのセットは、少なくとも1つの前処理パラメータを含む。特徴抽出パラメータのセットは、少なくとも1つの特徴抽出パラメータを含む。
 特定の撮像パラメータおよび画像処理パラメータの値を決定する処理は、物体表面を特徴付けるデータの値に基づいてサンプル対象物を複数のグループに分類し、個々のグループ毎に実施する。本実施形態では、物体表面を特徴付けるデータとして、素材、表面粗さ、および形状の3つを使用する。
 図7はサンプル対象物のグループの例を示す。この例では、素材が金属で、表面粗さ(Ra)が0.2μmで、形状がドーナツ形状であるサンプル対象物が1つのグループを形成している。また、素材が金属で、表面粗さ(Ra)が1.0μmで、形状が平面であるサンプル対象物が別の1つのグループを形成している。また、素材が樹脂で、表面粗さ(Ra)が0.45μmで、形状が円であるサンプル対象物がさらに別の1つのグループを形成している。
 図8は、グループ毎に実施される特定の撮像パラメータおよび画像処理パラメータの値を決定する処理の一例を示す動作フローである。また、図9は、グループ毎に実施される特定の撮像パラメータおよび画像処理パラメータの値を決定する処理の一例を示すフローチャートである。
 先ず、事前処理を管理するオペレータは、物体情報入力部117を通じてパラメータ記憶部114に、これから処理するサンプル対象物のグループに関するデータを登録する(ステップS101)。
 図10は、パラメータ記憶部114の内容例を示す。図10を参照すると、パラメータ記憶部114は、サンプル対象物のグループ毎に、物体の表面を特徴付けるデータの値に対応付けて、パラメータ決定部113によって決定された撮像パラメータおよび画像処理パラメータの値を記憶する。例えば、1つのグループに関するデータは、グループ番号、物体表面を特徴付けるデータ、および、パラメータから構成される。また、物体表面を特徴付けるデータは、素材、表面粗さ、および、形状の3つのデータから構成される。また、パラメータは、撮像パラメータと画像処理パラメータとに大別される。また、撮像パラメータは、照明角度、および、画像解像度の2つのパラメータから構成される。また、画像処理パラメータは、前処理パラメータセット、および、特徴抽出パラメータセットの2つから構成されている。オペレータの入力時点では、各パラメータセットの値は規定値となっている。この規定値は、パラメータ決定部113で決定された値で更新されることとなる。
 次に、条件制御部102は、事前に定められた撮像パラメータ(本例では、照明角度と画像解像度)および事前に定められた画像処理パラメータ(本例では、前処理パラメータセットと特徴抽出パラメータセット)をパラメータセットAとし、事前に定められた外乱要因として使用する撮像パラメータ(本例では、対象物とカメラとの相対的な姿勢)をパラメータセットBとし、パラメータセットAの値の候補及びパラメータセットBの値の候補を網羅的に生成する(ステップS102)。例えば、条件制御部102は、事前に定められた照明角度、画像解像度、前処理パラメータセット、特徴抽出パラメータセットの値を含み、少なくとも1つのパラメータの値が他の候補と相違するパラメータセットAの値の候補を網羅的に生成する。また、条件制御部102は、対象物とカメラとの相対的な姿勢をパラメータセットBの値の候補として生成する。
 図11は、パラメータセットAの値の候補の例を示す。この例では、条件制御部102は、照明角度をθ1からθaまでa通りに変化させ、画像解像度をm1からmbまでb通りに変化させ、前処理パラメータセットをpr1からprcまでc通りに変化させ、特徴抽出パラメータセットをeq1からeqdまでd通りに変化させることによって、a×b×c×d通りのパラメータセットAの値の候補a1~anを生成している。
 図12は、パラメータセットBの値の候補の例を示す。この例では、条件制御部102は、撮像する際の対象物の姿勢をm通りに変化させることによって、m通りのパラメータセットBの値の候補b1~bmを生成している。
 次に条件制御部102は、パラメータセットAの値の候補を選択するための変数iを1にし(ステップS103)、パラメータセットAの値の候補a1を選択する(ステップS104)。次に条件制御部102は、パラメータセットBの値の候補を選択するための変数jを1にし(ステップS105)、パラメータセットBとして候補b1を選択する(ステップS106)。次に、条件制御部102は、上記選択した候補a1と候補b1とで定まる撮像条件(照明角度、画像解像度、姿勢)を撮像部101に設定すると共に、上記選択した候補a1で定まる画像処理条件(前処理パラメータセット、特徴抽出パラメータセット)を特徴量抽出部104に設定する(ステップS107)。撮像条件の撮像部101への設定は、自動化されていてもよいし、撮像パラメータを画面表示部153に表示してユーザの手動によって設定してもよい。画像処理条件の特徴量抽出部104への設定は、自動化されていてもよいし、画像処理パラメータを画面表示部153に表示してユーザの手動によって設定してもよい。
 次に、撮像部101は、グループ番号1のグループからN(≧2、好ましくは≧3)個のサンプル対象物の画像を少なくとも1回ずつ撮像し、画像記憶部103に保存する(ステップS108)。上記動作により、画像記憶部103には、例えば図13に示す画像G111、G211、…、GN11のN枚の画像が、サンプル対象物のIDおよび候補a1、b1で定まる撮像・画像処理条件に対応付けて保存される。
 次に特徴量抽出部104は、候補a1、b1で定まる撮像・画像処理条件の下で撮像されて得られたN個のサンプル対象物の画像を画像記憶部103から読み出し、候補a1で定まる画像処理条件に基づいて、それぞれの画像から特徴量を抽出し、特徴量記憶部105に保存する(ステップS109)。これにより、特徴量記憶部105には、例えば図14に示す特徴量V111、V211、…、VN11のN個の特徴量が、サンプル対象物のIDおよび候補a1、b1で定まる撮像・画像処理条件に対応付けて保存される。
 次に条件制御部102は、変数jをインクリメントし(ステップS110)、変数jがmより大きくなければ、ステップS106に戻って、上述した処理と同様の処理を繰り返す。これにより、上記と同じN個のサンプル対象物の画像が、候補a1、b2で定まる撮像・画像処理条件の下で撮像され、且つそれぞれの画像から特徴量が抽出される。同様の動作が、変数jがmより大きくなるまで繰り返される(ステップS111)。これにより、パラメータセットAの値をa1に固定し、パラメータセットBの値をb1、b2、…、bmと順番に変えてN個のサンプル対象物のそれぞれが複数回撮像され、またそれぞれの画像から特徴量が抽出されることになる。図13に示す画像G111、G211、…、GN11、G112、G212、…、GN12、…、G11m、G21m、…、GN1m、および図14に示す特徴量V111、V211、…、VN11、V112、V212、…、VN12、…、V11m、V21m、…、VN1mは、このようにして撮像して得られた画像および特徴量である。
 次に特徴量ペア生成部106は、特徴量記憶部105から特徴量V111、V211、…、VN11、V112、V212、…、VN12、…、V11m、V21m、…、VN1mを読み出し、第1の特徴量ペアおよび第2の特徴量ペアを生成し、第1の特徴量ペア記憶部107および第2の特徴量ペア記憶部108に保存する(ステップS112)。これにより、第1の特徴量ペア記憶部107には、例えば図15に示す、m個の特徴量(V111、V112、…、V11m)の中から2つを選ぶ組み合わせ、m個の特徴量(V211、V212、…、V21m)の中から2つを選ぶ組み合わせ、…、m個の特徴量(VN11、VN12、…、VN1m)の中から2つを選ぶ組み合わせ、から構成される第1の特徴量ペアが、パラメータセットAの候補a1に対応付けて保存される。また、第2の特徴量ペア記憶部108には、例えば図16に示す、特徴量V11x(x=1、2、…、m)と特徴量Viyy(i≠1、yは任意)との組み合わせ、特徴量V21x(x=1、2、…、m)と特徴量Viyy(i≠2、yは任意)との組み合わせ、…、特徴量VN1x(x=1、2、…、m)と特徴量Viyy(i≠N、yは任意)との組み合わせ、から構成される第2の特徴量ペアが、パラメータセットAの候補a1に対応付けて保存される。
 次にスコア算出部109は、第1の特徴量ペア記憶部107からパラメータセットAの候補a1に対応付けられた第1の特徴量ペアを読み出し、ペアを構成する特徴量間の相関を計算して照合スコアを算出し、分布生成部110はその算出された第1の特徴量ペアの照合スコアから第1の分布を生成して分布記憶部111に保存する(ステップS113)。これにより、分布記憶部111には、例えば図17に示すように、パラメータセットAの候補a1に対応つけて、第1の特徴量ペアの分布D11が保存される。
 またスコア算出部109は、第2の特徴量ペア記憶部108からパラメータセットAの候補a1に対応付けられた第2の特徴量ペアを読み出し、ペアを構成する特徴量間の相関を計算して照合スコアを算出し、分布生成部110はその算出された第2の特徴量ペアの照合スコアから第2の分布を生成して分布記憶部111に保存する(ステップS114)。これにより、分布記憶部111には、例えば図17に示すように、パラメータセットAの候補a1に対応つけて、第2の特徴量ペアの分布D12が保存される。
 次にパラメータ決定部113は、分布記憶部111から第1の分布D11および第2の分布D12を読み出し、それらの分離度を計算して、分布記憶部111に保存する(ステップS115)。これにより、分布記憶部111には、例えば図17に示すように、パラメータセットAの候補a1に対応つけて、分離度SP1が保存される。
 ここで、2つの分布の分離度SP1は、2つの分布D11、D12がどの程度分離しているかを表す尺度あるいは指標値である。分離度には、例えば以下に例示するような尺度を用いることができる。
<分離度の尺度の例1>
 図18に示すように、第1の特徴量ペアのスコアの分布(第1の分布)の平均をmg、分散をσg、ペア数をωgとし、第2の特徴量ペアのスコアの分布(第2の分布)の平均をmi、分散をσi、ペア数をωiとするとき、クラス内分散σw、クラス間分散σbは、それぞれ次式で与えられる。
  σw=(ωgσg 2+ωiσi 2)/(ωg+ωi)   …(1)
  σb=ωgωi(mg-mi2/(ωg+ωi2   …(2)
 そして、次式で与えられるクラス内分散・クラス間分散比を分離度の尺度とすることができる。
  分離度=クラス内分散・クラス間分散比=σb 2/σw 2   …(3)
<分離度の尺度の例2>
 図19に示すように、第1の特徴量ペアのスコアの分布(第1の分布)の最小値をSg、第2の特徴量ペアのスコアの分布(第2の分布)の最大値をSiとするとき、次式で与えられる、最小値Sgに対する最大値Siの比率を分離度の尺度とすることができる。
  分離度=第1の分布の最小値に対する第2の分布の最大値の比率=Si/Sg
     …(4)
<分離度の尺度の例3>
 第1の特徴量ペアのスコアの分布から求められるFRR(False Rejection Rate)と第2の特徴量ペアのスコアの分布から求められるFAR(False Acceptance Rate)とが等しくなるEER(Equal Error Rate)を、分離度の尺度とする。例えば、FRRは、図20Aに示すように、第1の特徴量ペアのスコアの累積ヒストグラム(第1の特徴量ペアの総数で正規化)として求めることができる。また、FARは、図20Aに示すように、第2の特徴量ペアのスコアの累積ヒストグラム(第2の特徴量ペアの総数で正規化)として求めることができる。さらに、EERは、図20Aに示すように、EERとFRRの交点の頻度(確率)として求めることができる。また、図20Bに示すように、第1のスコアの累積ヒストグラムと第2のスコアのヒストグラムとが完全に分離する場合は、それぞれの累積ヒストグラムを近似する累積分布関数による外挿によって、EERを算出することができる。
 次にパラメータ決定部113は、算出した分離度SP1を予め定められた閾値と比較することにより、第1の特徴量ペアに基づく第1の分布D11と第2の特徴量ペアに基づく第2の分布D12とが閾値以上、分離しているか否かを判定する(ステップS116)。そして、パラメータ決定部113は、第1の分布D11と第2の分布D12との分離度SP1が閾値以上であれば、そのときのパラメータセットAの候補a1が表す撮像パラメータおよび画像処理パラメータの値をグループ番号1に対応付けてパラメータ記憶部114に保存し(ステップS118)、図9に示す処理を終了する。
 他方、パラメータ決定部113は、第1の分布D11と第2の分布D12との分離度SP1が閾値未満であれば、そのときのパラメータセットAの候補a1が表す撮像パラメータおよび画像処理パラメータによる撮像条件・画像処理条件では、N個のサンプル対象物相互間を識別できないと判断する。そして、パラメータ決定部113は、変数iをインクリメントし(ステップS117)、iがnより大きくないことを確認して(ステップS119でNO)、ステップS104に戻る。これにより、上述した処理と同様の処理が、パラメータセットAの値を候補a2に固定して繰り返される(ステップS104~S116)。
 以後、第1の分布と第2の分布との分離度が閾値以上となるパラメータセットAの候補が見つかるか、変数iがnより大きくなるか、何れかの条件が最初に成立するまで、図9に示す処理が実行される。なお、変数iがnより大きくなるまでに分離度が閾値以上となるパラメータセットAの候補が発見されなかった場合、パラメータ決定部113はエラーメッセージを出力し(ステップS120)、図9に示す処理を終了する。
 図21は、グループ毎に実施される特定の撮像パラメータおよび画像処理パラメータの値を決定する処理の他の例を示すフローチャートである。図21に示す処理は、図9に示した処理と比較して、ステップS116、S118、S120がステップS116A、S118A、S120Aで置換されている点で相違し、それ以外は図9に示した処理と同じである。
 ステップS116Aでは、パラメータ決定部113は、算出した分離度が閾値以上かつパラメータ記憶部114に保存されている同一グループのパラメータセットAの候補の分離度以上であるか否かを判定する。パラメータ決定部113は、算出した分離度が閾値以上かつパラメータ記憶部114に保存されている同一グループのパラメータセットAの候補の分離度以上であれば、パラメータ記憶部114に保存されている同一グループのパラメータセットAの候補およびその分離度を、今回のパラメータセットAの候補およびその分離度で上書きする(ステップS118A)。そして、ステップS117に進む。他方、パラメータ決定部113は、算出した分離度が閾値以上でないか、或いは閾値以上であってもパラメータ記憶部114に保存されている同一グループのパラメータセットAの分離度以上でなければ、ステップS118Aをスキップして、ステップS117へ進む。
 そして、パラメータ決定部113は、ステップS119において変数iがnより大きくなったと判定すると、パラメータ記憶部114にパラメータセットAの候補が保存されていなければエラーメッセージを出力し(ステップS120A)、図21の処理を終える。パラメータ記憶部114にパラメータセットAの候補が保存されているときは、その保存された候補が、閾値以上かつ最大の分離度を与えるパラメータセットAの候補、即ち事前に決定した撮像パラメータおよび画像処理パラメータの値となる。
[個体登録の動作]
 次に、管理対象の物体個々を登録する個体登録の動作について説明する。
 図22および図23は、個体登録の動作の処理フローおよびフローチャートである。先ず、個体登録を管理するオペレータは、物体情報入力部117を通じて条件制御部102に対して、これから登録する物体の表面を特徴付けるデータの値を入力する(ステップS121)。本実施形態の場合、物体表面の素材、物体表面の粗さ、形状の3つのデータを入力する。
 条件制御部102は、物体情報入力部117から入力された登録する物体の表面を特徴付けるデータの値と、パラメータ記憶部114に記憶された各グループの物体表面を特徴付けるデータの値との近似度を算出し、その近似度に基づいて、登録する物体の表面を特徴付けるデータの値に最も近似するデータの値を有するグループ番号を決定する(ステップS122)。表面を特徴付けるデータ間の近似度を計算する方法は、データ間の近似度を定量的に比較し得るものであれば如何なるものであってもよい。例えば、以下のような方法を採用することができるが、それに限定されない。ここで、登録する物体の表面を特徴付ける素材、表面粗さ、および、形状をそれぞれ第1の素材、第1の表面粗さ、第2の形状と記す。また、パラメータ記憶部114に記憶された各グループの物体表面を特徴付ける素材、表面粗さ、および、形状をそれぞれ第2の素材、第2の表面粗さ、第2の形状と記す。また、近似度は0に近い程、より近似していることを表すものとする。
<近似度の計算方法1>
 第1の素材と第2の素材とを比較した結果に基づいて素材ポイントを付与し、第1の表面粗さと第2の表面粗さとを比較した結果に基づいて表面粗さポイントを付与し、第1の形状と第2の形状とを比較した結果に基づいて形状ポイントを付与し、素材ポイントと表面粗さポイントと形状ポイントの合計を近似度とする。素材ポイントには、第1の素材と第2の素材とが一致するときは素材ポイントの最大値(例えば1ポイント)を付与し、不一致のときは最小値(例えば0ポイント)を付与する。表面粗さポイントには、第1の表面粗さと第2の表面粗さとが一致するときは表面粗さポイントの最大値(例えば1ポイント)を付与し、一致しないときは一致しない程度に応じて0~0.9ポイントを付与する。例えば、両者の差あるいは比が既定の閾値の範囲内に入っていなければ0ポイント、入っていれば、両者の差が0に近いほど或いは両者の比が1に近いほど、より0.9に近いポイントを付与する。また、形状ポイントには、第1の形状と第2の形状とが一致するときは素材ポイントの最大値(例えば1ポイント)を付与し、不一致のときは最小値(例えば0ポイント)を付与する。そして、素材ポイントと表面粗さポイントと形状ポイントとを合計した近似度が最も小さなグループ番号を決定する。
<近似度の計算方法2>
 近似度の計算方法1と同じ方法で計算した素材ポイント、表面粗さポイント、および、形状ポイントのそれぞれに、素材重み、表面粗さ重み、形状重みを乗じたポイントを加算したものを近似度とする。このとき、重要視する要素ほど、重みの値を大きくする。例えば、素材重みを一番大きくし、次に表面粗さ重みを大きくし、形状重みは一番小さくする。或いは、表面粗さ重みを一番大きくし、次に素材重みを大きくし、形状重みは一番小さくする。
 次に条件制御部102は、上記決定したグループ番号に対応する撮像パラメータおよび画像処理パラメータの値をパラメータ記憶部114から読み出し、その撮像パラメータの値で定まる撮像条件を撮像部101に設定し、また、その画像処理パラメータの値で定まる画像処理条件を特徴量抽出部104に設定する(ステップS123)。例えば、グループ番号1に決定した場合、条件制御部102は、グループ番号1に対応付けて記憶されている照明角度と画像解像度を撮像部101に設定し、グループ番号1に対応付けて記憶されている前処理パラメータと特徴抽出パラメータの値を特徴量抽出部104に設定する。上記撮像条件の撮像部101への設定は、自動化されていてもよいし、撮像条件を画面表示部153に表示してオペレータの手動によって設定してもよい。また、上記画像処理条件の特徴量抽出部104への設定は、自動化されていてもよいし、画像処理条件を画面表示部153に表示してオペレータの手動によって設定してもよい。
 次に、撮像部101は、設定された撮像条件の下で、識別および照合する物体の表面の凹凸パターンの画像を少なくとも1回撮像し、画像記憶部103に保存する(ステップS124)。
 次に、特徴量抽出部104は、画像記憶部103に保存された登録する物体の表面の凹凸パターンの画像を読み出し、設定された画像処理条件に基づいて、その画像に対して画像処理を行って特徴量を抽出し、この抽出した特徴量を登録特徴量として特徴量記憶部105に保存する(ステップS125)。このとき、特徴量記憶部105は、登録対象の個体のID番号、登録日時、寸法、製品仕様等といった当該登録対象の物体に関わる情報(付帯情報とも称す)と紐付けて(対応付けて)、個体固有の特徴量を登録する。こうしておくことで、後述する個体識別や固体認証の判定結果に基づき、製造物等の対象物の個体管理情報を提示することが可能になる。
 他の個体をさらに登録する場合、ステップS121~S125の動作が登録する個体の数だけ繰り返される。
 図24は、特徴量記憶部105に保存された個体登録情報の内容例を示す。特徴量PF1、PF2、…、PFnおよび付帯情報SI1、SI2、…、SInは、登録対象の個体に1対1に対応する特徴量および付帯情報である。
[個体識別および個体照合の動作]
 次に、物体個々を識別および照合する動作について説明する。
 図25および図26は、個体識別および個体照合時の動作の処理フローおよびフローチャートである。先ず、個体識別および照合を管理するオペレータは、物体情報入力部117を通じて条件制御部102に対して、これから識別および照合する物体の表面を特徴付けるデータの値を入力する(ステップS131)。本実施形態の場合、物体表面の素材、物体表面の粗さ、形状の3つのデータを入力する。
 条件制御部102は、物体情報入力部117から入力された識別および照合する物体の表面を特徴付けるデータの値と、パラメータ記憶部114に記憶された各グループの物体表面を特徴付けるデータの値との近似度を算出し、その近似度に基づいて、識別および照合する物体の表面を特徴付けるデータの値に最も近似するデータの値を有するグループ番号を決定する(ステップS132)。表面を特徴付けるデータ間の近似度を計算する方法は、個体登録時と同じ方法を利用することができる。
 次に条件制御部102は、上記決定したグループ番号に対応する撮像パラメータおよび画像処理パラメータの値をパラメータ記憶部114から読み出し、その撮像パラメータの値で定まる撮像条件を撮像部101に設定し、また、その画像処理パラメータの値で定まる画像処理条件を特徴量抽出部104に設定する(ステップS133)。例えば、グループ番号1に決定した場合、条件制御部102は、グループ番号1に対応付けて記憶されている照明角度と画像解像度を撮像部101に設定し、グループ番号1に対応付けて記憶されている前処理パラメータと特徴抽出パラメータの値を特徴量抽出部104に設定する。上記撮像条件の撮像部101への設定は、自動化されていてもよいし、撮像条件を画面表示部153に表示してオペレータの手動によって設定してもよい。また、上記画像処理条件の特徴量抽出部104への設定は、自動化されていてもよいし、画像処理条件を画面表示部153に表示してオペレータの手動によって設定してもよい。
 次に、撮像部101は、設定された撮像条件の下で、識別および照合する物体の表面の凹凸パターンの画像を少なくとも1回撮像し、画像記憶部103に保存する(ステップS134)。
 次に、特徴量抽出部104は、画像記憶部103に保存された識別および照合する物体の表面の凹凸パターンの画像を読み出し、設定された画像処理条件に基づいて、その画像に対して画像処理を行って特徴量を抽出し、スコア算出部109へ出力する(ステップS135)。このとき、特徴量抽出部104からスコア算出部109へ出力される特徴量を、以下、個体識別・照合対象の特徴量と記す。
 次に、スコア算出部109は、個体識別・照合対象の特徴量と、特徴量記憶部105に登録されている全ての特徴量PF1~PFnとの間の相関を計算して、全ての特徴量PF1~PFnに対する照合スコアを算出する(ステップS136)。次に、判定部115は、スコア算出部109が算出した照合スコアに基づき、個体識別・照合対象の特徴量が、特徴量記憶部105に記憶されている、どの特徴量と合致するかを判定する。例えば、判定部115は、個体識別・照合対象の特徴量と登録されている全特徴量との照合スコアをソートし、照合スコアが最大(相関が最大)となる特徴量を選択する(ステップS137)。そして、判定部115は、選択した特徴量に紐付いた付帯情報を特徴量記憶部105から読み出して、識別および照合対象の製品の生産物情報として出力する。
 また、判定部115は、個体識別・照合対象の特徴量と特徴量記憶部105に記憶された全特徴量との照合スコアが、予め設定された閾値を超えるかどうかの判定を行ってもよい。そして、判定部115は、個体識別・照合対象の特徴量と特徴量記憶部105に記憶された全特徴量との照合スコアの何れも閾値を超えない場合、識別および照合対象の製品は、登録されていないと判断し、認証エラーを表す情報を出力する。このように動作する判定部115は、識別対象物の真贋判定といった、個体認証目的で使用することができる。
 続いて、情報提示部116は、判定部115から得た生産物情報や、認証エラー情報を受け、識別および照合対象の製品の個体識別結果である生産物情報や、個体認証情報を図示しない表示装置に表示し或いは外部の端末へ出力する(ステップS138)。
 次に、本実施形態の効果を説明する。
 本実施形態によれば、撮像条件が事前に特定されていない物体であっても、撮像条件が事前に特定されている物体とよく似た表面を有する物体であれば、撮像条件を設定することができる。その理由は、撮像条件を事前に特定した物体の表面を特徴付けるデータの値に対応付けて、撮像パラメータの値を記憶するパラメータ記憶部114と、個体識別の対象となる物体の表面を特徴付けるデータの値を入力すると、その入力されたデータの値に近似するデータの値に対応付けられた撮像パラメータの値をパラメータ記憶部114から取得して撮像条件を設定する条件制御部102とを備えているためである。即ち、物体の表面を特徴付ける素材、粗さ、形状といったデータの値がよく似ている物体どうしは、その最適な撮像条件が同じであることを利用しているためである。
 また本実施形態によれば、画像処理条件が事前に特定されていない物体であっても、画像処理条件が事前に特定されている物体とよく似た表面を有する物体であれば、画像処理条件を設定することができる。その理由は、画像処理条件を事前に特定した物体の表面を特徴付けるデータの値に対応付けて、画像処理パラメータの値を記憶するパラメータ記憶部114と、個体識別の対象となる物体の表面を特徴付けるデータの値を入力すると、その入力されたデータの値に近似するデータの値に対応付けられた画像処理パラメータの値をパラメータ記憶部114から取得して画像処理条件を設定する条件制御部102とを備えているためである。即ち、物体の表面を特徴付ける素材、粗さ、形状といったデータの値がよく似ている物体どうしは、その最適な画像処理条件が同じであることを利用しているためである。
 また本実施形態によれば、互いに類似する複数種類の対象物間の識別に有用な撮像条件および画像処理条件を決定することができる。その理由は、複数種類の撮像パラメータおよび画像処理パラメータのうちの特定のパラメータセットAの値を或る候補値とし、物体の撮像時の姿勢などの外乱要因であるパラメータセットBの値を変えてN(N≧2、好ましくはN≧3)種類の対象物のそれぞれを複数回撮像して得られた複数の画像を取得する撮像部101と、上記複数の画像のそれぞれから特徴量を抽出する特徴量抽出部104と、ペアを構成する2つの特徴量が同一の種類の対象物の複数の画像から抽出された特徴量ペアを、N種類の対象物のそれぞれについて第1の特徴量ペアとして生成し、ペアを構成する2つの特徴量が互いに異なる種類の対象物の複数の画像から抽出された特徴量ペアを、N種類の対象物の全ての組み合わせについて第2の特徴量ペアとして生成する特徴量ペア生成部106と、複数の第1の特徴量ペアの照合スコアの分布である第1の分布を生成し、第2の特徴量ペアの照合スコアの分布である第2の分布を生成する分布生成部110と、第1の分布と第2の分布との分離度に基づいて、パラメータセットAの上記候補値の採用可否を決定するパラメータ決定部113とを備えているためである。
<本実施形態の変形例1>
 ところで、上記の説明では、第1の特徴量ペアを構成する2つの特徴量は、物理的に同じ対象物について撮像した複数の画像から抽出した特徴量であった。また、上記の説明では、第2の特徴量ペアを構成する2つの特徴量は、物理的に互いに異なる対象物について撮像した複数の画像から抽出した特徴量であった。これに対して、本実施形態の変形例として、第1の特徴量ペアを構成する2つの特徴量を、同じ生産ラインまたは製造金型で製造された物理的に同一または異なる対象物について撮像した複数の画像から抽出した特徴量とし、第2の特徴量ペアを構成する2つの特徴量を、互いに異なる生産ラインまたは製造金型で製造された物理的に互いに異なる対象物について撮像した複数の画像から抽出した特徴量とするようにしてもよい。
 ここで、製造金型とは、鋳造もしくは圧造、あるいは切断等によって製品を製造するために使用する金型や切断機器を意味する。また、生産ラインとは、1以上の製造金型を使用して流れ作業で製品を製造する工程を意味する。
 例えば、製造金型X1を使用して鋳造もしくは圧造によって製品を大量生産し、これと並行して、製造金型X1と同一の金型である製造金型X2を使用して鋳造もしくは圧造によって製品を大量生産するものとする。このとき、製造金型X1によって製造された製品には、製造金型X1に固有のパターンが表面全体に転写されている。また、製造金型X2によって製造された製品には、製造金型X2に固有のパターンが表面全体に転写されている。
 また例えば、切断機器Y1を使用して素材を切断することによって製品を大量生産し、これと並行して切断機器Y1と同一の切断機器である切断機器Y2を使用して素材を切断することによって製品を大量生産するものとする。このとき、切断機器Y1によって製造された製品には、切断機器Y1が有する切断に用いる刃の断面に固有の表面粗さの微細凹凸が切断面に現れる。また、切断機器Y2によって製造された製品には、切断機器Y2が有する切断に用いる刃の断面に固有の表面粗さの微細凹凸が切断面に現れる。ここで挙げた同一加工方法や機器はあくまで一例であり、その他の同一製造工程や加工機器も同様に扱うことができる。
 この変形例によれば、対象物を製造した生産ラインまたは製造金型の識別に有用な撮像条件を決定することができる。また、決定した撮像条件の下で対象物を撮像して得た画像から抽出される特徴量は、その対象物を製造した生産ラインまたは製造金型に固有のものとなる。従って、そのような特徴量を識別および照合に使用することにより、製品がどの生産ラインまたは製造金型で製造されたものであるかを識別、照合することが可能になる。
<本実施形態の変形例2>
 個体識別装置100は、特定の撮像パラメータおよび画像処理パラメータを図9または図21に示す処理によって決定するように構成されている。しかし、他の変形例として、個体識別装置100は、特定の撮像パラメータを図9または図21に示す処理によって決定し、画像処理パラメータは予め定められた固定の値を使用するように構成されていてもよい。
[第2の実施形態]
 図27を参照すると、本発明の第2の実施形態に係る個体識別システム200は、個体識別装置210と、パラメータ記憶装置220と、個体登録装置230と、特徴量記憶装置240と、個体照合装置250と、これらの装置を相互に通信可能に接続するネットワーク260とから構成されている。
 個体識別装置210は、図4を参照して説明した第1の実施形態に係る個体識別装置100と比較して、パラメータ記憶部114を備えていないことと、通信部211を備えていることで相違し、それ以外は個体識別装置100と同様な構成を有する。通信部211は、ネットワーク260に接続されたパラメータ記憶装置220等の他の装置との間でデータの送受信を行うように構成されている。
 パラメータ記憶装置220は、通信部221とパラメータ記憶部222とパラメータ提供部223とを備えている。通信部221は、ネットワーク260に接続された個体識別装置210等の他の装置との間でデータの送受信を行うように構成されている。パラメータ記憶部222は、図4を参照して説明した第1の実施形態に係る個体識別装置100のパラメータ記憶部114と同様に、物体の表面を特徴付けるデータの値に対応付けて、撮像パラメータおよび画像処理パラメータの値を記憶するように構成されている。パラメータ提供部223は、通信部221を通じて個体登録装置230等の他の装置から、物体の表面を特徴付けるデータの値を指定したパラメータ問合せ要求を受信するように構成されている。またパラメータ提供部223は、上記パラメータ問合せ要求を受信すると、指定された物体の表面を特徴付けるデータの値に近似する、物体の表面を特徴付けるデータの値に対応付けて記憶されている撮像パラメータおよび画像処理パラメータの値をパラメータ記憶部222から取得するように構成されている。またパラメータ提供部223は、上記取得した撮像パラメータおよび画像処理パラメータの値を含む応答を、通信部221を通じてパラメータ問合せ要求元の装置へ送信するように構成されている。
 個体登録装置230は、通信部231と物体情報入力部232と条件制御部233と撮像部234と画像記憶部235と特徴量抽出部236とを備えている。通信部231は、ネットワーク260に接続された特徴量記憶装置240等の他の装置との間でデータの送受信を行うように構成されている。物体情報入力部232、条件制御部233、撮像部234、画像記憶部235、および特徴量抽出部236は、図4を参照して説明した第1の実施形態に係る個体識別装置100における物体情報入力部117、条件制御部102、撮像部101、画像記憶部103、および特徴量抽出部104と同様に構成されている。
 特徴量記憶装置240は、通信部241と特徴量記憶部242とを備えている。通信部241は、ネットワーク260に接続された個体登録装置230等の他の装置との間でデータの送受信を行うように構成されている。特徴量記憶部242は、図4を参照して説明した第1の実施形態に係る個体識別装置100の特徴量記憶部105と同様に、物体を撮像して得られた画像から抽出された特徴量を記憶するように構成されている。
 個体照合装置250は、通信部251と物体情報入力部252と条件制御部253と撮像部254と画像記憶部255と特徴量抽出部256とスコア算出部257と判定部258と情報提示部259とを備えている。通信部251は、ネットワーク260に接続された特徴量記憶装置240等の他の装置との間でデータの送受信を行うように構成されている。物体情報入力部252と条件制御部253と撮像部254と画像記憶部255と特徴量抽出部256とスコア算出部257と判定部258と情報提示部259は、図4を参照して説明した第1の実施形態に係る個体識別装置100における物体情報入力部117と条件制御部102と撮像部101と画像記憶部103と特徴量抽出部104とスコア算出部109と判定部115と情報提示部116と同様に構成されている。
 次に、本実施形態に係る個体識別システム200の動作を説明する。個体識別システム200の動作は、以下の三つに大別される。
(a)特定の撮像パラメータおよび画像処理パラメータの値を決定する事前処理の動作
(b)個体登録の動作
(c)個体識別および個体照合の動作
[特定の撮像パラメータおよび画像処理パラメータの値を決定する事前処理の動作]
 この動作は、個体識別装置210により行われる。このときの個体識別装置210の動作は、個体識別装置210において決定した特定の撮像パラメータおよび画像処理パラメータの値と物体の表面を特徴付けるデータの値との対応情報を通信部211によりネットワーク260経由でパラメータ記憶装置220へ送信する動作が行われる点を除き、個体識別装置100における事前処理の動作と基本的に同じである。
 パラメータ記憶装置220におけるパラメータ記憶部222は、個体識別装置210から特定の撮像パラメータおよび画像処理パラメータの値と物体の表面を特徴付けるデータの値との対応情報を通信部221を通じて受信すると、それを記憶する。これによって、パラメータ記憶部222には、例えば図10に示されるデータと同様なデータ、即ち、物体表面を特徴付けるデータ(図10の例では素材、表面粗さ、形状)に対応付けて、撮像パラメータの値(図10の例では照明角度と画像解像度)と画像処理パラメータの値(図10の例では前処理パラメータセットと特徴抽出パラメータセットの値)とが記憶されることになる。
[個体登録の動作]
 この動作は、個体登録装置230により行われる。先ず、個体登録を管理するオペレータは、物体情報入力部232を通じて条件制御部233に対して、個体登録する物体の表面を特徴付けるデータを入力する。例えば、物体の表面の素材、表面粗さ、形状のデータを入力する。次に条件制御部233は、物体情報入力部232から入力された物体の表面を特徴付けるデータを指定したパラメータ問合せ要求を、通信部231、ネットワーク260、および通信部221を通じてパラメータ記憶装置220のパラメータ提供部223へ送信する。パラメータ提供部223は、受信したパラメータ問合せ要求で指定された物体の表面を特徴付けるデータの値に近似するデータの値に対応付けて記憶されている画像パラメータおよび画像処理パラメータの値をパラメータ記憶部222から取得し、その取得した画像パラメータおよび画像処理パラメータの値を含む応答を通信部221、ネットワーク260、および通信部231を通じて条件制御部233へ送信する。条件制御部233は、受信した応答に含まれる撮像パラメータの値で定まる撮像条件を撮像部234に設定し、また、受信した応答に含まれる画像処理パラメータの値で定まる画像処理条件を特徴量抽出部236に設定する。次に撮像部234は、設定された撮像条件の下で、個体登録の対象とする物体の表面の凹凸パターンの画像を撮像し、画像記憶部235に保存する。次に特徴量抽出部236は、画像記憶部235に保存された個体登録の対象とする物体の表面の凹凸パターンの画像を読み出し、設定された画像処理条件に基づいて、その画像から特徴量を抽出する。次に特徴量抽出部236は、抽出した特徴量と登録対象の物体に関わる付帯情報とを、通信部231およびネットワーク260および通信部241を通じて特徴量記憶装置240の特徴量記憶部242へ送信する。特徴量記憶部242は、受信した特徴量と付帯情報とを対応付けて記憶する。これによって、特徴量記憶部242には、例えば図23に示されるデータと同様なデータ、即ち、登録対象の個体に1対1に対応する特徴量および付帯情報が登録されることになる。
[個体識別および個体照合の動作]
 この動作は、個体照合装置250により行われる。先ず、個体識別および個体照合を管理するオペレータは、物体情報入力部252を通じて条件制御部253に対して、個体識別および個体照合する物体の表面を特徴付けるデータを入力する。次に条件制御部253は、物体情報入力部252から入力された物体の表面を特徴付けるデータを指定したパラメータ問合せ要求を、通信部251、ネットワーク260、および通信部221を通じてパラメータ記憶装置220のパラメータ提供部223へ送信する。パラメータ提供部223は、受信したパラメータ問合せ要求で指定された物体の表面を特徴付けるデータの値に近似するデータの値に対応付けて記憶されている画像パラメータおよび画像処理パラメータの値をパラメータ記憶部222から取得し、その取得した画像パラメータおよび画像処理パラメータの値を含む応答を通信部221、ネットワーク260、および通信部251を通じて条件制御部253へ送信する。条件制御部253は、受信した応答に含まれる撮像パラメータの値で定まる撮像条件を撮像部254に設定し、また、受信した応答に含まれる画像処理パラメータの値で定まる画像処理条件を特徴量抽出部256に設定する。次に撮像部254は、設定された撮像条件の下で、個体識別および個体照合する物体の表面の凹凸パターンの画像を撮像し、画像記憶部255に保存する。次に特徴量抽出部256は、画像記憶部255に保存された個体識別および個体照合する物体の表面の凹凸パターンの画像を読み出し、設定された画像処理条件に基づいて、その画像から特徴量を抽出する。ここまでの処理は、個体登録の動作と基本的に同じである。
 次に特徴量抽出部256は、抽出した特徴量をスコア算出部257へ出力する。このとき、特徴量抽出部256からスコア算出部257へ出力される特徴量を、以下、個体識別・照合対象の特徴量と記す。次にスコア算出部257は、通信部251、ネットワーク260、および通信部241を通じて特徴量記憶装置240の特徴量記憶部242から全ての特徴量と付帯情報とを読み出す。次にスコア算出部257は、特徴量抽出部256から入力した個体識別・照合対象の特徴量と、特徴量記憶装置240の特徴量記憶部242から読み出した全ての特徴量との間の相関を計算して、全ての特徴量に対する照合スコアを算出する。次に、判定部258は、スコア算出部257が算出した照合スコアに基づき、個体識別・照合対象の特徴量が、特徴量記憶部242に記憶されている、どの特徴量と合致するかを判定する。例えば、判定部258は、個体識別・照合対象の特徴量と登録されている全特徴量との照合スコアをソートし、照合スコアが最大(相関が最大)となる特徴量を選択する。そして、判定部258は、選択した特徴量に紐付いた付帯情報を、識別および照合対象の製品の生産物情報として出力する。また、判定部258は、個体識別・照合対象の特徴量と特徴量記憶部242に記憶された全特徴量との照合スコアが、予め設定された閾値を超えるかどうかの判定を行ってもよい。そして、判定部258は、個体識別・照合対象の特徴量と特徴量記憶部242に記憶された全特徴量との照合スコアの何れも閾値を超えない場合、識別および照合対象の製品は、登録されていないと判断し、認証エラーを表す情報を出力する。このように動作する判定部258は、管理対象の真贋判定といった、個体認証目的で使用することができる。
 次に情報提示部259は、判定部258から得た生産物情報や、認証エラー情報を受け、識別および照合対象の製品の個体識別結果である生産物情報や、個体認証情報を図示しない表示装置に表示し或いは外部の端末へ出力する。
 本実施形態によれば、第1の実施形態と同様の効果が得られると共に、以下のような効果が得られる。
 個体登録装置230および個体照合装置250は、撮像条件および画像処理条件を事前に特定する機能を備えていなくても、個体識別装置210において撮像条件および画像処理条件が事前に特定されている物体とよく似た表面を有する物体の個体登録および個体照合であれば、撮像条件および画像処理条件を設定することができる。その理由は、個体登録装置230および個体照合装置250は、個体識別装置210が事前に決定した画像パラメータおよび画像処理パラメータの値を記憶するパラメータ記憶装置220に、物体の表面を特徴付けるデータの値を指定したパラメータ問合せ要求を出せば、該当する撮像パラメータおよび画像処理パラメータの値を含む応答を取得することができるためである。
[第3の実施形態]
 本実施形態は、第1の実施形態と比較して、物体の表面を特徴付けるデータの種類と数が相違する。本実施形態では、物体の表面を特徴付けるデータは、素材名と反射率とで構成される素材情報と、加工名と表面平均粗さとで構成される表面粗さ情報と、形状名と内径・外形寸法とで構成される形状情報とを含む。
 図28は、本実施形態に係る個体識別装置のパラメータ記憶部314の内容例を示す図である。パラメータ記憶部314は、図4のパラメータ記憶部114に相当する。図28を参照すると、パラメータ記憶部314は、サンプル対象物のグループ毎に、物体の表面を特徴付けるデータの値に対応付けて、撮像パラメータおよび画像処理パラメータの値を記憶する。1つのグループに関するデータは、グループ番号、物体表面を特徴付けるデータ、および、パラメータから構成される。また、物体表面を特徴付けるデータは、素材情報、表面粗さ情報、および、形状情報から構成される。また、素材情報は、素材名と反射率とで構成され、表面粗さ情報は、加工名と表面平均粗さとで構成され、形状情報は、形状名と内径・外径寸法とで構成される。また、パラメータは、撮像パラメータと画像処理パラメータとに大別される。また、撮像パラメータは、照明角度、および、画像解像度の2つのパラメータから構成される。また、画像処理パラメータは、前処理パラメータセット、および、特徴抽出パラメータセットの2つから構成されている。
 素材名は、第1の実施形態における素材と同じであり、金属、樹脂といったカテゴリ名である。反射率は、70%、30%といった数値である。加工名は、梨地加工、旋盤加工、サンドブラスト加工といった加工方法を表すカテゴリ名である。表面平均粗さは、第1の実施形態における表面粗さと同じであり、2μm、0.3μmといった数値データである。形状名は、第1の実施形態における形状と同じであり、矩形、円、リングといったカテゴリ名である。内径・外径寸法は、0mm、15mmといった数値データである。例えば、矩形の外径は、矩形の重心から端点までの長さである。円の外径は、円の半径である。リングの外径は、リングの中心からリング外周辺までの長さである。リングの内径は、リングの中心からリング内周辺までの長さである。
 また、素材名の欄に記載された「標準値」は、照合側の素材情報が不明あるいはパラメータ記憶部314に記憶された素材情報と一致しないときに選択する項目である。また、加工名の欄に記載された「標準値」は、照合側の表面粗さ情報が不明あるいはパラメータ記憶部314に記憶された表面粗さ情報と一致しないときに選択する項目である。また、形状名の欄に記載された「標準値」は、照合側の形状情報が不明あるいはパラメータ記憶部314に記憶された形状情報と一致しないときに選択する項目である。
 パラメータ記憶部314には、素材情報、表面粗さ情報、および、形状情報の全ての組み合わせについて、最適なパラメータ(画像解像度、照明角度、前処理パラメータセット、特徴抽出パラメータセット)が対応付けられている。
 次に、識別および照合する物体の表面を特徴付けるデータに近似するデータの値に対応するパラメータをパラメータ記憶部314から取得する動作について説明する。この動作は、図4の条件制御部102に相当する本実施形態に係る条件制御部で実施される。
 先ず、条件制御部は、識別および照合する物体の表面を特徴付けるデータを入力する。識別および照合する物体の表面を特徴付けるデータは、照合側素材情報、照合側表面粗さ情報、照合側形状情報から構成される。照合側素材情報は、素材名と反射率とを含む。また照合側表面粗さ情報は、加工法と表面平均粗さとを含む。また照合側形状情報は、形状名と内径・外径寸法とを含む。但し、照合側の素材名、反射率、加工法、表面平均粗さ、形状名、内径・外径寸法のうち、不明なものは入力が省略される。
 次に条件制御部は、検索結果のグループ番号を格納する集合を空に初期化する。次に条件制御部は、照合側素材情報の処理を行う。先ず条件制御部は、照合側素材情報の素材名に一致する素材名を有するグループ番号をパラメータ記憶部314から検索する。1以上のグループ番号が検索されたならば、条件制御部は検索されたグループ番号を集合に保存して、照合側素材情報の処理を終える。照合側素材情報の素材名に一致する素材名を有するグループが1つも検索されなかったか、或いは照合側素材情報の素材名が省略されている場合、条件制御部は、照合側素材情報の反射率に既定の閾値の範囲内で一致する反射率を有するグループ番号をパラメータ記憶部314から検索する。1以上のグループ番号が検索されたならば、条件制御部は検索されたグループ番号を集合に保存して、照合側素材情報の処理を終える。照合側素材情報の反射率に規定の閾値の範囲内で一致する反射率を有するグループ番号が1つも検索されなかったか、或いは照合側素材情報の反射率が省略されている場合、条件制御部は、素材名が標準値のグループ番号をパラメータ記憶部314から検索し、検索したグループ番号を集合に保存して照合側素材情報の処理を終える。
 条件制御部は、照合側素材情報の処理を終えると、照合側表面粗さ情報の処理を行う。まず条件制御部は、集合に保存されているグループ番号の何れかと一致し、且つ、照合側表面粗さ情報の表面平均粗さと既定の閾値の範囲内で一致する表面平均粗さを有するグループ番号をパラメータ記憶部314から検索する。1以上のグループ番号が検索されたならば、条件制御部は検索されたグループ番号で集合に保存されているグループ番号を上書きし、照合側表面粗さ情報の処理を終える。上記検索で該当するグループ番号が1つも検索されなかったか、或いは照合側表面粗さ情報の表面平均粗さが省略されている場合、条件制御部は、集合に保存されているグループ番号の何れかと一致し、且つ、照合側表面粗さ情報の加工法と一致する加工法を有するグループ番号をパラメータ記憶部314から検索する。1以上のグループ番号が検索されたならば、条件制御部は検索されたグループ番号で集合に保存されているグループ番号を上書きし、照合側表面粗さ情報の処理を終える。該当するグループ番号が1つも検索されなかったか、或いは照合側表面粗さ情報の加工法が省略されている場合、条件制御部は、集合に保存されているグループ番号の何れかと一致し、且つ、加工法が標準値のグループ番号をパラメータ記憶部314から検索し、検索されたグループ番号で集合に保存されているグループ番号を上書きし、照合側表面粗さ情報の処理を終える。
 条件制御部は、照合側表面粗さ情報の処理を終えると、照合側形状情報の処理を行う。先ず条件制御部は、集合に保存されているグループ番号の何れかと一致し、且つ、照合側形状情報の内径・外径寸法と既定の閾値の範囲内で一致する内径・外径寸法を有するグループ番号をパラメータ記憶部314から検索する。1以上のグループ番号が検索されたならば、条件制御部は検索されたグループ番号で集合に保存されているグループ番号を上書きし、照合側形状情報の処理を終える。上記検索で該当するグループ番号が1つも検索されなかったか、或いは照合側形状情報の内径・外径寸法が省略されている場合、条件制御部は、集合に保存されているグループ番号の何れかと一致し、且つ、照合側形状の形状名と一致する形状名を有するグループ番号をパラメータ記憶部314から検索する。1以上のグループ番号が検索されたならば、条件制御部は検索されたグループ番号で集合に保存されているグループ番号を上書きし、照合側形状情報の処理を終える。該当するグループ番号が1つも検索されなかったか、或いは照合側形状情報の形状名が省略されている場合、条件制御部は、集合に保存されているグループ番号の何れかと一致し、且つ、形状名が標準値のグループ番号をパラメータ記憶部314から検索し、検索されたグループ番号で集合に保存されているグループ番号を上書きし、照合側形状情報の処理を終える。
 照合側形状情報の処理を終えると、条件制御部は、集合から1つのグループ番号を取り出し、そのグループ番号に対応してパラメータ記憶部314に記憶されているパラメータ、即ち、照明角度、画像解像度、前処理パラメータセット、特徴抽出パラメータセットを取り出す。以下、取り出したパラメータによる撮像条件の設定、画像処理条件の設定など第1の実施形態と同様の動作を行われる。
[第4の実施形態]
 図29を参照すると、本発明の第4の実施形態に係る個体識別システム400は、記憶手段401と取得手段402と条件設定手段403と撮像手段404と抽出手段405と照合手段406とを備えている。
 記憶手段401は、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶するように構成されている。記憶手段401は、例えば図4のパラメータ記憶部114と同様に構成することができるが、それに限定されない。
 取得手段402は、照合対象物体の表面を特徴付けるデータが入力されると、入力されたデータと記憶手段401に記憶されている各データとの近似度を算出し、算出した近似度に基づいて照合対象物体に適用する撮像パラメータを記憶手段401から取得するように構成されている。条件設定手段403は、取得手段402によって取得された撮像パラメータで定まる撮像条件を設定するように構成されている。取得手段402および条件設定手段403は、例えば図4の条件制御部102と同様に構成することができるが、それに限定されない。
 撮像手段404は、条件設定手段403によって設定された撮像条件の下で、照合対象物体の表面の画像を取得するように構成されている。撮像手段404は、例えば図4の撮像部101と同様に構成することができるが、それに限定されない。
 抽出手段405は、撮像手段404によって取得された画像から特徴量を抽出するように構成されている。抽出手段405は、例えば図4の特徴量抽出部104と同様に構成することができるが、それに限定されない。
 照合手段406は、抽出手段405によって抽出された特徴量と登録特徴量とを照合するように構成されている。照合手段406は、例えば図4のスコア算出部109および判定部115と同様に構成することができるが、それに限定されない。
 このように構成された本実施形態に係る個体識別システム400は、以下のように動作する。即ち、先ず、記憶手段401は、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを事前に記憶する。次に取得手段402は、照合対象物体の表面を特徴付けるデータが入力されると、入力されたデータと記憶手段401に記憶されている各データとの近似度を算出し、算出した近似度に基づいて照合対象物体に適用する撮像パラメータを記憶手段401から取得する。次に条件設定手段403は、取得手段402によって取得された撮像パラメータで定まる撮像条件を設定する。次に撮像手段404は、条件設定手段403によって設定された撮像条件の下で、照合対象物体の表面の画像を取得する。次に抽出手段405は、撮像手段404によって取得された画像から特徴量を抽出する。次に照合手段406は、抽出手段405によって抽出された特徴量と登録特徴量とを照合する。
 このように本実施形態に係る個体識別システム400によれば、撮像パラメータの値が事前に特定されていない物体であっても、撮像パラメータの値が事前に特定されている物体とよく似た表面を有する物体であれば、撮像条件を設定することができる。その理由は、記憶手段401が基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを事前に記憶し、取得手段402が照合対象物体の表面を特徴付けるデータが入力されると、入力されたデータと記憶手段401に記憶されている各データとの近似度を算出し、算出した近似度に基づいて照合対象物体に適用する撮像パラメータを記憶手段401から取得し、条件設定手段403が取得手段402によって取得された撮像パラメータで定まる撮像条件を設定するためである。
[第5の実施形態]
 図30を参照すると、本発明の第5の実施形態に係る個体識別装置500は、取得手段502と条件設定手段503と撮像手段504と抽出手段505と照合手段506とを備えている。
 取得手段502は、照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと入力されたデータとの近似度を算出し、算出した近似度に基づいて照合対象物体に適用する撮像パラメータを上記記憶手段から取得するように構成されている。条件設定手段503は、取得手段502によって取得された撮像パラメータで定まる撮像条件を設定するように構成されている。取得手段502および条件設定手段503は、例えば図4の条件制御部102と同様に構成することができるが、それに限定されない。
 撮像手段504は、条件設定手段503によって設定された撮像条件の下で、照合対象物体の表面の画像を取得するように構成されている。撮像手段504は、例えば図4の撮像部101と同様に構成することができるが、それに限定されない。
 抽出手段505は、撮像手段504によって取得された画像から特徴量を抽出するように構成されている。抽出手段505は、例えば図4の特徴量抽出部104と同様に構成することができるが、それに限定されない。
 照合手段506は、抽出手段505によって抽出された特徴量と登録特徴量とを照合するように構成されている。照合手段506は、例えば図4のスコア算出部109および判定部115と同様に構成することができるが、それに限定されない。
 このように構成された本実施形態に係る個体識別装置500は、以下のように動作する。即ち、先ず取得手段502は、照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを事前に記憶する記憶手段に記憶されている各データと入力されたデータとの近似度を算出し、算出した近似度に基づいて照合対象物体に適用する撮像パラメータを上記記憶手段から取得する。次に条件設定手段503は、取得手段502によって取得された撮像パラメータで定まる撮像条件を設定する。次に撮像手段504は、条件設定手段503によって設定された撮像条件の下で、照合対象物体の表面の画像を取得する。次に抽出手段505は、撮像手段504によって取得された画像から特徴量を抽出する。次に照合手段506は、抽出手段505によって抽出された特徴量と登録特徴量とを照合する。
 このように本実施形態に係る個体識別装置500によれば、撮像パラメータの値が事前に特定されていない物体であっても、撮像パラメータの値が事前に特定されている物体とよく似た表面を有する物体であれば、撮像条件を設定することができる。その理由は、取得手段502が照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを事前に記憶する記憶手段に記憶されている各データと入力されたデータとの近似度を算出し、算出した近似度に基づいて照合対象物体に適用する撮像パラメータを上記記憶手段から取得し、条件設定手段503が取得手段502によって取得された撮像パラメータで定まる撮像条件を設定するためである。
[第6の実施形態]
 図31を参照すると、本発明の第6の実施形態に係る個体登録装置600は、取得手段602と条件設定手段603と撮像手段604と抽出手段605と登録手段606とを備えている。
 取得手段602は、登録対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと入力されたデータとの近似度を算出し、算出した近似度に基づいて登録対象物体に適用する撮像パラメータを上記記憶手段から取得するように構成されている。条件設定手段603は、取得手段602によって取得された撮像パラメータで定まる撮像条件を設定するように構成されている。取得手段602および条件設定手段603は、例えば図4の条件制御部102と同様に構成することができるが、それに限定されない。
 撮像手段604は、条件設定手段603によって設定された撮像条件の下で、登録対象物体の表面の画像を取得するように構成されている。撮像手段604は、例えば図4の撮像部101と同様に構成することができるが、それに限定されない。
 抽出手段605は、撮像手段604によって取得された画像から特徴量を抽出するように構成されている。登録手段606は、抽出手段605によって抽出された特徴量を登録特徴量として登録するように構成されている。抽出手段605および登録手段606は、例えば図4の特徴量抽出部104と同様に構成することができるが、それに限定されない。
 このように構成された本実施形態に係る個体登録装置600は、以下のように動作する。即ち、先ず取得手段602は、登録物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを事前に記憶する記憶手段に記憶されている各データと入力されたデータとの近似度を算出し、算出した近似度に基づいて登録対象物体に適用する撮像パラメータを上記記憶手段から取得する。次に条件設定手段603は、取得手段602によって取得された撮像パラメータで定まる撮像条件を設定する。次に撮像手段604は、条件設定手段603によって設定された撮像条件の下で、登録対象物体の表面の画像を取得する。次に抽出手段605は、撮像手段604によって取得された画像から特徴量を抽出する。次に登録手段606は、抽出手段605によって抽出された特徴量を登録特徴量として登録する。
 このように本実施形態に係る個体登録装置600によれば、撮像パラメータの値が事前に特定されていない物体であっても、撮像パラメータの値が事前に特定されている物体とよく似た表面を有する物体であれば、撮像条件を設定することができる。その理由は、取得手段602が登録対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを事前に記憶する記憶手段に記憶されている各データと入力されたデータとの近似度を算出し、算出した近似度に基づいて登録対象物体に適用する撮像パラメータを上記記憶手段から取得し、条件設定手段603が取得手段602によって取得された撮像パラメータで定まる撮像条件を設定するためである。
 以上、上記各実施形態を参照して本発明を説明したが、本発明は、上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 本発明は、製品表面の微細凹凸や紋様、素材表面のランダムパターン等の、同一製造過程で生じる自然発生的な微細なパターンの差異を、カメラ等の撮像装置を用いて画像として取得し、その微細なパターンを認識することで、製品個々の個体識別や管理を行う分野に利用できる。例えば、工場等における製造ラインでのトレーサビリティや、ブランド物のファスナ等によるトレーサビリティの管理に利用できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段と、
 照合対象物体の表面を特徴付けるデータが入力されると、該入力されたデータと前記記憶手段に記憶されている各データとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
 前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
 前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出する抽出手段と、
 前記抽出された特徴量と登録特徴量とを照合する照合手段と、を含む
個体識別システム。
[付記2]
 前記記憶手段は、前記基準物体の表面を特徴付けるデータに対応付けて、さらに、画像処理パラメータを記憶するように構成され、
 前記取得手段は、さらに、前記算出した近似度に基づいて前記照合対象物体に適用する前記画像処理パラメータを前記記憶手段から取得するように構成され、
 前記条件設定手段は、さらに、前記取得された画像処理パラメータで定まる画像処理条件を設定するように構成され、
 前記抽出手段は、前記設定された画像処理条件の下で、前記画像に対して画像処理を行って前記画像から特徴量を抽出するように構成されている
付記1に記載の個体識別システム。
[付記3]
 前記抽出手段は、前記画像処理では、前記画像に対する前処理と前記前処理後の画像に対する特徴抽出処理とを行うように構成され、
 前記画像処理パラメータは、前記前処理で使用する1以上のパラメータおよび前記特徴抽出処理で使用する1以上のパラメータのうちの少なくとも1つのパラメータを含む、
付記2に記載の個体識別システム。
[付記4]
 前記撮像パラメータは、照明光が前記照合対象物体の表面に入射する角度である照明角度を表すパラメータ、および前記画像の画像解像度を表すパラメータのうちの少なくとも1つのパラメータを含む、
付記1乃至3の何れかに記載の個体識別システム。
[付記5]
 前記表面を特徴付けるデータは、表面の素材の種類を表すデータ、表面の粗さの程度を表すデータ、および、表面の形状を表すデータのうちの少なくとも1つのデータを含む、
付記1乃至4の何れかに記載の個体識別システム。
[付記6]
 前記撮像パラメータの値を或る候補値として複数種類の前記基準物体の表面のそれぞれを複数回撮像して得られた複数の画像のそれぞれから抽出された特徴量を入力し、ペアを構成する2つの特徴量が同一の種類の前記基準物体の複数の画像から抽出された特徴量ペアを、前記複数種類の基準物体のそれぞれについて第1の特徴量ペアとして生成し、ペアを構成する2つの特徴量が互いに異なる種類の前記基準物体の複数の画像から抽出された特徴量ペアを、前記複数種類の基準物体の全ての組み合わせについて第2の特徴量ペアとして生成する特徴量ペア生成手段と、
 前記複数の第1の特徴量ペアの照合スコアの分布である第1の分布を生成し、前記第2の特徴量ペアの照合スコアの分布である第2の分布を生成し、前記第1の分布と前記第2の分布との分離度に基づいて、前記候補値の採用可否を決定するパラメータ決定手段と、を含む
付記1乃至5の何れかに記載の個体識別システム。
[付記7]
 照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
 前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
 前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出する抽出手段と、
 前記抽出された特徴量と登録特徴量とを照合する照合手段と、を含む
個体識別装置。
[付記8]
 登録対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記登録対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
 前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
 前記設定された撮像条件の下で、前記登録対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出する抽出手段と、
 前記抽出された特徴量を登録特徴量として登録する登録手段と、を含む
個体登録装置。
[付記9]
 コンピュータを、
 照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
 前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
 前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出する抽出手段と、
 前記抽出された特徴量と登録特徴量とを照合する照合手段と、
して機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
[付記10]
 照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得し、
 前記取得された撮像パラメータで定まる撮像条件を設定し、
 前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得し、
 前記取得された画像から特徴量を抽出し、
 前記抽出された特徴量と登録特徴量とを照合する
個体識別方法。
[付記11]
 前記記憶手段は、前記基準物体の表面を特徴付けるデータに対応付けて、さらに、画像処理パラメータを記憶するように構成され、
 前記取得では、さらに、前記算出した近似度に基づいて前記照合対象物体に適用する前記画像処理パラメータを前記記憶手段から取得し、
 前記設定では、さらに、前記取得された画像処理パラメータで定まる画像処理条件を設定し、
 前記抽出では、前記設定された画像処理条件の下で、前記画像に対して画像処理を行って前記画像から特徴量を抽出する、
付記10に記載の個体識別方法。
[付記12]
 前記画像処理では、前記画像に対する前処理と前記前処理後の画像に対する特徴抽出処理とを行い、
 前記画像処理パラメータは、前記前処理で使用する1以上のパラメータおよび前記特徴抽出処理で使用する1以上のパラメータのうちの少なくとも1つのパラメータを含む、
付記11に記載の個体識別方法。
[付記13]
 前記撮像パラメータは、照明光が前記照合対象物体の表面に入射する角度である照明角度を表すパラメータ、および前記画像の画像解像度を表すパラメータのうちの少なくとも1つのパラメータを含む、
付記10乃至12の何れかに記載の個体識別方法。
[付記14]
 前記表面を特徴付けるデータは、表面の素材の種類を表すデータ、表面の粗さの程度を表すデータ、および、表面の形状を表すデータのうちの少なくとも1つのデータを含む、
付記10乃至13の何れかに記載の個体識別方法。
[付記15]
 さらに、
 前記撮像パラメータの値を或る候補値として複数種類の前記基準物体の表面のそれぞれを複数回撮像して得られた複数の画像のそれぞれから抽出された特徴量を入力し、ペアを構成する2つの特徴量が同一の種類の前記基準物体の複数の画像から抽出された特徴量ペアを、前記複数種類の基準物体のそれぞれについて第1の特徴量ペアとして生成し、ペアを構成する2つの特徴量が互いに異なる種類の前記基準物体の複数の画像から抽出された特徴量ペアを、前記複数種類の基準物体の全ての組み合わせについて第2の特徴量ペアとして生成し、
 前記複数の第1の特徴量ペアの照合スコアの分布である第1の分布を生成し、前記第2の特徴量ペアの照合スコアの分布である第2の分布を生成し、前記第1の分布と前記第2の分布との分離度に基づいて、前記候補値の採用可否を決定する、
付記10乃至14の何れかに記載の個体識別方法。
[付記16]
 登録対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記登録対象物体に適用する前記撮像パラメータを前記記憶手段から取得し、
 前記取得された撮像パラメータで定まる撮像条件を設定し、
 前記設定された撮像条件の下で、前記登録対象物体の表面の画像を取得する撮像手段と、
 前記取得された画像から特徴量を抽出し、
 前記抽出された特徴量を登録特徴量として登録する、
個体登録方法。
100…個体識別装置
101…撮像部
102…条件制御部
103…画像記憶部
104…特徴量抽出部
105…特徴量記憶部
106…特徴量ペア生成部
107…第1の特徴量ペア記憶部
108…第2の特徴量ペア記憶部
109…スコア算出部
110…分布生成部
111…分布記憶部
113…パラメータ決定部
114…パラメータ記憶部
115…判定部
116…情報提示部
117…物体情報入力部
150…情報処理装置
151…撮影部
152…操作入力部
153…画面表示部
154…通信インタフェース部
155…記憶部
156…演算処理部
157…プログラム
161…カメラ
162…ズームレンズ
163…照明器
164…識別対象物
165…テーブル
166…照明部
200…個体識別システム
210…個体識別装置
211…通信部
220…パラメータ記憶装置
221…通信部
222…パラメータ記憶部
223…パラメータ提供部
230…個体登録装置
231…通信部
232…物体情報入力部
233…条件制御部
234…撮像部
235…画像記憶部
236…特徴量抽出部
240…特徴量記憶装置
241…通信部
242…特徴量記憶部
250…個体照合装置
251…通信部
252…物体情報入力部
253…条件制御部
254…撮像部
255…画像記憶部
256…特徴量抽出部
257…スコア算出部
258…判定部
259…情報提示部
400…個体識別システム
401…記憶手段
402…取得手段
403…条件設定手段
404…撮像手段
405…抽出手段
406…照合手段
500…個体識別装置
502…取得手段
503…条件設定手段
504…撮像手段
505…抽出手段
506…照合手段
600…個体登録装置
602…取得手段
603…条件設定手段
604…撮像手段
605…抽出手段
606…登録手段

Claims (16)

  1.  基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段と、
     照合対象物体の表面を特徴付けるデータが入力されると、該入力されたデータと前記記憶手段に記憶されている各データとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
     前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
     前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得する撮像手段と、
     前記取得された画像から特徴量を抽出する抽出手段と、
     前記抽出された特徴量と登録特徴量とを照合する照合手段と、を含む
    個体識別システム。
  2.  前記記憶手段は、前記基準物体の表面を特徴付けるデータに対応付けて、さらに、画像処理パラメータを記憶するように構成され、
     前記取得手段は、さらに、前記算出した近似度に基づいて前記照合対象物体に適用する前記画像処理パラメータを前記記憶手段から取得するように構成され、
     前記条件設定手段は、さらに、前記取得された画像処理パラメータで定まる画像処理条件を設定するように構成され、
     前記抽出手段は、前記設定された画像処理条件の下で、前記画像に対して画像処理を行って前記画像から特徴量を抽出するように構成されている
    請求項1に記載の個体識別システム。
  3.  前記抽出手段は、前記画像処理では、前記画像に対する前処理と前記前処理後の画像に対する特徴抽出処理とを行うように構成され、
     前記画像処理パラメータは、前記前処理で使用する1以上のパラメータおよび前記特徴抽出処理で使用する1以上のパラメータのうちの少なくとも1つのパラメータを含む、
    請求項2に記載の個体識別システム。
  4.  前記撮像パラメータは、照明光が前記照合対象物体の表面に入射する角度である照明角度を表すパラメータ、および前記画像の画像解像度を表すパラメータのうちの少なくとも1つのパラメータを含む、
    請求項1乃至3の何れかに記載の個体識別システム。
  5.  前記表面を特徴付けるデータは、表面の素材の種類を表すデータ、表面の粗さの程度を表すデータ、および、表面の形状を表すデータのうちの少なくとも1つのデータを含む、
    請求項1乃至4の何れかに記載の個体識別システム。
  6.  前記撮像パラメータの値を或る候補値として複数種類の前記基準物体の表面のそれぞれを複数回撮像して得られた複数の画像のそれぞれから抽出された特徴量を入力し、ペアを構成する2つの特徴量が同一の種類の前記基準物体の複数の画像から抽出された特徴量ペアを、前記複数種類の基準物体のそれぞれについて第1の特徴量ペアとして生成し、ペアを構成する2つの特徴量が互いに異なる種類の前記基準物体の複数の画像から抽出された特徴量ペアを、前記複数種類の基準物体の全ての組み合わせについて第2の特徴量ペアとして生成する特徴量ペア生成手段と、
     前記複数の第1の特徴量ペアの照合スコアの分布である第1の分布を生成し、前記第2の特徴量ペアの照合スコアの分布である第2の分布を生成し、前記第1の分布と前記第2の分布との分離度に基づいて、前記候補値の採用可否を決定するパラメータ決定手段と、を含む
    請求項1乃至5の何れかに記載の個体識別システム。
  7.  照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
     前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
     前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得する撮像手段と、
     前記取得された画像から特徴量を抽出する抽出手段と、
     前記抽出された特徴量と登録特徴量とを照合する照合手段と、を含む
    個体識別装置。
  8.  登録対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記登録対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
     前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
     前記設定された撮像条件の下で、前記登録対象物体の表面の画像を取得する撮像手段と、
     前記取得された画像から特徴量を抽出する抽出手段と、
     前記抽出された特徴量を登録特徴量として登録する登録手段と、を含む
    個体登録装置。
  9.  コンピュータを、
     照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得する取得手段と、
     前記取得された撮像パラメータで定まる撮像条件を設定する条件設定手段と、
     前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得する撮像手段と、
     前記取得された画像から特徴量を抽出する抽出手段と、
     前記抽出された特徴量と登録特徴量とを照合する照合手段と、
    して機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
  10.  照合対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記照合対象物体に適用する前記撮像パラメータを前記記憶手段から取得し、
     前記取得された撮像パラメータで定まる撮像条件を設定し、
     前記設定された撮像条件の下で、前記照合対象物体の表面の画像を取得し、
     前記取得された画像から特徴量を抽出し、
     前記抽出された特徴量と登録特徴量とを照合する
    個体識別方法。
  11.  前記記憶手段は、前記基準物体の表面を特徴付けるデータに対応付けて、さらに、画像処理パラメータを記憶するように構成され、
     前記取得では、さらに、前記算出した近似度に基づいて前記照合対象物体に適用する前記画像処理パラメータを前記記憶手段から取得し、
     前記設定では、さらに、前記取得された画像処理パラメータで定まる画像処理条件を設定し、
     前記抽出では、前記設定された画像処理条件の下で、前記画像に対して画像処理を行って前記画像から特徴量を抽出する、
    請求項10に記載の個体識別方法。
  12.  前記画像処理では、前記画像に対する前処理と前記前処理後の画像に対する特徴抽出処理とを行い、
     前記画像処理パラメータは、前記前処理で使用する1以上のパラメータおよび前記特徴抽出処理で使用する1以上のパラメータのうちの少なくとも1つのパラメータを含む、
    請求項11に記載の個体識別方法。
  13.  前記撮像パラメータは、照明光が前記照合対象物体の表面に入射する角度である照明角度を表すパラメータ、および前記画像の画像解像度を表すパラメータのうちの少なくとも1つのパラメータを含む、
    請求項10乃至12の何れかに記載の個体識別方法。
  14.  前記表面を特徴付けるデータは、表面の素材の種類を表すデータ、表面の粗さの程度を表すデータ、および、表面の形状を表すデータのうちの少なくとも1つのデータを含む、
    請求項10乃至13の何れかに記載の個体識別方法。
  15.  さらに、
     前記撮像パラメータの値を或る候補値として複数種類の前記基準物体の表面のそれぞれを複数回撮像して得られた複数の画像のそれぞれから抽出された特徴量を入力し、ペアを構成する2つの特徴量が同一の種類の前記基準物体の複数の画像から抽出された特徴量ペアを、前記複数種類の基準物体のそれぞれについて第1の特徴量ペアとして生成し、ペアを構成する2つの特徴量が互いに異なる種類の前記基準物体の複数の画像から抽出された特徴量ペアを、前記複数種類の基準物体の全ての組み合わせについて第2の特徴量ペアとして生成し、
     前記複数の第1の特徴量ペアの照合スコアの分布である第1の分布を生成し、前記第2の特徴量ペアの照合スコアの分布である第2の分布を生成し、前記第1の分布と前記第2の分布との分離度に基づいて、前記候補値の採用可否を決定する、
    請求項10乃至14の何れかに記載の個体識別方法。
  16.  登録対象物体の表面を特徴付けるデータが入力されると、基準物体の表面を特徴付けるデータに対応付けて撮像パラメータを記憶する記憶手段に記憶されている各データと前記入力されたデータとの近似度を算出し、前記算出した近似度に基づいて前記登録対象物体に適用する前記撮像パラメータを前記記憶手段から取得し、
     前記取得された撮像パラメータで定まる撮像条件を設定し、
     前記設定された撮像条件の下で、前記登録対象物体の表面の画像を取得する撮像手段と、
     前記取得された画像から特徴量を抽出し、
     前記抽出された特徴量を登録特徴量として登録する、
    個体登録方法。
PCT/JP2018/035810 2018-09-26 2018-09-26 個体識別システム WO2020065798A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020547693A JP7081677B2 (ja) 2018-09-26 2018-09-26 個体識別システム
US17/278,470 US11651582B2 (en) 2018-09-26 2018-09-26 Individual identification system
PCT/JP2018/035810 WO2020065798A1 (ja) 2018-09-26 2018-09-26 個体識別システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/035810 WO2020065798A1 (ja) 2018-09-26 2018-09-26 個体識別システム

Publications (1)

Publication Number Publication Date
WO2020065798A1 true WO2020065798A1 (ja) 2020-04-02

Family

ID=69952985

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035810 WO2020065798A1 (ja) 2018-09-26 2018-09-26 個体識別システム

Country Status (3)

Country Link
US (1) US11651582B2 (ja)
JP (1) JP7081677B2 (ja)
WO (1) WO2020065798A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149544A1 (ja) * 2021-01-06 2022-07-14 ファナック株式会社 画像処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
JP2015008374A (ja) * 2013-06-25 2015-01-15 日本電気株式会社 携帯端末、撮影方法及びプログラム
JP2015173344A (ja) * 2014-03-11 2015-10-01 三菱電機株式会社 物体認識装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9152862B2 (en) * 2011-09-15 2015-10-06 Raf Technology, Inc. Object identification and inventory management
US9443298B2 (en) * 2012-03-02 2016-09-13 Authentect, Inc. Digital fingerprinting object authentication and anti-counterfeiting system
JP5760889B2 (ja) 2011-09-16 2015-08-12 大日本印刷株式会社 個体識別装置、個体識別方法、及びプログラム
CN104520766B (zh) 2012-08-03 2018-01-26 日本电气株式会社 成像辅助工具、成像设备以及成像方法
US10614302B2 (en) * 2016-05-26 2020-04-07 Alitheon, Inc. Controlled authentication of physical objects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283216A (ja) * 2000-04-03 2001-10-12 Nec Corp 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体
JP2015008374A (ja) * 2013-06-25 2015-01-15 日本電気株式会社 携帯端末、撮影方法及びプログラム
JP2015173344A (ja) * 2014-03-11 2015-10-01 三菱電機株式会社 物体認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149544A1 (ja) * 2021-01-06 2022-07-14 ファナック株式会社 画像処理装置

Also Published As

Publication number Publication date
US11651582B2 (en) 2023-05-16
JPWO2020065798A1 (ja) 2021-09-30
US20220044059A1 (en) 2022-02-10
JP7081677B2 (ja) 2022-06-07

Similar Documents

Publication Publication Date Title
US7970186B2 (en) System, method and computer program product for fingerprint verification
EP1467308A1 (en) Image identification system
WO2018179092A1 (ja) 個体識別装置
CN108140107B (zh) 快速、高精度的大型指纹验证系统
JPWO2019069617A1 (ja) 個体識別装置
KR20200013160A (ko) 딥러닝 기반 비문 인식 시스템 및 방법
WO2020065798A1 (ja) 個体識別システム
WO2021220829A1 (ja) 個体識別システム、個体識別プログラム、及び記録媒体
JP7215491B2 (ja) 個体識別装置
Szczepanik et al. Data management for fingerprint recognition algorithm based on characteristic points’ groups
EP3475926B1 (en) Detection of surface irregularities in coins
US20230088810A1 (en) Collation device and non-transitory computer readable medium storing collation program
WO2021220826A1 (ja) 個体識別システム
WO2021220825A1 (ja) 個体識別システム
WO2021220828A1 (ja) 個体識別システム
Zaharieva et al. From manual to automated optical recognition of ancient coins
KR20100091516A (ko) 인물 식별 방법 및 그 시스템
JP2002032812A (ja) 円盤形被検体認識システム
Abinaya et al. Latent Palm Print Matching Based on Minutiae Features for Forensic Applications
JP2021174441A (ja) 個体識別システム
Kampel et al. Optical recognition of modern and roman coins
CN117094956A (zh) 一种黑色素瘤纹理特征提取系统和方法
Zaharieva Optical Recognition of Modern and Roman Coins

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18935185

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020547693

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18935185

Country of ref document: EP

Kind code of ref document: A1