WO2017002475A1 - 個体識別子抽出装置 - Google Patents

個体識別子抽出装置 Download PDF

Info

Publication number
WO2017002475A1
WO2017002475A1 PCT/JP2016/064701 JP2016064701W WO2017002475A1 WO 2017002475 A1 WO2017002475 A1 WO 2017002475A1 JP 2016064701 W JP2016064701 W JP 2016064701W WO 2017002475 A1 WO2017002475 A1 WO 2017002475A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
image
individual identifier
unit
coordinate system
Prior art date
Application number
PCT/JP2016/064701
Other languages
English (en)
French (fr)
Inventor
佑太 工藤
石山 塁
高橋 徹
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2017526215A priority Critical patent/JP6708981B2/ja
Priority to US15/737,857 priority patent/US10621429B2/en
Publication of WO2017002475A1 publication Critical patent/WO2017002475A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/08Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code using markings of different kinds or more than one marking of the same kind in the same record carrier, e.g. one marking being sensed by optical and the other by magnetic means
    • G06K19/10Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code using markings of different kinds or more than one marking of the same kind in the same record carrier, e.g. one marking being sensed by optical and the other by magnetic means at least one kind of marking being used for authentication, e.g. of credit or identity cards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/08Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code using markings of different kinds or more than one marking of the same kind in the same record carrier, e.g. one marking being sensed by optical and the other by magnetic means
    • G06K19/083Constructional details
    • G06K19/086Constructional details with markings consisting of randomly placed or oriented elements, the randomness of the elements being useable for generating a unique identifying signature of the record carrier, e.g. randomly placed magnetic fibers or magnetic particles in the body of a credit card
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns

Definitions

  • the present invention relates to an individual identifier extraction device, an individual identifier extraction method, an identification device, a verification device, an identification method, a verification method, an identification verification device, an identification verification method, an individual identification mark, a program, an individual identifier registration device, an individual identifier registration method, The present invention relates to an individual identifier management system and an individual identifier management method.
  • a wide variety of individual identification technologies such as barcodes, serial numbers, and IC tags have been proposed or put into practical use for identifying individual identity of industrial products and products.
  • a layer containing minute grains is formed on an object, and feature values are extracted from an image obtained by imaging the layer, and the extracted feature values are used as individual identifiers of the object.
  • a taggant (additive for tracking) is used as a minute particle, a layer containing taggant is formed on an object, and a predetermined region extracted from an image obtained by imaging a predetermined region of the layer.
  • Patent Document 1 Patent Document 2 and Patent Document 3 describe that the distribution of grains in a region is a feature amount (an individual identifier of an object).
  • a taggant distribution layer is formed by applying printing ink mixed with taggant to all or part of the surface of the reference object, and the taggant distribution layer is extracted from the read image.
  • the feature amount is used as an individual identifier of the reference object.
  • the image of the taggant distribution layer on the target object is read under the same conditions as the reading of the reference object with the reading direction, position, and range, and the feature value extracted from that image is used as the reference object. Compare with the individual identifier.
  • an origin serving as a reference for alignment is set on each object, and a two-dimensional plane defined from the origin as a right direction of the X axis and a downward direction as a positive direction of the Y axis is defined.
  • a feature amount is extracted from a predetermined area, and the extracted feature amount is used as an individual identifier of the object.
  • a reference part (positioning mark, line, company logo, frame, edge of the object itself or a combination of edges) is provided on the object, and at least the reference part is included so that the reference part is completely covered. Spray a paint or the like to attach a random pattern. Then, a feature amount depending on the taggant distribution is extracted from the image of the reference portion, and is used as an individual identifier of the object.
  • An object of the present invention is to provide an individual identification technique that solves the above-described problems.
  • An individual identifier extraction device is: An acquisition unit that acquires an image of a layer that is formed on an object, contains minute particles, and has an indefinite planar shape; An extraction unit that extracts, from the image, a feature amount that depends on a planar shape of the layer and a distribution of the grains as an individual identifier of the object; Have
  • An individual identifier extraction method includes: Acquire an image of a layer that is formed on an object, contains fine particles, and has an indefinite planar shape, A feature quantity dependent on the planar shape of the layer and the grain distribution is extracted from the image as an individual identifier of the object.
  • the individual identifier registration device On the object, a grant unit that contains fine particles and generates a layer whose planar shape is an indefinite shape, An acquisition unit for acquiring an image of the generated layer; An extraction unit that extracts, from the image, a feature amount that depends on a planar shape of the layer and a distribution of the grains as an individual identifier of the object; Have
  • An individual identifier registration method includes: On the object, a layer containing minute grains and having an irregular planar shape is generated. Obtaining an image of the generated layer; A feature quantity dependent on the planar shape of the layer and the grain distribution is extracted from the image as an individual identifier of the object.
  • the identification verification device is: An acquisition unit that acquires an image of a layer that is formed on an object, contains minute particles, and has an indefinite planar shape; An extraction unit that extracts, from the image, a feature amount that depends on a planar shape of the layer and a distribution of the grains as an individual identifier of the object; A determination unit that compares the individual identifier extracted by the extraction unit and the individual identifier of the registered object stored in the storage unit, and performs identification / collation determination of the object based on the comparison result; Have
  • an identification verification method includes: Acquire an image of a layer that is formed on an object, contains fine particles, and has an indefinite planar shape, From the image, extract the feature quantity depending on the planar shape of the layer and the distribution of the grains as an individual identifier of the object, The extracted individual identifier and the registered individual identifier of the registered object stored in the storage unit are compared, and the object identification / collation determination is performed based on the comparison result.
  • An individual identifier management system includes the individual identifier registration apparatus according to the above embodiment of the present invention and the identification verification apparatus according to the above embodiment.
  • an individual identifier management method performs an individual identifier registration method according to the above embodiment of the present invention and an identification verification method according to the above embodiment.
  • a program according to another embodiment of the present invention is: Computer An acquisition unit that acquires an image of a layer that is formed on an object, contains minute particles, and has an indefinite planar shape; An extraction unit that extracts, from the image, a feature amount that depends on a planar shape of the layer and a distribution of the grains as an individual identifier of the object; And make it work.
  • An individual identification mark according to another embodiment of the present invention is a layer that is formed on an object, contains minute particles, and has an indefinite planar shape, and the planar shape of the layer from the image of the layer And a feature quantity that depends on the distribution of the grains is extracted from a layer that is extracted as an individual identifier of the object.
  • the present invention has the above-described configuration, it is possible to provide an individual identification technique that can be universally applied to a plurality of types of objects having different external shapes and sizes.
  • FIG. 1 It is a figure which shows the structural example of the hardware of the individual identifier extraction apparatus of this invention, an individual identifier registration apparatus, an identification collation apparatus, and an individual identifier management apparatus. It is a flowchart which shows operation
  • the individual identifier extraction device 100 has a function of extracting an individual identifier 120 of an object 110.
  • the object 110 is a target for extracting an individual identifier such as an industrial product or a product package.
  • a layer 111 is formed on any surface of the object 110.
  • the outer shape of the object 110 is a rectangular parallelepiped, but the outer shape of the object 110 is not limited to a rectangular parallelepiped and may be arbitrary.
  • only one object 110 from which an individual identifier is extracted is illustrated, but in general, a large number of objects 110 are targets for extracting individual identifiers.
  • the multiple objects 110 may be a collection of the same type of objects having the same outer shape (for example, specific electronic parts produced on a certain production line), or different having different outer shapes and sizes.
  • a set of different types of objects for example, different external shapes and electronic parts having functions produced in different production lines) may be mixed.
  • the layer 111 contains minute grains 112 at random positions.
  • fine particles 112 fine particles such as metal powder and glass powder, taggant described in Patent Documents 1 to 3, and the like can be used. It is desirable that the minute particles 112 have different reflection characteristics from the material constituting the layer 111 (excluding the minute particles 112). Further, it is desirable that the minute grains 112 are contained in the layer 111 nonuniformly. That is, the distribution of the minute grains 112 in the layer 111 is desirably non-uniform.
  • the planar shape of the layer 111 is an indefinite shape. The planar shape of the layer 111 is a shape viewed from directly above the layer 111.
  • Such a layer 111 can be formed by, for example, dropping a single drop of printing ink or paint mixed with fine particles 112 onto the surface of the object 110 using a pen or the like and solidifying it.
  • the method for forming the layer 111 is not limited to such a method, and any other method may be used, such as applying printing ink, paint, or the like mixed with the fine particles 112 with a brush or the like.
  • the individual identifier extraction apparatus 100 includes an acquisition unit 101 and an extraction unit 102 as main functional units.
  • the acquisition unit 101 has a function of acquiring an image of the layer 111 formed on the object 110.
  • the acquisition unit 101 acquires an image in which the planar shape of the layer 111 is reflected.
  • the acquisition unit 101 acquires an image having a quality that can extract a feature amount depending on the distribution of the grains 112 existing in the layer 111.
  • the extraction unit 102 has a function of extracting, from the image acquired by the acquisition unit 101, a feature amount that depends on the planar shape of the layer 111 and the distribution of the grains 112 as the individual identifier 120 of the object 110.
  • the feature quantity extracted from the image by the extraction unit 102 is not limited as long as it is a feature quantity depending on the planar shape of the layer 111 and the distribution of the grains 112.
  • FIG. 2 is a flowchart showing a procedure of an individual identifier extracting method executed using the individual identifier extracting apparatus 100.
  • the individual identifier extraction method according to the present embodiment will be described with reference to FIGS. 1 and 2.
  • the acquisition unit 101 of the individual identifier extraction apparatus 100 acquires an image of the layer 111 formed on the object 110 (step S101).
  • the extraction unit 102 of the individual identification extraction device 100 uses, as an individual identifier 120 of the object 110, a feature amount that depends on the planar shape of the layer 111 and the distribution of the grains 112 from the image of the layer 111 acquired by the acquisition unit 101. Extract (step S102).
  • the individual identifier extraction device 100 that can be applied universally to a plurality of types of objects having different external shapes, sizes, and the like is obtained.
  • the reason is that a feature quantity that depends on the planar shape of the layer 111 and the distribution of the grains 112 is extracted as an individual identifier of the object 110 from the image of the layer 111 formed on the object 110 and having an indefinite planar shape. It is. That is, in the present embodiment, it is only necessary to acquire an image of the layer 111 formed on the object 110, and it is necessary to individually adjust the position and range for acquiring the image for each object having a different outer shape, size, and the like. This is because there is not.
  • the discrimination ability which is the degree to which different individuals can be discriminated as compared with the case of extracting the feature amount depending on the distribution of the grains 112 from the fixed region of the layer 111.
  • the reason is that, when extracting the feature quantity depending on the planar shape of the layer 111 and the distribution of the grains 112, the distribution of the grains 112 in the fixed region of the layer 111 is similar but the planar shape of the layers is not similar. This is because the extracted feature values may not be similar to each other, for example, because the feature value extraction regions become regions of different positions and sizes.
  • an individual identifier registration apparatus 200 has a function of assigning an individual identifier to an object 210.
  • the object 210 is a target to which an individual identifier such as an industrial product or a product package is given.
  • the outer shape of the object 210 is a rectangular parallelepiped, but the outer shape of the object 210 is not limited to a rectangular parallelepiped and may be arbitrary.
  • FIG. 3 only three objects 210 to which individual identifiers are assigned are shown, but in general, a large number of objects 210 are targets to which individual identifiers are assigned.
  • the multiple objects 210 may be a collection of the same type of objects having the same outer shape (for example, specific electronic parts produced on a certain production line), or different having different outer shapes and sizes.
  • a set of different types of objects for example, different external shapes and electronic parts having functions produced in different production lines) may be mixed.
  • the individual identifier registration apparatus 200 includes a grant unit 201, an individual identifier extraction unit 202, and an individual identifier registration unit 203 as main components.
  • the imparting unit 201 has a function of generating on the object 210 a layer 211 that contains minute grains 212 at random positions and has an indefinite planar shape.
  • the minute particles 212 the same particles as the minute particles 112 described with reference to FIG. 1 can be used.
  • the applying unit 201 generates such a layer 211 by, for example, dropping one drop of printing ink, paint, or the like mixed with minute particles 212 onto the surface of the object 210.
  • the applying unit 201 can be easily realized with a pen that uses printing ink mixed with minute grains 212.
  • the generation method of the layer 211 is not limited to such a method, and any other method such as applying a printing ink, a paint, or the like mixed with the fine particles 212 with a brush or the like may be used.
  • the individual identifier extraction unit 202 acquires the image of the layer 211 formed on the object 210 by the assigning unit 201, and uses the image to determine the feature amount depending on the planar shape of the layer 211 and the distribution of the grains 212 from the image. It has a function of extracting as an identifier.
  • the individual identifier extraction unit 202 is configured by, for example, the individual identifier extraction device 100 according to the first embodiment of the present invention.
  • the individual identifier registration unit 203 has a function of registering the individual identifier of the object 210 extracted by the individual identifier extraction unit 202 in the storage unit 220 as the individual identifier of the registered object.
  • the individual identifier registration unit 203 may register one or more attribute values of the object 210 in association with each other when registering the individual identifier of the object 210.
  • the type of the attribute value of the object and the number of registrations are arbitrary.
  • examples of the attribute value include a model number, a manufacturing lot number, and a device number used for processing the object.
  • the method by which the individual identifier registration unit 203 acquires one or more attribute values of the object 210 is arbitrary.
  • the individual identifier registration unit 203 may be configured to acquire the attribute value of the object 210 from an input device such as a keyboard or a barcode reader (not shown).
  • FIG. 4 shows an example of data registered in the storage unit 220.
  • the individual identifier of the object 210 is registered in association with a plurality of attribute values 1, attribute values 2,.
  • the data in the first row indicates that the individual identifier of a certain object 210 is 10110... 001, the attribute value 1 is PQ001, the attribute value 2 is 18564,.
  • the individual identifier is an N ( ⁇ 2) -dimensional vector, but the data structure is arbitrary.
  • FIG. 5 is a flowchart showing the procedure of the individual identifier registration method executed using the individual identifier registration apparatus 200.
  • the individual identifier registration method according to this embodiment will be described below with reference to FIGS.
  • the assigning unit 201 of the individual identifier registration apparatus 200 generates a layer 211 containing minute particles 212 at random positions and having an indefinite planar shape on the object 210 (step S201).
  • This can be realized by a simple method in which, for example, when the applying unit 201 is a pen that uses ink containing minute particles 212, a dot (dot) is handwritten on the object 210 with the pen.
  • the individual identifier extraction unit 202 of the individual identifier registration device 200 acquires an image of the layer 211 formed on the object 210 (step S202). This can be realized by a simple method, for example, photographing the layer 211 with a camera. Then, the individual identifier extraction unit 202 extracts a feature quantity that depends on the planar shape of the layer 211 and the distribution of the grains 212 as an individual identifier of the object 210 from the acquired image of the layer 211 (step S203).
  • the individual identifier registration unit 203 of the individual identifier registration device 200 registers the individual identifier of the extracted object 210 in the storage unit 220 in association with the attribute value of the object (step S204).
  • the individual identifier registration device 200 repeats the above process for each object 210.
  • the individual objects 210 are transported to the layer generation location by the applying unit 201, and the layer 210 generated objects are transported to the layer image acquisition location by the individual identifier extraction unit 202. You may do it.
  • the individual identifier registration apparatus 200 that can be applied to a plurality of types of objects having different external shapes, sizes, and the like and is excellent in productivity can be obtained.
  • the reason is that a layer 211 containing minute grains 212 and having an indefinite planar shape is generated on the object 210, and the planar shape of the layer 211 and the grains 212 are generated from the generated image of the layer 211.
  • This is because a feature quantity depending on the distribution is extracted as an individual identifier of the object 210. That is, it is only necessary to generate the layer 211 having an indefinite planar shape on the object, and it is not necessary to individually adjust the position and range for forming the layer for each object having different outer shape, size, and the like. Further, it is only necessary to be able to acquire the image of the layer 211 generated on the object 210, and it is not necessary to individually adjust the position and range for acquiring the image for each object having different outer shape, size, and the like.
  • an individual identifier having a high identification ability which is a degree capable of identifying a different individual, is given to the object 210 as compared with the case where a feature quantity depending on the distribution of the grains 212 is extracted from the fixed region of the layer 211. can do.
  • the reason is that, when extracting the feature quantity depending on the planar shape of the layer 211 and the distribution of the grains 212, the planar shape of the layers should be similar even if the distribution of the grains 212 in the fixed region of the layer 211 is similar. This is because the extracted feature values may not be similar to each other, for example, because the feature value extraction regions become regions of different positions and sizes.
  • an identification / collation apparatus 300 has a function of identifying / collating an object 310.
  • the object 310 is an object to be identified and verified, such as an industrial product or a product package.
  • a layer 311 is formed on any surface of the object 310.
  • the outer shape of the object 310 is a rectangular parallelepiped, but the outer shape of the object 310 is not limited to a rectangular parallelepiped and may be arbitrary.
  • only one object 310 to be identified / verified is shown, but in general, a large number of objects 310 are objects of identification / collation.
  • the multiple objects 310 may be a collection of the same type of objects having the same outer shape (for example, specific electronic parts produced on a certain production line), or different having different outer shapes and sizes.
  • a set of different types of objects for example, different external shapes and electronic parts having functions produced in different production lines) may be mixed.
  • the layer 311 contains minute grains 312 at random positions.
  • the minute particle 312 the same particle as the minute particle 112 described with reference to FIG. 1 can be used.
  • the planar shape of the layer 311 is an indefinite shape.
  • the object 310 having such a layer 311 can be manufactured, for example, by the individual identifier registration device 200 according to the second embodiment of the present invention.
  • the identification verification device 300 includes an individual identifier extraction unit 301 and a determination unit 302 as main functional units.
  • the individual identifier extraction unit 301 acquires an image of the layer 311 formed on the object 310, and extracts a feature quantity depending on the planar shape of the layer 311 and the distribution of the grains 312 from the image as an individual identifier of the object 310.
  • the individual identifier extraction unit 301 is configured by, for example, the individual identifier extraction apparatus 100 according to the first embodiment of the present invention.
  • the determination unit 302 compares the individual identifier extracted by the individual identifier extraction unit 301 with the individual identifier of the registered object stored in the storage unit 320, and determines object identification / collation based on the comparison result. It has a function to perform.
  • the individual identifier of the registered object is stored in advance by the individual identifier registration apparatus 200 according to the second embodiment of the present invention.
  • FIG. 7 is a flowchart showing the procedure of an identification collation method executed using the identification collation apparatus 300.
  • the identification verification method according to the present embodiment will be described with reference to FIGS. 6 and 7.
  • the individual identifier extraction unit 301 of the identification verification device 300 acquires an image of the layer 311 formed on the object 310 (step S301). Then, the individual identifier extraction unit 301 extracts a feature quantity that depends on the planar shape of the layer 311 and the distribution of the grains 312 as an individual identifier of the object 310 from the acquired image of the layer 311 (step S302).
  • the determination unit 302 of the identification verification apparatus 300 compares the individual identifier of the extracted object 310 with the individual identifier of the registered object stored in the storage unit 320, and based on the comparison result, the object Is identified and determined (step S303). For example, when the individual identifier is an N-dimensional vector, the determination unit 302 calculates the similarity (or distance) between the individual identifier of the object 310 and the individual identifier vector of the registered object, and the similarity is equal to or greater than a threshold value. If (if the distance is less than or equal to the threshold), it is determined that the two individual identifiers are the same, and the other is not the same.
  • the determination unit 302 finds an individual identifier of a registered object that is identical to the individual identifier of the object 310, or finishes comparison with the individual identifiers of all registered objects, whichever comes first The repetition of the object identification / determination process is terminated on the condition. Then, the determination unit 302 outputs a determination result 330.
  • the determination result 330 may indicate whether or not identification / collation is successful. Moreover, the determination result 330 may have the attribute value of the object memorize
  • the identification and collation apparatus 300 that can be applied to a plurality of types of objects having different external shapes and sizes.
  • the reason is that a feature quantity dependent on the planar shape of the layer 311 and the distribution of the grains 312 is extracted as an individual identifier of the object 310 from the image of the layer 311 having an indefinite planar shape formed on the object 310.
  • the object is identified and verified in comparison with the individual identifier of the registered object. That is, in the present embodiment, it is only necessary to acquire an image of the layer 311 formed on the object 310, and it is necessary to individually adjust the position and range for acquiring the image for each object having a different outer shape, size, and the like. This is because there is not.
  • the present embodiment it is possible to improve the identification / collation capability, which is the degree to which different individuals can be identified / collated, as compared with the case of extracting feature quantities depending on the distribution of the grains 312 from the fixed region of the layer 311. .
  • the reason is that, when extracting the feature quantity depending on the planar shape of the layer 311 and the distribution of the grains 312, even if the distribution of the grains 312 in the fixed region of the layer 311 is similar, the planar shapes of the layers are not similar. This is because the extracted feature values may not be similar to each other, for example, because the feature value extraction regions become regions of different positions and sizes.
  • an individual identifier management system 400 has a function of managing an individual identifier for identifying / collating an object 410.
  • the object 410 is an object to be managed by giving an individual identifier such as an industrial product or a product package.
  • the outer shape of the object 410 is a rectangular parallelepiped, but the outer shape of the object 410 is not limited to a rectangular parallelepiped and may be arbitrary.
  • only one object 410 to which an individual identifier is assigned for management is illustrated, but in general, a large number of objects 410 are to be managed.
  • the multiple objects 410 may be a collection of the same type of objects having the same external shape (for example, specific electronic parts produced on a certain production line), or different having different external shapes and sizes.
  • a set of different types of objects for example, different external shapes and electronic parts having functions produced in different production lines) may be mixed.
  • the individual identifier management system 400 includes an individual identifier registration device 401 and an identification verification device 402.
  • the individual identifier registration device 401 includes a function of generating a layer 411 that contains minute particles 412 at random positions and has an indefinite planar shape on the object 410, and an image of the layer 411 generated on the object 410.
  • the individual identifier registration apparatus 401 is configured by, for example, an individual identifier registration apparatus 200 according to the second embodiment of the present invention.
  • the identification verification device 402 obtains a feature amount that depends on the planar shape of the layer 411 and the grain distribution from the function of acquiring the image of the layer 411 formed on the object 410 and the acquired image of the layer 411.
  • a function for extracting as an individual identifier of an object a function for comparing an individual identifier of an extracted object and an individual identifier of a registered object stored in the storage unit 420, and identifying and determining an object based on the comparison result And have.
  • the identification / collation device 402 is constituted by, for example, an identification / collation device 300 according to the third embodiment of the present invention.
  • FIG. 9 is a flowchart showing the procedure of the individual identifier management method executed using the individual identifier management system 400.
  • the individual identifier management method according to the present embodiment will be described with reference to FIGS. 8 and 9.
  • the individual identifier registration device 401 generates a layer 411 containing minute particles 412 at random positions and having an indefinite planar shape on the object 410 (step S401).
  • the individual identifier registration device 401 acquires an image of the layer 411 formed on the object 410 (step S402).
  • the individual identifier registration device 401 extracts, as an individual identifier of the object 410, a feature quantity that depends on the planar shape of the layer 411 and the distribution of the grains 412 from the acquired image of the layer 411 (step S403).
  • the individual identifier registration device 401 registers the extracted individual identifier of the object 410 in the storage unit 420 in association with the attribute value of the object (step S404).
  • the identification verification device 402 acquires an image of the layer 411 formed on the object 410 (step S405). Next, the identification verification device 402 extracts a feature quantity that depends on the planar shape of the layer 411 and the distribution of the grains 412 as an individual identifier of the object 410 from the acquired image of the layer 411 (step S406). Next, the identification verification device 402 compares the extracted individual identifier of the object 410 with the individual identifier of the registered object stored in the storage unit 420, and performs identification / determination of the object based on the comparison result. (Step S407). Next, the identification verification device 402 outputs a determination result 430. The determination result 430 may indicate whether or not identification / collation is successful. In addition, the determination result 430 may have an attribute value of the object stored in the storage unit 420 corresponding to the individual identifier of the registered object determined to be the same in the case of success.
  • steps S401 to S404 by the individual identifier registration device 401 Following the processing of steps S401 to S404 by the individual identifier registration device 401, the processing of steps S405 to S408 by the identification verification device 402 is executed.
  • the present invention is not limited to such a procedure, and the processing of steps S401 to S404 by the individual identifier registration apparatus 401 may be repeated a plurality of times for different objects 410. Further, the processing of steps S405 to S408 by the identification verification device 402 may be repeated a plurality of times for different objects 410.
  • the processing of steps S401 to S404 by the individual identifier registration device 401 and the processing of steps S405 to S408 by the identification collating device 402 may be performed on different objects 410 in parallel.
  • the individual identifier management system 400 that can be universally applied to a plurality of types of objects having different external shapes, sizes, and the like is obtained.
  • the individual identifier registration device 401 can be applied universally to a plurality of types of objects having different external shapes, sizes, etc., as described in the second embodiment. This is because, as described in the embodiment, it can be applied universally to a plurality of types of objects having different external shapes, sizes, and the like.
  • the present embodiment it is possible to improve the identification / collation capability, which is the degree to which different individuals can be identified / collated, as compared with the case of extracting feature quantities depending on the distribution of the grains 412 from the fixed region of the layer 411. .
  • the reason is that, when extracting the feature quantity depending on the planar shape of the layer 411 and the distribution of the grains 412, the planar shape of the layers is not similar even if the distribution of the grains 412 in the fixed region of the layer 411 is similar. This is because the extracted feature values may not be similar to each other, for example, because the feature value extraction regions become regions of different positions and sizes.
  • the present embodiment further embodies the individual identifier extraction apparatus 100 according to the first embodiment of the present invention.
  • an individual identifier extraction apparatus 500 according to the fifth embodiment of the present invention has a function of extracting an individual identifier 520 of an object 510.
  • the object 510, the layer 511 formed on the surface of the object 510, and the minute particles 512 included in the layer 511 are the same as the object 110, the layer 111, and the minute particles 112 described with reference to FIG.
  • the individual identifier extraction device 500 includes a camera terminal 501 and a processing device 502 connected thereto.
  • the camera terminal 501 has a function of optically acquiring an image of the layer 511 on the object 510, that is, an imaging function.
  • the camera terminal 501 can use, for example, a camera using a CCD (Charge Coupled Devices) image sensor or a CMOS (Complementary Metal Oxide) image sensor.
  • CCD Charge Coupled Devices
  • CMOS Complementary Metal Oxide
  • the processing device 502 has a function of extracting the individual identifier 520 from the image of the layer 511 of the object 510.
  • the processing device 502 includes an image acquisition unit 531, an image storage unit 532, a coordinate system determination unit 533, a normalized image generation unit 534, a normalized image storage unit 535, a fixed area determination unit 536, and a feature amount as main functional units.
  • An extraction unit 537 is included.
  • the processing device 502 includes an arithmetic processing unit 541 such as one or more microprocessors, and a storage unit 542 such as a memory or a hard disk used as the image storage unit 532 and the normalized image storage unit 535.
  • the program 543 is read from an external computer-readable recording medium into the memory when the information processing apparatus 540 is started up, and the operation of the arithmetic processing unit 541 is controlled, so that an image acquisition unit is displayed on the arithmetic processing unit 541.
  • 531 functional units such as a coordinate system determination unit 533, a normalized image generation unit 534, a fixed region determination unit 536, and a feature amount extraction unit 537 are realized.
  • the image acquisition unit 531 has a function of acquiring an image of the layer 511 of the object 510 using the camera terminal 501 and storing it in the image storage unit 532.
  • the image acquisition unit 531 acquires an image in which the planar shape of the layer 511 on the object 510 is reflected. Further, the image acquisition unit 531 acquires an image having a quality that can extract a feature amount depending on the distribution of the grains 512 existing in the layer 511.
  • the coordinate system determination unit 533 has a function of determining a unique coordinate system for the layer 511 image from the entire layer 511 image stored in the image storage unit 532.
  • the coordinate system unique to the image of the layer 511 is defined by three parameters: the position of the origin, the direction of the axis, and the scale. Since the coordinate system specific to the image of the layer 511 is determined from the entire image of the layer 511, the coordinate system depends on the planar shape of the layer 511.
  • the normalized image generation unit 534 has a function of normalizing the image of the layer 511 stored in the image storage unit 532 to a normalized coordinate system and saving the normalized image in the normalized image storage unit 535.
  • the normalized coordinate system is defined by three parameters: the origin position, the axis direction, and the scale.
  • the fixed region determination unit 536 has a function of determining a predetermined region in the normalized image of the layer 511 stored in the normalized image storage unit 535 as a feature amount extraction region. If the predetermined region is a fixed region, its shape, size, and number of regions are arbitrary. As described above, since the coordinate system unique to the image of the layer 511 depends on the planar shape of the layer 511, the normalized image and the feature amount extraction region which is a fixed region therein depend on the planar shape of the layer 511. It becomes an area to do.
  • the coordinate system determination unit 533, the normalized image generation unit 534, and the fixed region determination unit 536 constitute an area determination unit 538 that determines an area depending on the planar shape of the layer from the image of the layer 511. .
  • the feature quantity extraction unit 537 extracts a feature quantity that depends on the distribution of the grains 512 in the feature quantity extraction region in the normalized image of the layer 511 stored in the normalized image storage unit 535 as the individual identifier 520 of the object 510. And has a function of outputting.
  • FIG. 12 is a flowchart showing the operation of the processing device 502. Hereinafter, the operation of the processing device 502 will be described with reference to FIGS. 10 and 12.
  • the image acquisition unit 531 of the processing device 502 acquires an image of the layer 511 on the object 510 using the camera terminal 501 and stores it in the image storage unit 532 (step S501).
  • the coordinate system determination unit 533 of the processing device 502 inputs and analyzes the image of the layer 511 from the image storage unit 532, determines a unique coordinate system for the image of the layer 511, and determines the origin of the unique coordinate system.
  • the position, axis direction, and scale are transmitted to the normalized image generation unit 534 (step S502).
  • the normalized image generation unit 534 of the processing device 502 is stored in the image storage unit 532 based on the coordinate system unique to the image of the layer 511 determined by the coordinate system determination unit 533 and the normalized coordinate system.
  • the image of the layer 511 is normalized, and the normalized image is stored in the normalized image storage unit 535 (step S503).
  • the fixed region determination unit 536 of the processing device 502 determines a predetermined fixed region in the normalized image stored in the normalized image storage unit 535 as a feature amount extraction region, and sends it to the feature amount extraction unit 537. Transmit (step S504).
  • the feature quantity extraction unit 537 of the processing device 502 converts the feature quantity depending on the distribution of the grains 512 in the feature quantity extraction region in the normalized image of the layer 511 stored in the normalized image storage unit 535 to the object
  • the individual identifier 510 is extracted and output (step S505).
  • FIG. 13 is a block diagram illustrating an example of the coordinate system determination unit 533.
  • the coordinate system determination unit 533 in this example includes a resolution reduction unit 551, a low resolution image storage unit 552, a key point / scale detection unit 553, a direction detection unit 554, and a statistical processing unit 555.
  • the resolution reduction unit 551 has a function of reducing the resolution of the image of the layer 511 stored in the image storage unit 532 according to a predetermined reference and storing the image in the low resolution image storage unit 552.
  • the layer 512 includes grains 512 non-uniformly and the reflection characteristics of the grains 512 are different from those of the other materials of the layer 511
  • a gray pattern corresponding to the density of the grains 512 is obtained. Appears.
  • the resolution reduction unit 551 is a unit for generating a light and shade pattern corresponding to the density of the grains 512 from the image of the layer 511.
  • the key point / scale detection unit 553 has a function of detecting a key point and a scale from an image having a shading pattern stored in the low resolution image storage unit 552.
  • the key point means a point or region that appears characteristically on the image even if the scale changes
  • the detected scale means the optimum scale that is strongest against the change in scale.
  • the detection of key points and scales by the key point / scale detection unit 553 corresponds to the detection of key points and scales performed in the process of generating a SIFT (Scale-Invariant Feature Transform) descriptor.
  • SIFT Scale-Invariant Feature Transform
  • SIFT Scale-Invariant Feature Transform
  • the direction detection unit 554 has a function of determining a “direction” that characterizes each key point detected by the key point / scale detection unit 553.
  • Direction detection by the direction detection unit 554 corresponds to orientation detection performed in the process of generating a SIFT descriptor.
  • the statistical processing unit 555 determines the origin, axis, and Has the function of determining the scale. For example, the statistical processing unit 555 determines the origin of the unique coordinate system based on the distribution of a plurality of key points. Specifically, the statistical processing unit 555 uses the center of gravity of the detected key points as the origin of the unique coordinate system. Further, the statistical processing unit 555 determines a scale and an axis of a unique coordinate system based on a plurality of key point scales and direction distributions.
  • the statistical processing unit 555 uses the scale and axis of the unique coordinate system as the center of the plurality of key point scales and direction distributions. That is, the center of the distribution of the scales of the plurality of key points is a scale of the unique coordinate system, and the center of the distribution of the directions of the plurality of key points is the axis of the unique coordinate system.
  • a mode value may be used as the center of the distribution. However, it is not limited to the mode value, and an average value or a median value may be used.
  • FIG. 14 is a schematic diagram for explaining the operation of the coordinate system determination unit 533 described with reference to FIG.
  • G ⁇ b> 11 indicates an image of the layer 511 stored in the image storage unit 532.
  • the resolution reduction unit 551 generates, from the image G11, an image having a shading pattern depending on the density of the grains 512 in the layer 511 as shown in G12. In FIG. 14, for the sake of convenience, the difference in shading is expressed by the difference in hatching type.
  • the key point / scale detection unit 553 detects a key point and a scale from the image G12.
  • the circle drawn on the image G12 is a scale, and the center of the circle is a key point.
  • the direction detection unit 554 detects the direction for each key point.
  • a line segment in a circle drawn on the image G12 indicates the direction.
  • the statistical processing unit 555 determines the scale and axis of the specific coordinate system based on the detected key point scale and direction distribution, so that the horizontal axis is the scale and the vertical axis as shown in G13. And a histogram in which the horizontal axis is the direction and the vertical axis is the frequency as shown in G14.
  • the statistical processing unit 555 obtains the mode scale from the histogram G13, and sets this as the scale of the unique coordinate system.
  • the statistical processing unit 555 obtains the direction of the mode value from the histogram G14, and sets this direction as the direction of the axis of the unique coordinate system.
  • the statistical processing unit 555 obtains the center of gravity of the detected key point, and uses this as the origin of the unique coordinate system.
  • the circle drawn in the image G15 indicates the scale of the unique coordinate system
  • the center of the circle indicates the origin of the unique coordinate system
  • the arrow in the circle indicates the direction of the axis of the unique coordinate system.
  • FIG. 14 shows another image G21 in which the planar shape of the layer and the distribution of grains in the layer are different from those of the image G11, a low-resolution image G22 generated from the image G21, and detected key points.
  • a scale, generated histograms G23 and G24, and an image G25 depicting the determined unique coordinate system are described. In this way, the unique coordinate system is often different when the planar shape of the layer and the distribution of grains in the layer are different.
  • FIG. 15 is a block diagram illustrating another example of the coordinate system determination unit 533.
  • the coordinate system determination unit 533 in this example includes a binarization unit 561, a binarized image storage unit 562, a painted image generation unit 563, a painted image storage unit 564, and a shape processing unit 565.
  • the binarization unit 561 has a function of binarizing the image of the layer 511 stored in the image storage unit 532 and saving the binarized image storage unit 562.
  • most of the pixels in the background area are white pixels (value 0)
  • the area of the layer 511 is a binary image in which white pixels (value 0) and black pixels (value 1) are mixed according to the distribution of the grains 512. Is obtained.
  • the filled image generation unit 563 has an image (filled image) that has the same shape as the planar shape of the layer 511 and is completely filled with black pixels from the binarized image stored in the binarized image storage unit 562. Image) and a function of saving in the filled image storage unit 564.
  • a method for generating a filled image from the binarized image is arbitrary.
  • the filled image generation unit 563 may generate a filled image by performing a morphological operation on the binarized image stored in the binarized image storage unit 562.
  • the filled image generation unit 563 may generate a filled image from the binarized image by executing n pixel expansion processing and n pixel contraction processing, where n is a predetermined pixel length.
  • the expansion processing of n pixels is an operation for setting the values of all pixels existing within n pixel lengths from the target pixel to 1 when the value of the pixel under attention is 1. This means processing that focuses on all pixels.
  • the n pixel contraction process refers to all existing pixels within n pixel lengths from the target pixel when the value of the pixel under attention is 0 for the binary image after the n pixel expansion process is performed. That is, the operation of setting the value of the pixel of 0 to 0 while paying attention to all the pixels of the binary image.
  • the shape processing unit 565 has a function of determining a unique coordinate system from the characteristics of the filled image stored in the filled image storage unit 564. For example, the shape processing unit 565 determines the center of gravity of the filled image as the origin of the unique coordinate system. In addition, the shape processing unit 565 determines, for example, an axis that passes through the center of gravity and is parallel to the image plane and has a minimum or maximum secondary moment around the axis as an axis of a unique coordinate system. Furthermore, for example, the shape processing unit 565 determines the area of the filled image as a unique coordinate system scale.
  • FIG. 16 is a schematic diagram for explaining the operation of the coordinate system determination unit 533 described with reference to FIG.
  • G ⁇ b> 31 indicates an image of the layer 511 stored in the image storage unit 532.
  • the binarization unit 561 generates a binarized image as shown in G32 from the image G31.
  • black pixels are indicated by hatching, and white pixels are indicated by white circles.
  • the filled image generation unit 563 generates an image filled with black pixels as shown in G33 from the binarized image G32.
  • the shape processing unit 565 extracts the center of gravity, moment, and area of the filled graphic G33, and sets them as the origin, axis, and scale of the unique coordinate system.
  • the normalized image generation unit 534 regards the origin of the coordinate system unique to the image of the layer 511 determined by the coordinate system determination unit 533 as the origin of the normalized coordinate system.
  • the normalized image generation unit 534 rotates the image of the layer 511 around the origin so that the axis of the unique coordinate system matches the axis of the normalized coordinate system.
  • the normalized image generation unit 534 enlarges or reduces the image of the layer 511 so that the scale of the unique coordinate system matches the scale of the normalized coordinate system.
  • the normalized image generation unit 534 performs normalization on the image of the layer 511 by performing coordinate conversion in which the unique coordinate system is the coordinate system before conversion and the normalized coordinate system is the coordinate system after conversion. Generate an image.
  • FIG. 17 is a schematic diagram for explaining the operation of the normalized image generation unit 534.
  • images G16 and G26 are images depicting a coordinate system unique to the images G11 and G21 shown in FIG. That is, the circles drawn by solid lines in the images G16 and G26 indicate the scale of the specific coordinate system, the center of the circle indicates the origin of the specific coordinate system, and the arrows in the circle indicate the axes of the specific coordinate system. .
  • the normalized image generation unit 534 has the images G16 and G26 so that the axis of the unique coordinate system matches the axis of the normalized coordinate system and the scale of the unique coordinate system matches the scale of the normalized coordinate system. Is rotated around the origin, and the normalized image is generated by enlarging or reducing.
  • G17 and G27 indicate normalized images of the images G16 and G26 generated as described above.
  • the circles drawn in the images G17 and G27 indicate the scale of the normalized coordinate system, and the arrows in the circle indicate the axes of the normalized coordinate system.
  • the fixed area determination unit 536 defines a fixed area in the normalized image using the normalized coordinate system.
  • the fixed region determination unit 536 uses a square having two sides parallel to the axis of the normalized coordinate system as the fixed region, with the origin of the normalized coordinate system as the center of gravity, the scale of the normalized coordinate system as the size of the side, To do.
  • the shape of the fixed region is not limited to a square, and may be other shapes such as a rectangle.
  • the size of the side does not need to match the scale of the normalized coordinate system, and may be any fixed value.
  • FIG. 18 is a schematic diagram for explaining a fixed area defined by the fixed area determination unit 536.
  • images G18 and G28 are examples of images in which feature amount extraction regions are added to the images G17 and G27 shown in FIG. That is, the circles drawn in the images G18 and G28 indicate the scale of the normalized coordinate system, the center of the circle indicates the origin of the normalized coordinate system, and the arrow in the circle indicates the axis of the normalized coordinate system.
  • the squares drawn with solid lines in the images G18 and G28 are fixed areas that serve as areas for extracting feature amounts.
  • the feature quantity extraction unit 537 extracts a feature quantity that depends on the distribution of the grains 512 in the feature quantity extraction region in the normalized image of the layer 511 stored in the normalized image storage unit 535 as the individual identifier 520 of the object 510. And has a function of outputting.
  • the following fixed dimension vector can be considered.
  • the feature amount extraction unit 537 divides the feature amount extraction region in the normalized image of the layer 511 into n equal directions in a direction parallel to the axis of the normalized coordinate system, and then equally divides m into a direction perpendicular to the axis.
  • the feature amount extraction area is divided into n ⁇ m blocks.
  • the feature quantity extraction unit 537 extracts the luminance of each block.
  • the feature amount extraction unit 537 compares the luminance of each block with a threshold value, and if the luminance is equal to or higher than the threshold value, for example, sets the value to 1 and otherwise sets the value to 0. Quantize. Then, the feature quantity extraction unit 537 outputs a bit string in which the quantized values of each block are arranged in a predetermined order as an n ⁇ m-dimensional feature quantity constituting the individual identifier.
  • the feature quantity extraction unit 537 extracts a fixed bit length of BREF (Binary Robust Independent Elementary Features) from the feature quantity extraction region in the normalized image of the layer 511, and outputs it as a feature quantity of the fixed dimensions constituting the individual identifier. .
  • BREF Binary Robust Independent Elementary Features
  • the feature quantity extracted by the feature quantity extraction unit 537 is not limited to the above example.
  • the feature quantity extraction unit 537 may extract the SIFT feature quantity as an individual identifier from the feature quantity extraction area in the normalized image of the layer 511.
  • the SIFT feature value is extracted directly from the image of the feature value extraction region, one of the grains 512 becomes the minimum scale, the direction does not come out, and the descriptor becomes unstable. Therefore, similarly to the feature amount extraction example in the sixth embodiment to be described later, an image having a light and shade pattern is generated by reducing the resolution of the image of the feature amount extraction region on a predetermined basis, and the image having the light and shade pattern is generated. It is desirable to extract SIFT feature values. However, from the viewpoint of speed of discrimination and identification verification, it is preferable to extract the above-described feature quantity of the fixed dimension number rather than the SIFT feature quantity.
  • the present embodiment further embodies the individual identifier extraction apparatus 100 according to the first embodiment of the present invention.
  • an individual identifier extraction apparatus 600 according to the sixth embodiment of the present invention has a function of extracting an individual identifier 620 of an object 610.
  • the object 610, the layer 611 formed on the surface thereof, and the minute particles 612 included in the layer 611 are the same as the object 110, the layer 111, and the minute particles 112 described with reference to FIG.
  • the individual identifier extraction device 600 includes a camera terminal 601 and a processing device 602 connected thereto.
  • the camera terminal 601 is the same as the camera terminal 501 described with reference to FIG.
  • the processing device 602 has a function of extracting the individual identifier 620 from the image of the layer 611 of the object 610.
  • the processing device 602 includes an image acquisition unit 631, an image storage unit 632, a layer region determination unit 633, and a feature amount extraction unit 634 as main functional units.
  • the processing device 602 includes an information processing device 540 including an arithmetic processing unit 541 such as one or more microprocessors, and a storage unit 542 such as a memory or a hard disk used as the image storage unit 632, This is realized by the program 543.
  • the program 543 is read from an external computer-readable recording medium into the memory when the information processing apparatus 540 is started up, and the operation of the arithmetic processing unit 541 is controlled, so that an image acquisition unit is displayed on the arithmetic processing unit 541.
  • functional means such as a layer area determination unit 633 and a feature amount extraction unit 634 are realized.
  • the image acquisition unit 631 and the image storage unit 632 have the same functions as the image acquisition unit 531 and the image storage unit 532 described with reference to FIG.
  • the layer region determination unit 633 has a function of determining the entire planar shape of the layer 611 stored in the image storage unit 632 as a feature amount extraction region.
  • the feature quantity extraction unit 634 extracts a feature quantity depending on the distribution of the grains 612 from the feature quantity extraction region in the image of the layer 611 stored in the image storage unit 632, and outputs it as an individual identifier 620 of the object 610. Has the function to
  • FIG. 20 is a flowchart showing the operation of the processing device 602. Hereinafter, the operation of the processing device 602 will be described with reference to FIGS. 19 and 20.
  • the image acquisition unit 631 of the processing device 602 acquires an image of the layer 611 on the object 610 using the camera terminal 601 and stores it in the image storage unit 632 (step S601).
  • the layer region determination unit 633 of the processing device 602 determines the entire planar shape of the layer 611 as a feature amount extraction region (step S602).
  • the entire layer shape of the layer 611 can be extracted by, for example, binarizing the image of the layer 611 and performing a morphological operation on the binarized image.
  • the feature quantity extraction unit 634 of the processing device 602 extracts a feature quantity depending on the distribution of the grains 612 from the feature quantity extraction region in the image of the layer 611 stored in the image storage unit 632, and It outputs as the individual identifier 620 of 610 (step S603).
  • the feature quantity extraction unit 634 extracts a feature quantity robust to image rotation, for example, a SIFT feature quantity.
  • the feature quantity extracted by the feature quantity extraction unit 634 is not limited to the SIFT feature quantity.
  • SIFT feature amounts are extracted as follows.
  • the feature amount extraction unit 634 first reduces the resolution of the image of the feature amount extraction region of the layer 611 based on a predetermined reference. As a result, an image having a shading pattern depending on the density of the grains 612 in the layer 611 is generated. Next, the feature amount extraction unit 634 extracts a SIFT feature amount from the image having the light and shade pattern.
  • the present embodiment further embodies the individual identifier extraction apparatus 100 according to the first embodiment of the present invention.
  • an individual identifier extraction apparatus 700 according to the seventh embodiment of the present invention has a function of extracting an individual identifier 720 of an object 710.
  • the object 710, the layer 711 formed on the surface thereof, and the minute particles 712 included in the layer 711 are the same as the object 110, the layer 111, and the minute particles 112 described with reference to FIG.
  • the individual identifier extraction device 700 includes a camera terminal 701 and a processing device 702 connected thereto.
  • the camera terminal 701 is the same as the camera terminal 501 described with reference to FIG.
  • the processing device 702 has a function of extracting the individual identifier 720 from the image of the layer 711 of the object 710.
  • the processing device 702 includes an image acquisition unit 731, an image storage unit 732, a first feature quantity extraction unit 733, a second feature quantity extraction unit 734, and a feature quantity integration unit 735 as main functional units.
  • the processing device 702 includes an information processing device 540 including an arithmetic processing unit 541 such as one or more microprocessors, and a storage unit 542 such as a memory or a hard disk used as the image storage unit 732, This is realized by the program 543.
  • the program 543 is read from an external computer-readable recording medium into the memory when the information processing apparatus 540 is started up, and the operation of the arithmetic processing unit 541 is controlled, so that an image acquisition unit is displayed on the arithmetic processing unit 541.
  • 731, a first feature quantity extraction unit 733, a second feature quantity extraction unit 734, and a feature quantity integration unit 735 are realized.
  • the image acquisition unit 731 and the image storage unit 732 have the same functions as the image acquisition unit 531 and the image storage unit 532 described with reference to FIG.
  • the first feature amount extraction unit 733 has a function of extracting, from the image of the layer 711, a feature amount that depends on the planar shape of the layer 711 and the distribution of the grains 712 as the first feature amount.
  • the first feature amount extraction unit 733 includes, for example, the coordinate system determination unit 533, the normalized image generation unit 534, the normalized image storage unit 535, the fixed region determination unit 536, and the feature amount extraction described with reference to FIG. This can be realized by the unit 537.
  • the first feature amount extraction unit 733 can be realized by the layer region determination unit 633 and the feature amount extraction unit 634 described with reference to FIG.
  • the second feature amount extraction unit 734 has a function of extracting a feature amount that depends on the planar shape of the layer 711 from the image of the layer 711 as the second feature amount.
  • the second feature amount extraction unit 734 has a function of extracting, as the second feature amount, a feature amount that depends on the planar shape of the layer 711 but does not depend on the distribution of the grains 712 from the image of the layer 711.
  • the feature amount extracted by the second feature amount extraction unit 734 for example, the minimum or maximum 2 calculated in the process of determining the axis of the unique coordinate system by the coordinate system determination unit 533 described with reference to FIG. Second moments can be used.
  • the feature quantity extracted by the second feature quantity extraction unit 734 is not limited to the above, and other feature quantities such as the area of the planar shape of the layer 711 and the perimeter may be used.
  • the feature amount integration unit 735 uses the first feature amount extracted by the first feature amount extraction unit 733 and the second feature amount extracted by the second feature amount extraction unit 734 to identify the individual identifier 720 of the object 710. It has the function to generate. For example, the feature quantity integration unit 735 sets the feature quantity obtained by connecting the first feature quantity and the second feature quantity as the individual identifier 720.
  • FIG. 22 is a flowchart showing the operation of the processing device 702. Hereinafter, the operation of the processing apparatus 702 will be described with reference to FIGS. 21 and 22.
  • the image acquisition unit 731 of the processing device 702 acquires an image of the layer 711 on the object 710 using the camera terminal 701 and stores it in the image storage unit 732 (step S701).
  • the first feature quantity extraction unit 733 of the processing device 702 extracts a first feature quantity depending on the planar shape of the layer 711 and the distribution of the grains 712 from the image of the layer 711 (step S702).
  • the second feature quantity extraction unit 734 of the processing device 702 extracts a second feature quantity depending on the planar shape of the layer 711 from the image of the layer 711 (step S703).
  • the feature quantity integration unit 735 of the processing device 702 generates and outputs the individual identifier 720 of the object 710 by integrating the first feature quantity and the second feature quantity (step S704).
  • the individual identifier 720 of the object 710 has the first feature amount and the second feature amount. Therefore, in the collation identification using the individual identifier 720 extracted in the present embodiment, the comparison between individual identifiers is performed by comparing the first feature quantity, comparing the second feature quantity, and the first feature quantity. It is possible to implement any one, two, or a combination of all three of the three patterns of comparison between the whole and the second feature amount. Therefore, for example, it is possible to first compare the second feature quantities, exclude candidates that are the same or not similar, and compare the first feature quantities for the remaining candidates to finally identify and match them. become.
  • an individual identifier registration apparatus 800 according to the eighth embodiment of the present invention has a function of assigning an individual identifier to a product 810 for product traceability.
  • the product 810 is an industrial product or a product package to which an individual identifier is assigned.
  • the product 810 is conveyed continuously or intermittently in the direction of the arrow shown by a belt conveyor 840 installed in the production line.
  • the individual identifier registration device 800 includes a pen 801, a camera terminal 802, and a processing device 803.
  • Pen 801 is a pen that uses ink mixed with fine particles.
  • the fine particles the same particles as the fine particles 112 described with reference to FIG. 1 can be used.
  • the pen 801 for example, a pen commercially available with a name such as a lame pen, a lame pen, or a lamellar fluorescent marker can be used.
  • a pen designed exclusively for the present invention may be used, or a commercially available pen ink may be used by replacing it with an ink mixed with fine particles.
  • a worker on the production line uses a pen 801 to hand-write a point (dot) having a maximum width of about 1 mm on the product 810.
  • the size of the points is not limited to the above, and may be arbitrary.
  • a point 811 containing minute grains at random positions and having an indefinite planar shape is formed on the product 810.
  • a point 811 corresponds to the layer 211 in the second embodiment.
  • the camera terminal 802 is the same as the camera terminal 501 described with reference to FIG.
  • the processing device 803 includes an individual identifier extraction unit 831 and an individual identifier registration unit 832.
  • the individual identifier extraction unit 831 acquires an image of the point 811 formed on the product 810 using the camera terminal 802, and depends on the planar shape of the point 811 and the distribution of grains in the point 811 from the image. It has a function of extracting a feature quantity as an individual identifier of the product 810.
  • the individual identifier extraction unit 831 can be realized, for example, by the processing device 502 described with reference to FIG. Alternatively, the individual identifier extraction unit 831 can be realized, for example, by the processing device 602 described with reference to FIG. Or the individual identifier extraction part 831 is realizable by the processing apparatus 702 demonstrated with reference to FIG. 21, for example.
  • the individual identifier registration unit 832 has a function of registering the individual identifier of the product 810 extracted by the individual identifier extraction unit 831 in the storage unit 820 as the individual identifier of the registered product.
  • the individual identifier registration unit 832 can be realized, for example, by the individual identifier registration unit 203 described with reference to FIG.
  • FIG. 24 is a flowchart showing the procedure of an individual identifier registration method executed using the individual identifier registration device 800.
  • the individual identifier registration method according to the present embodiment will be described with reference to FIGS.
  • the worker uses the pen 801 to hand-write a point 811 on the product 801 flowing on the belt conveyor 840 (step S801).
  • the individual identifier extraction unit 831 of the processing device 803 acquires an image of the point 811 formed on the product 810 using the camera terminal 802 (step S802). Then, the individual identifier extraction unit 831 extracts, from the acquired image of the point 811, the feature quantity that depends on the planar shape of the point 811 and the distribution of the grains included in the point 811 as the individual identifier of the product 810 (step S 803 ).
  • the individual identifier registration unit 832 of the processing apparatus 803 registers the individual identifier of the extracted product 810 in the storage unit 820 in association with the attribute value of the product (step S804).
  • the same effects as those of the second embodiment can be obtained, and the parts (objects) that are manually assembled by the product assembly manufacturer can be used with the pen 801 even without a special application device.
  • the individual identifier can be given by the camera terminal 802.
  • the size of the point 811 generated on the product 810 is naturally reduced. Therefore, an individual identifier can be assigned to a small part (object) that has no space for printing a barcode or the like.
  • the present embodiment further embodies an individual identifier management system according to the fourth embodiment of the present invention.
  • an individual identifier management system 900 according to the ninth embodiment of the present invention has a function of managing an individual identifier as a locker key.
  • the individual identifier management system 900 includes a pen 901, a camera terminal 902, and a processing device 903.
  • the pen 901 is the same as the pen 801 described with reference to FIG.
  • an individual who uses a locker uses a pen 901 to have his / her belongings (such as a business card and a notebook) or a part of his / her body (such as a finger) (hereinafter referred to as a specific object).
  • a point 911 containing minute grains at random positions and having an indefinite planar shape is formed on the specific object 910.
  • a point 911 corresponds to the layer 411 in the fourth embodiment.
  • the camera terminal 902 is the same as the camera terminal 501 described with reference to FIG.
  • the processing device 903 includes an individual identifier extraction unit 931 and a control unit 932.
  • the individual identifier extraction unit 931 has the same function as the individual identifier extraction unit 831 described with reference to FIG.
  • the control unit 932 has a function of controlling locking and unlocking of the locker 940. There are n lockers 940 from locker number 1 to locker number n. The control unit 932 grasps the usage state of each locker 940. When the locker number is input through the input device 950 by the individual, the control unit 932 executes processing according to the use state of the locker 940 of the locker number. Specifically, if the locker 940 having the input locker number is not used, the control unit 932 performs an individual identifier registration process, and unlocks the electronic lock of the locker 940 when the registration process is completed.
  • the control unit 932 performs the individual identifier verification process, and when the verification is successful, unlocks the electronic lock of the locker 940.
  • the locker 940 is automatically locked when the locker door is closed.
  • the control unit 932 uses the individual identifier registration unit 934 in the individual identifier registration process.
  • the individual identifier registration unit 934 has a function of registering the individual identifier of the specific object 910 extracted by the individual identifier extraction unit 931 in the storage unit 920 in association with the input locker number.
  • control unit 932 uses the identification verification unit 935 in the individual identifier verification process.
  • the identification verification unit 935 compares the individual identifier extracted by the individual identifier extraction unit 931 with the individual identifier stored in the storage unit 920 in association with the locker number input by the individual, and compares based on the comparison result Has the function of performing
  • FIG. 26 is a flowchart showing the procedure of the individual identifier management method executed using the individual identifier management system 900.
  • the individual identifier management method according to the present embodiment will be described with reference to FIGS. 25 and 26.
  • the individual using the locker 940 inputs the desired locker number at the first use through the input device 950, and inputs the locker number used by the individual at the second and subsequent uses (step S901).
  • the processing device 903 uses the control unit 932 to determine whether the locker 940 having the locker number input by the individual is unused or in use (step S902). For example, the control unit 932 determines that the individual identifier is stored in the storage unit 920 corresponding to the input locker number, and determines that it is not used otherwise.
  • the individual who uses the locker 940 for the first time uses the pen 901 to hand-write a dot (dot) on his / her belongings or a specific object 910 which is a part of his / her own body (step S903).
  • the processing device 903 acquires an image of a point handwritten on the specific object 910 using the pen 901 by the individual using the camera terminal 902 (step S904).
  • the processing device 903 uses the individual identifier extraction unit 931 to extract, as an individual identifier, a feature quantity that depends on the planar shape of the point and the distribution of grains within the point from the acquired point image (step S905).
  • the processing device 903 causes the individual identifier registration unit 934 of the control unit 932 to register the individual identifier in the storage unit 920 in association with the input locker number (step S906).
  • the processing device 903 unlocks the electronic lock of the locker 940 with the input locker number by the control unit 932 (S907).
  • the processing device 903 finishes the process of FIG. When an individual stores valuables in the unlocked locker 940 and closes the locker door, the individual is automatically locked.
  • the processing device 903 determines that the locker 940 having the locker number input by the individual is in use, the camera terminal 902 acquires an image of a point handwritten on the specific object 910 presented by the individual (step S908). ). Next, the processing device 903 uses the individual identifier extraction unit 931 to extract, as an individual identifier, a feature quantity that depends on the planar shape of the point and the distribution of grains within the point from the acquired point image (step S909). Next, the processing device 903 compares the individual identifier with the individual identifier stored in the storage unit 920 in association with the input locker number by the identification collating unit 935 of the control unit 932 (step S910).
  • the processing device 903 uses the control unit 932 to determine collation of the individual identifier based on the comparison result (step S911). Then, the processing device 903 unlocks the electronic lock of the locker 940 with the input locker number only when the control unit 932 succeeds in collation (S907).
  • an individual identifier can be assigned with a pen, so that it can be used for personal authentication and management of personal belongings.
  • Patent Documents 1 to 3 in which a taggant layer must be formed in a specific region of an object, it is difficult for an individual to give an individual identifier.
  • a pen 1000 according to the present embodiment is provided with a pen tip portion 1002 made of a felt material in a through hole provided at a tip portion of a pen-shaped housing 1001.
  • the housing 1001 is divided into two rooms by a partition wall 1005, and each room is filled with ink 1003 and 1004.
  • the density of the particles of the inks 1003 and 1004 is different from each other.
  • the density per minute volume of fine particles contained in the ink 1003 is several times to several tens of times higher than the density per minute volume of fine particles contained in the ink 1004.
  • each minute particle is different in reflection characteristics from other ink materials.
  • the inks 1003 and 1004 filled in the respective chambers in the housing 1001 always soak into the pen tip 1002 due to capillary action, but both inks are completely at the tip of the pen tip 1002 as well. Not mixed. As a result, when dots (dots) are drawn with ink that oozes from the tip of the nib portion 1002, the distribution of minute particles in the dots becomes non-uniform.
  • the cap 1006 attached to the rear end of the housing 1001 is detachable so that the inks 1003 and 1004 can be replenished.
  • the felt material 1002 In the pen 1000 shown in FIG. 27, two types of ink with different fine particle content densities are soaked into the felt material 1002, but three or more types of ink with different fine particle content densities are penned.
  • the front part 1002 may be soaked.
  • the present invention can be used in the field of identifying and collating individual identities such as industrial products and products.
  • [Appendix 1] An acquisition unit that acquires an image of a layer that is formed on an object, contains minute particles, and has an indefinite planar shape; An extraction unit that extracts, from the image, a feature amount that depends on a planar shape of the layer and a distribution of the grains as an individual identifier of the object; An individual identifier extraction apparatus having [Appendix 2]
  • the extraction unit includes: An area determining unit that determines an area depending on a planar shape of the layer from the image; A feature amount extraction unit that extracts a feature amount that depends on the distribution of the grains in the region of the layer as an individual identifier of the object; Having The individual identifier extraction device according to attachment 1.
  • the region determination unit A coordinate system determining unit that determines a coordinate system unique to the layer from the entire image of the layer; A normalized image generating unit that generates a normalized image of the layer from the image of the layer based on the unique coordinate system and a predetermined normalized coordinate system; A fixed region determining unit that determines a predetermined region in the normalized image of the layer as a region depending on a planar shape of the layer; Having The individual identifier extraction device according to attachment 2.
  • the coordinate system determination unit A filled image generating unit that generates a filled image having a planar shape that matches the planar shape of the layer; A filled image processing unit that determines the unique coordinate system from the characteristics of the filled image; Having The individual identifier extraction device according to attachment 3.
  • the filled image generation unit performs a morphological operation after binarizing the image of the layer to generate the filled image.
  • the filled image processing unit is an axis parallel to the image plane passing through the center of gravity of the unique coordinate system and the center of gravity of the filled image, and the second moment around the axis is a minimum or maximum axis.
  • the coordinate system determination unit A resolution reducing unit that generates a low resolution image obtained by reducing the resolution of the image of the layer; A keypoint / scale detector for detecting a plurality of keypoints and scales from the low-resolution image; A direction detector for detecting directions of the plurality of key points; A statistical processing unit for determining an origin of the unique coordinate system from the positions of the plurality of key points, and determining a scale and axis of the unique coordinate system from a statistical value of the scale and direction of the plurality of key points; Having The individual identifier extraction device according to attachment 3.
  • the region determination unit Determining the entire planar shape of the layer as a region dependent on the planar shape of the layer; The individual identifier extraction device according to attachment 2.
  • the extraction unit extracts the feature amount as a first feature amount from the image, extracts a feature amount that depends on a planar shape of the layer as a second feature amount, and the first feature amount Integrating the second feature amount to generate an individual identifier of the object; The individual identifier extraction device according to attachment 1.
  • the fine particles have different reflection characteristics from the material of the layer other than the fine particles, The individual identifier extraction device according to any one of appendices 1 to 9.
  • [Appendix 14] Acquire an image of a layer that is formed on an object, contains fine particles, and has an indefinite planar shape, From the image, extract the feature quantity depending on the planar shape of the layer and the distribution of the grains as an individual identifier of the object, Individual identifier extraction method.
  • [Appendix 15] In the extraction, From the image, determine a region that depends on the planar shape of the layer; Extracting a feature quantity depending on the distribution of the grains in the region of the layer as an individual identifier of the object; The individual identifier extraction method according to appendix 14.
  • the feature amount is extracted from the image as a first feature amount, and a feature amount that depends on a planar shape of the layer is extracted as a second feature amount, and the first feature amount and the An individual identifier of the object is generated by integrating the second feature amount, The individual identifier extraction method according to appendix 14.
  • the fine particles have different reflection characteristics from the material of the layer other than the fine particles, The individual identifier extraction method according to any one of appendices 14 to 22.
  • the fine grains are contained non-uniformly in the layer, The individual identifier extraction method according to any one of appendices 14 to 23.
  • Appendix 25 An identification method comprising performing identification using an individual identifier extracted by the individual identifier extraction method according to any one of appendices 14 to 22.
  • Appendix 26 23.
  • a collation method wherein collation is performed using the individual identifier extracted by the individual identifier extraction method according to appendixes 14 to 22.
  • An acquisition unit that acquires an image of a layer that is formed on an object, contains minute particles, and has an indefinite planar shape;
  • An extraction unit that extracts, from the image, a feature amount that depends on a planar shape of the layer and a distribution of the grains as an individual identifier of the object;
  • a determination unit that compares the individual identifier extracted by the extraction unit and the individual identifier of the registered object stored in the storage unit, and performs identification / collation determination of the object based on the comparison result;
  • An identification verification device that uses an identification verification device.
  • the extraction unit includes: An area determining unit that determines an area depending on a planar shape of the layer from the image; A feature amount extraction unit that extracts a feature amount that depends on the distribution of the grains in the region of the layer as an individual identifier of the object; Having The identification verification apparatus according to appendix 27.
  • the region determination unit A coordinate system determining unit that determines a coordinate system unique to the layer from the entire image of the layer; A normalized image generating unit that generates a normalized image of the layer from the image of the layer based on the unique coordinate system and a predetermined normalized coordinate system; A fixed region determining unit that determines a predetermined region in the normalized image of the layer as a region depending on a planar shape of the layer; Having The identification verification apparatus according to attachment 28.
  • the coordinate system determination unit A filled image generating unit that generates a filled image having a planar shape that matches the planar shape of the layer; A filled image processing unit that determines the unique coordinate system from the characteristics of the filled image; Having The identification verification apparatus according to attachment 29.
  • the filled image generation unit performs a morphological operation after binarizing the image of the layer to generate the filled image.
  • the filled image processing unit is an axis parallel to the image plane passing through the center of gravity of the unique coordinate system and the center of gravity of the filled image, and the second moment around the axis is a minimum or maximum axis.
  • the identification verification apparatus Is the axis of the fixed coordinate system, and the area of the filled image is the scale of the unique coordinate system,
  • the identification verification apparatus according to Supplementary Note 30 or 31.
  • the coordinate system determination unit A resolution reducing unit that generates a low resolution image obtained by reducing the resolution of the image of the layer;
  • a keypoint / scale detector for detecting a plurality of keypoints and scales from the low-resolution image;
  • a direction detector for detecting directions of the plurality of key points;
  • a statistical processing unit for determining an origin of the unique coordinate system from the positions of the plurality of key points, and determining a scale and axis of the unique coordinate system from a statistical value of the scale and direction of the plurality of key points; Having The identification verification apparatus according to attachment 29.
  • [Appendix 34] The region determination unit Determining the entire planar shape of the layer as a region dependent on the planar shape of the layer; The identification verification apparatus according to attachment 28.
  • the extraction unit extracts the feature amount as a first feature amount from the image, extracts a feature amount that depends on a planar shape of the layer as a second feature amount, and the first feature amount Integrating the second feature amount to generate an individual identifier of the object; The identification verification apparatus according to appendix 27.
  • the fine particles have different reflection characteristics from the material of the layer other than the fine particles, The identification verification apparatus according to any one of appendices 27 to 35.
  • the fine grains are contained non-uniformly in the layer, 37.
  • the identification verification device according to any one of appendices 27 to 36.
  • Appendix 38 Acquire an image of a layer that is formed on an object, contains fine particles, and has an indefinite planar shape, From the image, extract the feature quantity depending on the planar shape of the layer and the distribution of the grains as an individual identifier of the object, The extracted individual identifier is compared with the individual identifier of the registered object stored in the storage unit, and based on the comparison result, identification / collation of the object is determined. Identification verification method.
  • the identification verification method according to appendix 41 or 42 In the determination of the coordinate system, Generating a low-resolution image obtained by reducing the resolution of the layer image; Detecting a plurality of key points and scales from the low resolution image; Detecting directions of the plurality of key points; Determining the origin of the unique coordinate system from the position of the plurality of key points, and determining the scale and axis of the unique coordinate system from the scale and direction statistics of the plurality of key points; 45.
  • the identification verification method according to appendix 40 In the determination of the coordinate system, Generating a low-resolution image obtained by reducing the resolution of the layer image; Detecting a plurality of key points and scales from the low resolution image; Detecting directions of the plurality of key points; Determining the origin of the unique coordinate system from the position of the plurality of key points, and determining the scale and axis of the unique coordinate system from the scale and direction statistics of the plurality of key points; 45.
  • [Appendix 48] The fine grains are contained non-uniformly in the layer, 48.
  • the identification verification method according to any one of appendices 38 to 47.
  • [Appendix 49] Computer An acquisition unit that acquires an image of a layer that is formed on an object, contains minute particles, and has an indefinite planar shape; An extraction unit that extracts, from the image, a feature amount that depends on a planar shape of the layer and a distribution of the grains as an individual identifier of the object; Program to make it function.
  • the extraction unit includes: An area determining unit that determines an area depending on a planar shape of the layer from the image; A feature amount extraction unit that extracts a feature amount that depends on the distribution of the grains in the region of the layer as an individual identifier of the object; Having The program according to appendix 49.
  • the region determination unit A coordinate system determining unit that determines a coordinate system unique to the layer from the entire image of the layer; A normalized image generating unit that generates a normalized image of the layer from the image of the layer based on the unique coordinate system and a predetermined normalized coordinate system; A fixed region determining unit that determines a predetermined region in the normalized image of the layer as a region depending on a planar shape of the layer; Having The program according to appendix 50.
  • the coordinate system determination unit A filled image generating unit that generates a filled image having a planar shape that matches the planar shape of the layer; A filled image processing unit that determines the unique coordinate system from the characteristics of the filled image; Having The program according to appendix 51.
  • the filled image generation unit performs a morphological operation after binarizing the image of the layer to generate the filled image.
  • the filled image processing unit is an axis parallel to the image plane passing through the center of gravity of the unique coordinate system and the center of gravity of the filled image, and the second moment around the axis is a minimum or maximum axis.
  • the coordinate system determination unit A resolution reducing unit that generates a low resolution image obtained by reducing the resolution of the image of the layer; A keypoint / scale detector for detecting a plurality of keypoints and scales from the low-resolution image; A direction detector for detecting directions of the plurality of key points; A statistical processing unit for determining an origin of the unique coordinate system from the positions of the plurality of key points, and determining a scale and axis of the unique coordinate system from a statistical value of the scale and direction of the plurality of key points; Having The program according to appendix 51.
  • the region determination unit Determining the entire planar shape of the layer as a region dependent on the planar shape of the layer; The program according to appendix 50.
  • the extraction unit extracts the feature amount as a first feature amount from the image, extracts a feature amount that depends on a planar shape of the layer as a second feature amount, and the first feature amount Integrating the second feature amount to generate an individual identifier of the object;
  • the fine particles have different reflection characteristics from the material of the layer other than the fine particles, 58.
  • [Appendix 59] The fine grains are contained non-uniformly in the layer, The program according to any one of appendices 49 to 58.
  • Appendix 60 A layer that is formed on an object, contains minute grains, and has an indefinite planar shape, and a feature quantity dependent on the planar shape of the layer and the distribution of the grains is determined from the image of the layer.
  • An individual identification mark composed of layers extracted as identifiers.
  • the fine particles have different reflection characteristics from the material of the layer other than the fine particles, The individual identification mark according to attachment 60.
  • the fine grains are contained non-uniformly in the layer, The individual identification mark according to appendix 60 or 61.
  • a grant unit that contains fine particles and generates a layer whose planar shape is an indefinite shape
  • An acquisition unit for acquiring an image of the generated layer
  • An extraction unit that extracts, from the image, a feature amount that depends on a planar shape of the layer and a distribution of the grains as an individual identifier of the object
  • the extraction unit includes: An area determining unit that determines an area depending on a planar shape of the layer from the image; A feature amount extraction unit that extracts a feature amount that depends on the distribution of the grains in the region of the layer as an individual identifier of the object; Having The individual identifier registration device according to attachment 63.
  • the region determination unit A coordinate system determining unit that determines a coordinate system unique to the layer from the entire image of the layer; A normalized image generating unit that generates a normalized image of the layer from the image of the layer based on the unique coordinate system and a predetermined normalized coordinate system; A fixed region determining unit that determines a predetermined region in the normalized image of the layer as a region depending on a planar shape of the layer; Having The individual identifier registration device according to attachment 64.
  • the coordinate system determination unit A filled image generating unit that generates a filled image having a planar shape that matches the planar shape of the layer; A filled image processing unit that determines the unique coordinate system from the characteristics of the filled image; Having The individual identifier registration device according to attachment 65.
  • the filled image generation unit performs a morphological operation after binarizing the image of the layer to generate the filled image.
  • the filled image processing unit is an axis parallel to the image plane passing through the center of gravity of the unique coordinate system and the center of gravity of the filled image, and the second moment around the axis is a minimum or maximum axis.
  • the coordinate system determination unit A resolution reducing unit that generates a low resolution image obtained by reducing the resolution of the image of the layer; A keypoint / scale detector for detecting a plurality of keypoints and scales from the low-resolution image; A direction detector for detecting directions of the plurality of key points; A statistical processing unit for determining an origin of the unique coordinate system from the positions of the plurality of key points, and determining a scale and axis of the unique coordinate system from a statistical value of the scale and direction of the plurality of key points; Having The individual identifier registration device according to attachment 65.
  • the region determination unit Determining the entire planar shape of the layer as a region dependent on the planar shape of the layer; The individual identifier registration device according to attachment 64.
  • the extraction unit extracts the feature amount as a first feature amount from the image, extracts a feature amount that depends on a planar shape of the layer as a second feature amount, and the first feature amount Integrating the second feature amount to generate an individual identifier of the object; The individual identifier registration device according to attachment 63.
  • the fine particles have different reflection characteristics from the material of the layer other than the fine particles, The individual identifier registration device according to any one of appendices 63 to 72.
  • the fine grains are contained non-uniformly in the layer, The individual identifier registration device according to any one of appendices 63 to 73.
  • the applying unit is a pen that uses ink containing the particles.
  • the individual identifier registration device according to any one of appendices 63 to 74.
  • Appendix 76 On the object, a layer containing minute grains and having an irregular planar shape is generated. Obtaining an image of the generated layer; From the image, extract the feature quantity depending on the planar shape of the layer and the distribution of the grains as an individual identifier of the object, Individual identifier registration method.
  • the extraction unit includes: An area determining unit that determines an area depending on a planar shape of the layer from the image; A feature amount extraction unit that extracts a feature amount that depends on the distribution of the grains in the region of the layer as an individual identifier of the object; Having The individual identifier registration method according to attachment 76.
  • the region determination unit A coordinate system determining unit that determines a coordinate system unique to the layer from the entire image of the layer; A normalized image generating unit that generates a normalized image of the layer from the image of the layer based on the unique coordinate system and a predetermined normalized coordinate system; A fixed region determining unit that determines a predetermined region in the normalized image of the layer as a region depending on a planar shape of the layer; Having The individual identifier registration method according to appendix 77.
  • the coordinate system determination unit A filled image generating unit that generates a filled image having a planar shape that matches the planar shape of the layer; A filled image processing unit that determines the unique coordinate system from the characteristics of the filled image; Having The individual identifier registration method according to attachment 78.
  • the filled image generation unit performs a morphological operation after binarizing the image of the layer to generate the filled image.
  • the filled image processing unit is an axis parallel to the image plane passing through the center of gravity of the unique coordinate system and the center of gravity of the filled image, and the second moment around the axis is a minimum or maximum axis.
  • the coordinate system determination unit A resolution reducing unit that generates a low resolution image obtained by reducing the resolution of the image of the layer; A keypoint / scale detector for detecting a plurality of keypoints and scales from the low-resolution image; A direction detector for detecting directions of the plurality of key points; A statistical processing unit for determining an origin of the unique coordinate system from the positions of the plurality of key points, and determining a scale and axis of the unique coordinate system from a statistical value of the scale and direction of the plurality of key points; Having The individual identifier registration method according to attachment 78.
  • the region determination unit Determining the entire planar shape of the layer as a region dependent on the planar shape of the layer; The individual identifier registration method according to appendix 77.
  • the extraction unit extracts the feature amount as a first feature amount from the image, extracts a feature amount that depends on a planar shape of the layer as a second feature amount, and the first feature amount Integrating the second feature amount to generate an individual identifier of the object; The individual identifier registration method according to attachment 76.
  • [Appendix 85] Registering the extracted individual identifier in the storage unit as an individual identifier of a registered object; 85. The individual identifier registration method according to any one of appendices 76 to 84.
  • the extraction unit includes: An area determining unit that determines an area depending on a planar shape of the layer from the image; A feature amount extraction unit that extracts a feature amount that depends on the distribution of the grains in the region of the layer as an individual identifier of the object; Having The individual identifier management device according to attachment 91.
  • the region determination unit A coordinate system determining unit that determines a coordinate system unique to the layer from the entire image of the layer; A normalized image generating unit that generates a normalized image of the layer from the image of the layer based on the unique coordinate system and a predetermined normalized coordinate system; A fixed region determining unit that determines a predetermined region in the normalized image of the layer as a region depending on a planar shape of the layer; Having The individual identifier management device according to attachment 92.
  • the coordinate system determination unit A filled image generating unit that generates a filled image having a planar shape that matches the planar shape of the layer; A filled image processing unit that determines the unique coordinate system from the characteristics of the filled image; Having The individual identifier management device according to attachment 93.
  • the filled image generation unit performs a morphological operation after binarizing the image of the layer to generate the filled image. 95.
  • the filled image processing unit is an axis parallel to the image plane passing through the center of gravity of the unique coordinate system and the center of gravity of the filled image, and the second moment around the axis is a minimum or maximum axis.
  • the coordinate system determination unit A resolution reducing unit that generates a low resolution image obtained by reducing the resolution of the image of the layer; A keypoint / scale detector for detecting a plurality of keypoints and scales from the low-resolution image; A direction detector for detecting directions of the plurality of key points; A statistical processing unit for determining an origin of the unique coordinate system from the positions of the plurality of key points, and determining a scale and axis of the unique coordinate system from a statistical value of the scale and direction of the plurality of key points; Having The individual identifier management device according to attachment 93.
  • the region determination unit Determining the entire planar shape of the layer as a region dependent on the planar shape of the layer; The individual identifier management device according to attachment 92.
  • the extraction unit extracts the feature amount as a first feature amount from the image, extracts a feature amount that depends on a planar shape of the layer as a second feature amount, and the first feature amount Integrating the second feature amount to generate an individual identifier of the object; The individual identifier management device according to attachment 91.
  • the fine particles have different reflection characteristics from the material of the layer other than the fine particles, The individual identifier management device according to any one of appendices 91 to 99.
  • [Appendix 101] The fine grains are contained non-uniformly in the layer, The individual identifier management device according to any one of appendices 91 to 100.
  • [Appendix 102] A determination unit that compares the individual identifier extracted by the extraction unit with the individual identifier of the registered object stored in the storage unit, and performs determination of object identification / collation based on the comparison result; Having The individual identifier management device according to any one of appendices 91 to 101.
  • Appendix 103 An imparting unit for generating the layer on the object; Having The individual identifier management device according to any one of appendices 91 to 101.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

個体識別子抽出装置は、物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、上記画像から、層の平面形状および粒の分布に依存する特徴量を、物体の個体識別子として抽出する抽出部と、を有する。

Description

個体識別子抽出装置
 本発明は、個体識別子抽出装置、個体識別子抽出方法、識別装置、照合装置、識別方法、照合方法、識別照合装置、識別照合方法、個体識別マーク、プログラム、個体識別子登録装置、個体識別子登録方法、個体識別子管理システム、個体識別子管理方法に関する。
 工業製品や商品等の個体の同一性を識別するための個体識別技術には、バーコード、シリアル番号、ICタグ等、多種多様なものが提案乃至実用化されている。そのような個体識別技術の一種として、微小な粒を含有する層を物体上に形成し、その層を撮像して得られる画像から特徴量を抽出し、この抽出した特徴量を物体の個体識別子とする技術がある。
 例えば、微小な粒としてタガント(taggant:追跡用添加物)を使用し、タガントを含有する層を物体上に形成し、その層の所定の領域を撮像して得られる画像から抽出した上記所定の領域における粒の分布を特徴量(物体の個体識別子)とすることが、特許文献1、特許文献2および特許文献3に記載されている。
 具体的には、特許文献1では、基準物体の表面の全部または一部に、タガントを混入した印刷インク等を塗布してタガント分布層を形成し、このタガント分布層を読取った画像から抽出した特徴量を当該基準物体の個体識別子とする。対象物体と照合を行う際は、読取りの向き、位置、範囲を基準物体の読み取りと同一の条件にして、対象物体上のタガント分布層の画像を読み取り、その画像から抽出した特徴量を基準物体の個体識別子と比較する。
 また特許文献2では、各物体上に、位置合わせの基準となる原点を設定し、その原点から右方向をX軸の正方向、下方向をY軸の正方向として定義される2次元平面の所定の領域から特徴量を抽出し、この抽出した特徴量を当該物体の個体識別子とする。
 また特許文献3では、物体上に基準部(位置合わせマーク、ライン、企業ロゴ、枠、物体自体の縁もしくは縁の組み合わせ等)を設け、少なくとも基準部が完全に覆われるように、タガントを含有する塗料等をスプレーしてランダムなパターンを付着させる。そして、基準部の画像からタガントの分布に依存する特徴量を抽出し、それを当該物体の個体識別子とする。
特開2013-69188号公報 特開2014-6840号公報 特表2007-534067号公報
 上述した特許文献1乃至3に記載の個体識別技術では、個体識別子として使用する特徴量を抽出する位置および範囲を物体ごとに規定している。物体上の位置および範囲の定義は、物体の外形やサイズが相違すると異なるものとなる。そのため、特許文献1乃至3に記載の個体識別技術は、外形やサイズが同じ物体に適用が制限され、外形やサイズが相違する複数種類の物体に汎用的に適用するのは困難である。
 本発明の目的は、上述した課題を解決する個体識別技術を提供することにある。
 本発明の一実施形態に係る個体識別子抽出装置は、
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
を有する。
 また本発明の他の実施形態に係る個体識別子抽出方法は、
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得し、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する。
 また本発明の他の実施形態に係る個体識別子登録装置は、
 物体上に、微小な粒を含有し、平面形状が不定形状である層を生成する付与部と、
 前記生成された層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
を有する。
 また本発明の他の実施形態に係る個体識別子登録方法は、
 物体上に、微小な粒を含有し、平面形状が不定形状である層を生成し、
 前記生成された層の画像を取得し、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する。
 また本発明の他の実施形態に係る識別照合装置は、
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
 前記抽出部で抽出された個体識別子と記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う判定部と、
を有する。
 また本発明の他の実施形態に係る識別照合方法は、
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得し、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出し、
 前記抽出された個体識別子と記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う。
 また本発明の他の実施形態に係る個体識別子管理システムは、本発明の上記実施形態に係る個体識別子登録装置と上記実施形態に係る識別照合装置とを有する。
 また本発明の他の実施形態に係る個体識別子管理方法は、本発明の上記実施形態に係る個体識別子登録方法と上記実施形態に係る識別照合方法とを行う。
 また本発明の他の実施形態に係るプログラムは、
 コンピュータを、
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
して機能させる。
 また本発明の他の実施形態に係る個体識別マークは、物体上に形成され、微小な粒を含有し、平面形状が不定形状である層であって、前記層の画像から前記層の平面形状および前記粒の分布に依存する特徴量が前記物体の個体識別子として抽出される層から構成される。
 本発明は上述した構成を有するため、外形やサイズ等が相違する複数種類の物体に汎用的に適用できる個体識別技術を提供することができる。
本発明の第1の実施形態に係る個体識別子抽出装置のブロック図である。 本発明の第1の実施形態に係る個体識別子抽出装置により実行する個体識別子抽出方法の手順を示すフローチャートである。 本発明の第2の実施形態に係る個体識別子登録装置のブロック図である。 本発明の第2の実施形態に係る個体識別子登録装置が記憶部に登録するデータの例を示す図である。 本発明の第2の実施形態に係る個体識別子登録装置により実行する個体識別子登録方法の手順を示すフローチャートである。 本発明の第3の実施形態に係る識別照合装置のブロック図である。 本発明の第3の実施形態に係る識別照合装置により実行する識別照合方法の手順を示すフローチャートである。 本発明の第4の実施形態に係る個体識別子管理装置のブロック図である。 本発明の第4の実施形態に係る個体識別子管理装置により実行する個体識別子管理方法の手順を示すフローチャートである。 本発明の第5の実施形態に係る個体識別子抽出装置のブロック図である。 本発明の個体識別子抽出装置、個体識別子登録装置、識別照合装置、個体識別子管理装置のハードウェアの構成例を示す図である。 本発明の第5の実施形態に係る個体識別子抽出装置の処理装置の動作を示すフローチャートである。 本発明の第5の実施形態に係る個体識別子抽出装置における座標系決定部の構成例を示すブロック図である。 本発明の第5の実施形態に係る個体識別子抽出装置における座標系決定部の動作説明図である。 本発明の第5の実施形態に係る個体識別子抽出装置における座標系決定部の他の構成例を示すブロック図である。 本発明の第5の実施形態に係る個体識別子抽出装置における座標系決定部の動作説明図である。 本発明の第5の実施形態に係る個体識別子抽出装置における正規化画像生成部の動作説明図である。 本発明の第5の実施形態に係る個体識別子抽出装置における固定領域決定部の動作説明図である。 本発明の第6の実施形態に係る個体識別子抽出装置のブロック図である。 本発明の第6の実施形態に係る個体識別子抽出装置の処理装置の動作を示すフローチャートである。 本発明の第7の実施形態に係る個体識別子抽出装置のブロック図である。 本発明の第7の実施形態に係る個体識別子抽出装置の処理装置の動作を示すフローチャートである。 本発明の第8の実施形態に係る個体識別子登録装置の構成を示す図である。 本発明の第8の実施形態に係る個体識別子登録装置の動作の手順を示すフローチャートである。 本発明の第9の実施形態に係る個体識別子管理装置の構成を示す図である。 本発明の第9の実施形態に係る個体識別子管理装置の動作の手順を示すフローチャートである。 本発明の第10の実施形態に係るペンの構成図である。
 まず、本発明の実施形態の理解を容易にするために、本発明の背景を説明する。
 流通する物体個体のトレーサビリティの確保を目的として、バーコードやICタグ等の個体識別子が一般に利用されている。ところが、これらの個体識別子は偽造が容易である。それらの課題に対し、物体上にタガントを含有する層を設け、タガント粒子の分布を個体識別子としてトレーサビリティを確保することが行われている。
 しかしながら、上述のいずれの個体識別子も多種・大量の物体に対する共通の識別子とすることはできない。その理由は、通常、利用可能な個体識別子や、個体識別子の特徴量を抽出する位置が、個体の種類毎に異なるため、個体の種類毎に専用の撮像装置や照合装置が必要となるからである。また、ICタグの付与はコストが高い。バーコードやシリアル番号であっても、個体の数が大量になればなるほど、印字等にコストがかかる。さらに対象となる個体が小さい部品であれば、バーコード等を印字するスペースの確保が難しいという課題もある。
 以下に説明される本発明の実施形態によれば、上述の課題が解決され、安価かつ高速に照合可能な個体識別子が提供される。
 次に本発明の実施の形態について図面を参照して詳細に説明する。
[第1の実施形態]
 図1を参照すると、本発明の第1の実施形態に係る個体識別子抽出装置100は、物体110の個体識別子120を抽出する機能を有する。
 物体110は、工業製品や商品パッケージなど、個体識別子を抽出する対象である。物体110の何れかの面上には、層111が形成されている。図1では、物体110の外形は直方体であるが、物体110の外形は直方体に限定されず、任意でよい。また図1では、個体識別子を抽出する物体110は、1個のみ図示しているが、一般には多数の物体110が個体識別子を抽出する対象となる。その場合、多数の物体110は、同じ外形を有する同じ種類の物体(例えば或る生産ラインで生産されている特定の電子部品など)の集合であってもよいし、異なる外形・サイズを有する異なる種類の物体(例えば異なる複数の生産ラインで生産されている異なる外形、機能を有する電子部品など)の集合が混在していてもよい。
 層111は、微小な粒112をランダムな位置に含有している。微小な粒112としては、金属粉やガラス粉などの微粒子や、特許文献1乃至3に記載されるタガントなどが使用できる。微小な粒112は、層111を構成する材料(微小な粒112を除く)と反射特性が異なる粒であることが望ましい。また微小な粒112は、層111に不均一に含有していることが望ましい。即ち、層111における微小な粒112の分布は、不均一であることが望ましい。また層111の平面形状は不定形状である。層111の平面形状とは、層111の真上から見た形状のことである。このような層111は、例えば、微小な粒112を混入した印刷インク、塗料などを、ペン等を使用して物体110の表面に1滴だけ滴下させて、固化させることにより形成することができる。但し、層111の形成方法は、そのような方法に限定されず、微小な粒112を混入した印刷インク、塗料などを刷毛などにより塗布する等、他の任意の方法を使用してよい。
 個体識別子抽出装置100は、主な機能部として、取得部101と抽出部102とを有する。
 取得部101は、物体110上に形成されている層111の画像を取得する機能を有する。ここで、取得部101は、層111の平面形状が写っている画像を取得する。また取得部101は、層111に存在する粒112の分布に依存する特徴量を抽出できる品質を有する画像を取得する。
 抽出部102は、取得部101によって取得された画像から、層111の平面形状および粒112の分布に依存する特徴量を、物体110の個体識別子120として抽出する機能を有する。抽出部102が画像から抽出する特徴量は、層111の平面形状および粒112の分布に依存する特徴量であれば、その種類は問わない。
 図2は個体識別子抽出装置100を用いて実行する個体識別子抽出方法の手順を示すフローチャートである。以下、図1および図2を参照して本実施形態に係る個体識別子抽出方法について説明する。
 まず、個体識別子抽出装置100の取得部101は、物体110上に形成されている層111の画像を取得する(ステップS101)。
 次に、個体識別抽出装置100の抽出部102は、取得部101が取得した層111の画像から、層111の平面形状および粒112の分布に依存する特徴量を、物体110の個体識別子120として抽出する(ステップS102)。
 このように本実施形態によれば、以下のような効果が得られる。
 本実施形態によれば、外形やサイズ等が相違する複数種類の物体に汎用的に適用できる個体識別子抽出装置100が得られる。その理由は、物体110上に形成された平面形状が不定形状である層111の画像から、層111の平面形状および粒112の分布に依存する特徴量を、物体110の個体識別子として抽出するためである。即ち、本実施形態では、物体110上に形成された層111の画像を取得することができればよく、外形やサイズ等が相違する物体ごとに画像を取得する位置や範囲を個別に調整する必要がないためである。
 また本実施形態によれば、層111の固定領域から粒112の分布に依存する特徴量を抽出する場合に比べて、異なる個体を識別できる度合いである識別能力を高めることができる。その理由は、層111の平面形状および粒112の分布に依存する特徴量を抽出する場合、層111の固定領域における粒112の分布が類似していても層の平面形状が類似していなければ、互いの特徴量抽出領域が異なる位置やサイズの領域になる等により、抽出される特徴量が互いに類似しなくなる可能性があるためである。
[第2の実施形態]
 図3を参照すると、本発明の第2の実施形態に係る個体識別子登録装置200は、物体210に個体識別子を付与する機能を有する。
 物体210は、工業製品や商品パッケージなど、個体識別子を付与する対象である。図3では、物体210の外形は直方体であるが、物体210の外形は直方体に限定されず、任意でよい。また図3では、個体識別子を付与する物体210は、3個のみ図示しているが、一般には多数の物体210が個体識別子を付与する対象となる。その場合、多数の物体210は、同じ外形を有する同じ種類の物体(例えば或る生産ラインで生産されている特定の電子部品など)の集合であってもよいし、異なる外形・サイズを有する異なる種類の物体(例えば異なる複数の生産ラインで生産されている異なる外形、機能を有する電子部品など)の集合が混在していてもよい。
 個体識別子登録装置200は、主な構成要素として、付与部201と個体識別子抽出部202と個体識別子登録部203とを有する。
 付与部201は、微小な粒212をランダムな位置に含有し、平面形状が不定形状である層211を、物体210上に生成する機能を有する。微小な粒212としては、図1を参照して説明した微小な粒112と同様な粒が使用できる。付与部201は、このような層211を、例えば、微小な粒212を混入した印刷インク、塗料などを、物体210の表面に1滴だけ滴下させることにより生成する。例えば、付与部201は、微小な粒212を混入した印刷インクを使用するペンで手軽に実現することができる。但し、層211の生成方法は、そのような方法に限定されず、微小な粒212を混入した印刷インク、塗料などを刷毛などにより塗布する等、他の任意の方法を使用してよい。
 個体識別子抽出部202は、付与部201により物体210上に形成された層211の画像を取得し、その画像から層211の平面形状および粒212の分布に依存する特徴量を当該物体210の個体識別子として抽出する機能を有する。この個体識別子抽出部202は、例えば、本発明の第1の実施形態に係る個体識別子抽出装置100により構成されている。
 個体識別子登録部203は、個体識別子抽出部202により抽出された物体210の個体識別子を、登録済みの物体の個体識別子として記憶部220に登録する機能を有する。個体識別子登録部203は、物体210の個体識別子の登録時、物体210の1以上の属性値を関連付けて登録するようにしてよい。物体の属性値の種類と登録数は任意である。例えば、物体210が工業製品や商品パッケージなどの場合、型番、製造ロット番号、当該物体の加工に使用した装置の番号などが属性値の例である。個体識別子登録部203が物体210の1以上の属性値を取得する方法は任意である。例えば個体識別子登録部203は、図示しないキーボードやバーコードリーダなどの入力装置から物体210の属性値を取得するように構成されていてよい。
 図4は記憶部220に登録されているデータの例を示す。この例では、物体210の個体識別子が、その物体210の複数の属性値1、属性値2、…、に関連付けて登録されている。例えば、1行目のデータは、或る物体210の個体識別子は、10110…001であり、属性値1はPQ001、属性値2は18564、…、であることを表している。ここでは、個体識別子は、N(≧2)次元のベクトルとしているが、そのデータ構造は任意である。
 図5は個体識別子登録装置200を用いて実行する個体識別子登録方法の手順を示すフローチャートである。以下、図3乃至図5を参照して本実施形態に係る個体識別子登録方法について説明する。
 まず、個体識別子登録装置200の付与部201は、微小な粒212をランダムな位置に含有し、平面形状が不定形状である層211を、物体210上に生成する(ステップS201)。これは、例えば、付与部201が微小は粒212を含有するインクを使用するペンである場合、物体210上にペンで点(ドット)を手書きするといった簡便な方法で実現することができる。
 次に、個体識別子登録装置200の個体識別子抽出部202は、物体210上に形成された層211の画像を取得する(ステップS202)。これは、例えば、カメラで層211を撮影するといった簡便な方法で実現することができる。そして、個体識別子抽出部202は、取得した層211の画像から、層211の平面形状および粒212の分布に依存する特徴量を、物体210の個体識別子として抽出する(ステップS203)。
 次に、個体識別子登録装置200の個体識別子登録部203は、上記抽出された物体210の個体識別子をその物体の属性値に関連付けて記憶部220に登録する(ステップS204)。
 個体識別子登録装置200は、上述した処理を各々の物体210について繰り返す。このような処理の繰り返しを効率良く行うために、個々の物体210を付与部201による層の生成場所まで搬送し、層を生成した物体210を個体識別子抽出部202による層の画像取得場所まで搬送するようにしてよい。
 このように本実施形態によれば、以下のような効果が得られる。
 本実施形態によれば、外形やサイズ等が相違する複数種類の物体に汎用的に適用でき、生産性の優れた個体識別子登録装置200が得られる。その理由は、物体210上に、微小な粒212を含有し、平面形状が不定形状である層211を生成し、また、この生成した層211の画像から、層211の平面形状および粒212の分布に依存する特徴量を、物体210の個体識別子として抽出するためである。即ち、物体上に平面形状が不定形状の層211を生成できればよく、外形やサイズ等が相違する物体ごとに層を形成する位置や範囲を個別に調整する必要がないためである。また、物体210上に生成した層211の画像を取得することができればよく、外形やサイズ等が相違する物体ごとに画像を取得する位置や範囲を個別に調整する必要がないためである。
 また本実施形態によれば、層211の固定領域から粒212の分布に依存する特徴量を抽出する場合に比べて、異なる個体を識別できる度合いである識別能力の高い個体識別子を物体210に付与することができる。その理由は、層211の平面形状および粒212の分布に依存する特徴量を抽出する場合、層211の固定領域における粒212の分布が類似していても層の平面形状が類似していなければ、互いの特徴量抽出領域が異なる位置やサイズの領域になる等により、抽出される特徴量が互いに類似しなくなる可能性があるためである。
[第3の実施形態]
 図6を参照すると、本発明の第3の実施形態に係る識別照合装置300は、物体310の識別・照合を行う機能を有する。
 物体310は、工業製品や商品パッケージなど、識別・照合の対象となる物体である。物体310の何れかの面上には、層311が形成されている。図6では、物体310の外形は直方体であるが、物体310の外形は直方体に限定されず、任意でよい。また図6では、識別・照合を行う物体310は、1個のみ図示しているが、一般には多数の物体310が識別・照合の対象となる。その場合、多数の物体310は、同じ外形を有する同じ種類の物体(例えば或る生産ラインで生産されている特定の電子部品など)の集合であってもよいし、異なる外形・サイズを有する異なる種類の物体(例えば異なる複数の生産ラインで生産されている異なる外形、機能を有する電子部品など)の集合が混在していてもよい。
 層311は、微小な粒312をランダムな位置に含有している。微小な粒312としては、図1を参照して説明した微小な粒112と同様な粒が使用できる。また層311の平面形状は不定形状である。このような層311を有する物体310は、例えば、本発明の第2の実施形態に係る個体識別子登録装置200によって製造することができる。
 識別照合装置300は、主な機能部として、個体識別子抽出部301と判定部302とを有する。
 個体識別子抽出部301は、物体310上に形成された層311の画像を取得し、その画像から層311の平面形状および粒312の分布に依存する特徴量を物体310の個体識別子として抽出する機能を有する。この個体識別子抽出部301は、例えば、本発明の第1の実施形態に係る個体識別子抽出装置100により構成されている。
 判定部302は、個体識別子抽出部301により抽出された個体識別子と記憶部320に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う機能を有する。記憶部320には、例えば、本発明の第2の実施形態に係る個体識別子登録装置200により、登録済みの物体の個体識別子が予め記憶されている。
 図7は識別照合装置300を用いて実行する識別照合方法の手順を示すフローチャートである。以下、図6及び図7を参照して本実施形態に係る識別照合方法について説明する。
 まず、識別照合装置300の個体識別子抽出部301は、物体310上に形成された層311の画像を取得する(ステップS301)。そして、個体識別子抽出部301は、取得した層311の画像から、層311の平面形状および粒312の分布に依存する特徴量を、物体310の個体識別子として抽出する(ステップS302)。
 次に、識別照合装置300の判定部302は、上記抽出された物体310の個体識別子と記憶部320に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・判定を行う(ステップS303)。判定部302は、例えば、個体識別子がN次元のベクトルである場合、物体310の個体識別子と登録済みの物体の個体識別子のベクトル間の類似度(あるいは距離)を算出し、類似度が閾値以上であれば(距離が閾値以下であれば)、2つの個体識別子は同一と判定し、それ以外は同一でないと判定する。判定部302は、物体310の個体識別子と同一の登録済みの物体の個体識別子が発見されるか、または、全ての登録済みの物体の個体識別子との比較を終えるか、何れか早く成立した方を条件として、物体の識別・判定処理の繰り返しを終了する。そして、判定部302は、判定結果330を出力する。判定結果330は、識別・照合の成功の有無を表すものであってよい。また判定結果330は、成功の場合、同一と判定した登録済みの物体の個体識別子に対応して記憶部320に記憶されている物体の属性値を有していてよい。
 このように本実施形態によれば、以下のような効果が得られる。
 本実施形態によれば、外形やサイズ等が相違する複数種類の物体に汎用的に適用できる識別照合装置300が得られる。その理由は、物体310上に形成された平面形状が不定形状である層311の画像から、層311の平面形状および粒312の分布に依存する特徴量を、物体310の個体識別子として抽出し、登録済みの物体の個体識別子と比較して、物体の識別・照合を行うためである。即ち、本実施形態では、物体310上に形成された層311の画像を取得することができればよく、外形やサイズ等が相違する物体ごとに画像を取得する位置や範囲を個別に調整する必要がないためである。
 また本実施形態によれば、層311の固定領域から粒312の分布に依存する特徴量を抽出する場合に比べて、異なる個体を識別・照合できる度合いである識別・照合能力を高めることができる。その理由は、層311の平面形状および粒312の分布に依存する特徴量を抽出する場合、層311の固定領域における粒312の分布が類似していても層の平面形状が類似していなければ、互いの特徴量抽出領域が異なる位置やサイズの領域になる等により、抽出される特徴量が互いに類似しなくなる可能性があるためである。
[第4の実施形態]
 図8を参照すると、本発明の第4の実施形態に係る個体識別子管理システム400は、物体410の識別・照合のための個体識別子を管理する機能を有する。
 物体410は、工業製品や商品パッケージなど、個体識別子を付与して管理する対象である。図8では、物体410の外形は直方体であるが、物体410の外形は直方体に限定されず、任意でよい。また図8では、個体識別子を付与して管理する物体410は、1個のみ図示しているが、一般には多数の物体410が管理対象となる。その場合、多数の物体410は、同じ外形を有する同じ種類の物体(例えば或る生産ラインで生産されている特定の電子部品など)の集合であってもよいし、異なる外形・サイズを有する異なる種類の物体(例えば異なる複数の生産ラインで生産されている異なる外形、機能を有する電子部品など)の集合が混在していてもよい。
 個体識別子管理システム400は、個体識別子登録装置401と識別照合装置402とから構成されている。
 個体識別子登録装置401は、微小な粒412をランダムな位置に含有し、平面形状が不定形状である層411を、物体410上に生成する機能と、物体410上に生成した層411の画像を取得する機能と、取得した層411の画像から、層411の平面形状および粒412の分布に依存する特徴量を、物体410の個体識別子として抽出する機能と、抽出した物体の個体識別子をその物体410の属性値に関連付けて記憶部420に登録する機能とを有する。この個体識別子登録装置401は、例えば、本発明の第2の実施形態に係る個体識別子登録装置200により構成されている。
 また識別照合装置402は、物体410上に形成された層411の画像を取得する機能と、取得した層411の画像から、層411の平面形状および粒の分布に依存する特徴量を、物体410の個体識別子として抽出する機能と、抽出した物体の個体識別子と記憶部420に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・判定を行う機能とを有する。この識別照合装置402は、例えば、本発明の第3の実施形態に係る識別照合装置300により構成されている。
 図9は個体識別子管理システム400を用いて実行する個体識別子管理方法の手順を示すフローチャートである。以下、図8及び図9を参照して本実施形態に係る個体識別子管理方法について説明する。
 まず、個体識別子登録装置401は、微小な粒412をランダムな位置に含有し、平面形状が不定形状である層411を、物体410上に生成する(ステップS401)。次に、個体識別子登録装置401は、物体410上に形成された層411の画像を取得する(ステップS402)。そして、個体識別子登録装置401は、取得した層411の画像から、層411の平面形状および粒412の分布に依存する特徴量を、物体410の個体識別子として抽出する(ステップS403)。次に、個体識別子登録装置401は、抽出した物体410の個体識別子をその物体の属性値に関連付けて記憶部420に登録する(ステップS404)。
 一方、識別照合装置402は、物体410上に形成された層411の画像を取得する(ステップS405)。次に、識別照合装置402は、取得した層411の画像から、層411の平面形状および粒412の分布に依存する特徴量を、物体410の個体識別子として抽出する(ステップS406)。次に、識別照合装置402は、抽出した物体410の個体識別子と記憶部420に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・判定を行う(ステップS407)。次に、識別照合装置402は、判定結果430を出力する。判定結果430は、識別・照合の成功の有無を表すものであってよい。また判定結果430は、成功の場合、同一と判定した登録済みの物体の個体識別子に対応して記憶部420に記憶されている物体の属性値を有していてよい。
 図9のフローチャートでは、個体識別子登録装置401によるステップS401~S404の処理に引き続いて、識別照合装置402によるステップS405~S408の処理を実行した。しかし、そのような手順に限定されず、個体識別子登録装置401によるステップS401~S404の処理を異なる物体410について複数回繰り返すようにしてよい。また、識別照合装置402によるステップS405~S408の処理を異なる物体410について複数回繰り返すようにしてよい。或いは、個体識別子登録装置401によるステップS401~S404の処理と識別照合装置402によるステップS405~S408の処理とを異なる物体410に対して並行して行うようにしてよい。
 このように本実施形態によれば、以下のような効果が得られる。
 本実施形態によれば、外形やサイズ等が相違する複数種類の物体に汎用的に適用できる個体識別子管理システム400が得られる。
 その理由は、個体識別子登録装置401が、第2の実施形態で説明したように、外形やサイズ等が相違する複数種類の物体に汎用的に適用でき、また識別照合装置402が、第3の実施形態で説明したように、外形やサイズ等が相違する複数種類の物体に汎用的に適用できるためである。
 また本実施形態によれば、層411の固定領域から粒412の分布に依存する特徴量を抽出する場合に比べて、異なる個体を識別・照合できる度合いである識別・照合能力を高めることができる。その理由は、層411の平面形状および粒412の分布に依存する特徴量を抽出する場合、層411の固定領域における粒412の分布が類似していても層の平面形状が類似していなければ、互いの特徴量抽出領域が異なる位置やサイズの領域になる等により、抽出される特徴量が互いに類似しなくなる可能性があるためである。
[第5の実施形態]
 本実施形態は、本発明の第1の実施形態に係る個体識別子抽出装置100をより具体化している。図10を参照すると、本発明の第5の実施形態に係る個体識別子抽出装置500は、物体510の個体識別子520を抽出する機能を有する。
 物体510、その面上に形成されている層511、この層511に含まれる微小な粒512は、図1を参照して説明した物体110、層111、微小な粒112と同じである。
 個体識別子抽出装置500は、カメラ端末501とそれに接続された処理装置502とを有する。
 カメラ端末501は、物体510上の層511の画像を光学的に取得する機能、即ち撮像機能を有する。カメラ端末501は、例えば、CCD(Charge Coupled Devices)イメージセンサやCMOS(Complemetary Metal Oxide)イメージセンサを使用したカメラを使用することができる。
 処理装置502は、物体510の層511の画像から個体識別子520を抽出する機能を有する。処理装置502は、主な機能部として、画像取得部531、画像記憶部532、座標系決定部533、正規化画像生成部534、正規化画像記憶部535、固定領域決定部536、および特徴量抽出部537を有する。処理装置502は、例えば図11に示すように、1以上のマイクロプロセッサ等の演算処理部541と、画像記憶部532および正規化画像記憶部535等として用いるメモリやハードディスク等の記憶部542とを有する情報処理装置540と、プログラム543とで実現される。プログラム543は、情報処理装置540の立ち上げ時等に外部のコンピュータ読み取り可能な記録媒体からメモリに読み込まれ、演算処理部541の動作を制御することにより、演算処理部541上に、画像取得部531、座標系決定部533、正規化画像生成部534、固定領域決定部536、および特徴量抽出部537といった機能的手段を実現する。
 画像取得部531は、カメラ端末501を使用して物体510の層511の画像を取得し、画像記憶部532に保存する機能を有する。画像取得部531は、物体510上の層511の平面形状が写っている画像を取得する。また画像取得部531は、層511に存在する粒512の分布に依存する特徴量を抽出できる品質の画像を取得する。
 座標系決定部533は、画像記憶部532に記憶されている層511の画像の全体から層511の画像に固有の座標系を決定する機能を有する。層511の画像に固有の座標系は、原点の位置、軸の方向、スケールの3つのパラメータによって定義される。層511の画像に固有の座標系は、層511の画像の全体から決定されるため、層511の平面形状に依存するものとなる。
 正規化画像生成部534は、画像記憶部532に記憶されている層511の画像を、正規化座標系に正規化し、正規化した画像を正規化画像記憶部535に保存する機能を有する。正規化座標系は、原点の位置、軸の方向、スケールの3つのパラメータによって定義されている。
 固定領域決定部536は、正規化画像記憶部535に記憶された層511の正規化画像における予め定められた領域を、特徴量抽出領域に定める機能を有する。予め定められた領域は、固定領域であれば、その形状、サイズ、領域の個数は任意である。上述したように、層511の画像に固有の座標系は、層511の平面形状に依存するため、正規化画像およびその中の固定領域である特徴量抽出領域は、層511の平面形状に依存する領域となる。
 ここで、座標系決定部533、正規化画像生成部534、および固定領域決定部536は、層511の画像から、層の平面形状に依存する領域を決定する領域決定部538を構成している。
 特徴量抽出部537は、正規化画像記憶部535に記憶された層511の正規化画像中の上記特徴量抽出領域における粒512の分布に依存する特徴量を、物体510の個体識別子520として抽出し、出力する機能を有する。
 図12は処理装置502の動作を示すフローチャートである。以下、図10および図12を参照して処理装置502の動作を説明する。
 まず、処理装置502の画像取得部531は、カメラ端末501を用いて物体510上の層511の画像を取得し、画像記憶部532に保存する(ステップS501)。
 次に、処理装置502の座標系決定部533は、画像記憶部532から層511の画像を入力して解析し、層511の画像に固有の座標系を決定し、固有の座標系の原点の位置、軸の方向、スケールを正規化画像生成部534に伝達する(ステップS502)。
 次に、処理装置502の正規化画像生成部534は、座標系決定部533で決定された層511の画像に固有の座標系と正規化座標系とに基づいて、画像記憶部532に記憶されている層511の画像を正規化し、正規化した画像を正規化画像記憶部535に保存する(ステップS503)。
 次に、処理装置502の固定領域決定部536は、正規化画像記憶部535に記憶された正規化画像中の予め定められた固定領域を特徴量抽出領域に決定し、特徴量抽出部537に伝達する(ステップS504)。
 次に、処理装置502の特徴量抽出部537は、正規化画像記憶部535に記憶された層511の正規化画像中の上記特徴量抽出領域における粒512の分布に依存する特徴量を、物体510の個体識別子として抽出し、出力する(ステップS505)。
 続いて、座標系決定部533の具体例について説明する。
 図13は、座標系決定部533の一例を示すブロック図である。この例の座標系決定部533は、低解像度化部551、低解像度画像記憶部552、キーポイント・スケール検出部553、方向検出部554、および統計処理部555を有する。
 低解像度化部551は、画像記憶部532に記憶された層511の画像を予め定められた基準で低解像度化し、低解像度画像記憶部552に保存する機能を有する。層511に粒512が不均一に含有しており、粒512の反射特性が層511の他の材料と相違する場合、層511の画像を低解像度化すると、粒512の密度に応じた濃淡パターンが出現する。低解像度化部551は、層511の画像から、粒512の密度に応じた濃淡パターンを生成するための手段である。
 キーポイント・スケール検出部553は、低解像度画像記憶部552に記憶された濃淡パターンを有する画像から、キーポイントとスケールを検出する機能を有する。ここで、キーポイントは、スケールが変わっても画像上に特徴的に現れる点や領域を意味し、検出するスケールはスケール変化に最も強い最適なスケールを意味する。キーポイント・スケール検出部553によるキーポイントとスケールの検出は、SIFT(Scale-Invariant Feature Transform)記述子を生成する過程で行われるキーポイントとスケールの検出に相当する。一般にSIFTは、微小な粒512が点在する画像には不向きであるが、上述のように低解像度化して生成した濃淡パターンからはキーポイントとスケールを安定して抽出することが可能である。
 方向検出部554は、キーポイント・スケール検出部553によって検出されたキーポイント毎に、そのキーポイントを特徴付ける“方向”を決定する機能を有する。方向検出部554による方向の検出は、SIFT記述子を生成する過程で行われるオリエンテーションの検出に相当する。
 統計処理部555は、キーポイント・スケール検出部553で検出されたキーポイントとスケール、および方向検出部554で検出されたキーポイント毎の方向に基づいて、固有の座標系の原点、軸、およびスケールを決定する機能を有する。例えば、統計処理部555は、複数のキーポイントの分布に基づいて固有の座標系の原点を決定する。具体的には、統計処理部555は、検出された複数のキーポイントの重心を固有の座標系の原点とする。また、統計処理部555は、複数のキーポイントのスケール、方向の分布に基づいて固有の座標系のスケール、軸を決定する。具体的には、統計処理部555は、複数のキーポイントのスケール、方向の分布の中心を、固有の座標系のスケール、軸とする。即ち、複数のキーポイントのスケールの分布の中心を固有の座標系のスケールとし、複数のキーポイントの方向の分布の中心を固有の座標系の軸とする。分布の中心としては、例えば最頻値を使用してよい。但し、最頻値に限定されず、平均値や中央値を使用してもよい。
 図14は図13を参照して説明した座標系決定部533の動作を説明するための模式図である。図14において、G11は、画像記憶部532に記憶されている層511の画像を示している。低解像度化部551は、画像G11から、G12に示すような、層511における粒512の密度に依存する濃淡パターンを有する画像を生成する。図14では、便宜上、濃淡の相違をハッチングの種別の相違で表現している。次に、キーポイント・スケール検出部553は、画像G12から、キーポイントとスケールを検出する。画像G12上に描かれている円はスケール、円の中心がキーポイントである。次に、方向検出部554は、キーポイント毎に方向を検出する。画像G12上に描かれた円内の線分が方向を示している。
 次に、統計処理部555は、検出されたキーポイントのスケール、方向の分布に基づいて固有の座標系のスケール、軸を決定するために、G13に示すような、横軸がスケール、縦軸が頻度であるヒストグラムと、G14に示すような、横軸が方向、縦軸が頻度であるヒストグラムを作成する。次に、統計処理部555は、ヒストグラムG13から最頻値のスケールを求め、これを固有の座標系のスケールとする。また統計処理部555は、ヒストグラムG14から最頻値の方向を求め、この方向を固有の座標系の軸の方向とする。さらに統計処理部555は、検出されたキーポイントの重心を求め、これを固有の座標系の原点とする。図14において、画像G15に描かれている円は固有の座標系のスケール、円の中心が固有の座標系の原点、円内の矢印が固有の座標系の軸の方向をそれぞれ示している。
 図14には、画像G11と比較して層の平面形状、層内の粒の分布が相違する他の画像G21と、その画像G21から生成された低解像度な画像G22、検出されたキーポイントとスケール、生成されたヒストグラムG23、G24、決定された固有の座標系を描いた画像G25が記載されている。このように、固有の座標系は、層の平面形状、層内の粒の分布が相違すると、多くの場合、異なるものとなる。
 図15は、座標系決定部533の他の例を示すブロック図である。この例の座標系決定部533は、2値化部561、2値化画像記憶部562、塗りつぶし画像生成部563、塗りつぶし画像記憶部564、および形状処理部565を有する。
 2値化部561は、画像記憶部532に記憶された層511の画像を2値化し、2値化画像記憶部562に保存する機能を有する。これにより、背景領域の殆どの画素が白画素(値0)、層511の領域は粒512の分布に応じて白画素(値0)と黒画素(値1)とが混在する2値化画像が得られる。
 塗りつぶし画像生成部563は、2値化画像記憶部562に記憶された2値化画像から、層511の平面形状と同一の形状を有し、内部が全て黒画素で埋め尽くされた画像(塗りつぶし画像)を生成し、塗りつぶし画像記憶部564に保存する機能を有する。2値化画像から塗りつぶし画像を生成する方法は任意である。例えば、塗りつぶし画像生成部563は、2値化画像記憶部562に記憶された2値化画像に対して、モルフォロジー演算を行うことにより、塗りつぶし画像を生成してよい。また、塗りつぶし画像生成部563は、予め定められた画素長をnとし、n画素の膨張処理とn画素の収縮処理を実行することにより、2値化画像から塗りつぶし画像を生成してよい。ここで、n画素の膨張処理とは、注目中の画素の値が1である場合、注目画素からn画素長以内に存在する全ての画素の値を1にする操作を、2値化画像の全画素に注目して行う処理を意味する。また、n画素の収縮処理とは、n画素の膨張処理を施した後の2値画像に対して、注目中の画素の値が0である場合、注目画素からn画素長以内に存在する全ての画素の値を0にする操作を、2値化画像の全画素に注目して行う処理を意味する。
 形状処理部565は、塗りつぶし画像記憶部564に記憶された塗りつぶし画像の特徴から、固有の座標系を決定する機能を有する。例えば、形状処理部565は、塗りつぶし画像の重心を固有の座標系の原点に決定する。また、形状処理部565は、例えば、上記重心を通り画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を固有の座標系の軸に決定する。さらに、形状処理部565は、例えば、上記塗りつぶし画像の面積を固有の座標系のスケールに決定する。
 図16は図15を参照して説明した座標系決定部533の動作を説明するための模式図である。図16において、G31は、画像記憶部532に記憶されている層511の画像を示している。2値化部561は、画像G31から、G32に示すような2値化画像を生成する。図16では、便宜上、黒画素はハッチングで示し、白画素は白丸で示している。次に、塗りつぶし画像生成部563は、2値化画像G32から、G33に示すような黒画素で塗りつぶした画像を生成する。次に、形状処理部565は、塗りつぶし図形G33の重心、モーメント、面積を抽出し、それらを固有の座標系の原点、軸、スケールとする。
 次に、正規化画像生成部534の具体例について説明する。
 正規化画像生成部534は、座標系決定部533により決定された層511の画像に固有の座標系の原点を正規化座標系の原点と見做す。また正規化画像生成部534は、固有の座標系の軸が正規化座標系の軸と一致するように、層511の画像を、原点を中心に回転させる。さらに、正規化画像生成部534は、固有の座標系のスケールが正規化座標系のスケールと一致するように、層511の画像を拡大あるいは縮小する。換言すれば、正規化画像生成部534は、固有の座標系を変換前の座標系、正規化座標系を変換後の座標系とする座標変換を層511の画像に施して、正規化された画像を生成する。
 図17は正規化画像生成部534の動作を説明するための模式図である。図17において、画像G16、G26は図14に示した画像G11、G21に固有の座標系を描いた画像である。即ち、画像G16、G26に実線で描かれている円は固有の座標系のスケール、その円の中心が固有の座標系の原点、円内の矢印が固有の座標系の軸をそれぞれ示している。
 正規化画像生成部534は、固有の座標系の軸が正規化座標系の軸に一致し、且つ、固有の座標系のスケールが正規化座標系のスケールと一致するように、画像G16、G26を、原点を中心に回転させ、また拡大あるいは縮小することにより正規化画像を生成する。図17において、G17、G27は、そのようにして生成された画像G16、G26の正規化画像を示している。画像G17、G27に描かれた円は正規化座標系のスケール、円内の矢印が正規化座標系の軸をそれぞれ示している。
 次に、固定領域決定部536の具体例について説明する。
 固定領域決定部536は、正規化座標系を使用して、正規化画像中に固定領域を定義する。例えば、固定領域決定部536は、正規化座標系の原点を重心とし、正規化座標系のスケールを辺のサイズとし、正規化座標系の軸に平行な2辺を有する正方形を、固定領域とする。勿論、固定領域の形状は正方形に限定されず、長方形などの他の形状であってもよい。また辺のサイズは正規化座標系のスケールに一致させる必要はなく、固定値であれば任意でよい。
 図18は固定領域決定部536が定義する固定領域を説明するための模式図である。図18において、画像G18、G28は図17に示した画像G17、G27に特徴量抽出領域を付記した画像の例である。即ち、画像G18、G28に描かれている円は正規化座標系のスケール、その円の中心が正規化座標系の原点、円内の矢印が正規化座標系の軸をそれぞれ示している。そして、画像G18、G28に実線で描かれている正方形が、特徴量を抽出する領域となる固定領域である。
 次に、特徴量抽出部537の具体例について説明する。
 特徴量抽出部537は、正規化画像記憶部535に記憶された層511の正規化画像中の上記特徴量抽出領域における粒512の分布に依存する特徴量を、物体510の個体識別子520として抽出し、出力する機能を有する。
 特徴量抽出部537が抽出する特徴量としては、例えば以下のような固定次元数のベクトルが考えられる。
<特徴量の例1>
 特徴量抽出部537は、層511の正規化画像中の特徴量抽出領域を正規化座標系の軸に平行な方向にn等分し、その軸に垂直な方向にm等分することにより、特徴量抽出領域をn×m個のブロックに分割する。次に特徴量抽出部537は、各ブロックの輝度を抽出する。次に、特徴量抽出部537は、各ブロックの輝度を閾値と比較し、輝度が閾値以上であれば例えば値1、そうでなければ値0とすることにより、各ブロックの輝度を2値に量子化する。そして、特徴量抽出部537は、各ブロックの量子化値を所定の順序に並べたビット列を、個体識別子を構成するn×m次元の特徴量として出力する。
<特徴量の例2>
 特徴量抽出部537は、層511の正規化画像中の特徴量抽出領域から固定ビット長のBRIEF(Binary Robust Independent Elementary Features)を抽出し、個体識別子を構成する固定次元数の特徴量として出力する。
 但し、特徴量抽出部537が抽出する特徴量は上記の例に限定されない。例えば、特徴量抽出部537は、層511の正規化画像中の特徴量抽出領域からSIFT特徴量を個体識別子として抽出してもよい。この場合、特徴量抽出領域の画像から直接にSIFT特徴量を抽出すると、粒512の一つが最小スケールになって方向が出ず、ディスクリプタが不安定になる。そのため、後述する第6の実施形態における特徴量の抽出例と同様に、特徴量抽出領域の画像を所定の基準で低解像度化して濃淡パターンを有する画像が生成し、上記濃淡パターンを有する画像からSIFT特徴量を抽出することが望ましい。しかし、識別力および識別照合の高速化の観点からは、SIFT特徴量よりも上述した固定次元数の特徴量を抽出する方が好ましい。
[第6の実施形態]
 本実施形態は、本発明の第1の実施形態に係る個体識別子抽出装置100をより具体化している。図19を参照すると、本発明の第6の実施形態に係る個体識別子抽出装置600は、物体610の個体識別子620を抽出する機能を有する。
 物体610、その面上に形成されている層611、この層611に含まれる微小な粒612は、図1を参照して説明した物体110、層111、微小な粒112と同じである。
 個体識別子抽出装置600は、カメラ端末601とそれに接続された処理装置602とを有する。カメラ端末601は、図10を参照して説明したカメラ端末501と同じである。
 処理装置602は、物体610の層611の画像から個体識別子620を抽出する機能を有する。処理装置602は、主な機能部として、画像取得部631、画像記憶部632、層領域決定部633、および特徴量抽出部634を有する。処理装置602は、例えば図11に示すように、1以上のマイクロプロセッサ等の演算処理部541と、画像記憶部632等として用いるメモリやハードディスク等の記憶部542とを有する情報処理装置540と、プログラム543とで実現される。プログラム543は、情報処理装置540の立ち上げ時等に外部のコンピュータ読み取り可能な記録媒体からメモリに読み込まれ、演算処理部541の動作を制御することにより、演算処理部541上に、画像取得部631、層領域定部633、および特徴量抽出部634といった機能的手段を実現する。
 画像取得部631および画像記憶部632は、図10を参照して説明した画像取得部531および画像記憶部532と同様の機能を有する。
 層領域決定部633は、画像記憶部632に記憶されている層611の平面形状の全体を、特徴量抽出領域として決定する機能を有する。
 特徴量抽出部634は、画像記憶部632に記憶されている層611の画像中の上記特徴量抽出領域から、粒612の分布に依存する特徴量を抽出し、物体610の個体識別子620として出力する機能を有する。
 図20は処理装置602の動作を示すフローチャートである。以下、図19および図20を参照して処理装置602の動作を説明する。
 まず、処理装置602の画像取得部631は、カメラ端末601を用いて物体610上の層611の画像を取得し、画像記憶部632に保存する(ステップS601)。
 次に、処理装置602の層領域決定部633は、層611の平面形状の全体を、特徴量抽出領域として決定する(ステップS602)。層領域決定部633は、層611の平面形状の全体は、例えば、層611の画像を2値化し、この2値化画像に対してモルフォロジー演算を行うことにより抽出することができる。
 次に、処理装置602の特徴量抽出部634は、画像記憶部632に記憶されている層611の画像中の上記特徴量抽出領域から、粒612の分布に依存する特徴量を抽出し、物体610の個体識別子620として出力する(ステップS603)。本実施形態では、第5の実施形態におけるような座標系の正規化を行わないため、特徴量抽出部634は画像の回転等に頑健な特徴量、例えばSIFT特徴量を抽出する。但し、特徴量抽出部634が抽出する特徴量はSIFT特徴量に限定されない。また、画像から直接にSIFT特徴量を抽出すると、粒612の一つが最小スケールになって方向が出ず、ディスクリプタが不安定になり、インライア比率が小さくなって、マッチングが困難になる。そこで、本実施形態では、以下のようにしてSIFT特徴量を抽出する。
 特徴量抽出部634は、先ず、層611の特徴量抽出領域の画像を所定の基準で低解像度化する。これにより、層611における粒612の密度に依存する濃淡パターンを有する画像が生成される。次に、特徴量抽出部634は、上記濃淡パターンを有する画像からSIFT特徴量を抽出する。
[第7の実施形態]
 本実施形態は、本発明の第1の実施形態に係る個体識別子抽出装置100をより具体化している。図21を参照すると、本発明の第7の実施形態に係る個体識別子抽出装置700は、物体710の個体識別子720を抽出する機能を有する。
 物体710、その面上に形成されている層711、この層711に含まれる微小な粒712は、図1を参照して説明した物体110、層111、微小な粒112と同じである。
 個体識別子抽出装置700は、カメラ端末701とそれに接続された処理装置702とを有する。カメラ端末701は、図10を参照して説明したカメラ端末501と同じである。
 処理装置702は、物体710の層711の画像から個体識別子720を抽出する機能を有する。処理装置702は、主な機能部として、画像取得部731、画像記憶部732、第1の特徴量抽出部733、第2の特徴量抽出部734、および特徴量統合部735を有する。処理装置702は、例えば図11に示すように、1以上のマイクロプロセッサ等の演算処理部541と、画像記憶部732等として用いるメモリやハードディスク等の記憶部542とを有する情報処理装置540と、プログラム543とで実現される。プログラム543は、情報処理装置540の立ち上げ時等に外部のコンピュータ読み取り可能な記録媒体からメモリに読み込まれ、演算処理部541の動作を制御することにより、演算処理部541上に、画像取得部731、第1の特徴量抽出部733、第2の特徴量抽出部734、および特徴量統合部735といった機能的手段を実現する。
 画像取得部731および画像記憶部732は、図10を参照して説明した画像取得部531および画像記憶部532と同様の機能を有する。
 第1の特徴量抽出部733は、層711の画像から、層711の平面形状および粒712の分布に依存する特徴量を第1の特徴量として抽出する機能を有する。第1の特徴量抽出部733は、例えば、図10を参照して説明した座標系決定部533、正規化画像生成部534、正規化画像記憶部535、固定領域決定部536、および特徴量抽出部537によって実現することができる。あるいは第1の特徴量抽出部733は、例えば、図19を参照して説明した層領域決定部633、および特徴量抽出部634によって実現することができる。
 第2の特徴量抽出部734は、層711の画像から、層711の平面形状に依存する特徴量を第2の特徴量として抽出する機能を有する。例えば、第2の特徴量抽出部734は、層711の画像から、層711の平面形状に依存するが、粒712の分布に依存しない特徴量を第2の特徴量として抽出する機能を有する。第2の特徴量抽出部734が抽出する特徴量としては、例えば、図15を参照して説明した座標系決定部533が固有の座標系の軸を決定する過程で算出した最小または最大の2次モーメントを使用することができる。但し、第2の特徴量抽出部734が抽出する特徴量は、上記に限定されず、層711の平面形状の面積、周囲長など、他の特徴量を使用してもよい。
 特徴量統合部735は、第1の特徴量抽出部733によって抽出された第1の特徴量と第2の特徴量抽出部734によって抽出された第2の特徴量とから物体710の個体識別子720を生成する機能を有する。例えば、特徴量統合部735は、第1の特徴量と第2の特徴量とを連結した特徴量を個体識別子720とする。
 図22は処理装置702の動作を示すフローチャートである。以下、図21および図22を参照して処理装置702の動作を説明する。
 まず、処理装置702の画像取得部731は、カメラ端末701を用いて物体710上の層711の画像を取得し、画像記憶部732に保存する(ステップS701)。
 次に、処理装置702の第1の特徴量抽出部733は、層711の画像から、層711の平面形状および粒712の分布に依存する第1の特徴量を抽出する(ステップS702)。
 次に、処理装置702の第2の特徴量抽出部734は、層711の画像から、層711の平面形状に依存する第2の特徴量を抽出する(ステップS703)。
 次に、処理装置702の特徴量統合部735は、第1の特徴量と第2の特徴量とを統合することにより物体710の個体識別子720を生成し、出力する(ステップS704)。
 このように本実施形態では、物体710の個体識別子720は、第1の特徴量と第2の特徴量とを有する。このため、本実施形態で抽出された個体識別子720を使用する照合識別では、個体識別子どうしの比較は、第1の特徴量どうしの比較、第2の特徴量どうしの比較、第1の特徴量と第2の特徴量とをあわせた全体どうしの比較という3パターンの何れか1つ或いは2つ或いは3つ全ての組み合わせで実施することができる。そのため、例えば、最初に第2の特徴量どうしを比較して、同一または類似しない候補を除外し、残りの候補について第1の特徴量どうしを比較して最終的に識別照合するといった形態が可能になる。
[第8の実施形態]
 本実施形態は、本発明の第2の実施形態に係る個体識別子登録装置200をより具体化している。図23を参照すると、本発明の第8の実施形態に係る個体識別子登録装置800は、製造物のトレーサビリティのために製造物810に個体識別子を付与する機能を有する。
 製造物810は、個体識別子を付与する工業製品や商品パッケージなどである。製造物810は、生産ラインに設置されたベルトコンベア840によって図示の矢印方向に連続的あるいは間欠的に搬送されている。
 個体識別子登録装置800は、ペン801、カメラ端末802、および処理装置803から構成される。
 ペン801は、微小な粒を混入したインクを使用したペンである。ここで、微小な粒は、図1を参照して説明した微小な粒112と同様な粒が使用できる。例えば、ペン801としては、例えば、ラメペン、ラメ入りペン、ラメ入り蛍光マーカーなどの名称で市販されているペンを使用することができる。勿論、本発明のために専用に設計されたペンを使用してもよいし、市販のペンのインクを微小な粒を混入したインクに交換して利用してもよい。本実施形態では、生産ラインの作業員が、ペン801を使用して、製造物810上に1mm程度の最大幅を有する点(ドット)を手書きする。但し、点の大きさは上記に限定されず、任意でよい。これにより、微小な粒をランダムな位置に含有し、平面形状が不定形状である点811が製造物810上に形成される。点811は、第2の実施形態における層211に相当する。
 カメラ端末802は、図10を参照して説明したカメラ端末501と同様のものである。
 処理装置803は、個体識別子抽出部831と個体識別子登録部832とを有する。
 個体識別子抽出部831は、製造物810上に形成された点811の画像を、カメラ端末802を使用して取得し、その画像から点811の平面形状および点811内の粒の分布に依存する特徴量を当該製造物810の個体識別子として抽出する機能を有する。個体識別子抽出部831は、例えば、図10を参照して説明した処理装置502によって実現することができる。あるいは個体識別子抽出部831は、例えば、図19を参照して説明した処理装置602によって実現することができる。あるいは個体識別子抽出部831は、例えば、図21を参照して説明した処理装置702によって実現することができる。
 個体識別子登録部832は、個体識別子抽出部831により抽出された製造物810の個体識別子を、登録済みの製造物の個体識別子として記憶部820に登録する機能を有する。個体識別子登録部832は、例えば、図3を参照して説明した個体識別子登録部203によって実現することができる。
 図24は個体識別子登録装置800を用いて実行する個体識別子登録方法の手順を示すフローチャートである。以下、図23乃至図24を参照して本実施形態に係る個体識別子登録方法について説明する。
 まず、作業員が、ペン801を使用して、ベルトコンベア840上を流れてくる製造物801上に点811を手書きする(ステップS801)。
 次に、処理装置803の個体識別子抽出部831は、製造物810上に形成された点811の画像を、カメラ端末802を使用して取得する(ステップS802)。そして、個体識別子抽出部831は、取得した点811の画像から、点811の平面形状および点811に含まれる粒の分布に依存する特徴量を、製造物810の個体識別子として抽出する(ステップS803)。
 次に、処理装置803の個体識別子登録部832は、上記抽出された製造物810の個体識別子をその製造物の属性値に関連付けて記憶部820に登録する(ステップS804)。
 上述した処理が、ベルトコンベア840を流れる製造物810毎に繰り返される。
 このように本実施形態によれば、第2の実施形態と同様の効果が得られると共に、製品組立メーカが手作業で組み立てる部品(物体)にも、特殊な付与装置がなくてもペン801とカメラ端末802で個体識別子を付与することができる。それに対して、部品の特定の領域にタガント層を形成しなければならない特許文献1~3に記載の技術では、手作業による個体識別子の付与は難しい。
 また、ペン801を用いることにより、製造物810上に生成する点811のサイズが自ずと小さくなる。そのため、バーコード等を印字するスペースの無い小さな部品(物体)にも個体識別子を付与することができる。
[第9の実施形態]
 本実施形態は、本発明の第4の実施形態に係る個体識別子管理システムをより具体化している。図25を参照すると、本発明の第9の実施形態に係る個体識別子管理システム900は、個体識別子をロッカーのキー(鍵)として管理する機能を有する。
 個体識別子管理システム900は、ペン901、カメラ端末902、および処理装置903から構成される。
 ペン901は、図23を参照して説明したペン801と同様のものである。本実施形態では、ロッカーを利用する個人は、ペン901を使用して、自分自身の持ち物(名刺や手帳など)あるいは自分自身の身体の一部(例えば指など)(以下、特定物と記す)に点(ドット)を手書きする。これにより、微小な粒をランダムな位置に含有し、平面形状が不定形状である点911が特定物910上に形成される。点911は、第4の実施形態における層411に相当する。
 カメラ端末902は、図10を参照して説明したカメラ端末501と同様のものである。
 処理装置903は、個体識別子抽出部931と制御部932とを有する。個体識別子抽出部931は、図23を参照して説明した個体識別子抽出部831と同様の機能を有する。
 制御部932は、ロッカー940の施錠、開錠を制御する機能を有する。ロッカー940は、ロッカー番号1からロッカー番号nまでn台存在する。制御部932は、各ロッカー940の使用状態を把握している。制御部932は、個人によって入力装置950を通じてロッカー番号が入力されると、そのロッカー番号のロッカー940の使用状態に応じた処理を実行する。具体的には、制御部932は、入力されたロッカー番号のロッカー940が未使用ならば、個体識別子の登録処理を行い、登録処理を完了すると、当該ロッカー940の電子ロックを開錠する。他方、制御部932は、入力されたロッカー番号のロッカーが使用中ならば、個体識別子の照合処理を行い、照合に成功すると、当該ロッカー940の電子ロックを開錠する。なお、ロッカー940は、ロッカーの扉を閉めると自動的に施錠されるようになっている。
 制御部932は、個体識別子の登録処理において、個体識別子登録部934を使用する。個体識別子登録部934は、個体識別子抽出部931により抽出された特定物910の個体識別子を、入力されたロッカー番号に対応付けて記憶部920に登録する機能を有する。
 また制御部932は、個体識別子の照合処理において、識別照合部935を使用する。識別照合部935は、個体識別子抽出部931により抽出された個体識別子と個人が入力したロッカー番号に対応付けて記憶部920に記憶されている個体識別子とを比較し、その比較結果に基づいて照合を行う機能を有する。
 図26は個体識別子管理システム900を用いて実行する個体識別子管理方法の手順を示すフローチャートである。以下、図25および図26を参照して本実施形態に係る個体識別子管理方法について説明する。
 ロッカー940を利用する個人は、入力装置950を通じて、初回の利用時には希望するロッカー番号を入力し、2回目以降の利用時には自身が使用しているロッカー番号を入力する(ステップS901)。
 処理装置903は、制御部932を使用して、個人から入力されたロッカー番号のロッカー940の使用状態が未使用、使用中の何れであるかを判定する(ステップS902)。例えば、制御部932は、入力されたロッカー番号に対応して記憶部920に個体識別子が記憶されていれば、使用中と判定し、そうでなければ未使用と判定する。
 ロッカー940を初めて使用する個人は、ペン901を使用して自分自身の持ち物や自分自身の身体の一部である特定物910に点(ドット)を手書きする(ステップS903)。処理装置903は、カメラ端末902により、個人がペン901を使用して特定物910上に手書きした点の画像を取得する(ステップS904)。次に処理装置903は、個体識別子抽出部931により、上記取得した点の画像から、点の平面形状および点内の粒の分布に依存する特徴量を個体識別子として抽出する(ステップS905)。次に処理装置903は、制御部932の個体識別子登録部934により、上記個体識別子を入力されたロッカー番号に対応付けて記憶部920に登録する(ステップS906)。次に、処理装置903は、制御部932により、入力されたロッカー番号のロッカー940の電子ロックを開錠する(S907)。そして、処理装置903は図26の処理を終える。個人は、開錠したロッカー940に貴重品等を収納してロッカーの扉を閉めると、自動的に施錠される。
 他方、処理装置903は、個人から入力されたロッカー番号のロッカー940が使用中と判定すると、カメラ端末902により、個人が提示した特定物910上に手書きされた点の画像を取得する(ステップS908)。次に処理装置903は、個体識別子抽出部931により、上記取得した点の画像から、点の平面形状および点内の粒の分布に依存する特徴量を個体識別子として抽出する(ステップS909)。次に処理装置903は、制御部932の識別照合部935により、上記個体識別子と入力されたロッカー番号に対応付けて記憶部920に記憶されている個体識別子とを比較する(ステップS910)。次に、処理装置903は、制御部932により、上記の比較結果に基づいて、個体識別子の照合の判定を行う(ステップS911)。そして、処理装置903は、制御部932により、照合に成功した場合に限り、入力されたロッカー番号のロッカー940の電子ロックを開錠する(S907)。
 このように本実施形態によれば、第4の実施形態と同様の効果が得られると共に、ペンによって個体識別子を付与できるため、個人認証や個人の持ち物管理に使用できる。それに対して、物体の特定の領域にタガント層を形成しなければならない特許文献1~3に記載の技術では、個人で個体識別子を付与するのは難しい。
[第10の実施形態]
 本実施形態では、第8および第9の実施形態で使用するペン801、901の構成例について説明する。
 図27を参照すると、本実施形態に係るペン1000は、ペン状のハウジング1001の先端部分に設けられた貫通孔にフェルト材で構成されたペン先部1002が装着されている。また、ハウジング1001内は隔壁1005により2つの部屋に仕切られており、それぞれの部屋にインク1003、1004が充填されている。
 インク1003、1004の粒の含有密度は互いに相違している。例えば、インク1003に含有する微小な粒の単位体積当たりの密度は、インク1004に含有する微小な粒の単位体積当たりの密度の数倍ないし数十倍程度、高くなっている。また各々の微小な粒は、それ以外のインクの材料と反射特性が異なっている。
 ハウジング1001内の各々の部屋に充填してあるインク1003、1004は、毛細管現象によりペン先部1002に常に染み込むようになっているが、ペン先部1002の先端部分においても双方のインクは完全に混合されない。その結果、ペン先部1002の先端から染み出るインクで点(ドット)を描くと、点内における微小な粒の分布が不均一になる。
 ハウジング1001の後端に取り付けられたキャップ1006は、インク1003、1004を補充できるように着脱自在になっている。
 図27に記載したペン1000では、微小な粒の含有密度が相違する2種類のインクをフェルト材1002に染み込ませるようにしたが、微小な粒の含有密度が相違する3種類以上のインクをペン先部1002に染み込ませるようにしてもよい。
 以上、本発明を幾つかの実施形態を挙げて説明したが、本発明は以上の実施形態に限定されず、その他各種の付加変更が可能である。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 また、本発明は、日本国にて2015年6月30日に特許出願された特願2015-130912の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
 本発明は、工業製品や商品等の個体の同一性を識別したり照合したりする分野に利用できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
を有する個体識別子抽出装置。
[付記2]
 前記抽出部は、
 前記画像から、前記層の平面形状に依存する領域を決定する領域決定部と、
 前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する特徴量抽出部と、
を有する、
付記1に記載の個体識別子抽出装置。
[付記3]
 前記領域決定部は、
 前記層の画像の全体から前記層に固有の座標系を決定する座標系決定部と、
 前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成する正規化画像生成部と、
 前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する固定領域決定部と、
を有する、
付記2に記載の個体識別子抽出装置。
[付記4]
 前記座標系決定部は、
 前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成する塗りつぶし画像生成部と、
 前記塗りつぶし画像の特徴から前記固有の座標系を決定する塗りつぶし画像処理部と、
を有する、
付記3に記載の個体識別子抽出装置。
[付記5]
 前記塗りつぶし画像生成部は、前記層の画像を2値化した後にモルフォロジー演算を行って前記塗りつぶし画像を生成する、
付記4に記載の個体識別子抽出装置。
[付記6]
 前記塗りつぶし画像処理部は、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
付記4または5に記載の個体識別子抽出装置。
[付記7]
 前記座標系決定部は、
 前記層の画像を低解像度化した低解像度画像を生成する低解像度化部と、
 前記低解像度画像から複数のキーポイントとスケールを検出するキーポイント・スケール検出部と、
 前記複数のキーポイントの方向を検出する方向検出部と、
 前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する統計処理部と、
を有する、
付記3に記載の個体識別子抽出装置。
[付記8]
 前記領域決定部は、
 前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
付記2に記載の個体識別子抽出装置。
[付記9]
 前記抽出部は、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
付記1に記載の個体識別子抽出装置。
[付記10]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記1乃至9の何れかに記載の個体識別子抽出装置。
[付記11]
 前記微小な粒は、前記層に不均一に含有される、
付記1乃至10の何れかに記載の個体識別子抽出装置。
[付記12]
 付記1乃至9の何れかに記載の個体識別子抽出装置によって抽出された個体識別子を用いて識別を行うことを特徴とする識別装置。
[付記13]
 付記1乃至9の何れかに記載の個体識別子抽出装置によって抽出された個体識別子を用いて照合を行うことを特徴とする照合装置。
[付記14]
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得し、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する、
個体識別子抽出方法。
[付記15]
 前記抽出では、
 前記画像から、前記層の平面形状に依存する領域を決定し、
 前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する、
付記14に記載の個体識別子抽出方法。
[付記16]
 前記領域の決定では、
 前記層の画像の全体から前記層に固有の座標系を決定し、
 前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成し、
 前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する、
付記15に記載の個体識別子抽出方法。
[付記17]
 前記座標系の決定では、
 前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成し、
 前記塗りつぶし画像の特徴から前記固有の座標系を決定する、
付記16に記載の個体識別子抽出方法。
[付記18]
 前記塗りつぶし画像の生成では、前記層の画像を2値化した後にモルフォロジー演算を行う、
付記17に記載の個体識別子抽出方法。
[付記19]
 前記固有の座標系の決定では、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
付記17または18に記載の個体識別子抽出方法。
[付記20]
 前記座標系の決定では、
 前記層の画像を低解像度化した低解像度画像を生成し、
 前記低解像度画像から複数のキーポイントとスケールを検出し、
 前記複数のキーポイントの方向を検出し、
 前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する、
付記16に記載の個体識別子抽出方法。
[付記21]
 前記領域の決定では、
 前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
付記15に記載の個体識別子抽出方法。
[付記22]
 前記抽出では、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
付記14に記載の個体識別子抽出方法。
[付記23]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記14乃至22の何れかに記載の個体識別子抽出方法。
[付記24]
 前記微小な粒は、前記層に不均一に含有される、
付記14乃至23の何れかに記載の個体識別子抽出方法。
[付記25]
 付記14乃至22に記載の個体識別子抽出方法によって抽出された個体識別子を用いて識別を行うことを特徴とする識別方法。
[付記26]
 付記14乃至22に記載の個体識別子抽出方法によって抽出された個体識別子を用いて照合を行うことを特徴とする照合方法。
[付記27]
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
 前記抽出部で抽出された個体識別子と記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う判定部と、
を有する識別照合装置。
[付記28]
 前記抽出部は、
 前記画像から、前記層の平面形状に依存する領域を決定する領域決定部と、
 前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する特徴量抽出部と、
を有する、
付記27に記載の識別照合装置。
[付記29]
 前記領域決定部は、
 前記層の画像の全体から前記層に固有の座標系を決定する座標系決定部と、
 前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成する正規化画像生成部と、
 前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する固定領域決定部と、
を有する、
付記28に記載の識別照合装置。
[付記30]
 前記座標系決定部は、
 前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成する塗りつぶし画像生成部と、
 前記塗りつぶし画像の特徴から前記固有の座標系を決定する塗りつぶし画像処理部と、
を有する、
付記29に記載の識別照合装置。
[付記31]
 前記塗りつぶし画像生成部は、前記層の画像を2値化した後にモルフォロジー演算を行って前記塗りつぶし画像を生成する、
付記30に記載の識別照合装置。
[付記32]
 前記塗りつぶし画像処理部は、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
付記30または31に記載の識別照合装置。
[付記33]
 前記座標系決定部は、
 前記層の画像を低解像度化した低解像度画像を生成する低解像度化部と、
 前記低解像度画像から複数のキーポイントとスケールを検出するキーポイント・スケール検出部と、
 前記複数のキーポイントの方向を検出する方向検出部と、
 前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する統計処理部と、
を有する、
付記29に記載の識別照合装置。
[付記34]
 前記領域決定部は、
 前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
付記28に記載の識別照合装置。
[付記35]
 前記抽出部は、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
付記27に記載の識別照合装置。
[付記36]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記27乃至35の何れかに記載の識別照合装置。
[付記37]
 前記微小な粒は、前記層に不均一に含有される、
付記27乃至36の何れかに記載の識別照合装置。
[付記38]
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得し、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出し、
 前記抽出された個体識別子と記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う、
識別照合方法。
[付記39]
 前記抽出では、
 前記画像から、前記層の平面形状に依存する領域を決定し、
 前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する、
付記38に記載の識別照合方法。
[付記40]
 前記領域の決定では、
 前記層の画像の全体から前記層に固有の座標系を決定し、
 前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成し、
 前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する、
付記39に記載の識別照合方法。
[付記41]
 前記座標系の決定では、
 前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成し、
 前記塗りつぶし画像の特徴から前記固有の座標系を決定する、
付記40に記載の識別照合方法。
[付記42]
 前記塗りつぶし画像の生成では、前記層の画像を2値化した後にモルフォロジー演算を行う、
付記41に記載の識別照合方法。
[付記43]
 前記固有の座標系の決定では、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
付記41または42に記載の識別照合方法。
[付記44]
 前記座標系の決定では、
 前記層の画像を低解像度化した低解像度画像を生成し、
 前記低解像度画像から複数のキーポイントとスケールを検出し、
 前記複数のキーポイントの方向を検出し、
 前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する、
付記40に記載の識別照合方法。
[付記45]
 前記領域の決定では、
 前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
付記39に記載の識別照合方法。
[付記46]
 前記抽出では、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
付記38に記載の識別照合方法。
[付記47]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記38乃至46の何れかに記載の識別照合方法。
[付記48]
 前記微小な粒は、前記層に不均一に含有される、
付記38乃至47の何れかに記載の識別照合方法。
[付記49]
 コンピュータを、
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
して機能させるためのプログラム。
[付記50]
 前記抽出部は、
 前記画像から、前記層の平面形状に依存する領域を決定する領域決定部と、
 前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する特徴量抽出部と、
を有する、
付記49に記載のプログラム。
[付記51]
 前記領域決定部は、
 前記層の画像の全体から前記層に固有の座標系を決定する座標系決定部と、
 前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成する正規化画像生成部と、
 前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する固定領域決定部と、
を有する、
付記50に記載のプログラム。
[付記52]
 前記座標系決定部は、
 前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成する塗りつぶし画像生成部と、
 前記塗りつぶし画像の特徴から前記固有の座標系を決定する塗りつぶし画像処理部と、
を有する、
付記51に記載のプログラム。
[付記53]
 前記塗りつぶし画像生成部は、前記層の画像を2値化した後にモルフォロジー演算を行って前記塗りつぶし画像を生成する、
付記52に記載のプログラム。
[付記54]
 前記塗りつぶし画像処理部は、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
付記52または53に記載のプログラム。
[付記55]
 前記座標系決定部は、
 前記層の画像を低解像度化した低解像度画像を生成する低解像度化部と、
 前記低解像度画像から複数のキーポイントとスケールを検出するキーポイント・スケール検出部と、
 前記複数のキーポイントの方向を検出する方向検出部と、
 前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する統計処理部と、
を有する、
付記51に記載のプログラム。
[付記56]
 前記領域決定部は、
 前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
付記50に記載のプログラム。
[付記57]
 前記抽出部は、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
付記49に記載のプログラム。
[付記58]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記49乃至57の何れかに記載のプログラム。
[付記59]
 前記微小な粒は、前記層に不均一に含有される、
付記49乃至58の何れかに記載のプログラム。
[付記60]
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層であって、前記層の画像から前記層の平面形状および前記粒の分布に依存する特徴量が前記物体の個体識別子として抽出される層から構成される個体識別マーク。
[付記61]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記60に記載の個体識別マーク。
[付記62]
 前記微小な粒は、前記層に不均一に含有される、
付記60または61に記載の個体識別マーク。
[付記63]
 物体上に、微小な粒を含有し、平面形状が不定形状である層を生成する付与部と、
 前記生成された層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
を有する個体識別子登録装置。
[付記64]
 前記抽出部は、
 前記画像から、前記層の平面形状に依存する領域を決定する領域決定部と、
 前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する特徴量抽出部と、
を有する、
付記63に記載の個体識別子登録装置。
[付記65]
 前記領域決定部は、
 前記層の画像の全体から前記層に固有の座標系を決定する座標系決定部と、
 前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成する正規化画像生成部と、
 前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する固定領域決定部と、
を有する、
付記64に記載の個体識別子登録装置。
[付記66]
 前記座標系決定部は、
 前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成する塗りつぶし画像生成部と、
 前記塗りつぶし画像の特徴から前記固有の座標系を決定する塗りつぶし画像処理部と、
を有する、
付記65に記載の個体識別子登録装置。
[付記67]
 前記塗りつぶし画像生成部は、前記層の画像を2値化した後にモルフォロジー演算を行って前記塗りつぶし画像を生成する、
付記66に記載の個体識別子登録装置。
[付記68]
 前記塗りつぶし画像処理部は、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
付記66または67に記載の個体識別子登録装置。
[付記69]
 前記座標系決定部は、
 前記層の画像を低解像度化した低解像度画像を生成する低解像度化部と、
 前記低解像度画像から複数のキーポイントとスケールを検出するキーポイント・スケール検出部と、
 前記複数のキーポイントの方向を検出する方向検出部と、
 前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する統計処理部と、
を有する、
付記65に記載の個体識別子登録装置。
[付記70]
 前記領域決定部は、
 前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
付記64に記載の個体識別子登録装置。
[付記71]
 前記抽出部は、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
付記63に記載の個体識別子登録装置。
[付記72]
 前記抽出された個体識別子を登録済みの物体の個体識別子として記憶部に登録する個体識別子登録部を、
有する、
付記63乃至71の何れかに記載の個体識別子登録装置。
[付記73]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記63乃至72の何れかに記載の個体識別子登録装置。
[付記74]
 前記微小な粒は、前記層に不均一に含有される、
付記63乃至73の何れかに記載の個体識別子登録装置。
[付記75]
 前記付与部は、前記粒を含有するインクを使用するペンである、
付記63乃至74の何れかに記載の個体識別子登録装置。
[付記76]
 物体上に、微小な粒を含有し、平面形状が不定形状である層を生成し、
 前記生成された層の画像を取得し、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する、
個体識別子登録方法。
[付記77]
 前記抽出部は、
 前記画像から、前記層の平面形状に依存する領域を決定する領域決定部と、
 前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する特徴量抽出部と、
を有する、
付記76に記載の個体識別子登録方法。
[付記78]
 前記領域決定部は、
 前記層の画像の全体から前記層に固有の座標系を決定する座標系決定部と、
 前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成する正規化画像生成部と、
 前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する固定領域決定部と、
を有する、
付記77に記載の個体識別子登録方法。
[付記79]
 前記座標系決定部は、
 前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成する塗りつぶし画像生成部と、
 前記塗りつぶし画像の特徴から前記固有の座標系を決定する塗りつぶし画像処理部と、
を有する、
付記78に記載の個体識別子登録方法。
[付記80]
 前記塗りつぶし画像生成部は、前記層の画像を2値化した後にモルフォロジー演算を行って前記塗りつぶし画像を生成する、
付記79に記載の個体識別子登録方法。
[付記81]
 前記塗りつぶし画像処理部は、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
付記79または80に記載の個体識別子登録方法。
[付記82]
 前記座標系決定部は、
 前記層の画像を低解像度化した低解像度画像を生成する低解像度化部と、
 前記低解像度画像から複数のキーポイントとスケールを検出するキーポイント・スケール検出部と、
 前記複数のキーポイントの方向を検出する方向検出部と、
 前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する統計処理部と、
を有する、
付記78に記載の個体識別子登録方法。
[付記83]
 前記領域決定部は、
 前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
付記77に記載の個体識別子登録方法。
[付記84]
 前記抽出部は、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
付記76に記載の個体識別子登録方法。
[付記85]
 前記抽出された個体識別子を登録済みの物体の個体識別子として記憶部に登録する、
付記76乃至84の何れかに記載の個体識別子登録方法。
[付記86]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記76乃至85の何れかに記載の個体識別子登録方法。
[付記87]
 前記微小な粒は、前記層に不均一に含有される、
付記76乃至86の何れかに記載の個体識別子登録方法。
[付記88]
 前記層の生成は、前記粒を含有するインクを使用するペンを使用して行う、
付記76乃至87の何れかに記載の個体識別子登録方法。
[付記89]
 付記63乃至75の何れかに記載の個体識別子登録装置と付記27乃至37の何れかに記載の識別照合装置とを有する、
個体識別子管理システム。
[付記90]
 付記76乃至88の何れかに記載の個体識別子登録方法と付記38乃至48の何れかに記載の識別照合方法とを行う、
個体識別子管理方法。
[付記91]
 物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
 前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
を有する個体識別子管理装置。
[付記92]
 前記抽出部は、
 前記画像から、前記層の平面形状に依存する領域を決定する領域決定部と、
 前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する特徴量抽出部と、
を有する、
付記91に記載の個体識別子管理装置。
[付記93]
 前記領域決定部は、
 前記層の画像の全体から前記層に固有の座標系を決定する座標系決定部と、
 前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成する正規化画像生成部と、
 前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する固定領域決定部と、
を有する、
付記92に記載の個体識別子管理装置。
[付記94]
 前記座標系決定部は、
 前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成する塗りつぶし画像生成部と、
 前記塗りつぶし画像の特徴から前記固有の座標系を決定する塗りつぶし画像処理部と、
を有する、
付記93に記載の個体識別子管理装置。
[付記95]
 前記塗りつぶし画像生成部は、前記層の画像を2値化した後にモルフォロジー演算を行って前記塗りつぶし画像を生成する、
付記94に記載の個体識別子管理装置。
[付記96]
 前記塗りつぶし画像処理部は、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
付記94または95に記載の個体識別子管理装置。
[付記97]
 前記座標系決定部は、
 前記層の画像を低解像度化した低解像度画像を生成する低解像度化部と、
 前記低解像度画像から複数のキーポイントとスケールを検出するキーポイント・スケール検出部と、
 前記複数のキーポイントの方向を検出する方向検出部と、
 前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する統計処理部と、
を有する、
付記93に記載の個体識別子管理装置。
[付記98]
 前記領域決定部は、
 前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
付記92に記載の個体識別子管理装置。
[付記99]
 前記抽出部は、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
付記91に記載の個体識別子管理装置。
[付記100]
 前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
付記91乃至99の何れかに記載の個体識別子管理装置。
[付記101]
 前記微小な粒は、前記層に不均一に含有される、
付記91乃至100の何れかに記載の個体識別子管理装置。
[付記102]
 前記抽出部で抽出された個体識別子と記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う判定部、
を有する、
付記91乃至101に記載の個体識別子管理装置。
[付記103]
 前記物体上に、前記層を生成する付与部、
を有する、
付記91乃至101に記載の個体識別子管理装置。
100、500、600、700…個体識別子抽出装置
101…取得部
102…抽出部
110、210、310、410、510、610、710…物体
111、211、311、411、511、611、711…層
112、212、312、412、512、612、712…粒
120、520、620、720…個体識別子
200、800…個体識別子登録装置
201…付与部
202、301、831、931…個体識別子抽出部
203、832、934…個体識別子登録部
220、320、420、542、820、920…記憶部
300…識別照合装置
302…判定部
330、430…判定結果
400、900…個体識別子管理システム
401…個体識別子登録装置
402…識別照合装置
501、601、701、802、902…カメラ端末
502、602、702、803、903…処理装置
531、631、731…画像取得部
532、632、732…画像記憶部
533…座標系決定部
534…正規化画像生成部
535…正規化画像記憶部
536…固定領域決定部
537、634…特徴量抽出部
540…情報処理装置
541…演算処理部
543…プログラム
551…低解像度化部
552…低解像度画像記憶部
553…キーポイント・スケール検出部
554…方向検出部
555…統計処理部
561…2値化部
562…2値化画像記憶部
563…塗りつぶし画像生成部
564…塗りつぶし画像記憶部
565…形状処理部
633…層領域決定部
733…第1の特徴量抽出部
734…第2の特徴量抽出部
735…特徴量統合部
801、901、1000…ペン
810…製造物
811、911…点
840…ベルトコンベア
910…特定物
932…制御部
935…識別照合部
940…ロッカー
950…入力装置
1001…ハウジング
1002…ペン先部
1003、1004…インク
1005…隔壁
1006…キャップ
G11、G21、G31…層の画像
G12、G22…低解像度化した層の画像
G13、G23…スケールのヒストグラム
G14、G24…方向のヒストグラム
G15、G25…固有の座標系を付記した層の画像
G16、G26…固有の座標系を付記した層の画像
G17、G27…正規化座標系を付記した層の画像
G18、G28…正規化座標系と特徴量抽出領域を付記した層の画像
G32…2値化した層の画像
G33…塗りつぶし画像

Claims (34)

  1.  物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
     前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
    を有する個体識別子抽出装置。
  2.  前記抽出部は、
     前記画像から、前記層の平面形状に依存する領域を決定する領域決定部と、
     前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する特徴量抽出部と、
    を有する、
    請求項1に記載の個体識別子抽出装置。
  3.  前記領域決定部は、
     前記層の画像の全体から前記層に固有の座標系を決定する座標系決定部と、
     前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成する正規化画像生成部と、
     前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する固定領域決定部と、
    を有する、
    請求項2に記載の個体識別子抽出装置。
  4.  前記座標系決定部は、
     前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成する塗りつぶし画像生成部と、
     前記塗りつぶし画像の特徴から前記固有の座標系を決定する塗りつぶし画像処理部と、
    を有する、
    請求項3に記載の個体識別子抽出装置。
  5.  前記塗りつぶし画像生成部は、前記層の画像を2値化した後にモルフォロジー演算を行って前記塗りつぶし画像を生成する、
    請求項4に記載の個体識別子抽出装置。
  6.  前記塗りつぶし画像処理部は、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
    請求項4または5に記載の個体識別子抽出装置。
  7.  前記座標系決定部は、
     前記層の画像を低解像度化した低解像度画像を生成する低解像度化部と、
     前記低解像度画像から複数のキーポイントとスケールを検出するキーポイント・スケール検出部と、
     前記複数のキーポイントの方向を検出する方向検出部と、
     前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する統計処理部と、
    を有する、
    請求項3に記載の個体識別子抽出装置。
  8.  前記領域決定部は、
     前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
    請求項2に記載の個体識別子抽出装置。
  9.  前記抽出部は、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
    請求項1に記載の個体識別子抽出装置。
  10.  前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
    請求項1乃至9の何れかに記載の個体識別子抽出装置。
  11.  前記微小な粒は、前記層に不均一に含有される、
    請求項1乃至10の何れかに記載の個体識別子抽出装置。
  12.  請求項1乃至9の何れかに記載の個体識別子抽出装置によって抽出された個体識別子を用いて識別を行うことを特徴とする識別装置。
  13.  請求項1乃至9の何れかに記載の個体識別子抽出装置によって抽出された個体識別子を用いて照合を行うことを特徴とする照合装置。
  14.  物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得し、
     前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する、
    個体識別子抽出方法。
  15.  物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
     前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
     前記抽出部で抽出された個体識別子と記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う判定部と、
    を有する識別照合装置。
  16.  物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得し、
     前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出し、
     前記抽出された個体識別子と記憶部に記憶されている登録済みの物体の個体識別子とを比較し、比較結果に基づいて、物体の識別・照合の判定を行う、
    識別照合方法。
  17.  コンピュータを、
     物体上に形成され、微小な粒を含有し、平面形状が不定形状である層の画像を取得する取得部と、
     前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
    して機能させるためのプログラム。
  18.  物体上に形成され、微小な粒を含有し、平面形状が不定形状である層であって、前記層の画像から前記層の平面形状および前記粒の分布に依存する特徴量が前記物体の個体識別子として抽出される層から構成される個体識別マーク。
  19.  物体上に、微小な粒を含有し、平面形状が不定形状である層を生成する付与部と、
     前記生成された層の画像を取得する取得部と、
     前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する抽出部と、
    を有する個体識別子登録装置。
  20.  前記抽出部は、
     前記画像から、前記層の平面形状に依存する領域を決定する領域決定部と、
     前記層の前記領域における前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する特徴量抽出部と、
    を有する、
    請求項19に記載の個体識別子登録装置。
  21.  前記領域決定部は、
     前記層の画像の全体から前記層に固有の座標系を決定する座標系決定部と、
     前記固有の座標系と予め定められた正規化座標系とに基づいて、前記層の画像から前記層の正規化された画像を生成する正規化画像生成部と、
     前記層の正規化された画像中の予め定められた領域を前記層の平面形状に依存する領域として決定する固定領域決定部と、
    を有する、
    請求項20に記載の個体識別子登録装置。
  22.  前記座標系決定部は、
     前記層の平面形状に一致する平面形状を有する塗りつぶし画像を生成する塗りつぶし画像生成部と、
     前記塗りつぶし画像の特徴から前記固有の座標系を決定する塗りつぶし画像処理部と、
    を有する、
    請求項21に記載の個体識別子登録装置。
  23.  前記塗りつぶし画像生成部は、前記層の画像を2値化した後にモルフォロジー演算を行って前記塗りつぶし画像を生成する、
    請求項22に記載の個体識別子登録装置。
  24.  前記塗りつぶし画像処理部は、前記塗りつぶし画像の重心を前記固有の座標系の原点、前記重心を通る前記画像面に平行な軸であって、軸の周りの2次モーメントが最小または最大となる軸を前記固定の座標系の軸、前記塗りつぶし画像の面積を前記固有の座標系のスケールとする、
    請求項22または23に記載の個体識別子登録装置。
  25.  前記座標系決定部は、
     前記層の画像を低解像度化した低解像度画像を生成する低解像度化部と、
     前記低解像度画像から複数のキーポイントとスケールを検出するキーポイント・スケール検出部と、
     前記複数のキーポイントの方向を検出する方向検出部と、
     前記複数のキーポイントの位置から前記固有の座標系の原点を決定し、前記複数のキーポイントのスケールと方向の統計値から前記固有の座標系のスケールと軸を決定する統計処理部と、
    を有する、
    請求項21に記載の個体識別子登録装置。
  26.  前記領域決定部は、
     前記層の平面形状の全体を前記層の平面形状に依存する領域として決定する、
    請求項20に記載の個体識別子登録装置。
  27.  前記抽出部は、前記画像から、前記特徴量を第1の特徴量として抽出すると共に、前記層の平面形状に依存する特徴量を第2の特徴量として抽出し、前記第1の特徴量と前記第2の特徴量とを統合して前記物体の個体識別子を生成する、
    請求項19に記載の個体識別子登録装置。
  28.  前記抽出された個体識別子を登録済みの物体の個体識別子として記憶部に登録する個体識別子登録部を、
    有する、
    請求項19乃至27の何れかに記載の個体識別子登録装置。
  29.  前記微小な粒は、前記微小な粒以外の前記層の材料と反射特性が異なる、
    請求項19乃至28の何れかに記載の個体識別子登録装置。
  30.  前記微小な粒は、前記層に不均一に含有される、
    請求項19乃至29の何れかに記載の個体識別子登録装置。
  31.  前記付与部は、前記粒を含有するインクを使用するペンである、
    請求項19乃至30の何れかに記載の個体識別子登録装置。
  32.  物体上に、微小な粒を含有し、平面形状が不定形状である層を生成し、
     前記生成された層の画像を取得し、
     前記画像から、前記層の平面形状および前記粒の分布に依存する特徴量を、前記物体の個体識別子として抽出する、
    個体識別子登録方法。
  33.  請求項19乃至31の何れかに記載の個体識別子登録装置と請求項15に記載の識別照合装置とを有する、
    個体識別子管理システム。
  34.  請求項32に記載の個体識別子登録方法と請求項16に記載の識別照合方法とを行う、
    個体識別子管理方法。
PCT/JP2016/064701 2015-06-30 2016-05-18 個体識別子抽出装置 WO2017002475A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017526215A JP6708981B2 (ja) 2015-06-30 2016-05-18 個体識別子抽出装置
US15/737,857 US10621429B2 (en) 2015-06-30 2016-05-18 Individual identifier extraction device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015130912 2015-06-30
JP2015-130912 2015-06-30

Publications (1)

Publication Number Publication Date
WO2017002475A1 true WO2017002475A1 (ja) 2017-01-05

Family

ID=57608219

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/064701 WO2017002475A1 (ja) 2015-06-30 2016-05-18 個体識別子抽出装置

Country Status (3)

Country Link
US (1) US10621429B2 (ja)
JP (1) JP6708981B2 (ja)
WO (1) WO2017002475A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019044972A1 (ja) * 2017-09-01 2019-03-07 日本電気株式会社 入退場管理システム、入退場管理方法、情報処理装置および記録媒体
JP2019046179A (ja) * 2017-09-01 2019-03-22 日本電気株式会社 宿泊管理システム、宿泊管理方法、情報処理装置および情報処理プログラム
WO2019111811A1 (ja) * 2017-12-04 2019-06-13 日本電気株式会社 物体管理システム、物体管理方法、情報処理装置、情報処理方法、通信端末、通信端末制御方法および記憶媒体
JP2020528177A (ja) * 2017-07-21 2020-09-17 フローラン、ジャン・ジャックFLORENT, Jean−Jacques 光学認証方法
WO2021014527A1 (ja) 2019-07-22 2021-01-28 日本電気株式会社 照合位置出力システム
US20220036530A1 (en) * 2018-11-29 2022-02-03 Nec Corporation Individual identification apparatus
US11461606B2 (en) 2019-01-29 2022-10-04 Nec Corporation System that associates object with n-dimensional symbol
US11679617B2 (en) 2018-06-27 2023-06-20 Hewlett-Packard Development Company, L.P. Enhanced late point feature differentiation

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106567A (ja) * 1994-09-13 1996-04-23 Eastman Kodak Co 磁気マイクロカプセルを用いた真偽確認方法
JP2001296802A (ja) * 2000-04-12 2001-10-26 Masanori Fujimoto 販売商品確認方法と確認用部材
US20050019556A1 (en) * 2003-06-17 2005-01-27 Surromed, Inc. Labeling and authentication of metal objects
US20070023715A1 (en) * 2003-06-26 2007-02-01 Ross Gary A Security markers for marking a person or property
JP2007534067A (ja) * 2004-04-22 2007-11-22 コダック グラフィック コミュニケーションズ カナダ カンパニー 隠蔽式認証方法及び装置
US20080192992A1 (en) * 2003-12-01 2008-08-14 Moshe Danny S Authenticating and Authentic Article Using Spectral Imaging and Analysis
JP2013058053A (ja) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd 個体識別システム、個体識別方法、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4492036B2 (ja) * 2003-04-28 2010-06-30 ソニー株式会社 画像認識装置及び方法、並びにロボット装置
JP5405445B2 (ja) * 2010-12-17 2014-02-05 富士フイルム株式会社 内視鏡装置
JP5834692B2 (ja) 2011-09-26 2015-12-24 大日本印刷株式会社 個体識別装置、個体識別方法、及びプログラム
JP2014006840A (ja) 2012-06-27 2014-01-16 Dainippon Printing Co Ltd 個体識別方法、個体識別装置、プログラム
JP2015115041A (ja) * 2013-12-16 2015-06-22 ソニー株式会社 画像処理装置と画像処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08106567A (ja) * 1994-09-13 1996-04-23 Eastman Kodak Co 磁気マイクロカプセルを用いた真偽確認方法
JP2001296802A (ja) * 2000-04-12 2001-10-26 Masanori Fujimoto 販売商品確認方法と確認用部材
US20050019556A1 (en) * 2003-06-17 2005-01-27 Surromed, Inc. Labeling and authentication of metal objects
US20070023715A1 (en) * 2003-06-26 2007-02-01 Ross Gary A Security markers for marking a person or property
US20080192992A1 (en) * 2003-12-01 2008-08-14 Moshe Danny S Authenticating and Authentic Article Using Spectral Imaging and Analysis
JP2007534067A (ja) * 2004-04-22 2007-11-22 コダック グラフィック コミュニケーションズ カナダ カンパニー 隠蔽式認証方法及び装置
JP2013058053A (ja) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd 個体識別システム、個体識別方法、及びプログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020528177A (ja) * 2017-07-21 2020-09-17 フローラン、ジャン・ジャックFLORENT, Jean−Jacques 光学認証方法
US11138427B2 (en) 2017-07-21 2021-10-05 Jean-Jacques Florent Optical authentication method
JP7043757B2 (ja) 2017-09-01 2022-03-30 日本電気株式会社 宿泊管理システムおよび宿泊管理方法
JPWO2019044972A1 (ja) * 2017-09-01 2020-08-06 日本電気株式会社 入退場管理システム、入退場管理方法、情報処理装置および情報処理プログラム
JP2019046179A (ja) * 2017-09-01 2019-03-22 日本電気株式会社 宿泊管理システム、宿泊管理方法、情報処理装置および情報処理プログラム
WO2019044972A1 (ja) * 2017-09-01 2019-03-07 日本電気株式会社 入退場管理システム、入退場管理方法、情報処理装置および記録媒体
WO2019111811A1 (ja) * 2017-12-04 2019-06-13 日本電気株式会社 物体管理システム、物体管理方法、情報処理装置、情報処理方法、通信端末、通信端末制御方法および記憶媒体
JPWO2019111811A1 (ja) * 2017-12-04 2020-11-19 日本電気株式会社 物体管理システム、物体管理方法および物体管理プログラム
JP7115494B2 (ja) 2017-12-04 2022-08-09 日本電気株式会社 物体管理システム、物体管理方法および物体管理プログラム
US11679617B2 (en) 2018-06-27 2023-06-20 Hewlett-Packard Development Company, L.P. Enhanced late point feature differentiation
US20220036530A1 (en) * 2018-11-29 2022-02-03 Nec Corporation Individual identification apparatus
US11854185B2 (en) * 2018-11-29 2023-12-26 Nec Corporation Individual identification apparatus
US11461606B2 (en) 2019-01-29 2022-10-04 Nec Corporation System that associates object with n-dimensional symbol
WO2021014527A1 (ja) 2019-07-22 2021-01-28 日本電気株式会社 照合位置出力システム
US11908212B2 (en) 2019-07-22 2024-02-20 Nec Corporation Matching position output system

Also Published As

Publication number Publication date
US20190005326A1 (en) 2019-01-03
US10621429B2 (en) 2020-04-14
JP6708981B2 (ja) 2020-06-10
JPWO2017002475A1 (ja) 2018-04-19

Similar Documents

Publication Publication Date Title
JP6708981B2 (ja) 個体識別子抽出装置
CN101226594B (zh) 图案分离提取装置和图案分离提取方法
JP6817547B2 (ja) 個体識別子抽出装置
US10885415B2 (en) Anti-counterfeiting mark with 3-D features
US20140079326A1 (en) Object identification system and program
EP2112622A1 (en) Information management system, form definition management server and information management method
CN105430218B (zh) 图像色彩识别方法及装置
CN107659799A (zh) 摄像装置、图像处理方法和存储介质
Forczmański et al. Robust stamps detection and classification by means of general shape analysis
CN110163152A (zh) 防伪识别方法、防伪方法、系统、设备终端和存储介质
CN107240185A (zh) 一种冠字号识别方法、装置、设备及存储介质
CN103748866B (zh) 取证鉴定系统和方法
Zheng et al. Circumferential local ternary pattern: New and efficient feature descriptors for anti-counterfeiting pattern identification
US11645830B2 (en) Determining distribution and/or sorting information for the automated distribution and/or sorting of a consignment
RU2603495C1 (ru) Классификация изображений документов на основе параметров цветовых слоев
Nandanwar et al. Forged text detection in video, scene, and document images
CN105740820A (zh) 图片辨别方法和辨别系统
JP2013196418A (ja) 個体識別装置、個体識別方法、プログラム
CA3087069A1 (en) Pixelation density increment for embedding information
JP2012212287A (ja) 個体識別装置、個体識別方法、及びプログラム
KR102194366B1 (ko) 사용자의 서명의 검증에 이용되는 검증 모델을 생성하는 전자 장치
JP6874849B2 (ja) 入退場管理システム、入退場管理方法、情報処理装置および情報処理プログラム
Muda et al. Optical character recognition by using template matching (alphabet)
KR101905416B1 (ko) 예술작품 위변조 방지를 위한 전자지문 관리 시스템 및 방법과, 예술작품의 위변조 판별 방법 및 이를 위한 컴퓨터 프로그램
JP2019046179A (ja) 宿泊管理システム、宿泊管理方法、情報処理装置および情報処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16817584

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017526215

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16817584

Country of ref document: EP

Kind code of ref document: A1