WO2018216813A1 - 識別装置、識別方法、および、識別プログラム - Google Patents

識別装置、識別方法、および、識別プログラム Download PDF

Info

Publication number
WO2018216813A1
WO2018216813A1 PCT/JP2018/020227 JP2018020227W WO2018216813A1 WO 2018216813 A1 WO2018216813 A1 WO 2018216813A1 JP 2018020227 W JP2018020227 W JP 2018020227W WO 2018216813 A1 WO2018216813 A1 WO 2018216813A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
identification
image
optical device
distance
Prior art date
Application number
PCT/JP2018/020227
Other languages
English (en)
French (fr)
Inventor
智仁 増田
恵理 宮本
Original Assignee
凸版印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 凸版印刷株式会社 filed Critical 凸版印刷株式会社
Priority to EP18805832.5A priority Critical patent/EP3637378B1/en
Priority to JP2019520336A priority patent/JP7131552B2/ja
Priority to CN201880034746.0A priority patent/CN110678907B/zh
Publication of WO2018216813A1 publication Critical patent/WO2018216813A1/ja
Priority to US16/696,761 priority patent/US11231594B2/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/003Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using security elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B42BOOKBINDING; ALBUMS; FILES; SPECIAL PRINTED MATTER
    • B42DBOOKS; BOOK COVERS; LOOSE LEAVES; PRINTED MATTER CHARACTERISED BY IDENTIFICATION OR SECURITY FEATURES; PRINTED MATTER OF SPECIAL FORMAT OR STYLE NOT OTHERWISE PROVIDED FOR; DEVICES FOR USE THEREWITH AND NOT OTHERWISE PROVIDED FOR; MOVABLE-STRIP WRITING OR READING APPARATUS
    • B42D25/00Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof
    • B42D25/30Identification or security features, e.g. for preventing forgery
    • B42D25/328Diffraction gratings; Holograms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4205Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive optical element [DOE] contributing to image formation, e.g. whereby modulation transfer function MTF or optical aberrations are relevant
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/06Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using wave or particle radiation
    • G07D7/12Visible light, infrared or ultraviolet radiation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon
    • G07D7/202Testing patterns thereon using pattern matching
    • G07D7/205Matching spectral properties
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon
    • G07D7/202Testing patterns thereon using pattern matching
    • G07D7/206Matching template patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B42BOOKBINDING; ALBUMS; FILES; SPECIAL PRINTED MATTER
    • B42DBOOKS; BOOK COVERS; LOOSE LEAVES; PRINTED MATTER CHARACTERISED BY IDENTIFICATION OR SECURITY FEATURES; PRINTED MATTER OF SPECIAL FORMAT OR STYLE NOT OTHERWISE PROVIDED FOR; DEVICES FOR USE THEREWITH AND NOT OTHERWISE PROVIDED FOR; MOVABLE-STRIP WRITING OR READING APPARATUS
    • B42D25/00Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof
    • B42D25/20Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof characterised by a particular use or purpose
    • B42D25/21Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof characterised by a particular use or purpose for multiple purposes
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D2207/00Paper-money testing devices
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/06Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using wave or particle radiation
    • G07D7/12Visible light, infrared or ultraviolet radiation
    • G07D7/121Apparatus characterised by sensor details
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/17Apparatus characterised by positioning means or by means responsive to positioning

Definitions

  • the present invention relates to an identification apparatus, an identification method, and an identification program that identify an optical device corresponding to an identification target using an image formed by a diffraction grating.
  • An optical device equipped with a diffraction grating for preventing counterfeiting and duplication is attached to various products such as securities such as stock certificates and gift certificates, pharmaceuticals, foodstuffs, and branded products.
  • a user having specialized knowledge using a special device performs identification that this type of optical device falls under the category of identification.
  • the specialized knowledge includes, for example, an angle at which the optical device is irradiated with visible light for identification, a direction for observing the optical device irradiated with visible light, and the like (see, for example, Patent Documents 1 to 4). .
  • an example of the optical device includes a diffraction grating that emits diffracted light in a negative angle range.
  • first-order diffracted light is emitted from the diffraction grating.
  • the direction in which the first-order diffracted light travels is different from the direction in which regular reflected light travels, and is close to the direction from the optical device toward the irradiation unit.
  • a portable terminal such as a smartphone or a tablet terminal includes an imaging unit that is close to the irradiation unit on one surface facing the optical device. Therefore, such a portable terminal is suitable for recording an image formed by the first-order diffracted light, and has a possibility of enhancing the versatility of identification.
  • Whether or not the image formed by the first-order diffracted light can be recorded varies depending on changes in the relative positions of the optical device, the irradiation unit, and the imaging unit.
  • the result of identifying that the image formed by the first-order diffracted light is a predetermined image also changes according to changes in the relative positions of the optical device, the irradiation unit, and the imaging unit. Therefore, in the identification using an apparatus provided with the irradiation unit and the imaging unit on one surface, a technique for increasing the accuracy of identification that the optical device corresponds to the identification target is desired.
  • An object of the present invention is to provide an identification apparatus, an identification method, and an identification program capable of improving the accuracy of identification that an optical device corresponds to an identification target.
  • An identification apparatus for solving the above problem is an apparatus for identifying that an optical device corresponds to an identification target, wherein a light incident side has a negative angle with respect to a normal to the first surface of the identification target.
  • the identification target includes a diffraction grating that emits diffracted light in a negative angle range on the first surface.
  • the identification device is positioned on the second surface of the identification device facing the optical device and irradiates the surface of the optical device with visible light, the first surface of the identification target, and the second surface of the identification device.
  • the angle at which the light diffracted by the diffraction grating can be recorded by the imaging unit is a reference angle, and is positioned on the second surface and the surface of the optical device and the first
  • the imaging unit that images the surface of the optical device in a state where the angle formed by the two surfaces is the reference angle, and an estimation unit that estimates a distance between the surface of the optical device and the imaging unit as an estimated value, A distance between the first surface of the identification target and the imaging unit, and a distance at which the light diffracted by the diffraction grating can be recorded by the imaging unit is a reference distance, and the estimated value is the reference distance.
  • the optical device is And an identification unit that identifies that the target is identified.
  • An identification method for solving the above problem is an identification method for identifying, by an identification device, that an optical device corresponds to an identification target, wherein the incident side of light with respect to the normal to the first surface of the identification target is A negative angle range, a regular reflection side of light is a positive angle range, and the first surface of the identification target includes a diffraction grating that emits diffracted light into a negative angle range, and the identification device includes the identification device, An irradiation unit and an imaging unit are provided on the second surface of the identification device facing the optical device.
  • the identification method includes an angle formed by irradiating the surface of the optical device with visible light and a first surface of the identification target and a second surface of the identification device, and the diffraction grating is diffracted.
  • the surface of the optical device is imaged in a state where the angle at which the captured light can be recorded by the imaging unit is the reference angle, and the angle formed by the surface of the optical device and the second surface is the reference angle.
  • the image recorded by the imaging unit is a reference image.
  • a condition that includes determining whether the images match, determining that the estimated value is a reference distance, and determining that the image recorded by the imaging unit matches the reference image And identifying that the optical device corresponds to the identification target.
  • An identification program for solving the above-described problem is an identification program for causing an apparatus including an irradiation unit and an imaging unit to function as an identification device that identifies that an optical device corresponds to an identification target.
  • the light incident side is in a negative angle range
  • the light regular reflection side is in a positive angle range
  • the first surface to be identified has a diffracted light in a negative angle range.
  • An emission diffraction grating is provided, and the irradiation unit and the imaging unit are provided on a second surface of the apparatus facing the optical device.
  • the identification program is an angle formed by irradiating the device with visible light on a surface of the optical device, and a first surface of the identification target and a second surface of the device, and the diffraction
  • the angle at which light that is diffracted by the grating can be recorded by the imaging unit is a reference angle, and the surface of the optical device is imaged in a state where the angle formed by the surface of the optical device and the second surface is the reference angle.
  • the image recorded by the imaging unit is based on A condition is satisfied that includes determining whether the image matches the image, determining that the estimated value is a reference distance, and determining that the image recorded by the imaging unit matches the reference image.
  • the optical device is identified as corresponding to the identification target.
  • An optical device including a diffraction grating that emits diffracted light in a negative angle range emits diffracted light in the negative angle range, that is, near the irradiation unit as viewed from the diffraction grating, as with the identification target. Therefore, in identification of an optical device having a diffraction grating that emits diffracted light in a negative angle range, the imaging unit that records an image used for identification is positioned on the same side as the irradiation unit with respect to the optical device. Is required. In this regard, with the above-described configurations, the irradiation unit and the imaging unit are located on a common second surface facing the surface of the optical device.
  • an image in a state where the angle formed by the surface of the optical device and the second surface of the identification device is the reference angle is recorded by the imaging unit.
  • the estimated value of the distance between the surface of the optical device and the imaging unit is the reference distance
  • the image recorded by the imaging unit matches the reference image, which identifies that the optical device corresponds to the identification target Included in the conditions to do.
  • the appropriateness of the angle formed by the surface of the optical device and the second surface and the appropriateness of the distance between the surface of the optical device and the imaging unit are reflected in the identification that the optical device corresponds to the identification target. .
  • the appropriateness of the relative position of the imaging unit with respect to the optical device and the appropriateness of the relative position of the irradiation unit with respect to the optical device are reflected in the identification result. Therefore, it is possible to increase the accuracy of identification that the optical device corresponds to the identification target.
  • the identification device further includes a guide unit that outputs guidance to the outside of the identification device when the first determination unit determines that the estimated value is not the reference distance, and the guidance output by the guide unit is The guidance for guiding the identification device to a position where the estimated value becomes the reference distance may be used.
  • the optical device is imaged at a distance suitable for recording an image used for identification, that is, the optical device is imaged at a position where the image used for identification can be recorded. It becomes possible. As a result, it becomes possible to reduce the difficulty of identification due to the fact that the image formed by the first-order diffracted light emitted from the diffraction grating is not recorded.
  • the imaging unit includes an imaging optical system for imaging the surface of the optical device, drives the imaging optical system so that an image point of the optical device is aligned with an imaging surface, and the optical device The optical device is imaged in a state where the image point is aligned with the imaging surface, and the estimation unit uses the optical parameters of the imaging optical system when the imaging unit images the surface of the optical device. A value may be calculated.
  • the imaging optical system for aligning the image point of the optical device with the imaging surface is driven with optical parameters corresponding to the distance between the surface of the optical device and the imaging unit.
  • the functional unit for imaging the optical device has the optical parameter for calculating the estimated value. Therefore, compared with a configuration in which a functional unit for collecting information for calculating an estimated value is separately mounted in the identification device, the configuration in the identification device can be simplified.
  • a distance between the irradiation unit and the imaging unit may be 5 mm or more and 20 mm or less on the second surface. According to this identification device, since the distance between the irradiation unit and the imaging unit is 5 mm or more and 20 mm or less, a general-purpose portable device including the irradiation unit and the imaging unit can be used as the identification device.
  • the imaging unit is in a state where an angle formed by the surface of the optical device and the second surface is the reference angle, and a distance between the surface of the optical device and the imaging unit is mutually A plurality of images are recorded in different states, the estimation unit calculates the estimation value at the time of recording each image, and the first determination unit determines whether each estimation value is the reference distance or not.
  • the second determination unit may set the image determined by the first determination unit that the estimated value is the reference distance as a determination target whether or not the image matches the reference image.
  • the determination by the first determination unit is performed for each image prior to the determination by the second determination unit. Then, for the image determined by the first determination unit that the estimated value is the reference distance, it is determined whether or not the image matches the reference image. Therefore, compared with the configuration in which the determination of whether or not the estimated value is the reference distance and the determination of whether or not the recorded image matches the reference image are performed by the optical device. It is possible to reduce the time required to identify that
  • the imaging unit is in a state where the angle formed by the surface of the optical device and the second surface is a reference angle, and the distance between the surface of the optical device and the imaging unit is different from each other.
  • a plurality of images in a state are recorded, the second determination unit determines whether or not each image matches the reference image, and the estimation unit is the second determination unit if the image is the reference image.
  • the estimated value at the time of recording of the image determined by the first determination unit is calculated, and the first determination unit determines the estimated value at the time of recording of the image determined by the second determination unit as the reference image as the reference value. It is good also as a judgment object of whether it is a distance.
  • the determination by the second determination unit is performed for each image prior to the determination by the first determination unit. Then, for the image determined by the second determination unit as being the reference image, it is determined whether or not the estimated value when the image is recorded is the reference distance. Therefore, compared with the configuration in which the determination of whether or not the estimated value is the reference distance and the determination of whether or not the recorded image matches the reference image are performed by the optical device. It is possible to reduce the time required to identify that
  • the identification device includes a terminal device and a server
  • the terminal device includes the irradiation unit, the imaging unit, the estimation unit, the first determination unit, the second determination unit, and the A first communication unit that transmits a determination result of the first determination unit and a determination result of the second determination unit
  • the server receives a second communication unit that receives each determination result from the first communication unit;
  • the identification unit that performs identification using each determination result received by the second communication unit may be provided.
  • the identification device includes a terminal device and a server, and the terminal device includes the irradiation unit, the imaging unit, the estimation unit, and an image captured by the imaging unit and the estimated value.
  • a first communication unit that transmits to the server; the server receives a second communication unit that receives an image captured by the imaging unit and the estimated value from the first communication unit; and the second communication unit receives the image.
  • the second communication unit includes the first determination unit that performs determination using the estimated value, the second determination unit that performs determination using an image received by the second communication unit, and the identification unit.
  • the unit may transmit a result of identification by the identification unit to the terminal device.
  • An identification apparatus for solving the above-described problem is an identification apparatus for identifying that an optical device corresponds to an identification target, wherein a light incident side has a negative angle with respect to a normal to the first surface of the identification target.
  • the identification target includes a diffraction grating that emits diffracted light in a negative angle range on the first surface.
  • the terminal device is positioned on the second surface of the terminal device facing the optical device and irradiates the surface of the optical device with visible light, the first surface of the identification target, and the second surface of the identification device And the angle at which the light diffracted by the diffraction grating can be recorded by the imaging unit is a reference angle, and is positioned on the second surface and the surface of the optical device and the second
  • the imaging unit that images the surface of the optical device in a state where the angle formed by the surface is the reference angle, an estimation unit that estimates the distance between the surface of the optical device and the imaging unit as an estimated value,
  • a first communication unit that transmits the image captured by the imaging unit and the estimated value to the identification device.
  • the identification device is a distance between the second communication unit that receives the image captured by the imaging unit and the estimated value from the first communication unit, and the first surface of the identification target and the imaging unit, A first distance for determining whether the light that is diffracted by the diffraction grating can be recorded by the imaging unit is a reference distance, and whether the estimated value received by the second communication unit is the reference distance.
  • a determination unit a second determination unit that determines whether an image formed by light diffracted by the diffraction grating is a reference image; and an image received by the second communication unit matches the reference image;
  • the first determination unit determines that the estimated value is a reference distance
  • the second determination unit determines that the image recorded by the imaging unit matches the reference image is satisfied
  • An identification unit for identifying that the optical device corresponds to the identification target; Provided.
  • the top view which shows an example of the planar structure of identification object.
  • Sectional drawing which shows an example of the cross-sectional structure of identification object.
  • the perspective view which shows an example of the perspective structure which expanded a part of identification object.
  • the perspective view which shows the other example of the perspective structure which expanded a part of identification object.
  • the action figure which shows the direction of the 1st-order diffracted light inject
  • the block diagram which shows the structure of an identification apparatus by the relative position with respect to an identification target.
  • the block diagram which shows the structure of an identification device functionally.
  • the flowchart which shows the flow of the process which an identification device performs The flowchart which shows the flow of the process which an identification device performs.
  • the block diagram which shows the structure of the identification device in a modification functionally The block diagram which shows the structure of the identification device in a modification functionally.
  • the block diagram which shows the structure of the identification device in a modification functionally The block diagram which shows the structure of the identification device in a modification functionally.
  • an identification device An identification method, and an identification program will be described below.
  • the configuration of the identification target that is the target to be identified by the identification device and the optical action of the identification target will be described.
  • an identification apparatus, an identification method, and an identification program for identifying that an optical device corresponds to an identification target will be described.
  • the identification object 110 is an optical sheet having an optical function.
  • the identification target 110 includes a display unit 111 on the surface of the identification target 110.
  • the display unit 111 changes the color, shape, pattern, etc. of the image formed by the display unit 111 according to the angle at which the display unit 111 is observed.
  • the identification object 110 is imaged from the direction opposite to the surface of the identification object 110, the star-shaped image formed by the display unit 111 cannot be recorded by the imaging unit.
  • a star-shaped image formed by the display unit 111 can be recorded by the imaging unit.
  • the identification target 110 includes a base material layer 210, an intermediate layer 220, and a reflective layer 230.
  • the base material layer 210 supports the intermediate layer 220 and the reflective layer 230 when the identification target 110 is manufactured or the identification target 110 is attached.
  • the intermediate layer 220 includes fine concave portions and fine convex portions.
  • the uneven shape provided in the intermediate layer 220 is for forming the uneven shape in the reflective layer 230.
  • the reflective layer 230 reflects visible light incident on the reflective layer 230.
  • the reflective layer 230 has a concavo-convex shape following the concavo-convex shape of the intermediate layer 220, and this concavo-convex shape functions as the diffraction grating 231.
  • the spatial frequency of the concave portion or the spatial frequency of the convex portion in the concavo-convex shape included in the reflective layer 230 is, for example, 1000 cycles / mm or more and 3500 cycles / mm or less. Moreover, the period of the recessed part in an uneven
  • the concavo-convex shape provided in the intermediate layer 220 is formed by various methods such as extrusion using a metallic stamper or hot press molding.
  • the reflective layer 230 is formed by various methods such as vapor deposition and sputtering.
  • the diffraction grating 231 includes a plurality of convex surfaces 232.
  • the convex surfaces 232 are regularly arranged in the X direction along the surface of the identification target 110 and are also regularly arranged in the Y direction along the surface of the identification target 110. Further, as viewed from the direction facing the surface of the identification target 110, each convex surface 232 has a direction that forms approximately 27 ° with respect to the X direction and a direction that forms 45 ° with respect to the X direction. Line up regularly in the direction as well.
  • the diffraction grating 231 includes a plurality of convex surfaces 232 extending in the Y direction. Each convex surface 232 is regularly arranged in the X direction along the surface of the identification target 110.
  • the identification target 110 emits diffracted light by the regular arrangement of the convex surfaces 232.
  • an image formed by diffracted light can be recorded by the imaging unit.
  • the orthogonal projection vector in the imaged direction is a vector obtained by projecting the direction in which the identification object 110 is imaged onto the surface of the identification object 110.
  • each convex surface 232 included in the diffraction grating 231 is a semi-spindle shape, a cone shape, a truncated cone shape, or the like.
  • the cone shape includes a cone shape or a pyramid shape
  • the truncated cone shape includes a truncated cone shape or a truncated pyramid shape.
  • the diffraction grating 231 is not limited to the configuration in which the direction in which the convex surfaces 232 are arranged has directivity in two or more directions, and the direction in which the concave surfaces are arranged in two or more directions. It is also possible to adopt a configuration having a directivity in which the direction in which the concave surfaces are continuous is a single direction.
  • the traveling direction of the diffracted light emitted from the reflective diffraction grating will be described.
  • the angle range in which the diffracted light is emitted will be described.
  • an example of an angle at which diffracted light is emitted will be described with reference to FIG. 5 for a diffraction grating in which the period d of the diffraction grating DG is equal to or greater than the maximum wavelength in the exemplary range, unlike the diffraction grating 231.
  • the reflective diffraction grating emits diffracted light having high brightness in a predetermined direction.
  • the period d in the formula (1) is a period in which unit gratings are arranged in the diffraction grating, the constant m is the diffraction order, the wavelength ⁇ is the wavelength of the light included in the irradiation light IL, and the light included in the diffracted light. Is the wavelength.
  • the irradiation angle ⁇ is the incident angle of the irradiation light IL, and is equal to the absolute value of the angle at which the regular reflection light that is the 0th-order diffracted light is emitted.
  • the irradiation angle ⁇ is 0 ° or more and less than 90 °.
  • the angle at which the specularly reflected light is emitted is included in the positive angle range, and the angle at which the irradiation light IL is irradiated is included in the negative angle range.
  • the imaging angle ⁇ is a positive value.
  • the imaging angle ⁇ is a negative value.
  • the diffraction grating DG has a period d longer than 1000 nm, for example.
  • Irradiation light IL irradiated by the irradiation unit is white light which is an example of visible light.
  • the diffraction grating DG emits specular reflection light or specular reflection light RL that is zero-order diffracted light.
  • the diffraction grating DG emits red diffracted light DLr, green diffracted light DLg, and blue diffracted light DLb as the first-order diffracted light.
  • the exit angle ⁇ r of the red diffracted light DLr, the exit angle ⁇ g of the green diffracted light DLg, and the exit angle ⁇ b of the blue diffracted light DLb are included in a positive angle range with respect to the front viewing direction DLV of the diffraction grating DG. Therefore, when the irradiation unit is positioned in the negative angle range and the imaging unit is positioned in the positive angle range, the image formed by each color diffracted light DLr, DLg, DLb is recorded by the imaging unit.
  • the diffraction grating DG has a period d within the above exemplary range. That is, the period d of the diffraction grating DG is, for example, not less than 286 nm and not more than 1000 nm.
  • the irradiation light IL irradiated by the irradiation unit is white light which is an example of visible light.
  • the diffraction grating DG emits red diffracted light DLr, green diffracted light DLg, and blue diffracted light DLb as the first-order diffracted light.
  • the exit angle ⁇ r of the red diffracted light DLr, the exit angle ⁇ g of the green diffracted light DLg, and the exit angle ⁇ b of the blue diffracted light DLb are included in a negative angle range with respect to the front viewing direction DLV of the diffraction grating DG.
  • the emission angle ⁇ g of the green diffracted light DLg having a wavelength of 540 nm is ⁇ 60 °. Therefore, when the irradiation unit is positioned in the negative angle range and the imaging unit is positioned in the negative angle range, the image formed by each color diffracted light DLr, DLg, DLb is recorded by the imaging unit.
  • the exit angle of the first-order diffracted light is about ⁇ 10 °
  • the difference value between the exit angle ⁇ r of the red diffracted light DLr and the exit angle ⁇ b of the blue diffracted light DLb is , about 7 °.
  • the emission angle of the first-order diffracted light is about ⁇ 15 °
  • the difference value between the emission angle ⁇ r of the red diffracted light DLr and the exit angle ⁇ b of the blue diffracted light DLb is , Approximately 11 °.
  • the exit angle of the first-order diffracted light is approximately ⁇ 20 °, and the difference value between the exit angle ⁇ r of the red diffracted light DLr and the exit angle ⁇ b of the blue diffracted light DLb is , Approximately 15 °.
  • the emission angle of the first-order diffracted light is about ⁇ 25 °, and the difference value between the emission angle ⁇ r of the red diffracted light DLr and the exit angle ⁇ b of the blue diffracted light DLb is , Approximately 20 °.
  • the emission angle of the first-order diffracted light is about ⁇ 30 °
  • the difference value between the emission angle ⁇ r of the red diffracted light DLr and the exit angle ⁇ b of the blue diffracted light DLb is , Approximately 25 °.
  • the exit angle of the first-order diffracted light is about ⁇ 35 °
  • the difference value between the exit angle ⁇ r of the red diffracted light DLr and the exit angle ⁇ b of the blue diffracted light DLb is , Approximately 32 °.
  • the identification object 110 identified by the identification device has the diffraction grating 231 having the period d for emitting the diffracted light in the negative angle range. Therefore, when identifying that the optical device corresponds to the identification target 110, the image formed by the diffracted light is formed by the irradiation unit being positioned in the negative angle range and the imaging unit being positioned in the negative angle range. Can be recorded by the imaging unit.
  • the first-order diffracted light is composed of red diffracted light DLr, green diffracted light DLg, and blue diffracted light DLb.
  • the diffracted light beams DLr, DLg, and DLb are recorded as light of different colors in the imaging unit as the distance between the diffraction grating DG and the imaging unit increases.
  • each color diffracted light DLr, DLg, DLb is recorded as light of a color mixed with each other in the imaging unit as the distance between the diffraction grating DG and the imaging unit is smaller.
  • Optical devices are attached to various articles.
  • Various goods include stock certificates, government bonds, bills, gift certificates, gift certificates, travel tickets, prepaid cards such as prepaid cards, credit cards, pharmaceuticals, foodstuffs, branded goods, banknotes It is a gold voucher.
  • the identification device 310 includes an irradiation unit 311 and an imaging unit 312 on a mounting surface 310S that is an example of the second surface.
  • the identification device 310 includes a display device 313 on the surface opposite to the mounting surface 310S.
  • the identification device 310 is a computer system, and stores an identification program in a readable medium readable by the computer system.
  • the identification program is a program for identifying that the optical device corresponds to the identification target 110.
  • the identification device 310 reads and executes the identification program stored in the readable medium, thereby performing the above-described identification.
  • the identification program can be transmitted from a computer system storing the identification program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Further, the identification program may be a program that realizes a part of the functions of the identification device 310. Furthermore, the identification program can be a differential program that realizes the functions of the identification device 310 by combining with other programs already stored in the identification device 310.
  • the identification device 310 is embodied in a mobile terminal such as a smartphone or a tablet terminal.
  • the irradiation unit 311 emits white light, which is an example of visible light, as irradiation light IL.
  • the irradiation light IL is emitted substantially in the normal direction of the mounting surface 310S.
  • the irradiation unit 311 is an electronic flash such as a light emitting diode or a xenon lamp.
  • the irradiation unit 311 is an apparatus that continuously irradiates light to the identification target 110 and the optical device, or an apparatus that irradiates light to the identification target 110 and the optical device for a short time.
  • the imaging unit 312 records an image formed by light directed toward the imaging unit 312.
  • the imaging unit 312 includes an imaging optical system and a solid-state imaging device.
  • the imaging optical system includes an imaging lens such as a positive refraction lens and a negative refraction lens, a diaphragm, and a drive mechanism that drives them.
  • the solid-state imaging device is an image sensor such as a CMOS sensor or a CCD sensor.
  • the imaging unit 312 is driven so that the image points of the identification object 110 and the optical device are aligned with the imaging surface of the image sensor.
  • the display device 313 is a display that displays various types of information such as images recorded by the optical device recorded by the imaging unit 312.
  • the distance between the irradiation unit 311 and the imaging unit 312 is the rated distance kset.
  • the rated distance kset is a distance that is uniquely determined by the specification of the identification device 310.
  • the rated distance kset does not change when the optical device corresponds to the identification target 110 and is a constant value unique to the identification device 310.
  • the rated distance kset is, for example, 5 mm or more and 20 mm or less. If the device has a rated distance kset of 5 mm or more and 20 mm or less, it is possible to suppress an increase in the size of the identification device 310 due to a large distance between the irradiation unit 311 and the imaging unit 312, thereby the identification device. It is also possible to increase the versatility of 310.
  • the surface 231S of the identification target 110 is an example of a first surface, and is a surface on which the diffraction grating 231 is located.
  • the distance between the surface 231 ⁇ / b> S of the identification target 110 and the imaging unit 312 is a working distance f.
  • the working distance f is a distance that can be changed by a user of the identification device 310 or an instrument applied to the identification device 310 when identifying that the optical device corresponds to the identification target 110.
  • the working distance f is larger than the rated distance kset, for example, 50 mm or more and 200 mm or less.
  • the irradiation light IL irradiated by the irradiation unit 311 enters the surface 231S of the identification target 110.
  • the diffracted light DL emitted from the diffraction grating 231 travels from the surface 231S of the identification target 110 toward the mounting surface 310S.
  • an image formed by the n-order (n is an integer of 1 or more) diffracted light DL can be recorded by the imaging unit 312.
  • the irradiation angle ⁇ is an angle formed by the front view direction of the identification target 110 and the irradiation direction that is the direction in which the irradiation light IL travels.
  • the irradiation angle ⁇ is an angle formed by the front view direction of the optical device and the irradiation direction of the irradiation light IL.
  • the irradiation angle ⁇ corresponds to an angle formed by the surface 231S of the identification target 110 and the mounting surface 310S of the identification device 310. Further, when identifying that the optical device corresponds to the identification target 110, this corresponds to an angle formed by the surface of the optical device and the mounting surface 310S of the identification device 310.
  • the imaging angle ⁇ is an angle formed by the front view direction of the identification target 110 and the emission direction that is the direction in which the diffracted light DL travels.
  • the imaging angle ⁇ is an angle formed by the front view direction of the optical device and the emission direction of the diffracted light DL.
  • the operating angle ⁇ is an angle formed by a straight line connecting the irradiation unit 311 and the identification target 110 and a straight line connecting the imaging unit 312 and the identification target 110.
  • the operating angle ⁇ is an angle formed by a straight line connecting the irradiation unit 311 and the optical device and a straight line connecting the imaging unit 312 and the optical device.
  • the operating angle ⁇ is an angle that satisfies the above formula (3), and the rated distance kset is constant, and is an angle that changes in accordance with a change in the operating distance f.
  • the period d is a period dset that is preset for the identification target 110 and is unique to the identification target 110.
  • the wavelength ⁇ is a representative wavelength of the diffracted light emitted from the identification object 110.
  • the rated distance kset is a value specific to the identification device 310
  • the period dset and the wavelength ⁇ set are values specific to the identification target 110
  • the imaging angle ⁇ and the working distance f satisfy the following expressions (4) and (5), an image formed by the first-order diffracted light can be recorded by the imaging unit 312.
  • the imaging angle ⁇ is also maintained at the predetermined value.
  • the irradiation angle ⁇ increases while the imaging angle ⁇ Is kept at a predetermined value.
  • the irradiation angle ⁇ decreases while the imaging angle ⁇ Is kept at a predetermined value.
  • imaging is performed in a state where the imaging angle ⁇ is maintained at a predetermined value, or only an image with the imaging angle ⁇ being a predetermined value is used for identification, and the following expressions (4) and (5) are satisfied.
  • the image formed by the first-order diffracted light can be recorded by the imaging unit 312.
  • the identification target 110 is a device that emits the diffracted light DL in a negative angle range.
  • the imaging angle ⁇ is kept at the reference angle.
  • the reference angle is set in advance from a range of 20 ° to 70 °.
  • the image formed by the diffracted light DL can be recorded by the imaging unit 312.
  • the imaging angle ⁇ corresponds to an angle formed by the surface 231S of the identification target 110 and the mounting surface 310S of the identification device 310.
  • a method of keeping the imaging angle ⁇ at the reference angle uses a jig such as a stage for setting the imaging angle ⁇ to the reference angle.
  • the identification device 310 captures an image while the identification device 310 is supported by the jig.
  • the identification device 310 includes a function unit that calculates the imaging angle ⁇ , and the user who handles the identification device 310 so that the current imaging angle ⁇ is set as the reference angle. However, the posture of the identification device 310 is adjusted. Then, the identification device 310 identifies the imaging angle ⁇ as a reference angle among the two parameters of the imaging angle ⁇ and the working distance f.
  • the identification device 310 includes the irradiation unit 311, the imaging unit 312, and the display device 313 described above.
  • the identification device 310 is an example of a processing control unit 321 that is an example of an identification unit, an irradiation control unit 322, a display control unit 323, an imaging control unit 324, a distance estimation unit 325 that is an example of an estimation unit, and an example of a first determination unit.
  • a distance determination unit 326, an image acquisition unit 327, and an image determination unit 328 which is an example of a second determination unit.
  • the processing control unit 321 includes a central processing unit and a memory, and is not limited to processing all the various types of processing described later with software.
  • the processing control unit 321 may include dedicated hardware (an application specific integrated circuit: ASIC) that executes at least a part of various types of processing. That is, the processing control unit 321 is configured as a circuit including one or more dedicated hardware circuits such as an ASIC, one or more processors (microcomputers) that operate according to a computer program (software), or a combination thereof. obtain.
  • ASIC application specific integrated circuit
  • the irradiation control unit 322, the display control unit 323, the imaging control unit 324, the distance estimation unit 325, the distance determination unit 326, the image acquisition unit 327, and the image determination unit 328 include, for example, dedicated hardware circuits that execute various processes, It may be configured as a circuit including one or more processors (microcomputers) operating in accordance with a computer program (software), or a combination thereof. Note that a circuit including a hardware circuit, a processor, or a combination thereof can constitute two or more functional units.
  • Memory or computer readable media includes any available media that can be accessed by a general purpose or special purpose computer.
  • the processing control unit 321 reads an identification program for identifying that the optical device corresponds to the identification target 110 and executes the identification program.
  • the processing supervision unit 321 manages each process performed by each control unit 322, 323, 324, estimation performed by the distance estimation unit 325, image acquisition performed by the image acquisition unit 327, and each determination performed by each determination unit 326, 328. .
  • the processing supervision unit 321 separately instructs the start and stop of each process performed by each control unit 322, 323, 324. Further, the processing supervision unit 321 instructs the distance estimation unit 325 to estimate the working distance f. In addition, the processing supervision unit 321 separately instructs each of the determination units 326 and 328 to perform various determinations. Then, the processing supervision unit 321 identifies that the optical device corresponds to the identification target 110 using the determination results of the determination units 326 and 328.
  • the irradiation control unit 322 sets irradiation conditions such as the intensity of the irradiation light IL.
  • the irradiation control unit 322 sets the irradiation condition so that the intensity of the irradiation light IL is increased as the ambient brightness when imaging the surface of the optical device is brighter.
  • the irradiation control unit 322 controls the driving of the irradiation unit 311 so that the irradiation unit 311 outputs the irradiation light IL based on the irradiation conditions.
  • the processing supervision unit 321 manages the timing of irradiating the irradiation unit 311 with the irradiation light IL and the period during which the irradiation unit 311 is irradiated with the irradiation light IL through the control of the irradiation control unit 322.
  • the display control unit 323 sets a screen to be displayed on the display device 313.
  • the display control unit 323 sets one of a setting screen, a progress screen, and a notification screen as a screen to be displayed on the display device 313.
  • the setting screen includes an input screen for inputting imaging conditions, a confirmation screen for prompting the user to confirm imaging conditions, an operation screen for prompting imaging of the optical device, and the like.
  • the progress screen includes an imaging screen that displays an image captured by the imaging unit 312 each time, a reference screen that displays the captured image and an image used for comparison with the image, and a determination that indicates a determination result used for identification each time. Includes screens.
  • the notification screen shows that the optical device is identified as an identification target, the screen indicating that the optical device is not identified as an identification target, and an error has occurred in the processing required for identification Including a screen showing.
  • the display control unit 323 controls driving of the display device 313 so that the display device 313 displays the set screen.
  • the processing supervision unit 321 manages the timing for displaying each screen on the display device 313 through the control of the display control unit 323.
  • the imaging control unit 324 sets imaging conditions for the imaging unit 312.
  • the imaging conditions are shutter speed, aperture value, still image mode, moving image mode, depth of focus, sensitivity of the image sensor, and the like.
  • the imaging control unit 324 controls the driving of the imaging unit 312 so that the imaging unit 312 performs image recording based on imaging conditions.
  • the imaging control unit 324 outputs optical parameters required for estimating the working distance f to the distance estimation unit 325.
  • the optical parameters required for estimating the working distance f are the driving amount and defocus amount of the lens in the imaging optical system for matching the image point of the optical device with the imaging surface.
  • the imaging control unit 324 calculates the contrast at one point in the image using the DFF (Depth from forcus) method, and displaces the image point. When it is determined that the in-focus state is close, the imaging control unit 324 stops the displacement of the image point, and outputs the lens driving amount and defocus amount at this time to the distance estimating unit 325 as optical parameters.
  • DFF Depth from forcus
  • the imaging control unit 324 records two images at two different image points using, for example, a DFD (Depth from defocus) method, and from the recorded images and lens parameters, Calculate points. Then, the imaging control unit 324 outputs the lens driving amount and defocus amount for displacing the image point to the imaging surface as an optical parameter to the distance estimation unit 325.
  • a DFD Depth from defocus
  • the imaging control unit 324 stores the optical parameter when the image in the focused state is recorded in the distance estimation unit 325 every time the image in the focused state is recorded. Output. At this time, each time the imaging control unit 324 outputs the optical parameter, the imaging control unit 324 causes the image recorded using the optical parameter to be transferred from the imaging unit 312 to the image acquisition unit 327 in the order in which the image is recorded. In addition, when the moving image mode is set as the imaging condition, the imaging control unit 324 outputs the optical parameters when the images constituting the moving image are recorded to the distance estimation unit 325 each time the images are recorded. . At this time, each time the imaging control unit 324 outputs the optical parameter, the imaging control unit 324 causes the image recorded using the optical parameter to be transferred from the imaging unit 312 to the image acquisition unit 327 in the order in which the image is recorded.
  • the distance estimation unit 325 calculates and outputs an estimated value of the working distance f.
  • the distance estimation unit 325 calculates an estimated value using the optical parameter and the lens parameter.
  • the optical parameter is a value output from the imaging control unit 324 when an image is recorded.
  • the lens parameter is a focal length of each lens included in the imaging optical system, a distance between principal points, or the like. That is, the distance estimation unit 325 calculates an estimated value from the driving amount and defocus amount of the lens in the focused state. Note that the distance estimation unit 325 can also calculate an estimated value from only the optical parameters output from the imaging control unit 324.
  • the distance estimation unit 325 outputs the calculated estimation amount to the distance determination unit 326 in the order in which the images are recorded.
  • the distance determination unit 326 determines whether or not the estimated amount is the reference distance 331.
  • the estimated amount used for determination by the distance determination unit 326 is a calculated value output by the distance estimation unit 325.
  • the distance determination unit 326 reads the reference distance 331 from the storage unit that stores the reference distance 331.
  • the reference distance 331 used for determination by the distance determination unit 326 is a value inherently included in the identification target 110.
  • the reference distance 331 is a working distance f that satisfies the above (4) and (5) when imaging the identification target 110, and is a value input in advance to the identification device 310 prior to identification that the optical device corresponds to the identification target 110. It is.
  • the reference distance 331 can also be a predetermined range including the working distance f satisfying the above (4) and (5).
  • the distance determination unit 326 outputs a determination result indicating whether or not the estimated amount is the reference distance 331 to the processing control unit 321 in the order in which the images are recorded.
  • the image acquisition unit 327 acquires the image transferred from the imaging unit 312 and stores the acquired image as the acquired image 332.
  • the image acquired by the image acquisition unit 327 is data indicating an image for which an estimated value is to be calculated among the images recorded by the imaging unit 312. That is, for the image acquired by the image acquisition unit 327, the estimated value when the image is recorded is determined by the distance determination unit 326.
  • the image acquired by the image acquisition unit 327 is a gray image, a color image, or a RAW image.
  • the image acquisition unit 327 transfers the acquired image to a format that can be analyzed by the image determination unit 328 to the image determination unit 328 in the order in which the images are recorded.
  • the image determination unit 328 determines whether or not the image transferred from the image acquisition unit 327 matches a reference image 333 that is an example of a reference image.
  • the reference image 333 is data indicating an image that should be originally obtained by the optical device identified as the identification target 110.
  • the image to be originally obtained is generated from the result of the identification device 310 imaging the identification object 110 under the condition that the imaging angle ⁇ is the reference angle and the working distance f is the reference distance 331.
  • the reference image 333 is data obtained by modeling an image obtained from the identification target 110. To determine whether the image transferred from the image acquisition unit 327 matches the reference image 333, a method of calculating the similarity between the reference image 333 and the acquired image 332 by template matching is used.
  • the determination of whether the image transferred from the image acquisition unit 327 matches the reference image 333 can include the determination of whether the luminance histogram distributions match.
  • the image determination unit 328 outputs the result of determination by the image determination unit 328 to the processing control unit 321 in the order in which the images are recorded.
  • the processing control unit 321 uses the determination result of the distance determination unit 326 and the determination result of the image determination unit 328 for one common acquired image, and the optical device corresponds to the identification target 110. Identify.
  • the processing supervision unit 321 includes a condition for identifying that the optical device corresponds to the identification target 110.
  • the conditions provided by the processing control unit 321 are that the common value of one acquired image is determined by the distance determination unit 326 that the estimated value is the reference distance 331, and the acquired image 332 matches the reference image 333. including.
  • the processing control unit 321 identifies that the optical device is the identification target 110 when the conditions provided by the processing control unit 321 are satisfied.
  • the processing control unit 321 determines that the distance determination unit 326 determines that the estimated value is not the reference distance 331 for one common acquired image, and that the acquired image 332 does not match the reference image 333. When at least one of these is satisfied, it is handled that the optical device cannot be identified as the identification target 110.
  • the identification device 310 starts processing for identifying that the current optical device corresponds to the identification target 110 when the application is started.
  • the processing control unit 321 causes the display device 313 to output an operation screen that prompts the user to image the surface of the current optical device through control by the display control unit 323.
  • the processing control unit 321 starts imaging of the current optical device in response to a user operation on the operation screen. That is, the processing supervision unit 321 causes the irradiation unit 311 to emit the irradiation light IL through the control by the irradiation control unit 322. Further, the processing supervision unit 321 drives the imaging unit 312 through the control by the imaging control unit 324 to sequentially record each image in the focused state on the imaging unit 312.
  • the processing control unit 321 causes the imaging control unit 324 to output optical parameters required for estimating the working distance f to the distance estimation unit 325 during recording of each image through the control of the imaging control unit 324.
  • the processing supervision unit 321 sequentially transfers the recorded images from the imaging unit 312 to the image acquisition unit 327 under the control of the imaging control unit 324.
  • the image acquisition unit 327 sequentially acquires images transferred by the imaging unit 312 (step S11).
  • the processing supervision unit 321 causes the distance estimation unit 325 to sequentially calculate an estimated value for each image using the optical parameters output from the imaging control unit 324 and the lens parameters (step S12).
  • the processing control unit 321 causes the distance determination unit 326 to sequentially determine whether or not the estimated value output from the distance estimation unit 325 is the reference distance 331 (step S13).
  • the processing control unit 321 passes through the processes of the imaging control unit 324, the distance estimation unit 325, and the distance determination unit 326 until the estimated value is determined to be the reference distance 331. Recording, image acquisition by the image acquisition unit 327, calculation of an estimated value by the distance estimation unit 325, and determination by the distance determination unit 326 are repeated (NO in step S13).
  • the processing control unit 321 determines whether the acquired image 332 matches the reference image 333 through processing by the image determination unit 328. (Step S14).
  • the acquired image 332 used for determination by the image determination unit 328 is an example of a determination target, and is an image recorded with specific optical parameters.
  • the specific optical parameter is an optical parameter used for calculating the estimated value when it is determined that the estimated value is the reference distance 331. If it is determined that the acquired image 332 matches the reference image 333, the processing control unit 321 identifies that the current optical device corresponds to the identification target 110.
  • the processing control unit 321 displays on the display device 313 that the current optical device is identified as a genuine product through the control of the display control unit 323 (step S15). On the other hand, if it is determined that the acquired image 332 does not match the reference image 333, the processing control unit 321 cannot identify that the current optical device corresponds to the identification target 110, that is, the current optical device cannot be identified. A message to that effect is displayed on the display device 313 (step S16).
  • the effect enumerated below is acquired.
  • Appropriateness of the working distance f, which is the distance of, is reflected.
  • the appropriateness of the relative positions of the imaging unit 312 and the irradiation unit 311 with respect to the optical device is reflected in the identification result. Therefore, it is possible to increase the accuracy of identification that the optical device corresponds to the identification target.
  • the imaging unit 312 for imaging the optical device and the imaging control unit 324 generate optical parameters for calculating the estimated value. Therefore, compared with a configuration in which a functional unit for collecting information for calculating an estimated value is separately mounted on the identification device 310, the configuration of the identification device 310 can be simplified.
  • the distance between the irradiation unit 311 and the imaging unit 312 is 5 mm or more and 20 mm or less on the mounting surface 310S, a general-purpose portable device including the irradiation unit 311 and the imaging unit 312 is used as the identification device 310. It becomes possible.
  • the determination by the distance determination unit 326 is performed prior to the determination by the image determination unit 328. Then, for the acquired image 332 at the working distance f determined by the distance determination unit 326 that the estimated value is the reference distance 331, it is determined whether or not the acquired image 332 matches the reference image 333. Therefore, as compared with the configuration in which the determination as to whether or not the acquired image 332 matches the reference image 333 is performed for all the acquired images 332, the time required for identifying that the optical device falls under the identification target 110 is reduced. Can be achieved.
  • the processing control unit 321 can change the order of the determination using the estimated value and the determination using the acquired image 332. Even in this order of determination, it is possible to obtain the effects according to the above (1) to (3). Also, the optical device identifies whether or not the estimated value is the reference distance 331 and whether or not the recorded image matches the reference image 333 compared to the configuration performed for each image. It becomes possible to shorten the time required to identify the subject 110. In addition, the accuracy of identification based on the acquired image 332 determined that the acquired image 332 matches the reference image 333 can be further improved by reflecting the determination using the estimated value.
  • the processing control unit 321 determines whether each acquired image 332 matches the reference image 333 through the processing by the image determination unit 328 after the processing of Step S11 and Step S12 is performed. Is determined (step S21). At this time, the acquired image 332 used for determination by the image determination unit 328 is each image acquired by the image acquisition unit 327. In addition, the processing control unit 321 performs an image in the imaging unit 312 until it is determined that the acquired image 332 matches the reference image 333 through the processes of the imaging control unit 324, the image acquisition unit 327, and the image determination unit 328. Recording, image acquisition by the image acquisition unit 327, calculation of an estimated value by the distance estimation unit 325, and determination by the image determination unit 328 are repeated (NO in step S21).
  • processing overall unit 321 determines whether or not the estimated value output by distance estimation unit 325 is reference distance 331. 326 is determined (step S22).
  • the estimated value used for determination by the distance determining unit 326 is an example of a determination target, and is an estimated value obtained from an optical parameter at the time of recording a specific image.
  • the specific image is the acquired image 332 determined to match the reference image 333.
  • the processing control unit 321 identifies that the current optical device corresponds to the identification target 110.
  • the processing control unit 321 cannot identify that the current optical device corresponds to the identification target 110, that is, the current optical device cannot be identified. It is displayed on the display device 313 (step S16).
  • the imaging control unit 324 transfers the recorded images from the imaging unit 312 to the image acquisition unit 327 in the order of recording, and the optical parameters at the time of recording each image are also set in the order in which the images are recorded. It outputs to the distance estimation part 325.
  • the image determination unit 328 determines whether or not the acquired image 332 matches the reference image 333 and outputs the result of the determination in the order in which the images are recorded.
  • the distance determination unit 326 can determine whether the estimated value is the reference distance 331 and output the result of the determination in the order in which the images are recorded.
  • the determination by the image determination unit 328 whether the acquired image 332 matches the reference image 333 and the determination by the distance determination unit 326 whether the estimated value is the reference distance 331 are: A configuration in which each image is performed in parallel is also possible.
  • the processing control unit 321 uses the estimated value every time an image is recorded by the imaging unit 312 through instructions to the imaging control unit 324, the distance estimation unit 325, the distance determination unit 326, the image acquisition unit 327, and the image determination unit 328. It is also possible to perform the determination using the acquired image 332. That is, the estimation of the distance estimation unit 325 using the optical parameter, the determination of the distance determination unit 326 using the estimated value, and the determination of the image determination unit 328 using the recorded image as the acquired image 332 are imaging. It is also possible to adopt a configuration that is performed once for each image recording by the unit 312.
  • the display control unit 323 can also display the acquired image 332 and the reference image 333 side by side.
  • the user of the identification device 310 can review the determination result of whether or not the acquired image 332 matches the reference image 333 by comparing the acquired image 332 and the reference image 333 on the display device 313. Become. Note that the acquired image 332 and the reference image 333 can be arranged side by side on the display device 313 in parallel on the left and right, or on the top and bottom.
  • the estimation performed by the distance estimation unit 325 is not limited to the passive type estimation described above, but may be an active type estimation.
  • the active type estimation is, for example, estimation using a time-of-flight method.
  • the identification device 310 includes a laser oscillation source and a detection unit that detects the laser, and operates using the time until the laser reflected by the identification target 110 or the optical device reaches the detection unit. Estimate the distance f.
  • the reference distance 331 can be calculated in real time by the distance determination unit 326 by inputting the period d included in the identification target 110 to the identification device 310. However, if the distance determination unit 326 holds the reference distance 331 in advance, it is possible to speed up the determination of whether or not the estimated value is the reference distance 331.
  • the reference distance 331 can be set in advance in a short distance range of 20 mm or more and 50 mm or less, for example, depending on the period dset included in the identification object 110.
  • the possibility that the irradiation light IL is diffused before reaching the optical device is lower as the reference distance 331 is shorter. Therefore, in the configuration in which the reference distance 331 is short, it is possible to ensure the contrast and clearness of the image recorded by the imaging unit 312 and to reduce the cause of erroneous determination in image determination. Become.
  • the period dset of the diffraction grating 231 is small. Since it is not easy to duplicate or forge the identification target 110 as the period dset is smaller, the anti-counterfeiting effect can be enhanced if the identification target 110 is applied to the forgery prevention medium. .
  • the identification device 310 can determine whether the two parameters of the imaging angle ⁇ and the working distance f satisfy the above formulas (4) and (5), and can perform identification based on the determination result. It is. That is, in the above-described embodiment, the identification device 310 has been handled as the imaging angle ⁇ being a predetermined reference angle, but the present invention is not limited to this, and the identification device 310 includes an angle estimation unit that estimates the imaging angle ⁇ . It is also possible. For example, as illustrated in FIG. 11, the image determination unit 328 has a function as the angle estimation unit described above, and uses image processing for calculating a depression angle from an image recorded in the imaging unit 312, thereby capturing an image. It is also possible to estimate the angle ⁇ .
  • the identification device 310 can include a storage unit that stores a range of two parameters that satisfy the above expressions (4) and (5), and an imaging determination unit that performs determination using the range stored in the storage unit. is there. Then, when the imaging determination unit determines that the estimated value estimated by the distance estimation unit 325 and the estimated value estimated by the angle estimation unit are included in the stored range, an image recorded in the imaging unit 312 is displayed. It is also possible to adopt a configuration in which an image used for identification is handled.
  • the reference image 333 is generated from a modeled algorithm derived from the plurality of images using a plurality of images recorded at different imaging angles ⁇ and different working distances f with respect to the identification target 110. Is done. Then, the image determination unit 328 generates the reference image 333 by applying the estimated value estimated by the distance estimating unit 325 and the estimated value estimated by the angle estimating unit to the modeled algorithm, and the generated reference The image 333 is used for determination.
  • the identification device 310 identifies that the optical device is not the identification target 110 when it is determined that the estimated value of the working distance f is the reference distance and the acquired image 332 does not match the reference image 333. Is also possible. Further, the identification device 310 may identify that the optical device is not the identification object 110 when it is determined that the estimated value of the working distance f is not the reference distance and the acquired image 332 matches the reference image 333. Is possible.
  • the conditions included in the processing control unit 321 are that the distance determination unit 326 determines that the estimated value is the reference distance 331 for a plurality of mutually different images, and that the image determination is that the acquired image 332 matches the reference image 333. It is also possible to include that part 328 determines. Further, the conditions provided by the processing control unit 321 are that the distance determination unit 326 determines that the estimated value is the reference distance 331 for images at a plurality of mutually different imaging angles ⁇ , and the acquired image 332 is the reference image. It can also be included that the image determination unit 328 determines that it matches 333. If these conditions are added, the accuracy of identification that the optical device corresponds to the identification object 110 can be further improved.
  • the processing supervision unit 321 can also include a guidance processing unit 329 that is an example of a guide unit.
  • the guidance processing unit 329 causes the display device 313 to display guidance on the posture of the identification device 310 during recording through the control of the display control unit 323.
  • the guidance processing unit 329 obtains a difference between the estimated value and the reference distance 331 through an instruction to the distance determination unit 326. Then, based on the difference obtained through the control by the display control unit 323, the guidance processing unit 329 “the distance between the optical device and the identification device 310 is correct”, “the distance between the optical device and the identification device 310 is correct. A message “No” is displayed on the display device 313. In addition, the guidance processing unit 329 determines that “the identification device 310 is moved 1 cm away from the optical device” or “the identification device 310 is moved closer to the optical device by 1 cm” based on the difference obtained through the control by the display control unit 323. Is displayed on the display device 313.
  • the guidance processing unit 329 obtains a difference between the estimated value of the imaging angle ⁇ and the reference angle 334 through an instruction to the image determination unit 328. Then, the guidance processing unit 329 displays the messages “the inclination of the identification device 310 is correct” and “the inclination of the identification device 310 is incorrect” based on the difference obtained through the control by the display control unit 323 on the display device 313. To display. In addition, the guidance processing unit 329 displays messages “Please depress the identification device 310 a little” and “Wake up the identification device 310 a little” based on the difference obtained through the control by the display control unit 323. To display.
  • the guidance processing unit 329 can guide the posture of the identification device 310 by at least one of sound from the sound output unit, vibration from the oscillation source, and lighting by the LED light. Further, the guidance processing unit 329 can guide the posture of the identification device 310 by combining the display by the display device 313 and these.
  • the optical device is imaged with the posture of the identification device 310 suitable for recording an image used for identification, that is, the image used for identification is suitable for identification. Recording is possible under certain conditions. As a result, it is possible to reduce the difficulty of identification due to the fact that the image formed by the first-order diffracted light emitted from the diffraction grating is not recorded.
  • the image formed by the diffracted light DL can include a code in addition to images such as figures and patterns.
  • the image itself formed by the diffracted light DL can also be a code.
  • the code is information indicating the type of product to which the optical device is attached, the identification number of the product to which the optical device is attached, the type of the optical device itself, the identification number of the optical device itself, and the like.
  • the code is information that can be read by a machine such as a character such as a number, a code based on a geometric shape, a code based on a planar shape, a barcode, or a two-dimensional barcode.
  • the identification apparatus 310 can also be provided with a function of specifying the type of product or the type of optical device from the code.
  • the identification device 310 can transmit a code obtained from an image formed by diffracted light to an external device having a function of specifying the type of product or the type of optical device from the code.
  • the identification object 110 can also include support information necessary for imaging the surface of the identification object 110 as a code that can be imaged by the imaging unit 312.
  • the support information is at least one of a reference angle and a reference distance 331.
  • the identification device 310 includes a reading unit that reads support information from an image captured by the imaging unit 312.
  • the processing control unit 321 displays the support information read by the reading unit on the display device 313 through the control of the display control unit 323, thereby prompting the user to image at the reference angle and the reference distance 331. .
  • the time required for identifying that the optical device corresponds to the identification target 110 can be shortened.
  • the display unit 111 of the identification target 110 can include a configuration using retroreflective characteristics with a spherical structure in addition to the diffraction grating 231.
  • the display unit 111 of the identification target 110 includes a fine slope with a slope, the slope is arranged in a cycle in which diffracted light is emitted in a negative angle range, and the reflection characteristic of the slope has a negative angle. It is also possible to provide a configuration for emitting light in a range or a positive angle range.
  • the identification object 110 can also have a configuration that shows a structural color using propagation of surface plasmons.
  • the identification object 110 includes a multilayer interference film in which a plurality of thin films having different refractive indexes overlap each other, a flake pigment in which the multilayer interference film is crushed, a microparticle that exhibits an interference phenomenon when coated with a thin film, a liquid crystal It is also possible to further include a material, a quantum dot such as a silver nanoparticle, and an optical functional unit using these.
  • the identification target 110 may be any configuration as long as the display unit 111 includes the diffraction grating 231 that emits the diffracted light in the negative angle range. It is possible to further add a configuration for emitting light.
  • the identification object 110 and the optical device can be provided with a louver layer on the surface of the diffraction grating 231.
  • the louver layer includes a plurality of light-blocking walls that are parallel to each other. Each wall surface defines a slit-like opening extending in the traveling direction of the irradiation light IL and the traveling direction of the diffracted light. That is, the louver layer allows the irradiation light IL and the diffracted light DL to advance, while light other than the irradiation light IL enters the diffraction grating 231 and light other than the diffracted light DL is imaged. Injecting toward the part 312 is suppressed. Since the identification object 110 including the louver layer and the optical device including the louver layer can suppress erroneous identification due to light other than diffracted light, the accuracy of identification that the optical device corresponds to the identification object can be improved. Further enhancement is possible.
  • the identification that the optical device corresponds to the identification object 110 can be applied to the identification that the optical device corresponds to the genuine identification object 110.
  • the identification that the optical device corresponds to the identification object 110 is performed by identifying that the optical device corresponds to the first identification object 110, identifying that the optical device corresponds to the identification object 110 that is duplicated, and the optical device. It can be applied to the identification of a forgery identification object.
  • the identification device can be configured by the terminal device 350 and the processing server 360.
  • the terminal device 350 includes an irradiation unit 311, an imaging unit 312, a display device 313, a processing control unit 321, an irradiation control unit 322, a display control unit 323, an imaging control unit 324, and a communication unit 320 (first communication unit).
  • the terminal device 350 includes a distance estimation unit 325, a distance determination unit 326, an image acquisition unit 327, and an image determination unit 328.
  • the irradiation unit 311, the imaging unit 312, the display device 313, the irradiation control unit 322, the display control unit 323, the imaging control unit 324, the distance estimation unit 325, the distance determination unit 326, the image acquisition unit 327, and the image determination unit 328 are The functions described in the above embodiment are provided.
  • the processing server 360 includes a communication unit (second communication unit) connected to the terminal device 350.
  • the communication unit 320 is connected to the processing server 360 and transmits various data to the processing server 360.
  • the processing server 360 receives various types of data from the terminal device 350 and performs processing using the received data.
  • the processing server 360 transmits the results of various processes to the terminal device 350.
  • the process control unit 321 causes the imaging control unit 324, the distance estimation unit 325, and the distance determination unit 326 to perform each process (from step S11 to step S14).
  • the processing supervision unit 321 transmits the result of the determination as to whether or not the acquired image 332 matches the reference image 333 from the communication unit 320 to the processing server 360.
  • the processing server 360 receives the result determined that the acquired image 332 matches the reference image 333, and identifies that the current optical device corresponds to the identification target 110. Then, the processing server 360 transmits to the terminal device 350 that the current optical device corresponds to the identification target 110.
  • the communication unit 320 receives a result of identification by the processing server 360 from the processing server 360.
  • the processing control unit 321 displays on the display device 313 that the current optical device has been identified as a genuine product (step S15).
  • the processing server 360 receives the result determined that the acquired image 332 does not match the reference image 333, and identifies that the current optical device does not correspond to the identification target 110. Then, the processing server 360 transmits to the terminal device 350 that the current optical device cannot be identified.
  • the communication unit 320 receives from the processing server 360 the result of the indistinguishment by the processing server 360.
  • the processing control unit 321 displays on the display device 313 that the current optical device cannot be identified (step S16).
  • the processing server 360 includes the identification function included in the processing control unit 321, and the processing server 360 can transmit the identification result to the terminal device 350. At this time, the processing server 360 can connect to a plurality of different terminal devices 350 and transmit different identification results to each terminal device 350.
  • the identification device can be configured by a terminal device 350 and a processing server 360.
  • the terminal device 350 includes an irradiation unit 311, an imaging unit 312, a display device 313, a processing control unit 321, an irradiation control unit 322, a display control unit 323, an imaging control unit 324, a distance estimation unit 325, and a communication unit 351 (first Communication section).
  • the irradiation unit 311, the imaging unit 312, the display device 313, the irradiation control unit 322, the display control unit 323, the imaging control unit 324, and the distance estimation unit 325 have the functions described in the above embodiment.
  • the process supervision unit 321 causes the imaging control unit 324 and the distance estimation unit 325 to perform each process (step S11 and step S12).
  • the processing supervision unit 321 transmits the estimated value output from the distance estimation unit 325 to the processing server 360 through processing in the communication unit 351 connected to the processing server 360.
  • the processing control unit 321 records an image in the imaging unit 312, acquires an image in the image acquisition unit 327, and acquires information in the distance estimation unit 325 until the processing server 360 determines that the estimated value is the reference distance 331. Repeat the calculation of the estimated value.
  • the processing server 360 includes a processing control unit 362, a distance determination unit 326, an image determination unit 328, and a communication unit 361 (second communication unit).
  • the processing control unit 362 causes the distance determination unit 326 to sequentially determine whether or not the received estimated value is the reference distance 331.
  • the processing control unit 362 transmits the result of the determination as to whether or not the estimated value is the reference distance 331 to the terminal device 350 through the processing in the communication unit 361.
  • the processing control unit 362 determines whether the acquired image 332 matches the reference image 333 through processing by the image determination unit 328.
  • the acquired image 332 used for determination by the image determination unit 328 is an example of a determination target, and is an image recorded with specific optical parameters.
  • the specific optical parameter is an optical parameter used for calculating the estimated value when it is determined that the estimated value is the reference distance 331.
  • the processing supervision unit 362 identifies that the current optical device corresponds to the identification target 110. Then, the processing control unit 362 transmits the identification result to the terminal device 350 and displays on the display device 313 that the current optical device is identified as a genuine product through the control of the display control unit 323. .
  • the processing control unit 362 cannot identify that the current optical device corresponds to the identification target 110. That is, the processing control unit 362 transmits the identification result to the terminal device, and causes the display device 313 to display that the current optical device cannot be identified.
  • the processing server 360 includes the determination function and the identification function included in the processing control unit 321, and the processing server 360 transmits the identification result to the terminal device 350. Is possible. At this time, the processing server 360 can connect to a plurality of different terminal devices 350 and transmit different identification results to each terminal device 350.
  • the processing control unit 362 transmits the result of the determination to the terminal device 350, and the processing control unit 321 is received. It is also possible to identify that the current optical device corresponds to the identification target 110 based on the determination result. If it is determined that the acquired image 332 does not match the reference image 333, the processing control unit 362 transmits the result of the determination to the terminal device 350, and the processing control unit 321 determines that the received determination result is the same as the received determination result. On the basis of this, it may be determined that the current optical device cannot be identified as the identification target 110.
  • the identification device can be configured by the processing server 360. That is, the identification device includes a processing control unit 362, a distance determination unit 326, an image determination unit 328, and a communication unit 361 (second communication unit), and the estimated value transmitted from the terminal device 350 is the reference distance. And when the condition including the determination that the image transmitted from the terminal device 350 matches the reference image is satisfied, the optical device is identified as corresponding to the identification target.
  • Display control unit 324... Imaging control unit, 325 ... Distance estimation unit, 326 ... Distance determination unit, 327 ... Image acquisition unit, 328 ... Image determination unit 329 ... Guidance processing unit, 331 ... Reference distance, 332 ... Acquired image, 333 ... Reference image, 334 ... Reference angle.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Security & Cryptography (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)
  • Holo Graphy (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Studio Devices (AREA)

Abstract

識別装置は、光学デバイスの表面と撮像部との作動距離を推定値として推定する推定部を備える。識別対象の第1面と撮像部との距離であり、かつ、回折格子の回折した光を撮像部で記録可能となる距離が基準距離である。識別装置は、推定値が基準距離であるか否かを判定する第1判定部と、撮像部の記録した像が基準像と一致するか否かを判定する第2判定部とを備える。そして、識別装置は、光学デバイスが識別対象に該当すると識別する条件に、推定値が基準距離であると第1判定部が判定すること、および、撮像部の記録した像が基準像と一致すると第2判定部が判定することを含み、この条件が満たされるとき、光学デバイスが識別対象に該当すると識別する。

Description

識別装置、識別方法、および、識別プログラム
 本発明は、光学デバイスが識別対象に該当することを回折格子が形成する像を用いて識別する識別装置、識別方法、および、識別プログラムに関する。
 偽造や複製を防止するための回折格子を備えた光学デバイスは、株券や商品券などの有価証券類、医薬品、食料品、ブランド品などの各種商品に取り付けられる。この類の光学デバイスが識別対象に該当することの識別は、特殊な機器を用いる専門的な知識を有した利用者が行う。専門的な知識とは、例えば、識別を行うための可視光を光学デバイスに照射する角度や、可視光が照射された光学デバイスを観察する方向などである(例えば、特許文献1~4参照)。
国際公開WO2016/121210号公報 国際公開WO2016/147813号公報 国際公開WO2016/190107号公報 特開2006-350995号公報
 ところで、上記光学デバイスの一例は、回折した光を負の角度範囲に射出する回折格子を備える。この類の光学デバイスに可視光が照射されると、回折格子から1次回折光が射出される。1次回折光が進む方向は、正反射光が進む方向とは異なり、光学デバイスから照射部に向く方向と近い。スマートフォンやタブレット端末などの携帯端末は、光学デバイスに向く1つの面に、照射部と近接した撮像部を備える。そのため、こうした携帯端末は、1次回折光が形成する像の記録に適しており、また、識別の汎用性を高める可能性を有する。
 1次回折光が形成する像の記録の可否は、光学デバイス、照射部、および、撮像部の相対的な位置の変化に応じて変わる。1次回折光が形成する像が所定の像であることの識別の結果も、光学デバイス、照射部、および、撮像部の相対的な位置の変化に応じて変わってしまう。それゆえに、照射部と撮像部とを1つの面に備えた機器を用いる識別では、光学デバイスが識別対象に該当することの識別の精度を高める技術が望まれている。
 本発明の目的は、光学デバイスが識別対象に該当することの識別の精度を向上可能とした識別装置、識別方法、および、識別プログラムを提供することである。
 上記課題を解決するための識別装置は、光学デバイスが識別対象に該当することを識別する装置であって、前記識別対象が備える第1面に対する法線に対して、光の入射側が負の角度範囲であり、光の正反射側が正の角度範囲であり、前記識別対象は、回折した光を負の角度範囲に射出する回折格子を前記第1面に備える。前記識別装置は、前記光学デバイスに向く前記識別装置の第2面に位置して前記光学デバイスの表面に可視光を照射する照射部と、前記識別対象の第1面と前記識別装置の第2面とが形成する角度であって、かつ、前記回折格子が回折した光を撮像部で記録可能となる角度が基準角度であり、前記第2面に位置して前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態で前記光学デバイスの表面を撮像する前記撮像部と、前記光学デバイスの表面と前記撮像部との距離を推定値として推定する推定部と、前記識別対象の第1面と前記撮像部との距離であって、かつ、前記回折格子が回折した光を前記撮像部で記録可能となる距離が基準距離であり、前記推定値が前記基準距離であるか否かを判定する第1判定部と、前記回折格子が回折した光が形成する像が基準像であり、前記撮像部が記録した像が前記基準像と一致するか否かを判定する第2判定部と、前記推定値が基準距離であると前記第1判定部が判定すること、および、前記撮像部が記録した像が前記基準像と一致すると前記第2判定部が判定することを含む条件が満たされるとき、前記光学デバイスが前記識別対象に該当すると識別する識別部と、を備える。
 上記課題を解決するための識別方法は、光学デバイスが識別対象に該当することを識別装置によって識別する識別方法であって、前記識別対象の第1面に対する法線に対して、光の入射側が負の角度範囲であり、光の正反射側が正の角度範囲であり、前記識別対象の第1面が、回折した光を負の角度範囲に射出する回折格子を備え、前記識別装置が、前記光学デバイスに向く前記識別装置の第2面に照射部と撮像部とを備える。前記識別方法は、前記光学デバイスの表面に可視光を照射することと、前記識別対象の第1面と前記識別装置の第2面とが形成する角度であって、かつ、前記回折格子が回折した光を前記撮像部で記録可能となる角度が基準角度であり、前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態で前記光学デバイスの表面を撮像することと、前記光学デバイスの表面と前記撮像部との距離を推定値として推定することと、前記識別対象の第1面と前記撮像部との距離であって、かつ、前記回折格子が回折した光を前記撮像部が記録可能とする距離が基準距離であり、前記推定値が前記基準距離であるか否かを判定することと、前記回折格子が回折した光が形成する像が基準像であり、前記撮像部が記録した像が基準像と一致するか否かを判定することと、前記推定値が基準距離であると判定すること、および、前記撮像部が記録した像が前記基準像と一致すると判定することを含む条件が満たされるとき、前記光学デバイスが前記識別対象に該当すると識別することと、を含む。
 上記課題を解決するための識別プログラムは、照射部と撮像部とを備える装置を、光学デバイスが識別対象に該当することを識別する識別装置として機能させる識別プログラムであって、前記識別対象の第1面に対する法線に対して、光の入射側が負の角度範囲であり、光の正反射側が正の角度範囲であり、前記識別対象の第1面が、回折した光を負の角度範囲に射出する回折格子を備え、前記照射部および前記撮像部が、前記光学デバイスに向く前記装置の第2面に備えられる。前記識別プログラムは、前記装置に、前記光学デバイスの表面に可視光を照射することと、前記識別対象の第1面と前記装置の第2面とが形成する角度であって、かつ、前記回折格子が回折した光を前記撮像部で記録可能となる角度が基準角度であり、前記光学デバイスの表面と前記第2面とが形成する角度が基準角度である状態で前記光学デバイスの表面を撮像することと、前記光学デバイスの表面と前記撮像部との距離を推定値として推定することと、前記識別対象の第1面と前記撮像部との距離であって、前記回折格子が回折した光を前記撮像部で記録可能となる距離が基準距離であり、前記推定値が前記基準距離であるか否かを判定することと、前記回折格子が回折した光が形成する像が基準像であり、前記撮像部が記録した像が基準像と一致するか否かを判定することと、前記推定値が基準距離であると判定すること、および、前記撮像部が記録した像が前記基準像と一致すると判定することを含む条件が満たされるとき、前記光学デバイスが前記識別対象に該当すると識別することと、を実行させる。
 回折した光を負の角度範囲に射出する回折格子を備える光学デバイスは、識別対象と同じく、負の角度範囲、すなわち、回折格子から見て照射部の近くに、回折した光を射出する。そのため、回折した光を負の角度範囲に射出する回折格子を備えた光学デバイスの識別では、識別に用いられる像を記録する撮像部が、光学デバイスに対して照射部と同じ側に位置することが必要となる。この点、上記各構成であれば、照射部と撮像部とが、光学デバイスの表面に向かう共通する第2面に位置する。しかも、光学デバイスの表面と識別装置の第2面とが形成する角度が基準角度である状態での像が、撮像部で記録される。そして、光学デバイスの表面と撮像部との距離の推定値が基準距離であること、および、撮像部が記録した像が基準像と一致すること、これらが、光学デバイスが識別対象に該当すると識別するための条件に含まれる。結果として、光学デバイスが識別対象に該当することの識別に、光学デバイスの表面と第2面とが形成する角度の適否、および、光学デバイスの表面と撮像部との距離の適否が反映される。すなわち、光学デバイスに対する撮像部の相対的な位置の適否、および、光学デバイスに対する照射部の相対的な位置の適否が、識別の結果に反映される。それゆえに、光学デバイスが識別対象に該当することの識別の精度を高めることが可能となる。
 上記識別装置は、前記推定値が前記基準距離ではないと前記第1判定部が判定したときに、前記識別装置の外部に案内を出力する案内部をさらに備え、前記案内部が出力する案内は、前記推定値が前記基準距離となる位置に前記識別装置を誘導させるための案内であってもよい。
 上記識別装置によれば、識別に用いられる像を記録することに適した距離で光学デバイスを撮像すること、すなわち、識別に用いられる像を記録することが可能となる位置で光学デバイスを撮像することが可能となる。結果として、回折格子が射出する1次回折光が形成する像が記録されないことに起因した識別の困難性を軽減することが可能となる。
 上記識別装置において、前記撮像部は、前記光学デバイスの表面を撮像するための撮像光学系を備え、前記光学デバイスの像点を撮像面に合わせるように撮像光学系を駆動して、前記光学デバイスの像点を撮像面に合わせた状態で、前記光学デバイスを撮像し、前記推定部は、前記撮像部が前記光学デバイスの表面を撮像したときの前記撮像光学系の光学パラメータを用いて前記推定値を算出してもよい。
 光学デバイスの像点を撮像面に合わせる撮像光学系は、光学デバイスの表面と撮像部との距離に応じた光学パラメータで駆動される。上記識別装置によれば、光学デバイスを撮像するための機能部が、推定値を算出するための光学パラメータを有する。そのため、推定値を算出するための情報を収集するための機能部が別途識別装置に搭載される構成と比べて、識別装置における構成の簡素化を図ることが可能ともなる。
 上記識別装置において、前記照射部と前記撮像部との距離は、前記第2面において5mm以上20mm以下であってもよい。この識別装置によれば、照射部と撮像部との距離が5mm以上20mm以下であるため、照射部と撮像部とを備える汎用的な携帯機器を識別装置として用いることが可能となる。
 上記識別装置において、前記撮像部は、前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態、かつ、前記光学デバイスの表面と前記撮像部との距離が相互に異なる状態で、複数の像を記録し、前記推定部は、前記各像の記録時での前記推定値を算出し、前記第1判定部は、前記各推定値が前記基準距離であるか否かを判定し、前記第2判定部は、前記推定値が前記基準距離であると前記第1判定部が判定した像を、前記基準像と一致するか否かの判定対象としてもよい。
 上記識別装置によれば、第2判定部での判定に先駆けて、第1判定部での判定が各像について行われる。そして、推定値が基準距離であると第1判定部が判定した像について、当該像が基準像と一致するか否かの判定が行われる。それゆえに、推定値が基準距離であるか否かの判定と、記録された像が基準像と一致するか否かの判定とが、各像について行われる構成と比べて、光学デバイスが識別対象に該当することの識別に要する時間の短縮を図ることが可能となる。
 上記識別装置において、前記撮像部は、前記光学デバイスの表面と前記第2面とが形成する角度が基準角度である状態、かつ、前記光学デバイスの表面と前記撮像部との距離が相互に異なる状態での複数の像を記録し、前記第2判定部は、前記各像が前記基準像と一致するか否かを判定し、前記推定部は、前記基準像であると前記第2判定部が判定した像の記録時での前記推定値を算出し、前記第1判定部は、前記基準像であると前記第2判定部が判定した像の記録時での前記推定値を、前記基準距離であるか否かの判定対象としてもよい。
 上記識別装置によれば、第1判定部での判定に先駆けて、第2判定部での判定が各像について行われる。そして、基準像であると第2判定部が判定した像について、当該像が記録されたときの推定値が基準距離であるか否かの判定が行われる。それゆえに、推定値が基準距離であるか否かの判定と、記録された像が基準像と一致するか否かの判定とが、各像について行われる構成と比べて、光学デバイスが識別対象に該当することの識別に要する時間の短縮を図ることが可能となる。
 上記識別装置において、前記識別装置は、端末装置とサーバとを含み、前記端末装置は、前記照射部、前記撮像部、前記推定部、前記第1判定部、前記第2判定部、および、前記第1判定部の判定結果と前記第2判定部の判定結果とを送信する第1通信部を備え、前記サーバは、前記第1通信部から各判定結果を受信する第2通信部と、前記第2通信部が受信した各判定結果を用いて識別を行う前記識別部と、を備えてもよい。
 上記識別装置において、前記識別装置は、端末装置とサーバとを含み、前記端末装置は、前記照射部、前記撮像部、前記推定部、および、前記撮像部が撮像した像と前記推定値とを前記サーバに送信する第1通信部を備え、前記サーバは、前記撮像部が撮像した像と前記推定値とを前記第1通信部から受信する第2通信部と、前記第2通信部が受信した前記推定値を用いて判定を行う前記第1判定部と、前記第2通信部が受信した像を用いて判定を行う前記第2判定部と、前記識別部とを備え、前記第2通信部は、前記識別部による識別の結果を前記端末装置に送信してもよい。
 上記課題を解決するための識別装置は、光学デバイスが識別対象に該当することを識別する識別装置であって、前記識別対象の第1面に対する法線に対して、光の入射側が負の角度範囲であり、光の正反射側が正の角度範囲であり、前記識別対象は、回折した光を負の角度範囲に射出する回折格子を前記第1面に備える。端末装置は、前記光学デバイスに向く前記端末装置の第2面に位置して前記光学デバイスの表面に可視光を照射する照射部と、前記識別対象の第1面と前記識別装置の第2面とが形成する角度であって、かつ、前記回折格子が回折した光を撮像部で記録可能となる角度が基準角度であり、前記第2面に位置して前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態で前記光学デバイスの表面を撮像する前記撮像部と、前記光学デバイスの表面と前記撮像部との距離を推定値として推定する推定部と、前記撮像部が撮像した像と前記推定値とを前記識別装置に送信する第1通信部と、を備える。前記識別装置は、前記第1通信部から前記撮像部が撮像した像と前記推定値とを受信する第2通信部と、前記識別対象の第1面と前記撮像部との距離であって、かつ、前記回折格子が回折した光を前記撮像部で記録可能となる距離が基準距離であり、前記第2通信部が受信した前記推定値が前記基準距離であるか否かを判定する第1判定部と、前記回折格子が回折した光が形成する像が基準像であり、前記第2通信部が受信した像が前記基準像と一致するか否かを判定する第2判定部と、前記推定値が基準距離であると前記第1判定部が判定すること、および、前記撮像部が記録した像が前記基準像と一致すると前記第2判定部が判定することを含む条件が満たされるとき、前記光学デバイスが前記識別対象に該当すると識別する識別部と、を備える。
識別対象の平面構造の一例を示す平面図。 識別対象の断面構造の一例を示す断面図。 識別対象の一部を拡大した斜視構造の一例を示す斜視図。 識別対象の一部を拡大した斜視構造の他の例を示す斜視図。 回折格子から射出される1次回折光の方向を示す作用図。 回折格子から射出される1次回折光の方向を示す作用図。 識別装置の構成を識別対象に対する相対的な位置にて示す構成図。 識別装置の構成を機能的に示すブロック図。 識別装置が行う処理の流れを示すフロー図。 識別装置が行う処理の流れを示すフロー図。 変形例における識別装置の構成を機能的に示すブロック図。 変形例における識別装置の構成を機能的に示すブロック図。 変形例における識別装置の構成を機能的に示すブロック図。
 識別装置、識別方法、および、識別プログラムの一実施形態を以下に説明する。まず、識別装置によって識別される対象である識別対象の構成と、識別対象が備える光学的な作用とを説明する。次いで、光学デバイスが識別対象に該当することの識別を行う識別装置、識別方法、および、識別プログラムを説明する。
 [識別対象110]
 図1が示すように、識別対象110は、光学的な機能を備える光学シートである。識別対象110は、識別対象110の表面に、表示部111を備える。表示部111は、表示部111を観察する角度によって、表示部111の形成する像の色、形状、模様などを変える。識別対象110の表面と対向する方向から識別対象110が撮像される場合に、表示部111の形成する星形の像を撮像部で記録不能とする。他方、識別対象110の表面に対して斜めに傾いた方向から識別対象110が撮像される場合に、表示部111の形成する星形の像を撮像部で記録可能とする。
 図2が示すように、識別対象110は、基材層210、中間層220、反射層230を備える。基材層210は、識別対象110の製造や識別対象110の取り付けに際して、中間層220、および、反射層230を支持する。中間層220は、微細な凹部や微細な凸部を備える。中間層220が備える凹凸形状は、反射層230に凹凸形状を形成するためのものである。反射層230は、反射層230に入射する可視光を反射する。反射層230は、中間層220が備える凹凸形状に追従する凹凸形状を備え、この凹凸形状が回折格子231として機能する。反射層230が備える凹凸形状での凹部の空間周波数、もしくは、凸部の空間周波数は、例えば、1000cycles/mm以上3500cycles/mm以下である。また、凹凸形状での凹部の周期、もしくは、凸部の周期は、例えば、286nm以上1000nm以下である。中間層220が備える凹凸形状は、金属性のスタンパなどを用いた押し出し成形や熱プレス成形などの種々の方法で形成される。反射層230は、蒸着法やスパッタリング法などの種々の方法で形成される。
 図3が示す例のように、回折格子231は、複数の凸面232を備える。各凸面232は、識別対象110の表面に沿うX方向に規則的に並び、かつ、識別対象110の表面に沿うY方向にも規則的に並ぶ。また、識別対象110の表面と対向する方向から見て、各凸面232は、X方向に対してほぼ27°を形成する方向、および、X方向に対して45°を形成する方向などのこれら各方向にも規則的に並ぶ。
 図4が示す他の例のように、回折格子231は、Y方向に延びる複数の凸面232を備える。各凸面232は、識別対象110の表面に沿うX方向に規則的に並ぶ。
 識別対象110は、凸面232の規則的な並びによって回折光を射出する。凸面232の並ぶ方向と、撮像される方向の正射影ベクトルとがほぼ一致するとき、回折光の形成する像を撮像部で記録可能となる。撮像される方向の正射影ベクトルは、識別対象110を撮像する方向を、識別対象110の表面に投影したベクトルである。なお、回折格子231が備える各凸面232の形状は、半紡錘体形状、錐体形状、および、切頭錐体形状などである。錐体形状は、円錐形状あるいは角錐形状を含み、切頭錐体形状は、切頭円錐形状あるいは切頭角錐形状を含む。また、回折格子231は、図3に示したように、凸面232の並ぶ方向が2つ以上の方向に指向性を有した構成に限らず、凹面の並ぶ方向が2つ以上の方向に指向性を有した構成、凹面の連なる方向が単一の方向である指向性を有した構成とすることも可能である。
 次に、反射型の回折格子が射出する回折光の進む方向を説明する。まず、回折光の射出される角度範囲について説明する。次いで、上記回折格子231とは異なり、回折格子DGの周期dが上記例示範囲の最大波長以上である回折格子について、図5を参照して、回折光の射出される角度の一例を説明する。次いで、上記回折格子231と同じく、回折格子DGの周期dが上記例示範囲内である回折格子について、図6を参照して、回折光の射出される角度を説明する。
 まず、反射型の回折格子は、所定の方向に高い輝度を有した回折光を射出する。m次回折光(m=0、±1、±2、・・・)の射出される角度である撮像角βは、回折格子の表面と直交し、かつ、凸面232の並ぶ方向を含む鉛直面内で下記式(1)を満たす。
 d=mλ/(sinθ-sinβ)    ・・・式(1)
 式(1)の周期dは、回折格子で単位格子が並ぶ周期であり、定数mは回折次数であり、波長λは、照射光ILに含まれる光の波長、および、回折光に含まれる光の波長である。照射角θは、照射光ILの入射角であり、0次回折光である正反射光の射出される角度の絶対値と等しい。照射角θは、0°以上90°未満である。正反射光の射出される角度は、正の角度範囲に含まれ、照射光ILの照射される角度は、負の角度範囲に含まれる。回折光の射出される方向が、正反射光の射出される方向と同じく、正の角度範囲に含まれるとき、撮像角βは正の値である。他方、回折光の射出される方向が、照射光ILの照射される方向と同じく、負の角度範囲に含まれるとき、撮像角βは負の値である。
 図5が示すように、回折格子DGは、例えば、1000nmよりも長い周期dを有する。照射部の照射する照射光ILは、可視光の一例である白色光である。照射光ILが照射角θで回折格子DGに照射されるとき、回折格子DGは、正反射光、または、0次回折光である正反射光RLを射出する。回折格子DGは、1次回折光として、赤色回折光DLr、緑色回折光DLg、および、青色回折光DLbを射出する。赤色回折光DLrの射出角βr、緑色回折光DLgの射出角βg、および、青色回折光DLbの射出角βbは、回折格子DGの正面視方向DLVに対して、正の角度範囲に含まれる。したがって、照射部が負の角度範囲に位置し、かつ、撮像部が正の角度範囲に位置することによって、各色回折光DLr,DLg,DLbの形成する像が撮像部で記録される。
 図6が示すように、回折格子DGは、上記例示範囲内の周期dを有する。すなわち、回折格子DGの周期dは、例えば、286nm以上1000nm以下である。照射部の照射する照射光ILは、ここでも、可視光の一例である白色光である。照射光ILが照射角θで回折格子DGに照射されるとき、回折格子DGは、1次回折光として、赤色回折光DLr、緑色回折光DLg、および、青色回折光DLbを射出する。赤色回折光DLrの射出角βr、緑色回折光DLgの射出角βg、および、青色回折光DLbの射出角βbは、回折格子DGの正面視方向DLVに対して、負の角度範囲に含まれる。例えば、照射角θが50°であり、周期dが330nmであるとき、540nmの波長を有した緑色回折光DLgの射出角βgは-60°である。したがって、照射部が負の角度範囲に位置し、かつ、撮像部が負の角度範囲に位置することによって、各色回折光DLr,DLg,DLbの形成する像が撮像部で記録される。
 なお、回折格子DGの周期dが1000nmである場合、1次回折光の射出角はおよそ-10°であり、赤色回折光DLrの射出角βrと青色回折光DLbの射出角βbとの差分値は、約7°である。また、回折格子DGの周期dが667nmである場合、1次回折光の射出角はおよそ-15°であり、赤色回折光DLrの射出角βrと青色回折光DLbの射出角βbとの差分値は、およそ11°である。また、回折格子DGの周期dが500nmである場合、1次回折光の射出角はおよそ-20°であり、赤色回折光DLrの射出角βrと青色回折光DLbの射出角βbとの差分値は、およそ15°である。また、回折格子DGの周期dが400nmである場合、1次回折光の射出角はおよそ-25°であり、赤色回折光DLrの射出角βrと青色回折光DLbの射出角βbとの差分値は、およそ20°である。また、回折格子DGの周期dが333nmである場合、1次回折光の射出角はおよそ-30°であり、赤色回折光DLrの射出角βrと青色回折光DLbの射出角βbとの差分値は、およそ25°である。そして、回折格子DGの周期dが286nmである場合、1次回折光の射出角はおよそ-35°であり、赤色回折光DLrの射出角βrと青色回折光DLbの射出角βbとの差分値は、およそ32°である。
 上述したように、識別装置によって識別される識別対象110は、回折した光を負の角度範囲に射出する周期dを回折格子231が有する。それゆえに、光学デバイスが識別対象110に該当することの識別に際しては、照射部が負の角度範囲に位置し、かつ、撮像部が負の角度範囲に位置することによって、回折光の形成する像を撮像部で記録可能となる。なお、1次回折光は、赤色回折光DLr、緑色回折光DLg、および、青色回折光DLbから構成される。各色回折光DLr,DLg,DLbは、回折格子DGと撮像部との距離が大きいほど、撮像部では別々の色の光として記録される。他方、各色回折光DLr,DLg,DLbは、回折格子DGと撮像部との距離が小さいほど、撮像部では相互に混じり合った色の光として記録される。
 [識別装置310]
 次に、回折した光を負の角度範囲に射出する回折格子231を備える識別対象110と、光学デバイスが識別対象110に該当することを識別するための識別装置310との相対的な位置について、図7を参照して説明する。光学デバイスは、各種の物品に取付けられる。各種の物品は、株券、国債証券、手形、商品券、ギフト券、旅行券、貨物引換証などの有価証券、プリペイドカードなどの前払式証票、クレジットカード、医薬品、食料品、ブランド品、銀行券などの金券である。
 図7が示すように、識別装置310は、第2面の一例である搭載面310Sに、照射部311と撮像部312とを備える。識別装置310は、搭載面310Sとは反対側の面に、表示装置313を備える。識別装置310は、コンピュータシステムであり、コンピュータシステムで読取り可能な可読媒体に識別プログラムを記憶する。識別プログラムは、光学デバイスが識別対象110に該当することを識別するためのプログラムである。識別装置310は、可読媒体の記憶する識別プログラムを読取り実行し、それによって、上述した識別を行う。
 なお、識別プログラムは、識別プログラムを記憶装置などに格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波によって、他のコンピュータシステムに伝送することも可能である。また、識別プログラムは、識別装置310が有する機能の一部を実現するプログラムであってもよい。さらに、識別プログラムは、識別装置310が有する機能を、識別装置310が既に記憶する他のプログラムとの組み合わせによって実現する差分プログラムとすることも可能である。識別装置310は、スマートフォンやタブレット端末などの携帯端末に具体化される。
 照射部311は、可視光の一例である白色光を照射光ILとして射出する。照射光ILは、搭載面310Sのほぼ法線方向に射出される。照射部311は、発光ダイオードやキセノンランプなどのエレクトロニックフラッシュである。照射部311は、識別対象110や光学デバイスに、連続的に光を照射する装置、あるいは、識別対象110や光学デバイスに、短時間だけ光を照射する装置である。
 撮像部312は、撮像部312に向けた光の形成する像を記録する。撮像部312は、撮像光学系と固体撮像素子とを備える。撮像光学系は、正屈折レンズや負屈折レンズなどの撮像レンズ、絞り、および、これらを駆動する駆動機構を備える。固体撮像素子は、CMOSセンサーやCCDセンサーなどのイメージセンサーである。撮像部312は、識別対象110や光学デバイスの像点をイメージセンサーの撮像面に合わせるように駆動される。表示装置313は、撮像部312の記録した光学デバイスによる像などの各種の情報を表示するディスプレイである。
 搭載面310Sにおいて、照射部311と撮像部312との間隔は、定格距離ksetである。定格距離ksetは、識別装置310の仕様によって一義的に定まる距離である。定格距離ksetは、光学デバイスが識別対象110に該当することの識別に際して不変であり、識別装置310に固有の一定値である。定格距離ksetは、例えば、5mm以上20mm以下である。定格距離ksetが5mm以上20mm以下である装置であれば、照射部311と撮像部312との間隔が大きいことに起因した識別装置310の大型化を抑えることが可能であり、それによって、識別装置310の汎用性を高めることが可能でもある。
 識別対象110の表面231Sは、第1面の一例であり、回折格子231の位置する面である。識別対象110の表面231Sと、撮像部312との間隔は、作動距離fである。作動距離fは、光学デバイスが識別対象110に該当することの識別に際して、識別装置310の利用者や、識別装置310に適用される器具によって、変更可能な距離である。作動距離fは、定格距離ksetよりも大きく、例えば、50mm以上200mm以下である。
 ここで、照射部311の照射した照射光ILは、識別対象110の表面231Sに入射する。回折格子231の射出した回折光DLは、識別対象110の表面231Sから搭載面310Sに向けて進む。この際、下記式(2)が満たされるとき、n次(nは1以上の整数)の回折光DLの形成する像は、撮像部312で記録可能となる。
 d=nλ/(sin(β-α)+sinβ)  ・・・式(2)
 tanα=kset/f           ・・・式(3)
 上記式(2)において、照射角θは、識別対象110の正面視方向と、照射光ILの進む方向である照射方向とが形成する角度である。また、光学デバイスが識別対象110に該当することの識別に際して、照射角θは、光学デバイスの正面視方向と、照射光ILの照射方向とが形成する角度である。なお、照射角θは、識別対象110の表面231Sと、識別装置310の搭載面310Sとが形成する角度に相当する。また、光学デバイスが識別対象110に該当することの識別に際して、光学デバイスの表面と、識別装置310の搭載面310Sとが形成する角度に相当する。
 上記式(2)において、撮像角βは、識別対象110の正面視方向と、回折光DLの進む方向である射出方向とが形成する角度である。また、光学デバイスが識別対象110に該当することの識別に際して、撮像角βは、光学デバイスの正面視方向と、回折光DLの射出方向とが形成する角度である。
 上記式(2)において、作動角αは、照射部311と識別対象110とを結ぶ直線と、撮像部312と識別対象110とを結ぶ直線との形成する角度である。また、光学デバイスが識別対象110に該当することの識別に際して、作動角αは、照射部311と光学デバイスとを結ぶ直線と、撮像部312と光学デバイスとを結ぶ直線との形成する角度である。なお、作動角αは、上記式(3)を満たす角度であり、定格距離ksetが一定であるため、作動距離fの変化に応じて変わる角度である。
 ここで、光学デバイスが識別対象110に該当することの識別に際して、上記周期dは、識別対象110に予め設定された、識別対象110に固有の周期dsetである。また、波長λは、識別対象110が射出する回折光の代表的な波長であり、例えば、可視光波長帯が400nm以上800nm以下である場合には、可視光波長帯の中心波長である波長λset(=600nm)である。言い換えれば、定格距離ksetは、識別装置310に固有の値であり、周期dsetと波長λsetとは、識別対象110に固有の値であり、光学デバイスが識別対象110に該当することの識別に際して、所定値に保たれる。それゆえに、撮像角βと作動距離fとが、下記式(4)(5)を満たすことによって、1次回折光の形成する像が撮像部312で記録可能となる。
 この際、光学デバイスの表面と、搭載面310Sとの形成する角度が、所定値に保たれた撮像であれば、撮像角βもまた、所定値に保たれる。例えば、光学デバイスの表面と、搭載面310Sとの形成する角度が所定値に保たれて、かつ、搭載面310Sが光学デバイスの表面から離れる場合、照射角θが増大する一方で、撮像角βは所定値に保たれる。また、光学デバイスの表面と、搭載面310Sとの形成する角度が所定値に保たれて、かつ、搭載面310Sが光学デバイスの表面に近付く場合、照射角θが減少する一方で、撮像角βは所定値に保たれる。結果として、撮像角βが所定値に保たれた状態で撮像が行われる、あるいは、撮像角βが所定値である像のみが識別に用いられ、かつ、下記式(4)(5)を満たすように、作動距離fのみが調整されると、それによって、1次回折光の形成する像を撮像部312で記録可能となる。
 dset=λset/(sin(β-α)+sinβ) ・・・式(4)
 tanα=kset/f            ・・・式(5)
 次に、識別装置310が備える各処理部の構成について図7を参照して説明する。なお、以下では、光学デバイスが識別対象110に該当することを識別する例について説明する。識別対象110は、上述したように、負の角度範囲に回折光DLを射出するデバイスである。
 また、光学デバイスが識別対象110に該当することを識別することに際して、撮像角βは基準角度に保たれる。基準角度は、例えば、20°以上70°以下の範囲のなかから予め設定される。上述したように、撮像角βと作動距離fとの2つのパラメータが上記式(4)(5)を満たすとき、回折光DLの形成する像が撮像部312で記録可能となる。撮像角βは、識別対象110の表面231Sと、識別装置310の搭載面310Sとの形成する角度に相当する。撮像角βを基準角度に保つ方法は、撮像角βを基準角度にするためのステージなどの治具を用いる。そして、識別装置310が治具に支持された状態で、識別装置310が撮像を行う。また、撮像角βを基準角度に保つ他の方法は、撮像角βを算出する機能部を識別装置310が備え、現在の撮像角βを基準角度とするように、識別装置310を取り扱う利用者が、識別装置310の姿勢を調整する。そして、識別装置310は、撮像角βと作動距離fとの2つのパラメータのなかで、撮像角βは基準角度であるものとして識別を行う。
 図8が示すように、識別装置310は、上述した照射部311、撮像部312、および、表示装置313を備える。また、識別装置310は、識別部の一例である処理統括部321、照射制御部322、表示制御部323、撮像制御部324、推定部の一例である距離推定部325、第1判定部の一例である距離判定部326、画像取得部327、第2判定部の一例である画像判定部328を備える。処理統括部321は、中央演算処理装置およびメモリを備えて、後述する各種処理を全てソフトウェアで処理するものに限らない。例えば、処理統括部321は、各種処理のうちの少なくとも一部の処理を実行する専用のハードウェア(特定用途向け集積回路:ASIC)を備えたものであってもよい。つまり処理統括部321は、ASIC等の1つ以上の専用のハードウェア回路、コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ(マイクロコンピュータ)、あるいは、それらの組み合わせ、を含む回路として構成し得る。照射制御部322、表示制御部323、撮像制御部324、距離推定部325、距離判定部326、画像取得部327、画像判定部328は、例えば、各種の処理を実行する専用のハードウェア回路、コンピュータプログラム(ソフトウェア)に従って動作する1つ以上のプロセッサ(マイクロコンピュータ)、あるいは、それらの組み合わせ、を含む回路として構成し得る。なお、ハードウェア回路、プロセッサ、あるいは、それらの組み合わせ、を含む回路は、2つ以上の機能部を構成し得る。メモリすなわちコンピュータ可読媒体は、汎用または専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。
 処理統括部321は、光学デバイスが識別対象110に該当することを識別するための識別プログラムを読み出して、識別プログラムを実行する。処理統括部321は、各制御部322,323,324が行う各処理、距離推定部325が行う推定、画像取得部327が行う画像の取得、各判定部326,328が行う各判定を管理する。処理統括部321は、各制御部322,323,324が行う各処理の開始や中止を別々に指示する。また、処理統括部321は、作動距離fを推定することを距離推定部325に指示する。また、処理統括部321は、各種の判定を行うことを各判定部326,328に別々に指示する。そして、処理統括部321は、各判定部326,328での判定の結果を用いて、光学デバイスが識別対象110に該当することの識別を行う。
 照射制御部322は、照射光ILの強さなどの照射の条件を設定する。照射制御部322は、光学デバイスの表面を撮像する際の周囲の明るさが明るいほど、照射光ILの強さを高めるように、照射の条件を設定する。照射制御部322は、照射の条件に基づく照射光ILを照射部311が出力するように、照射部311の駆動を制御する。処理統括部321は、照射制御部322による制御を通じ、照射部311に照射光ILを照射させるタイミング、および、照射部311に照射光ILを照射させる期間を管理する。
 表示制御部323は、表示装置313に表示させる画面を設定する。表示制御部323は、表示装置313に表示させる画面として、設定画面、進捗画面、および、通知画面のいずれかを設定する。設定画面は、撮像条件を入力するための入力画面、撮像条件の確認を利用者に促す確認画面、および、光学デバイスの撮像を促す操作画面などを含む。進捗画面は、撮像部312の撮像した像をその都度表示する撮像画面、撮像した像とそれとの比較に用いられた像とを表示する参照画面、識別に用いられる判定の結果をその都度示す判定画面などを含む。通知画面は、光学デバイスが識別対象に該当すると識別されたことを示す画面、光学デバイスが識別対象に該当すると識別されなかったことを示す画面、識別に必要とされる処理でエラーが生じたことを示す画面などを含む。表示制御部323は、設定された画面を表示装置313が表示するように、表示装置313の駆動を制御する。処理統括部321は、表示制御部323による制御を通じ、表示装置313に各画面を表示させるタイミングを管理する。
 撮像制御部324は、撮像部312での撮像の条件を設定する。撮像の条件は、シャッタースピード、絞り値、静止画モード、動画モード、焦点深度、撮像素子の感度などである。撮像制御部324は、撮像の条件に基づく像の記録を撮像部312が行うように、撮像部312の駆動を制御する。
 撮像制御部324は、作動距離fの推定に必要とされる光学パラメータを距離推定部325に出力する。作動距離fの推定に必要とされる光学パラメータは、光学デバイスの像点を撮像面に合わせるための撮像光学系でのレンズの駆動量やデフォーカス量である。撮像制御部324は、DFF(Depth from forcus)法を用い、像のなかの1点でのコントラストを算出して、像点を変位させる。撮像制御部324は、合焦状態に近いと判定したときに、像点の変位を停止させ、この際のレンズの駆動量やデフォーカス量を、光学パラメータとして距離推定部325に出力する。また、撮像制御部324は、例えば、DFD(Depth from defocus)法を用い、相互に異なる2つの像点での2枚の像を記録し、記録された各像とレンズのパラメータとから、像点を算出する。そして、撮像制御部324は、像点を撮像面に変位させるためのレンズの駆動量やデフォーカス量を、光学パラメータとして距離推定部325に出力する。
 撮像制御部324は、撮像の条件として静止画モードを設定する場合、合焦状態での像が記録される都度、合焦状態での像が記録されたときの光学パラメータを距離推定部325に出力する。この際、撮像制御部324は、光学パラメータを出力する都度、当該光学パラメータを用いて記録された像を、像が記録された順に、撮像部312から画像取得部327へ転送させる。また、撮像制御部324は、撮像の条件として動画モードを設定する場合、動画像を構成する各像が記録される都度、当該像が記録されたときの光学パラメータを距離推定部325に出力する。この際、撮像制御部324は、光学パラメータを出力する都度、当該光学パラメータを用いて記録された像を、像が記録された順に、撮像部312から画像取得部327へ転送させる。
 距離推定部325は、作動距離fの推定値を算出して出力する。距離推定部325は、光学パラメータとレンズパラメータとを用いて推定値を算出する。光学パラメータは、像の記録時に撮像制御部324から出力される値である。レンズパラメータは、撮像光学系が有する各レンズの焦点距離や主点間距離などである。すなわち、距離推定部325は、合焦状態でのレンズの駆動量やデフォーカス量から推定値を算出する。なお、距離推定部325は、撮像制御部324が出力した光学パラメータのみから推定値を算出することも可能である。距離推定部325は、算出された推定量を、像が記録された順に、距離判定部326に出力する。
 距離判定部326は、推定量が基準距離331であるか否かを判定する。距離判定部326が判定に用いる推定量は、距離推定部325が出力する算出値である。距離判定部326は、基準距離331を記憶する記憶部から基準距離331を読み出す。距離判定部326が判定に用いる基準距離331は、識別対象110が固有に有する値である。基準距離331は、識別対象110の撮像に際して上記(4)(5)を満たす作動距離fであり、光学デバイスが識別対象110に該当することの識別に先立ち、識別装置310に予め入力された値である。なお、基準距離331は、上記(4)(5)を満たす作動距離fを含む所定の範囲とすることも可能である。距離判定部326は、推定量が基準距離331であるか否かを示す判定の結果を、像が記録された順に、処理統括部321に出力する。
 画像取得部327は、撮像部312から転送される画像を取得し、取得された画像を取得画像332として格納する。画像取得部327が取得する画像は、撮像部312で記録された像のなかで、推定値の算出対象となった像を示すデータである。すなわち、画像取得部327が取得する画像について、当該画像が記録されたときの推定値が距離判定部326で判定される。画像取得部327が取得する画像は、グレー画像、カラー画像、あるいは、RAW画像である。画像取得部327は、取得された画像を画像判定部328で解析可能な形式として、像が記録された順に、画像判定部328に転送する。
 画像判定部328は、画像取得部327から転送された画像が、基準像の一例である基準画像333と一致しているか否かを判定する。基準画像333は、識別対象110と識別される光学デバイスで本来得られるべき像を示すデータである。本来得られるべき像は、撮像角βが基準角度であり、作動距離fが基準距離331である条件下で、識別装置310が識別対象110を撮像した結果から生成される。基準画像333は、識別対象110から得られた像をモデル化したデータである。画像取得部327から転送された画像が基準画像333と一致しているか否かの判定は、基準画像333と取得画像332との類似度をテンプレートマッチングによって算出する方法を用いる。あるいは、画像取得部327から転送された画像が基準画像333と一致しているか否かの判定は、輝度のヒストグラムの分布が一致しているか否かの判定を含めることも可能である。画像判定部328は、画像判定部328での判定の結果を、像が記録された順に、処理統括部321に出力する。
 処理統括部321は、共通する1つの取得された画像について、距離判定部326での判定の結果と、画像判定部328での判定の結果とを用い、光学デバイスが識別対象110に該当することの識別を行う。処理統括部321は、光学デバイスが識別対象110に該当することを識別するための条件を備える。処理統括部321が備える条件は、共通する1つの取得された画像について、推定値が基準距離331であると距離判定部326が判定すること、および、取得画像332が基準画像333と一致することを含む。処理統括部321は、処理統括部321が備える条件が満たされるとき、光学デバイスが識別対象110であると識別する。これに対して、処理統括部321は、共通する1つの取得された画像について、推定値が基準距離331でないと距離判定部326が判定すること、取得画像332が基準画像333と一致しないこと、これらの少なくとも一方が満たされるとき、光学デバイスが識別対象110であることを識別できないものとして取り扱う。
 [識別方法]
 次に、識別装置310が行う識別方法について説明する。なお、静止画モードでの識別は、動画モードでの識別と処理の流れがほぼ同様であるため、以下では、静止画モードでの識別について主に説明し、静止画モードでの処理の流れと、動画モードでの処理の流れとにおいて重複する処理の説明を割愛する。
 識別装置310は、アプリケーションが起動されることによって、今回の光学デバイスが識別対象110に該当することの識別を行う処理を開始する。まず、処理統括部321は、表示制御部323による制御を通じ、今回の光学デバイスの表面を撮像することを促す操作画面を表示装置313に出力させる。操作画面が表示されると、処理統括部321は、操作画面に対する利用者の操作を受けて、今回の光学デバイスの撮像を開始させる。すなわち、処理統括部321は、照射制御部322による制御を通じ、照射部311に照射光ILを照射させる。また、処理統括部321は、撮像制御部324による制御を通じ、撮像部312を駆動させて、合焦状態での各像を撮像部312に逐次記録させる。処理統括部321は、撮像制御部324による制御を通じ、各像の記録時において、作動距離fの推定に必要とされる光学パラメータを、撮像制御部324から距離推定部325へ出力させる。
 次いで、図9が示すように、処理統括部321は、撮像制御部324による制御を通じ、記録された各像を、撮像部312から画像取得部327に逐次転送させる。画像取得部327は、撮像部312の転送する画像を逐次取得する(ステップS11)。次いで、処理統括部321は、撮像制御部324が出力した光学パラメータと、レンズパラメータとを用いて、各像での推定値を距離推定部325に逐次算出させる(ステップS12)。次いで、処理統括部321は、距離推定部325が出力した推定値が基準距離331であるか否かを距離判定部326に逐次判定させる(ステップS13)。そして、処理統括部321は、撮像制御部324、距離推定部325、および、距離判定部326の各処理を通じ、推定値が基準距離331であると判定されるまで、撮像部312での像の記録、画像取得部327での画像の取得、距離推定部325での推定値の算出、距離判定部326での判定を繰り返す(ステップS13にてNO)。
 推定値が基準距離331であると判定されると(ステップS13にてYES)、処理統括部321は、画像判定部328による処理を通じ、取得画像332が基準画像333と一致するか否かを判定する(ステップS14)。この際、画像判定部328が判定に用いる取得画像332は、判定対象の一例であり、特定の光学パラメータで記録された像である。特定の光学パラメータは、推定値が基準距離331であると判定されたときの推定値の算出に用いられた光学パラメータである。処理統括部321は、取得画像332が基準画像333と一致すると判定された場合、今回の光学デバイスが識別対象110に該当することを識別する。そして、処理統括部321は、表示制御部323の制御を通じ、今回の光学デバイスが真正品に該当することを識別した旨を表示装置313に表示させる(ステップS15)。他方、処理統括部321は、取得画像332が基準画像333と一致しないと判定された場合、今回の光学デバイスが識別対象110に該当することを識別できない、すなわち、今回の光学デバイスが識別不能である旨を表示装置313に表示させる(ステップS16)。
 以上、上記実施形態によれば、以下に列挙する効果が得られる。
 (1)光学デバイスが識別対象110に該当することの識別に、光学デバイスの表面と搭載面310Sとが形成する角度に相当する撮像角βの適否、および、光学デバイスの表面と撮像部312との距離である作動距離fの適否が反映される。結果として、光学デバイスに対する撮像部312、および、照射部311の相対的な位置の適否が、識別の結果に反映される。それゆえに、光学デバイスが識別対象に該当することの識別の精度を高めることが可能となる。
 (2)光学デバイスを撮像するための撮像部312、および、撮像制御部324が、推定値を算出するための光学パラメータを生成する。そのため、推定値を算出するための情報を収集するための機能部が別途識別装置310に搭載される構成と比べて、識別装置310における構成の簡素化を図ることが可能ともなる。
 (3)照射部311と撮像部312との距離が、搭載面310Sにおいて5mm以上20mm以下であるため、照射部311と撮像部312とを備える汎用的な携帯機器を識別装置310として用いることが可能となる。
 (4)画像判定部328での判定に先駆けて、距離判定部326での判定が行われる。そして、推定値が基準距離331であると距離判定部326が判定した作動距離fでの取得画像332について、当該取得画像332が基準画像333と一致するか否かの判定が行われる。それゆえに、取得画像332が基準画像333と一致するか否かの判定が、全ての取得画像332について行われる構成と比べて、光学デバイスが識別対象110に該当することの識別に要する時間の短縮を図ることが可能となる。
 なお、上記実施形態は、以下のように変更して実施することもできる。
 [判定タイミング]
 ・処理統括部321は、推定値を用いた判定と、取得画像332を用いた判定との順序を変えることも可能である。こうした判定の順序であっても、上記(1)から(3)に準じた効果を得ることは可能である。また、推定値が基準距離331であるか否かの判定と、記録された像が基準画像333と一致するか否かの判定とが、各像について行われる構成と比べて、光学デバイスが識別対象110に該当することの識別に要する時間の短縮を図ることが可能となる。また、取得画像332が基準画像333と一致すると判定された取得画像332に基づく識別の精度を、推定値を用いた判定を反映させることによって、さらに高めることが可能ともなる。
 すなわち、図10が示すように、処理統括部321は、ステップS11とステップS12との処理が行われた後に、画像判定部328による処理を通じ、各取得画像332が基準画像333と一致するか否かを判定する(ステップS21)。この際、画像判定部328が判定に用いる取得画像332は、画像取得部327が取得した各像である。また、処理統括部321は、撮像制御部324、画像取得部327、および、画像判定部328の各処理を通じ、取得画像332が基準画像333と一致すると判定されるまで、撮像部312での像の記録、画像取得部327での画像の取得、距離推定部325での推定値の算出、画像判定部328での判定を繰り返す(ステップS21にてNO)。
 取得画像332が基準画像333と一致すると判定されると(ステップS21にてYES)、処理統括部321は、距離推定部325が出力した推定値が基準距離331であるか否かを距離判定部326に判定させる(ステップS22)。この際、距離判定部326が判定に用いる推定値は、判定対象の一例であり、特定の像の記録時における光学パラメータから得られた推定値である。特定の像は、基準画像333と一致すると判定された取得画像332である。処理統括部321は、推定値が基準距離331であると判定された場合、今回の光学デバイスが識別対象110に該当することを識別する。他方、処理統括部321は、推定値が基準距離331でないと判定された場合、今回の光学デバイスが識別対象110に該当することを識別できない、すなわち、今回の光学デバイスが識別不能である旨を表示装置313に表示させる(ステップS16)。
 ・撮像制御部324は、記録された各像を記録された順に撮像部312から画像取得部327に転送し、各像の記録時の光学パラメータを、これもまた、像が記録された順に、距離推定部325に出力する。この際、画像判定部328は、取得画像332が基準画像333と一致するか否かの判定と、当該判定の結果の出力とを、各像の記録された順に行う。また、距離判定部326は、推定値が基準距離331であるか否かの判定と、当該判定の結果の出力とを、各像の記録された順に行うことも可能である。すなわち、識別装置310では、取得画像332が基準画像333と一致するか否かの画像判定部328による判定と、推定値が基準距離331であるか否かの距離判定部326による判定とが、各像について並行して行われる構成とすることも可能である。
 ・処理統括部321は、撮像制御部324、距離推定部325、距離判定部326、画像取得部327、画像判定部328に対する指示を通じ、撮像部312で像が記録される都度、推定値を用いた判定と、取得画像332を用いた判定とを行うことも可能である。すなわち、光学パラメータを用いた距離推定部325の推定、当該推定値を用いた距離判定部326の判定、および、記録された像を取得画像332として用いた画像判定部328の判定とは、撮像部312による像の記録ごとに1度ずつ行われる構成とすることも可能である。
 [表示制御部323]
 ・表示制御部323は、取得画像332と基準画像333とを並べて表示することも可能である。識別装置310の利用者は、表示装置313において、取得画像332と基準画像333とを比較することによって、取得画像332が基準画像333と一致するか否かの判定の結果を見直すことが可能となる。なお、取得画像332と基準画像333とは、表示装置313において左右に並列に並べることも、上下に並べることも可能である。
 [距離推定部325]
 ・距離推定部325が行う推定は、上述したパッシブ型の推定に限らず、アクティブ型の推定とすることも可能である。アクティブ型の推定は、例えば、タイムオブフライト法を用いる推定である。タイムオブフライト法では、識別装置310は、レーザー発振源と、レーザーを検出する検出部とを備えて、識別対象110や光学デバイスで反射されたレーザーが検出部に届くまでの時間を用いて作動距離fを推定する。
 [距離判定部326]
 ・基準距離331は、識別対象110が備える周期dを識別装置310に入力し、それによって、距離判定部326がリアルタイムで算出することも可能である。ただし、距離判定部326が基準距離331を予め保持する構成であれば、推定値が基準距離331であるか否かの判定の高速化を図ることができる。
 ・基準距離331は、識別対象110が備える周期dsetによって、例えば、20mm以上50mm以下の近距離範囲に予め設定することも可能である。光学デバイスに届く前に照射光ILが拡散される可能性は、基準距離331が短いほど低い。それゆえに、基準距離331が短い構成においては、撮像部312で記録される像のコントラストや鮮明さを確保することが可能であって、像の判定における誤判定の要因を低減させることが可能ともなる。また、上記式(5)に記載のように、基準距離331が短いほど、当該基準距離331での作動角αは大きく、上記式(4)に記載のように、作動角αが大きいほど、回折格子231の周期dsetは小さい。そして、周期dsetが小さいほど識別対象110を複製したり偽造したりすることが容易ではないため、識別対象110を偽造防止媒体に適用する構成であれば、偽造防止効果を高めることが可能でもある。
 [識別方法]
 ・識別装置310は、撮像角βと作動距離fとの2つのパラメータが上記式(4)(5)を満たすか否かの判定を行い、当該判定の結果に基づいて識別を行うことも可能である。すなわち、上記実施形態では、識別装置310は、撮像角βが所定の基準角度であるものとして取り扱ったが、これに限定されず、識別装置310は、撮像角βを推定する角度推定部を備えることも可能である。例えば、図11が示すように、画像判定部328は、上述した角度推定部としての機能を備え、撮像部312に記録された像から俯角を算出するための画像処理を用い、それによって、撮像角βを推定することも可能である。
 ・識別装置310は、上記式(4)(5)を満たす2つのパラメータの範囲を記憶する記憶部と、記憶部が記憶した範囲を用いて判定を行う撮像判定部とを備えることも可能である。そして、距離推定部325の推定した推定値、および、角度推定部の推定した推定値が、記憶された範囲に含まれると撮像判定部が判定したときに、撮像部312に記録された像を識別に用いられる像として取り扱う構成とすることも可能である。
 この際、基準画像333は、識別対象110について、別々の撮像角β、および、別々の作動距離fにて記録される複数の像を用い、これら複数の像から導き出されるモデル化したアルゴリズムから生成される。そして、画像判定部328は、距離推定部325の推定した推定値と、角度推定部の推定した推定値とを、モデル化したアルゴリズムに適用して基準画像333を生成し、当該生成された基準画像333を判定に用いる。
 ・識別装置310は、作動距離fの推定値が基準距離であると判定され、かつ、取得画像332が基準画像333と一致しないと判定されたとき、光学デバイスは識別対象110でないと識別することも可能である。また、識別装置310は、作動距離fの推定値が基準距離でないと判定され、かつ、取得画像332が基準画像333と一致すると判定されたとき、光学デバイスは識別対象110でないと識別することも可能である。
 ・処理統括部321が備える条件は、相互に異なる複数の像について、推定値が基準距離331であると距離判定部326が判定すること、および、取得画像332が基準画像333と一致すると画像判定部328が判定することを含めることも可能である。また、処理統括部321が備える条件は、相互に異なる複数の撮像角βでの像について、推定値が基準距離331であると距離判定部326が判定すること、および、取得画像332が基準画像333と一致すると画像判定部328が判定することを含めることも可能である。これらが付加される条件であれば、光学デバイスが識別対象110に該当することの識別の精度をさらに向上可能ともなる。
 [案内部]
 ・図11が示すように、処理統括部321は、案内部の一例である誘導処理部329を備えることも可能である。誘導処理部329は、記録時における識別装置310の姿勢の案内を、表示制御部323の制御を通じ、表示装置313に表示させる。
 例えば、誘導処理部329は、距離判定部326に対する指示を通じ、推定値と基準距離331との差分を得る。そして、誘導処理部329は、表示制御部323による制御を通じ、得られた差分に基づき、「光学デバイスと識別装置310との距離は正しいです」、「光学デバイスと識別装置310との距離は正しくありません」というメッセージを表示装置313に表示させる。また、誘導処理部329は、表示制御部323による制御を通じ、得られた差分に基づき、「光学デバイスから識別装置310を1cm遠ざけて下さい」、「光学デバイスに識別装置310を1cm近づけて下さい」というメッセージを表示装置313に表示させる。
 また例えば、誘導処理部329は、画像判定部328に対する指示を通じ、撮像角βの推定値と基準角度334との差分を得る。そして、誘導処理部329は、表示制御部323による制御を通じ、得られた差分に基づき、「識別装置310の傾きは正しいです」、「識別装置310の傾きは正しくありません」というメッセージを表示装置313に表示させる。また、誘導処理部329は、表示制御部323による制御を通じ、得られた差分に基づき、「識別装置310を少し倒して下さい」、「識別装置310を少し起こして下さい」というメッセージを表示装置313に表示させる。
 ・誘導処理部329は、音声出力部による音声、発振源による振動、および、LEDライトによる点灯の少なくとも1つによって、識別装置310の姿勢を案内可能である。また、誘導処理部329は、表示装置313による表示とこれらとを組み合わせて、識別装置310の姿勢を案内可能である。
 上述した誘導処理部329を備える構成であれば、識別に用いられる像を記録することに適した識別装置310の姿勢で光学デバイスを撮像すること、すなわち、識別に用いられる像を識別に好適な条件で記録可能となる。結果として、回折格子の射出する1次回折光の形成する像が記録されないことに起因した識別の困難性を軽減可能となる。
 [画像]
 ・回折光DLの形成する像は、図形や模様などの画像の他に、コードを含むことも可能である。また、回折光DLの形成する像そのものが、コードであることも可能である。コードは、光学デバイスが取り付けられる商品の種類、光学デバイスが取付けられる商品の識別番号、光学デバイスそのものの種類、光学デバイスそのものの識別番号などを示す情報である。コードは、数字などの文字、幾何学形状によるコード、平面形状によるコード、バーコード、2次元バーコードなどの機械読み取りが可能な情報である。この際、識別装置310は、商品の種類や光学デバイスの種類をコードから特定する機能を、別途備えることも可能である。また、識別装置310は、商品の種類や光学デバイスの種類をコードから特定する機能を備えた外部装置に、回折光が形成する像から得たコードを送信可能である。
 ・識別対象110は、識別対象110の表面を撮像するために必要な支援情報を、撮像部312で撮像可能なコードとして備えることも可能である。支援情報は、基準角度、および、基準距離331の少なくとも1つである。この際、識別装置310は、撮像部312の撮像した像から支援情報を読み取る読取部を備える。そして、処理統括部321は、表示制御部323の制御を通じ、読取部の読み取った支援情報を表示装置313に表示させ、それによって、基準角度、および、基準距離331での撮像を利用者に促す。こうしたコードを用いる構成であれば、光学デバイスが識別対象110に該当することの識別に要する時間が短縮可能ともなる。
 [識別対象]
 ・識別対象110の表示部111は、回折格子231の他に、球状構造による再帰反射特性を用いた構成を備えることも可能である。また、識別対象110の表示部111は、勾配を有した微細な斜面を備え、当該斜面が、回折した光を負の角度範囲に射出する周期で並び、斜面が有する反射特性が、負の角度範囲や正の角度範囲に光を射出する構成を備えることも可能である。また、識別対象110は、表面プラズモンの伝搬を用いて構造色を示す構成を備えることも可能である。また、識別対象110は、相互に屈折率が異なる複数の薄膜が重なる多層干渉膜、多層干渉膜が破砕されたフレーク状の顔料、薄膜が被覆されることによって干渉現象を発現する微小粒子、液晶材料、銀ナノ粒子などの量子ドット、これらによる光学的な機能部をさらに備えることも可能である。
 以上のように、識別対象110は、要は、回折した光を負の角度範囲に射出する回折格子231を表示部111に備える構成であればよく、回折格子231の他に、回折光以外の光を射出する構成をさらに加えることも可能である。
 ・識別対象110や光学デバイスは、回折格子231の表面に、ルーバー層を備えることも可能である。ルーバー層は、相互に平行な多数の遮光性を有した壁面を備える。各壁面は、照射光ILの進む方向と、回折光の進む方向とに延びるスリット状の開口を区画する。すなわち、ルーバー層は、照射光ILの進行、および、回折光DLの進行を許容する一方で、照射光IL以外の光が回折格子231に入射すること、および、回折光DL以外の光が撮像部312に向けて射出されることを抑える。ルーバー層を備える識別対象110やルーバー層を備える光学デバイスであれば、回折光以外の光による誤った識別を抑えることが可能であるから、光学デバイスが識別対象に該当することの識別の精度をさらに高めることが可能ともなる。
 ・光学デバイスが識別対象110に該当することの識別は、光学デバイスが真正の識別対象110に該当することの識別に適用可能である。また、光学デバイスが識別対象110に該当することの識別は、光学デバイスが最先の識別対象110に該当することの識別、光学デバイスが複製された識別対象110に該当することの識別、光学デバイスが偽造された識別対象に該当することの識別に適用可能である。
 [識別装置]
 ・図12が示すように、識別装置は、端末装置350と、処理サーバ360とによって構成可能である。端末装置350は、照射部311、撮像部312、表示装置313、処理統括部321、照射制御部322、表示制御部323、撮像制御部324、および、通信部320(第1通信部)を備える。また、端末装置350は、距離推定部325、距離判定部326、画像取得部327、画像判定部328を備える。照射部311、撮像部312、表示装置313、照射制御部322、表示制御部323、撮像制御部324、距離推定部325、距離判定部326、画像取得部327、および、画像判定部328は、上記実施形態に記載された機能を備える。
 処理サーバ360は、端末装置350に接続される通信部(第2通信部)を備える。通信部320は、処理サーバ360に接続されて、各種のデータを処理サーバ360に送信する。処理サーバ360は、各種のデータを端末装置350から受信して、受信されたデータを用いた処理を行う。処理サーバ360は、各種処理の結果を端末装置350に送信する。
 処理統括部321は、撮像制御部324、距離推定部325、および、距離判定部326に、各処理(上記ステップS11からステップS14)を行わせる。処理統括部321は、取得画像332が基準画像333と一致するか否かの判定の結果を、通信部320から処理サーバ360に送信する。
 一方、処理サーバ360は、取得画像332が基準画像333と一致すると判定された結果を受信して、今回の光学デバイスが識別対象110に該当することを識別する。そして、処理サーバ360は、今回の光学デバイスが識別対象110に該当することを、端末装置350に送信する。通信部320は、処理サーバ360による識別の結果を、処理サーバ360から受信する。処理統括部321は、今回の光学デバイスが真正品に該当することを識別した旨を表示装置313に表示させる(ステップS15)。
 他方、処理サーバ360は、取得画像332が基準画像333と一致しないと判定された結果を受信して、今回の光学デバイスが識別対象110に該当しないことを識別する。そして、処理サーバ360は、今回の光学デバイスが識別不能であることを、端末装置350に送信する。通信部320は、処理サーバ360による識別不能の結果を、処理サーバ360から受信する。処理統括部321は、今回の光学デバイスが識別不能である旨を表示装置313に表示させる(ステップS16)。
 このように、上記実施形態においては処理統括部321が備えた識別の機能を、処理サーバ360が備えて、処理サーバ360が端末装置350に識別の結果を送信することも可能である。この際、処理サーバ360は、相互に異なる複数の端末装置350と接続して、各端末装置350に別々の識別結果を送信することも可能である。
 ・図13が示すように、識別装置は、端末装置350と、処理サーバ360とによって構成可能である。端末装置350は、照射部311、撮像部312、表示装置313、処理統括部321、照射制御部322、表示制御部323、撮像制御部324、距離推定部325、および、通信部351(第1通信部)を備える。照射部311、撮像部312、表示装置313、照射制御部322、表示制御部323、撮像制御部324、および、距離推定部325は、上記実施形態に記載された機能を備える。
 処理統括部321は、撮像制御部324、および、距離推定部325に、各処理(上記ステップS11、および、ステップS12)を行わせる。処理統括部321は、処理サーバ360に接続される通信部351での処理を通じて、距離推定部325が出力した推定値を処理サーバ360に送信する。処理統括部321は、推定値が基準距離331であると処理サーバ360が判定するまで、撮像部312での像の記録、画像取得部327での画像の取得、および、距離推定部325での推定値の算出を繰り返す。
 処理サーバ360は、処理統括部362、距離判定部326、画像判定部328、および、通信部361(第2通信部)を備える。処理統括部362は、受信された推定値が基準距離331であるか否かを距離判定部326に逐次判定させる。処理統括部362は、推定値が基準距離331であるか否かの判定の結果を、通信部361での処理を通じて、端末装置350に送信する。
 処理統括部362は、推定値が基準距離331であると判定されると、画像判定部328による処理を通じ、取得画像332が基準画像333と一致するか否かを判定する。この際、画像判定部328が判定に用いる取得画像332は、判定対象の一例であり、特定の光学パラメータで記録された像である。特定の光学パラメータは、推定値が基準距離331であると判定されたときの推定値の算出に用いられた光学パラメータである。
 一方、処理統括部362は、取得画像332が基準画像333と一致すると判定された場合、今回の光学デバイスが識別対象110に該当することを識別する。そして、処理統括部362は、識別の結果を端末装置350に送信して、表示制御部323の制御を通じて、今回の光学デバイスが真正品に該当することを識別した旨を表示装置313に表示させる。
 他方、処理統括部362は、取得画像332が基準画像333と一致しないと判定された場合、今回の光学デバイスが識別対象110に該当することを識別できない。すなわち、処理統括部362は、識別の結果を端末装置に送信して、今回の光学デバイスが識別不能である旨を表示装置313に表示させる。
 このように、上記実施形態においては処理統括部321が備えた判定の機能、および、識別の機能を、処理サーバ360が備えて、処理サーバ360が端末装置350に識別の結果を送信することも可能である。この際、処理サーバ360は、相互に異なる複数の端末装置350と接続して、各端末装置350に別々の識別結果を送信することも可能である。
 ・図13が示す例において、処理統括部362は、取得画像332が基準画像333と一致すると判定された場合、当該判定の結果を端末装置350に送信して、処理統括部321が、受信された判定の結果に基づいて、今回の光学デバイスが識別対象110に該当することを識別することも可能である。また、処理統括部362は、取得画像332が基準画像333と一致しないと判定された場合、当該判定の結果を端末装置350に送信して、処理統括部321が、受信された判定の結果に基づいて、今回の光学デバイスが識別対象110に該当することを識別できないとすることも可能である。
 ・図13が示す例において、識別装置は、処理サーバ360によって構成可能である。すなわち、識別装置は、処理統括部362、距離判定部326、画像判定部328、および、通信部361(第2通信部)を備えて、端末装置350から送信される推定値が基準距離であると判定すること、および、端末装置350から送信される像が基準像と一致すると判定することを含む条件が満たされるとき、光学デバイスが識別対象に該当すると識別する。
 α…作動角、β…撮像角、θ…照射角、λ…波長、d…周期、f…作動距離、IL…照射光、RL…正反射光、110…識別対象、111…表示部、210…基材層、220…中間層、230…反射層、231…回折格子、231S…表面、232…凸面、310…識別装置、310S…搭載面、311…照射部、312…撮像部、313…表示装置、321…処理統括部、322…照射制御部、323…表示制御部、324…撮像制御部、325…距離推定部、326…距離判定部、327…画像取得部、328…画像判定部、329…誘導処理部、331…基準距離、332…取得画像、333…基準画像、334…基準角度。

Claims (11)

  1.  光学デバイスが識別対象に該当することを識別する識別装置であって、前記識別対象が備える第1面に対する法線に対して、光の入射側が負の角度範囲であり、光の正反射側が正の角度範囲であり、前記識別対象は、回折した光を負の角度範囲に射出する回折格子を前記第1面に備え、
     前記識別装置は、
     前記光学デバイスに向く前記識別装置の第2面に位置して前記光学デバイスの表面に可視光を照射する照射部と、
     前記識別対象の第1面と前記識別装置の第2面とが形成する角度であって、かつ、前記回折格子が回折した光を撮像部で記録可能となる角度が基準角度であり、前記第2面に位置して前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態で前記光学デバイスの表面を撮像する前記撮像部と、
     前記光学デバイスの表面と前記撮像部との距離を推定値として推定する推定部と、
     前記識別対象の第1面と前記撮像部との距離であって、かつ、前記回折格子が回折した光を前記撮像部で記録可能となる距離が基準距離であり、前記推定値が前記基準距離であるか否かを判定する第1判定部と、
     前記回折格子が回折した光が形成する像が基準像であり、前記撮像部が記録した像が前記基準像と一致するか否かを判定する第2判定部と、
     前記推定値が基準距離であると前記第1判定部が判定すること、および、前記撮像部が記録した像が前記基準像と一致すると前記第2判定部が判定することを含む条件が満たされるとき、前記光学デバイスが前記識別対象に該当すると識別する識別部と、を備える
     識別装置。
  2.  前記推定値が前記基準距離ではないと前記第1判定部が判定したときに、前記識別装置の外部に案内を出力する案内部をさらに備え、前記案内部が出力する案内は、前記推定値が前記基準距離となる位置に前記識別装置を誘導させるための案内である
     請求項1に記載の識別装置。
  3.  前記撮像部は、前記光学デバイスの表面を撮像するための撮像光学系を備え、前記光学デバイスの像点を撮像面に合わせるように撮像光学系を駆動して、前記光学デバイスの像点を撮像面に合わせた状態で、前記光学デバイスの表面を撮像し、
     前記推定部は、前記撮像部が前記光学デバイスの表面を撮像したときの前記撮像光学系の光学パラメータを用いて前記推定値を算出する
     請求項1又は2に記載の識別装置。
  4.  前記照射部と前記撮像部との距離は、前記第2面において5mm以上20mm以下である
     請求項1から3のいずれか一項に記載の識別装置。
  5.  前記撮像部は、前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態、かつ、前記光学デバイスの表面と前記撮像部との距離が相互に異なる状態で、複数の像を記録し、
     前記推定部は、前記各像の記録時での前記推定値を算出し、
     前記第1判定部は、前記各推定値が前記基準距離であるか否かを判定し、
     前記第2判定部は、前記推定値が前記基準距離であると前記第1判定部が判定した像を、前記基準像と一致するか否かの判定対象とする
     請求項1から4のいずれか一項に記載の識別装置。
  6.  前記撮像部は、前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態、かつ、前記光学デバイスの表面と前記撮像部との距離が相互に異なる状態で、複数の像を記録し、
     前記第2判定部は、前記各像が前記基準像と一致するか否かを判定し、
     前記推定部は、前記基準像であると前記第2判定部が判定した像の記録時での前記推定値を算出し、
     前記第1判定部は、前記基準像であると前記第2判定部が判定した像の記録時での前記推定値を、前記基準距離であるか否かの判定対象とする
     請求項1から4のいずれか一項に記載の識別装置。
  7.  前記識別装置は、端末装置とサーバとを含み、
     前記端末装置は、前記照射部、前記撮像部、前記推定部、前記第1判定部、前記第2判定部、および、前記第1判定部の判定結果と前記第2判定部の判定結果とを送信する第1通信部を備え、
     前記サーバは、前記第1通信部から各判定結果を受信する第2通信部と、前記第2通信部が受信した各判定結果を用いて識別を行う前記識別部と、を備える
     請求項1に記載の識別装置。
  8.  前記識別装置は、端末装置とサーバとを含み、
     前記端末装置は、前記照射部、前記撮像部、前記推定部、および、前記撮像部が撮像した像と前記推定値とを前記サーバに送信する第1通信部を備え、
     前記サーバは、前記撮像部が撮像した像と前記推定値とを前記第1通信部から受信する第2通信部と、前記第2通信部が受信した前記推定値を用いて判定を行う前記第1判定部と、前記第2通信部が受信した像を用いて判定を行う前記第2判定部と、前記識別部とを備え、
     前記第2通信部は、前記識別部による識別の結果を前記端末装置に送信する
     請求項1に記載の識別装置。
  9.  光学デバイスが識別対象に該当することを識別する識別装置であって、前記識別対象の第1面に対する法線に対して、光の入射側が負の角度範囲であり、光の正反射側が正の角度範囲であり、前記識別対象は、回折した光を負の角度範囲に射出する回折格子を前記第1面に備え、
     端末装置は、
     前記光学デバイスに向く前記端末装置の第2面に位置して前記光学デバイスの表面に可視光を照射する照射部と、
     前記識別対象の第1面と前記識別装置の第2面とが形成する角度であって、かつ、前記回折格子が回折した光を撮像部で記録可能となる角度が基準角度であり、前記第2面に位置して前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態で前記光学デバイスの表面を撮像する前記撮像部と、
     前記光学デバイスの表面と前記撮像部との距離を推定値として推定する推定部と、
     前記撮像部が撮像した像と前記推定値とを前記識別装置に送信する第1通信部と、を備え、
     前記識別装置は、
     前記第1通信部から前記撮像部が撮像した像と前記推定値とを受信する第2通信部と、
     前記識別対象の第1面と前記撮像部との距離であって、かつ、前記回折格子が回折した光を前記撮像部で記録可能となる距離が基準距離であり、前記第2通信部が受信した前記推定値が前記基準距離であるか否かを判定する第1判定部と、
     前記回折格子が回折した光が形成する像が基準像であり、前記第2通信部が受信した像が前記基準像と一致するか否かを判定する第2判定部と、
     前記推定値が基準距離であると前記第1判定部が判定すること、および、前記撮像部が記録した像が前記基準像と一致すると前記第2判定部が判定することを含む条件が満たされるとき、前記光学デバイスが前記識別対象に該当すると識別する識別部と、を備える
     識別装置。
  10.  光学デバイスが識別対象に該当することを識別装置によって識別する識別方法であって、前記識別対象の第1面に対する法線に対して、光の入射側が負の角度範囲であり、光の正反射側が正の角度範囲であり、前記識別対象の第1面が、回折した光を負の角度範囲に射出する回折格子を備え、前記識別装置が、前記光学デバイスに向く該識別装置の第2面に照射部と撮像部とを備え、前記識別方法は、
     前記光学デバイスの表面に可視光を照射することと、
     前記識別対象の第1面と前記識別装置の第2面とが形成する角度であって、かつ、前記回折格子が回折した光を前記撮像部で記録可能となる角度が基準角度であり、前記光学デバイスの表面と前記第2面とが形成する角度が前記基準角度である状態で前記光学デバイスの表面を撮像することと、
     前記光学デバイスの表面と前記撮像部との距離を推定値として推定することと、
     前記識別対象の第1面と前記撮像部との距離であって、かつ、前記回折格子が回折した光を前記撮像部が記録可能とする距離が基準距離であり、前記推定値が前記基準距離であるか否かを判定することと、
     前記回折格子が回折した光が形成する像が基準像であり、前記撮像部が記録した像が基準像と一致するか否かを判定することと、
     前記推定値が基準距離であると判定すること、および、前記撮像部が記録した像が前記基準像と一致すると判定することを含む条件が満たされるとき、前記光学デバイスが前記識別対象に該当すると識別することと、を含む
     識別方法。
  11.  照射部と撮像部とを備える装置を、光学デバイスが識別対象に該当することを識別する識別装置として機能させる識別プログラムであって、前記識別対象の第1面に対する法線に対して、光の入射側が負の角度範囲であり、光の正反射側が正の角度範囲であり、前記識別対象の第1面が、回折した光を負の角度範囲に射出する回折格子を備え、前記照射部および前記撮像部が、前記光学デバイスに向く前記装置の第2面に備えられ、前記識別プログラムは、
     前記装置に、
     前記光学デバイスの表面に可視光を照射することと、
     前記識別対象の第1面と前記装置の第2面とが形成する角度であって、かつ、前記回折格子が回折した光を前記撮像部で記録可能となる角度が基準角度であり、前記光学デバイスの表面と前記第2面とが形成する角度が基準角度である状態で前記光学デバイスの表面を撮像することと、
     前記光学デバイスの表面と前記撮像部との距離を推定値として推定することと、
     前記識別対象の第1面と前記撮像部との距離であって、前記回折格子が回折した光を前記撮像部で記録可能となる距離が基準距離であり、前記推定値が前記基準距離であるか否かを判定することと、
     前記回折格子が回折した光の形成する像が基準像であり、前記撮像部が記録した像が基準像と一致するか否かを判定することと、
     前記推定値が基準距離であると判定すること、および、前記撮像部が記録した像が前記基準像と一致すると判定することを含む条件が満たされるとき、前記光学デバイスが前記識別対象に該当すると識別することと、を実行させる
     識別プログラム。
PCT/JP2018/020227 2017-05-26 2018-05-25 識別装置、識別方法、および、識別プログラム WO2018216813A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18805832.5A EP3637378B1 (en) 2017-05-26 2018-05-25 Identification device, identification method, and identification program
JP2019520336A JP7131552B2 (ja) 2017-05-26 2018-05-25 識別装置、識別方法、および、識別プログラム
CN201880034746.0A CN110678907B (zh) 2017-05-26 2018-05-25 识别装置、识别方法以及识别程序
US16/696,761 US11231594B2 (en) 2017-05-26 2019-11-26 Apparatus and method for identification with reference image and reference distance

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-104723 2017-05-26
JP2017104723 2017-05-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/696,761 Continuation US11231594B2 (en) 2017-05-26 2019-11-26 Apparatus and method for identification with reference image and reference distance

Publications (1)

Publication Number Publication Date
WO2018216813A1 true WO2018216813A1 (ja) 2018-11-29

Family

ID=64395626

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/020227 WO2018216813A1 (ja) 2017-05-26 2018-05-25 識別装置、識別方法、および、識別プログラム

Country Status (5)

Country Link
US (1) US11231594B2 (ja)
EP (1) EP3637378B1 (ja)
JP (1) JP7131552B2 (ja)
CN (1) CN110678907B (ja)
WO (1) WO2018216813A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113655307A (zh) * 2021-07-27 2021-11-16 珠海格力电器股份有限公司 生产设备的异常监测方法、装置、设备和注塑机

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350995A (ja) 2006-01-19 2006-12-28 Yoshiaki Iida 検査器
JP2015182306A (ja) * 2014-03-24 2015-10-22 凸版印刷株式会社 情報表示媒体及び情報表示媒体の認証方法
WO2016121210A1 (ja) 2015-01-26 2016-08-04 凸版印刷株式会社 識別装置、識別方法、識別プログラム、及び識別プログラムを含むコンピュータ可読媒体
WO2016147813A1 (ja) 2015-03-19 2016-09-22 凸版印刷株式会社 識別装置、識別方法、識別プログラム、及び識別プログラムを含むコンピュータ可読媒体
WO2016190107A1 (ja) 2015-05-26 2016-12-01 凸版印刷株式会社 真贋判定支援装置、真贋判定支援方法、真贋判定支援プログラム、及び真贋判定支援プログラムを含むコンピュータ可読媒体

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207782A (ja) * 1999-01-13 2000-07-28 Toppan Printing Co Ltd 光情報記録媒体およびその情報の読み取り方法
CN1169082C (zh) * 2001-06-28 2004-09-29 苏州大学 一种复合式空间衍射器件及其检测方法
CN1255764C (zh) * 2002-03-25 2006-05-10 鲍东山 复合高技术验钞机
JP4779792B2 (ja) * 2006-04-27 2011-09-28 凸版印刷株式会社 情報記録媒体、及び情報記録媒体の真偽判定装置
US8096584B2 (en) * 2006-07-24 2012-01-17 3M Innovative Properties Company Document authentication using template matching with fast masked normalized cross-correlation
US20110035662A1 (en) * 2009-02-18 2011-02-10 King Martin T Interacting with rendered documents using a multi-function mobile device, such as a mobile phone
DE102008051409A1 (de) * 2008-10-11 2010-04-15 Bayer Materialscience Ag Sicherheitselement
CA2656506A1 (en) * 2009-02-27 2010-08-27 Bank Of Canada Security device
CN102175107B (zh) * 2010-12-30 2013-04-10 中国科学院长春光学精密机械与物理研究所 多功能点面目标外差测速与定标装置
CN102679812B (zh) * 2011-03-10 2014-04-02 王刚 激光衍射式多系统轴线平行性检测装置
JP2013065112A (ja) * 2011-09-15 2013-04-11 Omron Corp ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
DE102011117044B4 (de) * 2011-10-27 2019-05-29 Bundesdruckerei Gmbh Sicherheitselement
GB2506934A (en) * 2012-10-15 2014-04-16 Innovia Films Ltd Detection of the presence of an item using reflection characteristics
DE102013101587A1 (de) * 2013-02-18 2014-08-21 Bundesdruckerei Gmbh Verfahren zum überprüfen der echtheit eines identifikationsdokumentes
JP6009992B2 (ja) * 2013-06-03 2016-10-19 日立オムロンターミナルソリューションズ株式会社 紙葉類識別装置および光学センサ装置
CH708368A1 (de) * 2013-07-25 2015-01-30 Unica Technology Ag Verfahren und Gerät zur Verifikation von diffraktiven Elementen.
PL3078004T3 (pl) * 2013-12-02 2023-05-08 Leonhard Kurz Stiftung & Co. Kg Sposób uwierzytelniania elementu zabezpieczającego
WO2015089514A2 (en) * 2013-12-13 2015-06-18 Colorado State University Research Foundation Nano-stamp and matched reader for anti-counterfeiting applications
FR3019496A1 (fr) * 2014-04-07 2015-10-09 Hologram Ind Composant optique de securite a effet reflectif, fabrication d'un tel composant et document securise equipe d'un tel composant
WO2016117452A1 (ja) * 2015-01-19 2016-07-28 旭硝子株式会社 光学装置および光学部材
JP2017054290A (ja) * 2015-09-09 2017-03-16 凸版印刷株式会社 Ovd表示体識別方法およびovd表示体ならびに物品
EP3465637B1 (en) * 2016-06-03 2023-08-16 Veridas Digital Authentication Solutions, S.L. A method for authenticating a document

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350995A (ja) 2006-01-19 2006-12-28 Yoshiaki Iida 検査器
JP2015182306A (ja) * 2014-03-24 2015-10-22 凸版印刷株式会社 情報表示媒体及び情報表示媒体の認証方法
WO2016121210A1 (ja) 2015-01-26 2016-08-04 凸版印刷株式会社 識別装置、識別方法、識別プログラム、及び識別プログラムを含むコンピュータ可読媒体
WO2016147813A1 (ja) 2015-03-19 2016-09-22 凸版印刷株式会社 識別装置、識別方法、識別プログラム、及び識別プログラムを含むコンピュータ可読媒体
WO2016190107A1 (ja) 2015-05-26 2016-12-01 凸版印刷株式会社 真贋判定支援装置、真贋判定支援方法、真贋判定支援プログラム、及び真贋判定支援プログラムを含むコンピュータ可読媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3637378A4

Also Published As

Publication number Publication date
EP3637378B1 (en) 2024-05-01
EP3637378A1 (en) 2020-04-15
EP3637378A4 (en) 2020-06-03
US11231594B2 (en) 2022-01-25
US20200096781A1 (en) 2020-03-26
CN110678907B (zh) 2022-09-30
JPWO2018216813A1 (ja) 2020-03-26
JP7131552B2 (ja) 2022-09-06
CN110678907A (zh) 2020-01-10

Similar Documents

Publication Publication Date Title
US10891818B2 (en) Identification devices, identification methods, identification programs and computer readable media including identification programs
US20190272696A1 (en) Devices, systems, and methods for optical validation
US10538122B2 (en) Identification device, identification method, and computer-readable medium including identification program
CN108292456B (zh) 识别方法以及识别介质
CN107111906B (zh) 识别装置、识别方法、及包括识别程序的计算机可读介质
US20180309961A1 (en) Scanner device and device for measuring three-dimensional shape of object
CN108292457B (zh) 识别装置、识别方法、识别程序及包含识别程序的计算机可读介质
CN108780594B (zh) 识别装置、识别方法、识别程序以及包含识别程序的计算机可读介质
AT510099B1 (de) Hologramm-aufzeichnungsmedium und verfahren für dessen herstellung, hologramm-wiedergabevorrichtung und hologramm-wiedergabeverfahren
CN103486979A (zh) 混合系统
US20100290098A1 (en) Hologram judging apparatus
JP6314580B2 (ja) 情報表示媒体及び情報表示媒体の認証方法
WO2018216813A1 (ja) 識別装置、識別方法、および、識別プログラム
TWI258706B (en) Method and device for optical navigation
US10545457B2 (en) Optical projector with off-axis diffractive element and conjugate images
WO2016190107A1 (ja) 真贋判定支援装置、真贋判定支援方法、真贋判定支援プログラム、及び真贋判定支援プログラムを含むコンピュータ可読媒体
WO2005008174A1 (ja) 3次元形状検出装置、撮像装置、及び、3次元形状検出方法
JP7485236B2 (ja) コンピュータプログラム、真贋判定装置及び真贋判定方法
JP2019074778A (ja) 情報記録媒体の読み取り方法および真贋判定方法
WO2022210736A1 (ja) 画像表示装置
JP2005331413A (ja) 距離画像取得システム
JP2023081595A (ja) 距離測定装置及び距離測定方法
JP2008097540A (ja) 硬貨真贋判定装置
JP2002117431A (ja) 紙葉類鑑別装置
JP2022098151A (ja) コンピュータプログラム、真贋判定方法及び真贋判定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18805832

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019520336

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2018805832

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2018805832

Country of ref document: EP

Effective date: 20200102