JP2013062648A - Individual identification device, individual identification method, and program - Google Patents

Individual identification device, individual identification method, and program Download PDF

Info

Publication number
JP2013062648A
JP2013062648A JP2011199158A JP2011199158A JP2013062648A JP 2013062648 A JP2013062648 A JP 2013062648A JP 2011199158 A JP2011199158 A JP 2011199158A JP 2011199158 A JP2011199158 A JP 2011199158A JP 2013062648 A JP2013062648 A JP 2013062648A
Authority
JP
Japan
Prior art keywords
taggant
article
feature point
individual identification
point data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011199158A
Other languages
Japanese (ja)
Inventor
Yuya Koibuchi
裕也 鯉渕
Takashi Aono
隆 青野
Toshifumi Nakada
俊史 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011199158A priority Critical patent/JP2013062648A/en
Publication of JP2013062648A publication Critical patent/JP2013062648A/en
Pending legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an individual identification device etc. which when identifying an article provided with taggants, prevents erroneous recognition of the distribution positions of the taggants caused by the pattern printed on the article with dot gradation, thereby being capable of accurately extracting feature points.SOLUTION: An individual identification device 100 calculates (S11) the pixel size of a taggant 12 in a taken image on the basis of the resolution of the taken image and the actual size of the taggant 12, determines (S12) a predetermined filter size on the basis of the pixel size of the taggant 12 calculated at the S11, and applies (S13) smoothing filter to the taken image on the basis of the predetermined filter size determined at the S12. The predetermined filter size is desirably the largest filter size of the pixel sizes of the taggant 12 and smaller than this.

Description

本発明は、物品の表面に付したタガントに基づいて個体識別する個体識別装置等に関する。   The present invention relates to an individual identification device for identifying an individual based on a taggant attached to the surface of an article.

従来より、工業製品や商品パッケージ等には製造番号が付与され、製造管理や物流管理に利用されている。製造番号は物品の所定位置に文字或いはバーコード等の符号として印字される。また、証明書等の公的証書や商品券等の有価証券に対し、偽造防止や真正性認証を目的としてシリアルナンバーが印字されている。しかし、製造管理や物流管理を目的として個体識別のための製造番号を付与する場合は、明確に視認或いは機械識別を行うことを目的としているため、明示的に印字されることが多く、特にバーコードや2次元コードの形式で付与される場合は本来の製品等の意匠性を損なうことがあった。また、偽造防止を目的とした場合、文字やバーコード等の印字は容易に偽造・変造される恐れがあり、その効果は不十分であった。   Conventionally, a manufacturing number is given to an industrial product, a product package, etc., and it is used for manufacturing management and physical distribution management. The production number is printed as a code such as a character or a barcode at a predetermined position of the article. In addition, serial numbers are printed on public certificates such as certificates and securities such as gift certificates for the purpose of preventing counterfeiting and authenticating authenticity. However, when a production number for individual identification is given for the purpose of production management or physical distribution management, it is often clearly printed because it aims to clearly identify or identify the machine. When given in the form of a code or a two-dimensional code, the design of the original product may be impaired. In addition, for the purpose of preventing forgery, printing of characters, barcodes, and the like may be easily forged or altered, and the effect is insufficient.

また近年では、個体識別の手段として、ICタグを用いて個別IDを付与する方法が提案されている。ICタグは書換え困難かつユニークなIDを各々付与することができ、非接触で読取可能なことから製品等の基材裏面、もしくは内部にICタグを設けることにより個体識別が可能となる。しかし、ICタグは単価が高く普及しにくいという問題があった。   In recent years, a method for assigning an individual ID using an IC tag has been proposed as a means for individual identification. Each IC tag can be assigned a unique ID that is difficult to rewrite and can be read in a non-contact manner, so that it is possible to identify an individual by providing an IC tag on the back surface or inside of a product or the like. However, the IC tag has a problem that the unit price is high and it is difficult to spread.

これらの問題に対し、クレジットカードや有価証券類の一部にホログラムや回折格子などの光回折構造(以下、単にホログラムともいう。)を形成し、偽造を防止することが知られている。
また、特許文献1のラベルのように、透明プラスチック基材の片面に、少なくとも、光回折構造形成層、粘着剤層、被覆材料が順次形成されたラベルの粘着剤層または光回折構造形成層に微小細粒を混入することによって、真偽判別要素であるホログラムとタガント(追跡用添加物)としての微小細粒を存在させ、偽造防止を図るものや、特許文献2のラベルのように、透明プラスチック基材の片側に、少なくとも、光回折構造層、反射材料層、粘着剤層、被覆材料が順次形成されたラベルのいずれかの層間の一部領域に感温変色材料層を形成するとともに、反射材料層に、光回折構造層より低屈折率の金属材料を形成し、粘着剤層に光学的に検知可能な物質を混入して、偽造防止を図るものが提案されている。そして、上述の微小細粒が、例えば、白色光や紫外線または赤外線を照射することによってある波長範囲で蛍光などの光を放射する特性を有するものを採用した場合は、偽造判定を行う際に微小細粒をルーペ等で拡大し、放射光の特性を確認することで真偽判定を行っていた。
In order to solve these problems, it is known to form a light diffraction structure (hereinafter also simply referred to as a hologram) such as a hologram or a diffraction grating in a part of a credit card or securities to prevent forgery.
In addition, as in the label of Patent Document 1, at least on the pressure-sensitive adhesive layer or light-diffractive structure forming layer of the label in which the light diffraction structure forming layer, the pressure-sensitive adhesive layer, and the coating material are sequentially formed on one side of the transparent plastic substrate. By mixing the fine particles, the hologram and the taggant (additive for tracking), which are authenticity discrimination elements, are present to prevent forgery and transparent as in the label of Patent Document 2. On one side of the plastic substrate, at least a light-sensitive structure layer, a reflective material layer, a pressure-sensitive adhesive layer, and a temperature-sensitive color-changing material layer are formed in a partial region between any one of the labels on which the coating material is sequentially formed, There has been proposed a method in which a metal material having a lower refractive index than that of the light diffraction structure layer is formed in the reflective material layer, and an optically detectable substance is mixed in the pressure-sensitive adhesive layer to prevent forgery. And, when the above-mentioned fine fine particles, for example, having a characteristic of emitting light such as fluorescence in a certain wavelength range by irradiating white light, ultraviolet light or infrared light, are fine when performing forgery determination. The fineness was enlarged with a magnifying glass or the like, and the authenticity was determined by confirming the characteristics of the emitted light.

更に、特許文献3では、上述のようなホログラムやタガントを用いず、個体そのものの表面の特徴を解析することで、真偽を判定する技術について記載されている。特許文献3には、例えば、個体の表面の特徴量として紙の透明度(紙を形成する繊維質材料の絡み具合等に起因する明暗パターン)をスキャナ等で読み取って、真の個体の表面特徴と判定対象の個体の表面特徴とをパターン比較することや、比較領域を移動させながら相関値を演算することや、相関値の最大値のノーマライズド・スコアを算出し、真偽を判定すること等が記載されている。   Further, Patent Document 3 describes a technique for determining authenticity by analyzing the characteristics of the surface of an individual itself without using the hologram and taggant as described above. In Patent Document 3, for example, the transparency of the paper (light / dark pattern resulting from the entanglement of the fibrous material forming the paper) is read with a scanner or the like as the feature amount of the surface of the individual. Compare the surface features of the individual to be judged with a pattern, calculate the correlation value while moving the comparison area, calculate the normalized score of the maximum correlation value, and determine true / false Is described.

特開2008−261967号公報JP 2008-261967 A 特開2008−281912号公報JP 2008-281912 A 特許第4103826号公報Japanese Patent No. 4103826

しかしながら、特許文献1及び特許文献2に開示されるラベルでは、ホログラムやタガント、或いは感温変色材料等を組み合わせることにより偽造困難としているが、ホログラム、タガント、及び感温変色材料等の存在や層構造まで解析され、模倣された場合には真偽判定が難しくなる恐れがあった。また、特許文献3の手法は、個体表面がランダムな特徴を有する場合に適用可能なものであり、個体表面の特徴が少ないものには適用できなかった。また、真偽判定の精度を向上するためには原本の紙質を特殊なものとしたり、表面に特殊な加工を施したりする必要があるため製造コスト増大につながる恐れがあった。そのため、物品に容易に付与できるが、個々の物品から切り離せない固有の特徴に基づいて個体識別や真偽判定を行えるようにすることが望まれている。   However, in the labels disclosed in Patent Document 1 and Patent Document 2, it is difficult to forge by combining holograms, taggants, or temperature-sensitive color-changing materials, but the presence or layers of holograms, taggant, temperature-sensitive color-changing materials, etc. If the structure is analyzed and imitated, it may be difficult to determine authenticity. Further, the method of Patent Document 3 is applicable when the individual surface has random characteristics, and cannot be applied to those having few individual surface characteristics. Further, in order to improve the accuracy of the authenticity determination, it is necessary to make the original paper quality special or to perform special processing on the surface, which may increase the manufacturing cost. Therefore, it is desired to be able to perform individual identification and authenticity determination based on unique characteristics that can be easily given to articles but cannot be separated from individual articles.

特に、精度良く個体識別等を行うためには、タガントに由来する特徴点をより正確に抽出する必要がある。例えば、物品の意匠を構成する絵柄が網点階調によって印刷されている場合、タガントの色相と重複する色相の網点を構成するドット(以下、「網点ドット」という。)が存在する可能性がある。そのため、物品が撮影された画像から色相に基づいてタガントに由来する特徴点を抽出しようとすると、網点ドットに由来する特徴点も抽出してしまい、識別精度が著しく低下してしまう。   In particular, in order to perform individual identification with high accuracy, it is necessary to extract feature points derived from taggants more accurately. For example, when the design constituting the design of the article is printed with halftone gradation, there may be dots (hereinafter referred to as “halftone dots”) that constitute halftone dots of a hue that overlaps the taggant hue. There is sex. For this reason, if a feature point derived from a taggant is extracted from an image of an article taken based on the hue, a feature point derived from a halftone dot is also extracted, and the identification accuracy is significantly reduced.

本発明は、このような問題に鑑みてなされたもので、タガントが付与された物品を識別する際に、網点階調によって印刷された物品の絵柄に起因するタガントの分布位置の誤認識を防ぎ、精度良く特徴点抽出を行うことが可能な個体識別装置等を提供することを目的とする。   The present invention has been made in view of such a problem, and when identifying an article to which a taggant is applied, erroneous recognition of the distribution position of the taggant resulting from the pattern of the article printed by halftone gradation is performed. An object of the present invention is to provide an individual identification device or the like capable of preventing and accurately extracting feature points.

前述した課題を解決するため第1の発明は、基材と前記基材の表面と平行に固着されているタガント分布層とを有し、網点階調によって絵柄が印刷されている物品を個体識別する個体識別装置であって、個体識別の基準となる前記物品である基準物品に付与された前記タガントの分布位置情報を基準特徴点データとして記憶する記憶手段と、識別対象となる前記物品である対象物品の撮影画像に対して、所定のフィルタサイズによって平滑化フィルタをかけることによって、対象物データとする平滑化手段と、前記対象物データに基づいて、前記タガントの分布位置情報を対象物特徴点データとして抽出する対象物特徴点抽出手段と、前記対象物特徴点抽出手段により抽出された対象物特徴点データと、前記基準特徴点データとを比較することにより前記対象物品と前記基準物品とが同一個体であるか否かを判別する判別手段と、を備えることを特徴とする個体識別装置である。   In order to solve the above-described problems, the first invention is to provide an article having a base material and a taggant distribution layer fixed in parallel to the surface of the base material, and a pattern printed with halftone dots. An identification device for identifying, comprising: storage means for storing, as reference feature point data, distribution position information of the taggant assigned to a reference article that is the article serving as a reference for individual identification; and the article to be identified By applying a smoothing filter to a photographed image of a certain target article with a predetermined filter size, smoothing means for making the target object data, and the distribution position information of the taggant based on the target object data The object feature point extracting means to be extracted as feature point data, the object feature point data extracted by the object feature point extracting means, and the reference feature point data are compared. The subject article and said reference article is an individual identification device, characterized in that it comprises discriminating means for discriminating whether or not the same individual, the by.

第2の発明は、基材と前記基材の表面と平行に固着されているタガント分布層とを有し、網点階調によって絵柄が印刷されている物品を個体識別する個体識別方法であって、個体識別の基準となる前記物品である基準物品に付与された前記タガントの分布位置情報を基準特徴点データとして記憶する記憶ステップと、識別対象となる前記物品である対象物品の撮影画像に対して、所定のフィルタサイズによって平滑化フィルタをかけることによって、対象物データとする平滑化ステップと、前記対象物データに基づいて、前記タガントの分布位置情報を対象物特徴点データとして抽出する対象物特徴点抽出ステップと、前記対象物特徴点抽出ステップにより抽出された対象物特徴点データと、前記基準特徴点データとを比較することにより前記対象物品と前記基準物品とが同一個体であるか否かを判別する判別ステップと、を含むことを特徴とする個体識別方法である。   The second invention is an individual identification method for individually identifying an article having a base material and a taggant distribution layer fixed in parallel to the surface of the base material and having a pattern printed by halftone gradation. Storing the taggant distribution position information given to the reference article, which is the article serving as a reference for individual identification, as reference feature point data; and a captured image of the target article, which is the article being identified. On the other hand, by applying a smoothing filter with a predetermined filter size, a smoothing step to obtain object data, and an object for extracting the taggant distribution position information as object feature point data based on the object data By comparing the object feature point data extracted by the object feature point extraction step, the object feature point extraction step and the reference feature point data, The target object and the reference article is an individual identification method which comprises a determination step of determining whether or not the same individual, the.

第1の発明の個体識別装置、及び第2の発明の個体識別方法によれば、基材と前記基材の表面と平行に固着されているタガント分布層とを有し、網点階調によって絵柄が印刷されている物品に対して、個体識別の基準となる前記物品である基準物品に付与された前記タガントの分布位置情報を基準特徴点データとして記憶し、識別対象となる前記物品である対象物品の撮影画像に対して、所定のフィルタサイズによって平滑化フィルタをかけることによって、対象物データとし、前記対象物データに基づいて、前記タガントの分布位置情報を対象物特徴点データとして抽出し、抽出された対象物特徴点データと、前記基準特徴点データとを比較することにより前記対象物品と前記基準物品とが同一個体であるか否かを判別する。   According to the individual identification device of the first invention and the individual identification method of the second invention, it has a base material and a taggant distribution layer fixed in parallel with the surface of the base material, For the article on which a pattern is printed, the taggant distribution position information given to the reference article, which is the article serving as a reference for individual identification, is stored as reference feature point data, and is the article to be identified. A smoothing filter is applied to the photographed image of the target article with a predetermined filter size to obtain target object data. Based on the target data, the distribution position information of the taggant is extracted as target feature point data. Then, by comparing the extracted object feature point data with the reference feature point data, it is determined whether or not the target article and the reference article are the same individual.

これにより、タガントが付与された物品を識別する際に、網点階調によって印刷された物品の絵柄に起因するタガントの分布位置の誤認識を防ぎ、精度良く特徴点抽出を行うことができる。   Thereby, when identifying an article to which a taggant is given, it is possible to prevent misrecognition of the distribution position of the taggant caused by the pattern of the article printed with halftone gradation, and to extract feature points with high accuracy.

第1の発明における前記平滑化手段は、前記撮影画像の解像度と前記タガントの実サイズとに基づいて、前記タガントの画素サイズを算出する算出手段と、前記算出手段によって算出された前記タガントの画素サイズに基づいて前記所定のフィルタサイズを決定する決定手段と、前記決定手段によって決定された前記所定のフィルタサイズに基づいて、前記撮影画像に平滑化フィルタをかけるフィルタ手段と、を含むことが望ましい。これによって、網点階調によって絵柄が印刷されている物品に対しても、タガントの領域とそれ以外の領域を、色相等によって明確に区別することができる。   The smoothing unit according to the first aspect of the present invention includes a calculating unit that calculates a pixel size of the taggant based on the resolution of the captured image and the actual size of the taggant, and the pixel of the taggant calculated by the calculating unit. Desirably, a determination unit that determines the predetermined filter size based on a size, and a filter unit that applies a smoothing filter to the captured image based on the predetermined filter size determined by the determination unit. . This makes it possible to clearly distinguish the taggant region from the other regions by hue or the like even for an article on which a pattern is printed with halftone gradation.

また、第1の発明における前記決定手段は、前記所定のフィルタサイズを、前記タガントの画素サイズ以下とすることが望ましい。これによって、網点ドットに由来する特徴点を抽出することなく、タガントに由来する特徴点のみを抽出することができる。   In the first aspect of the invention, it is preferable that the determining means sets the predetermined filter size to be equal to or smaller than the taggant pixel size. This makes it possible to extract only feature points derived from taggant without extracting feature points derived from halftone dots.

また、第1の発明における前記対象物特徴点抽出手段は、所定の色相範囲の画素をタガント領域として抽出し、前記タガント領域の重心を算出することによって、前記タガントの分布位置情報を前記対象物特徴点データとして抽出することが望ましい。これによって、タガントの周囲の影をタガント領域として抽出したとしても、影の領域が小さければ、特徴点の抽出結果に大きな影響を与えない。   Further, the object feature point extraction means in the first invention extracts pixels in a predetermined hue range as a taggant area, and calculates the center of gravity of the taggant area, thereby obtaining the distribution position information of the taggant as the object. It is desirable to extract as feature point data. As a result, even if the shadow around the taggant is extracted as the taggant region, if the shadow region is small, the feature point extraction result is not greatly affected.

第3の発明は、コンピュータにより読み取り可能な形式で記述されたプログラムであって、基材と前記基材の表面と平行に固着されているタガント分布層とを有し、網点階調によって絵柄が印刷されている物品について、個体識別の基準となる前記物品である基準物品に付与された前記タガントの分布位置情報を基準特徴点データとして記憶する記憶ステップと、識別対象となる前記物品である対象物品の撮影画像に対して、所定のフィルタサイズによって平滑化フィルタをかけることによって、対象物データとする平滑化ステップと、前記対象物データに基づいて、前記タガントの分布位置情報を対象物特徴点データとして抽出する対象物特徴点抽出ステップと、前記対象物特徴点抽出ステップにより抽出された対象物特徴点データと、前記基準特徴点データとを比較することにより前記対象物品と前記基準物品とが同一個体であるか否かを判別する判別ステップと、を含む処理をコンピュータに実行させるためのプログラムプログラムである。   A third invention is a program described in a computer-readable format, and includes a base material and a taggant distribution layer fixed in parallel with the surface of the base material, and the pattern is represented by halftone dots. A storage step of storing, as reference feature point data, the distribution position information of the taggant assigned to the reference article, which is the article that is a reference for individual identification, and the article to be identified. By applying a smoothing filter to the photographed image of the target article with a predetermined filter size, a smoothing step to obtain target data, and based on the target data, the distribution position information of the taggant is a target feature. An object feature point extraction step to extract as point data, an object feature point data extracted by the object feature point extraction step, It said target object and said reference article is a program program to execute a determining step of determining whether or not the same individual, the process comprising the computer by comparing the reference feature data.

第3の発明により、コンピュータを第1の発明の個体識別装置として機能させることが可能となる。   According to the third invention, it is possible to cause a computer to function as the individual identification device of the first invention.

本発明によれば、タガントが付与された物品を識別する際に、網点階調によって印刷された物品の絵柄に起因するタガントの分布位置の誤認識を防ぎ、精度良く特徴点抽出を行うことが可能な個体識別装置等を提供することができる。   According to the present invention, when identifying an article provided with a taggant, it is possible to prevent misrecognition of the taggant distribution position caused by the pattern of the article printed by halftone gradation, and to accurately extract feature points. Can be provided.

本発明を適用する物品1について説明する図(第1の実施の形態)The figure explaining the articles | goods 1 to which this invention is applied (1st Embodiment) 反射性金属層3を有するタガント12A、12Bの構造の例Examples of structures of taggants 12A and 12B having a reflective metal layer 3 誘電率の異なる多層薄膜4を有するタガント12Cの構造の例Example of structure of taggant 12C having multilayer thin film 4 having different dielectric constants 光回折構造体層5を有するタガント12Dの構造の例Example of structure of taggant 12D having optical diffraction structure layer 5 特定照射光に対し所定の反射光を放射する反射層6を有するタガント12Eの構造の例Example of the structure of the taggant 12E having the reflective layer 6 that emits predetermined reflected light with respect to the specific irradiation light 個体識別処理の手順を説明するフローチャートFlow chart explaining the procedure of individual identification processing 撮影画像に含まれるタガント12と影9について説明する図The figure explaining the taggant 12 and the shadow 9 which are contained in a picked-up image タガント12の影9について説明する図The figure explaining the shadow 9 of the taggant 12 本発明に係る個体識別装置100のハードウエア構成図Hardware configuration diagram of the individual identification device 100 according to the present invention タガント12が付与され、網点階調によって絵柄が印刷された物品1の例An example of an article 1 to which a taggant 12 is attached and a pattern is printed with halftone dots 微細物質分布解析処理の流れを説明するフローチャートFlow chart explaining the flow of fine substance distribution analysis processing 平滑化処理の流れを説明するフローチャートFlow chart explaining the flow of smoothing processing 平滑化フィルタの例Smoothing filter example 平滑化処理の実行例Example of smoothing processing 平滑化処理を実行せずに特徴点を抽出した例Example of extracting feature points without executing smoothing 平滑化処理を実行した後に特徴点を抽出した例Example of extracting feature points after executing smoothing 基準物品及び対象物品と、読み取る画像データ(絶対位置での比較の場合)の例Example of reference article and target article and image data to be read (in case of comparison at absolute position) 基準物品及び対象物品と、読み取る画像データ(相対位置での比較の場合)の例Example of reference article and target article and image data to be read (in case of comparison at relative position) 特徴点データの相対位置情報の算出について説明する図The figure explaining calculation of the relative position information of feature point data 基準画像データ及び対象物画像データから抽出された特徴点の例Example of feature points extracted from reference image data and object image data 間引き処理を説明するフローチャートFlowchart explaining the thinning process 本発明を適用する物品8について説明する図(第2の実施の形態)The figure explaining the article | item 8 to which this invention is applied (2nd Embodiment). 所定の文字、図形、記号、模様もしくはこれらを結合したものが付され、かつ、所定の3次元形状を有するタガント82の一例を示す図The figure which shows an example of the taggant 82 which a predetermined | prescribed character, a figure, a symbol, a pattern, or what combined these was attached | subjected and which has a predetermined three-dimensional shape

以下、図面に基づいて本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施の形態]
まず、図1を参照して、本発明を適用する物品1について説明する。
図1(a)は物品1の上面図、図1(b)は図1(a)のA−A線断面図である。
物品1は、その基材10上にタガント(taggant:追跡用添加物)分布層11を有する。タガント分布層11には、基材10とは異なる反射性を有する微細物質(以下、タガントという)12がランダムに複数配置されている。タガント分布層11のタガント12は、例えば、印刷インクに混入して基材10に印刷を施したり、粘着剤等に混入して塗布したりすることで、物品1の基材10上に配置される。これにより各タガント12はランダムな位置に配置される。
[First Embodiment]
First, an article 1 to which the present invention is applied will be described with reference to FIG.
FIG. 1A is a top view of the article 1, and FIG. 1B is a cross-sectional view taken along the line AA in FIG.
The article 1 has a taggant (tracking additive) distribution layer 11 on its substrate 10. In the taggant distribution layer 11, a plurality of fine substances (hereinafter referred to as taggant) 12 having reflectivity different from that of the substrate 10 are randomly arranged. The taggant 12 of the taggant distribution layer 11 is disposed on the base material 10 of the article 1 by, for example, printing on the base material 10 by being mixed with printing ink, or by applying it by being mixed with an adhesive or the like. The Thereby, each taggant 12 is arranged at a random position.

なお、図1では、物品1は基材10及びタガント分布層11のみを有するように図示しているが、タガント分布層11の上面を更に透明プラスチック等で被覆し、タガント分布層11を保護するようにしてもよい。また、基材10としては、物品1の機能や性質、デザイン等に応じていかなる材料を利用してもよい。また、タガント分布層11を形成する面は平面に限定されず、曲面であってもよいし、凹凸があってもよい。また、タガント分布層11は、物品の表面の全部に設けられてもよいし、一部としてもよい。   In FIG. 1, the article 1 is illustrated as having only the base material 10 and the taggant distribution layer 11, but the upper surface of the taggant distribution layer 11 is further covered with a transparent plastic or the like to protect the taggant distribution layer 11. You may do it. Moreover, as the base material 10, any material may be used according to the function, property, design, etc. of the article 1. Further, the surface on which the taggant distribution layer 11 is formed is not limited to a flat surface, and may be a curved surface or uneven. The taggant distribution layer 11 may be provided on the entire surface of the article or may be a part thereof.

次に、図2〜図5を参照して、タガント12について説明する。図2〜図5は、様々な態様のタガント12A〜12Eの断面図である。
タガント12は、ルーペで拡大するとその形状や表面の光学的特徴を視認できる大きさ(数μm〜数百μm程度)の微細な細粒である。
Next, the taggant 12 will be described with reference to FIGS. 2-5 are cross-sectional views of various embodiments of taggants 12A-12E.
The taggant 12 is a fine fine particle having a size (about several μm to several hundred μm) that can be visually recognized by its magnified shape and surface optical characteristics when magnified with a loupe.

本発明では、タガント12として、例えば、金属片や、図2に示すように反射性金属層3を有するもの、図3に示すように誘電率が異なる薄膜を多層にコート(多層薄膜4)したもの、図4に示すように光回折構造体層5を有するもの、図5に示すように、所定の照射光に対して特定の反射特性を有する反射層6を有するもの等を採用することが好適である。   In the present invention, as the taggant 12, for example, a metal piece, one having a reflective metal layer 3 as shown in FIG. 2, or a thin film having a different dielectric constant as shown in FIG. 4, those having the light diffraction structure layer 5 as shown in FIG. 4, and those having the reflective layer 6 having specific reflection characteristics with respect to the predetermined irradiation light as shown in FIG. Is preferred.

なお、図2〜図5のタガント12A,12B,12C,12D,12Eは、説明のために断面形状を円形として示しているが、本発明の第1の実施の形態では、これに限定されるものではなく、タガント12の形状は任意としてよい。例えば、基材120とする材料を粉砕し、ランダムな形状となったものをタガント12の基材120として用いるようにしてもよい。   Note that the taggants 12A, 12B, 12C, 12D, and 12E in FIGS. 2 to 5 are shown with a circular cross-sectional shape for the sake of explanation, but are limited to this in the first embodiment of the present invention. The shape of the taggant 12 may be arbitrary. For example, the material used as the base material 120 may be crushed and a random shape may be used as the base material 120 of the taggant 12.

図2のタガント12Aは、タガント12の基材120の表面に反射性金属層3を形成したものである。   The taggant 12A in FIG. 2 is obtained by forming the reflective metal layer 3 on the surface of the base material 120 of the taggant 12.

反射性金属層3を不透明層とする場合は、屈折率が小さい薄膜とすればよく、一般的に使用されるアルミニウムの他に、例えば、クロム、鉄、コバルト、ニッケル、銅、銀、金、マグネシウム、鉛、錫、カドミウム、ビスマス、チタン、亜鉛、インジウム等の金属、または、その酸化物、窒化物、または、これらの金属の合金等を使用する。
また、反射性金属層3を透明層とする場合は、屈折率が大きい薄膜とすればよく、硫化亜鉛、酸化チタン、酸化アルミニウム、酸化シリコン、硫化アンチモン等を使用する。
When the reflective metal layer 3 is an opaque layer, it may be a thin film having a small refractive index, and in addition to commonly used aluminum, for example, chromium, iron, cobalt, nickel, copper, silver, gold, A metal such as magnesium, lead, tin, cadmium, bismuth, titanium, zinc, or indium, an oxide, a nitride thereof, or an alloy of these metals is used.
When the reflective metal layer 3 is a transparent layer, a thin film having a high refractive index may be used, and zinc sulfide, titanium oxide, aluminum oxide, silicon oxide, antimony sulfide, or the like is used.

反射性金属層3の形成は、真空蒸着法、スパッタリング法、イオンプレーティング法などの薄膜形成法によって行なう。
反射性金属層3の厚みは目的に応じて設定する。例えば、0.005μm〜0.1μmの厚さとすればよい。
The reflective metal layer 3 is formed by a thin film forming method such as a vacuum deposition method, a sputtering method, or an ion plating method.
The thickness of the reflective metal layer 3 is set according to the purpose. For example, the thickness may be 0.005 μm to 0.1 μm.

反射性金属層3はタガント12Aの基材120の表面の全部に付与されてもよいし、一部に付与されてもよい。また、例えば、文字、図形、記号、模様等やこれらの組み合わせからなる図案として、反射性金属層3を付与するようにしてもよい。   The reflective metal layer 3 may be applied to the entire surface of the substrate 120 of the taggant 12A or may be applied to a part thereof. Further, for example, the reflective metal layer 3 may be applied as a design made up of characters, figures, symbols, patterns, etc., or combinations thereof.

基材120には、例えば、ポリエチレンテレフタレート(ポリエステル),ポリ塩化ビニル、ポリカーボネート、ポリイミド、ポリアミド、セルローストリアセテート、ポリスチレン、アクリル、ポリプロピレン、ポリエチレンを使用すればよい。   For the base material 120, for example, polyethylene terephthalate (polyester), polyvinyl chloride, polycarbonate, polyimide, polyamide, cellulose triacetate, polystyrene, acrylic, polypropylene, and polyethylene may be used.

また、図2(B)に示すタガント12Bのように、反射性金属層3を透明な被覆層31で覆い、保護するようにしてもよい。被覆層31の材料は、ポリエチレン、ワックス、シリコン、ポリエステルフィルム等のプラスチックフィルム等が好適である。   Further, like the taggant 12B shown in FIG. 2B, the reflective metal layer 3 may be covered with a transparent coating layer 31 to be protected. The material of the covering layer 31 is preferably a plastic film such as polyethylene, wax, silicon, or polyester film.

タガント12A,12Bのように反射性金属層3を有することにより、タガント12の分布が確認しやすく、ルーペ(拡大鏡)による真偽判定が行いやすくなる。また、後述する微細物質分布解析処理(図11)において、特徴点として抽出しやすくなる。   By having the reflective metal layer 3 like the taggants 12A and 12B, the distribution of the taggant 12 can be easily confirmed, and authenticity determination by a loupe (magnifying glass) can be easily performed. Moreover, it becomes easy to extract as a feature point in the fine substance distribution analysis process (FIG. 11) described later.

図3のタガント12Cは、基材120の表面に誘電率の異なる薄膜を多層に形成したものである。例えば、天然雲母薄片(マイカフレーク)等の基材120に酸化チタン、酸化鉄などの金属酸化物をコートした顔料(パール顔料)や、合成アルミナフレーク、合成シリカフレーク、ホウ珪酸ガラスフレーク、酸化チタン被覆、合成マイカフレーク(酸化アルミニウム、酸化マグネシウム、二酸化ケイ素、フッ素化合物等)等の基材120に、酸化チタン、酸化鉄などの金属酸化物をコートした顔料(エフェクト顔料)等がタガント12Cとして使用できる。
多層薄膜層4の厚みは目的に応じて設定する。例えば、0.005μm〜0.1μmの厚さとすればよい。
The taggant 12C in FIG. 3 is obtained by forming a plurality of thin films having different dielectric constants on the surface of the substrate 120. For example, pigments (pearl pigments) obtained by coating a base material 120 such as natural mica flakes (mica flakes) with metal oxides such as titanium oxide and iron oxide, synthetic alumina flakes, synthetic silica flakes, borosilicate glass flakes, titanium oxides A pigment (effect pigment) coated with a metal oxide such as titanium oxide or iron oxide on a base material 120 such as coating or synthetic mica flakes (aluminum oxide, magnesium oxide, silicon dioxide, fluorine compound, etc.) is used as taggant 12C. it can.
The thickness of the multilayer thin film layer 4 is set according to the purpose. For example, the thickness may be 0.005 μm to 0.1 μm.

タガント12Cは見る角度によって色が変化するため、ルーペによる真偽判定が行いやすくなる。また、後述する微細物質分布解析処理(図11)において、特徴点として抽出しやすくなるという効果もある。   Since the color of the taggant 12C changes depending on the viewing angle, it is easy to perform authenticity determination using a loupe. In addition, there is an effect that it is easy to extract as feature points in the fine substance distribution analysis process (FIG. 11) described later.

図4のタガント12Dは、基材120の表面に光回折構造体層5を形成したものである。光回折構造体層5とは、ホログラムの微細凹凸が形成された層であるが、光回折構造体層5自体は、ホログラムの微細凹凸の形成が可能な種々の素材を用いて形成できる。例えば、ポリ塩化ビニル、アクリル樹脂、ポリスチレン、ポリカーボネートなどの透明な熱可塑性樹脂、或いは、不飽和ポリエステル、メラミン、エポキシ、ポリエステル(メタ)アクリレート、ウレタン(メタ)アクリレート、エポキシ(メタ)アクリレート、ポリエーテル(メタ)アクリレート、ポリオール(メタ)アクリレート、メラミン(メタ)アクリレート、トリアジン系アクリレート等の透明熱硬化性樹脂等を使用できる。更には、上述の熱可塑性樹脂と上述の熱硬化性樹脂とを混合して使用し、更に、ラジカル重合性不飽和基を有する熱成形性物質、或いは、これらにラジカル重合性不飽和単量体を加え電離放射線硬化性としたものなどを使用してもよい。   The taggant 12D in FIG. 4 is obtained by forming the light diffraction structure layer 5 on the surface of the base material 120. The light diffractive structure layer 5 is a layer in which fine hologram unevenness is formed, but the light diffraction structure layer 5 itself can be formed using various materials capable of forming hologram fine unevenness. For example, transparent thermoplastic resin such as polyvinyl chloride, acrylic resin, polystyrene, polycarbonate, or unsaturated polyester, melamine, epoxy, polyester (meth) acrylate, urethane (meth) acrylate, epoxy (meth) acrylate, polyether Transparent thermosetting resins such as (meth) acrylate, polyol (meth) acrylate, melamine (meth) acrylate, and triazine acrylate can be used. Furthermore, the above-mentioned thermoplastic resin and the above-mentioned thermosetting resin are mixed and used, and further, a thermoformable substance having a radical polymerizable unsaturated group, or a radical polymerizable unsaturated monomer therefor. May be used that are ionizing radiation curable.

光回折構造体層5はタガント12Dの全面に付与されてもよいし、一部に付与されてもよい。
また、光回折構造体層5を透明な被覆層(不図示)で覆い、保護するようにしてもよい。
The light diffraction structure layer 5 may be applied to the entire surface of the taggant 12D or may be applied to a part thereof.
Further, the light diffraction structure layer 5 may be protected by covering it with a transparent coating layer (not shown).

光回折構造体5へのホログラムの微細凹凸の形成は、回折格子やホログラムの干渉縞が凹凸の形で記録された原版をプレス型として用い、基材に上述の樹脂を塗布用組成物として調製したものを、グラビアコート法、ロールコート法、バーコート法などの手段で塗布して塗膜を形成し、その上に上述の原版を重ねて加熱ロールなどの適宜手段によって両者を加熱圧着して行なうことができる。また、フォトポリマーを用いる場合は、基材上に、フォトポリマーを同様に塗布した後、上述の原版を重ねてレーザー光を照射することにより複製できる。
光回折構造体層5の厚みは目的に応じて設定する。例えば、0.005μm〜0.1μmの厚さとすればよい。
Formation of the fine irregularities of the hologram on the optical diffraction structure 5 is performed by using the original plate on which the diffraction grating and the interference fringes of the hologram are recorded in an irregular shape as a press mold, and preparing the above resin as a coating composition on the base material Is applied by means of gravure coating method, roll coating method, bar coating method, etc. to form a coating film, and the above-mentioned original plate is overlaid thereon, and both are heated and pressure-bonded by appropriate means such as a heating roll. Can be done. Moreover, when using a photopolymer, after apply | coating a photopolymer on a base material similarly, it can replicate by overlapping the above-mentioned original plate and irradiating a laser beam.
The thickness of the light diffraction structure layer 5 is set according to the purpose. For example, the thickness may be 0.005 μm to 0.1 μm.

また図4のタガント12Dにおいて、ホログラムの微細凹凸の回折効率を高めるために、更に、反射性金属層を設けてもよい。その反射性金属層は、クロム、鉄、コバルト、ニッケル、銅、銀、金、ゲルマニウム、アルミニウム、マグネシウム、アンチモン、鉛、錫、カドミウム、ビスマス、セレン、ガリウム、インジウム、ルビジウム等の金属、または、その酸化物、窒化物、または、これらの金属の合金等を使用できる。反射性金属層は、真空蒸着法、スパッタリング法、イオンプレーティング法などの薄膜形成法によって形成することが好ましいが、メタリック顔料を含有するメタリックインクを用いて印刷することによって形成してもよい。   Further, in the taggant 12D of FIG. 4, a reflective metal layer may be further provided in order to increase the diffraction efficiency of the fine irregularities of the hologram. The reflective metal layer is made of chromium, iron, cobalt, nickel, copper, silver, gold, germanium, aluminum, magnesium, antimony, lead, tin, cadmium, bismuth, selenium, gallium, indium, rubidium, or the like, or The oxide, nitride, alloy of these metals, etc. can be used. The reflective metal layer is preferably formed by a thin film forming method such as a vacuum deposition method, a sputtering method, or an ion plating method, but may be formed by printing using a metallic ink containing a metallic pigment.

タガント12Dのように光回折構造体層5を有することにより、ルーペによる確認がしやすくなる。また、後述する微細物質分布解析処理において、光学的な読取りが容易となり特徴点として抽出しやすくなる。また、特定波長の光(レーザ光等)を照射してホログラム図案を再生し、ホログラム図案の判定をタガントの分布の判定と合わせて行うことにより、偽造防止効果が高くなる。   By having the light diffraction structure layer 5 like the taggant 12D, confirmation with a loupe becomes easy. In addition, in the fine substance distribution analysis process described later, optical reading is facilitated and feature points are easily extracted. Further, the forgery prevention effect is enhanced by irradiating light of a specific wavelength (laser light or the like) to reproduce the hologram design and determining the hologram design together with the determination of the distribution of the taggant.

また、個々のタガント12Dに付与されるホログラム図案は、同一としてもよいし、異なっていてもよい。異なるホログラム図案を付与する場合は、よりセキュリティ効果が高くなる。一方、同一のホログラム図案を付与する場合は、異なるホログラム図案を付与する場合と比べてコストダウンが可能となる。   Moreover, the hologram designs given to the individual taggants 12D may be the same or different. When a different hologram design is given, the security effect becomes higher. On the other hand, when the same hologram design is given, the cost can be reduced as compared with the case where a different hologram design is given.

図5のタガント12Eは、所定の照射光に対し、特定波長の光を放出する反射層6を形成したものである。反射層6は、例えば、基材120の表面に蛍光顔料を含む樹脂を塗布するか、印刷インクに蛍光顔料を混入して印刷することにより形成される。   The taggant 12E of FIG. 5 is formed by forming a reflective layer 6 that emits light of a specific wavelength with respect to predetermined irradiation light. The reflective layer 6 is formed, for example, by applying a resin containing a fluorescent pigment on the surface of the base material 120 or by mixing the fluorescent pigment in printing ink and printing.

蛍光顔料として使用される無機蛍光体に用いられる材料は、例えば、紫外線発光蛍光体または赤外線発光蛍光体等である。紫外線発光蛍光体は紫外線により励起され、それよりも低いエネルギー準位に戻るときに発するスペクトルのピークが青、緑、赤等の波長域にあるもので、例えばCaCl:Eu2+、CaWO、ZnO:ZnSiO:Mn、YS:Eu、ZnS:Ag、YVO:Eu、Y:Eu、GdS:Tb、LaS:Tb、YAl12:Ce等があり、単体又はこれらから数種を選択し混合して使用することができる。その蛍光スペクトルはピークを青、赤、緑の波長域以外に持つものである。また赤外線発光蛍光体は波長λ1の励起光を受けて、波長λ2の可視光を発光する特性を示し、λ1≠λ2かつλ1>λ2なる性質を有するものとして、その組成は例えば、YF:Er+Yb、YOCl:Er+Yb、NaLnF:Er+Yb(Ln=Y,Gd,La)、BaY:Er+Yb、(PbF−GeO):Er+Yb、(PbF−GeO):Tm+Yb等があり、いずれも励起光(λ1)800〜1000nmの赤外線を受けて450nm〜650nmに発光スペクトルの顕のピークを有する可視光線(λ2)を発光するものである。 The material used for the inorganic phosphor used as the fluorescent pigment is, for example, an ultraviolet light-emitting phosphor or an infrared light-emitting phosphor. The ultraviolet light emitting phosphor is excited by ultraviolet light, and has a spectrum peak emitted when returning to a lower energy level in a wavelength band such as blue, green, and red. For example, Ca 2 B 5 O 9 Cl: Eu 2+ , CaWO 4 , ZnO: Zn 2 SiO 4 : Mn, Y 2 O 2 S: Eu, ZnS: Ag, YVO 4 : Eu, Y 2 O 3 : Eu, Gd 2 O 2 S: Tb, La 2 O 2 S : Tb, Y 3 Al 5 O 12 : Ce, etc., which can be used alone or in combination with several selected from them. The fluorescence spectrum has peaks outside the blue, red, and green wavelength ranges. In addition, the infrared light emitting phosphor has a characteristic of receiving visible light having a wavelength λ2 upon receiving excitation light having a wavelength λ1, and has a property of λ1 ≠ λ2 and λ1> λ2, and its composition is, for example, YF 3 : Er + Yb , Y 3 OCl 7: Er + Yb, NaLnF 4: Er + Yb (Ln = Y, Gd, La), BaY 2 F 8: Er + Yb, (PbF 2 -GeO 2): Er + Yb, (PbF 2 -GeO 2): Tm + Yb etc. Each of them emits visible light (λ2) having a visible peak of the emission spectrum at 450 nm to 650 nm upon receiving infrared light of excitation light (λ1) 800 to 1000 nm.

反射層6はタガント12Eの全面に付与されてもよいし、表面の一部に付与されてもよい。また、例えば、文字、図形、絵柄、模様等の図案として、反射層6を付与するようにしてもよい。
また、反射層6を透明な被覆層で覆い、保護するようにしてもよい。
反射層6の厚みは目的に応じて設定する。例えば、0.005μm〜0.1μmの厚さとすればよい。
The reflective layer 6 may be applied to the entire surface of the taggant 12E or may be applied to a part of the surface. Further, for example, the reflective layer 6 may be provided as a design such as a character, a figure, a pattern, or a pattern.
Further, the reflective layer 6 may be covered with a transparent coating layer for protection.
The thickness of the reflective layer 6 is set according to the purpose. For example, the thickness may be 0.005 μm to 0.1 μm.

タガント12Eのように特定照射光による反射層6を有することにより、ルーペによる確認がしやすくなる。また、後述する微細物質分布解析処理において、光学的な読取りが容易となり、特徴点として抽出しやすくなる。また、通常の白色光の下では発光しないため、隠匿性が高く、模倣を防止しやすい。   By having the reflective layer 6 with the specific irradiation light like the taggant 12E, it becomes easy to confirm with a loupe. Further, in the fine substance distribution analysis process described later, optical reading is facilitated, and extraction as feature points is facilitated. Moreover, since it does not emit light under normal white light, it is highly concealed and it is easy to prevent imitation.

次に、物品1の個体識別方法について説明する。
まず、図6に示すように、検査用の所定の照射光を照射する検知器等を用いて、物品1のタガント分布層11に付与されたタガント12の放射光を放射させ、ルーペ等を用いて拡大し、視認することでその特性を判断することにより、大まかに真偽が判定される(ステップS1)。ステップS1で真と判定された物品1について、更に、コンピュータ等の個体識別装置100を用いた微細物質分布解析処理(ステップS2)を施すことにより、真偽が判定される。
Next, an individual identification method for the article 1 will be described.
First, as shown in FIG. 6, using a detector or the like that emits predetermined irradiation light for inspection, the emitted light of the taggant 12 imparted to the taggant distribution layer 11 of the article 1 is emitted, and a loupe or the like is used. By magnifying and visually recognizing the characteristics, the authenticity is roughly determined (step S1). The article 1 determined to be true in step S1 is further subjected to a fine substance distribution analysis process (step S2) using the individual identification device 100 such as a computer, thereby determining true / false.

物品1のタガント分布層11には、タガント12が含まれている。そのため、光源から光を照射して画像を読み取る(撮影する)と、各タガント12に影が生じ、撮影画像にはタガントの影9も映り込むこととなる。図7は、撮影画像の例であり、符号9の領域が影を示している。尚、図7(a)と図7(b)とでは光源位置が異なるため、影9の位置も異なるものとなっている。   The taggant distribution layer 11 of the article 1 includes a taggant 12. For this reason, when an image is read (photographed) by irradiating light from the light source, a shadow is generated in each taggant 12, and the shadow 9 of the taggant is also reflected in the captured image. FIG. 7 is an example of a photographed image, and an area 9 is a shadow. Since the light source position is different between FIG. 7A and FIG. 7B, the position of the shadow 9 is also different.

図8に示すように、タガント12は平らな構造物であり、水平方向の最大長が100μm〜数100μmに対して、厚さ(=垂直方向の長さ)は数μm程度である。そして、タガント12は、基材10の表面に対して平行となるように分布され、透明プラスチックを固着剤として用いることによって、基材10の表面と平行に固着される。つまり、タガント12は、タガント分布層11の中で、基材10の表面と平行に浮いている状態となる。
そして、図8に示すように、タガント12と基材10との間を光が散乱することにより、タガント12の影9が出来る。一般に、物体の色相は、物体から反射する光の波長を持つ色相になるので、タガント12と同じ色相の影9が出来る。
As shown in FIG. 8, the taggant 12 is a flat structure, and the thickness (= vertical length) is about several μm while the maximum length in the horizontal direction is 100 μm to several 100 μm. And the taggant 12 is distributed so that it may become parallel with respect to the surface of the base material 10, and it adheres in parallel with the surface of the base material 10 by using a transparent plastic as a sticking agent. That is, the taggant 12 is in a state of floating in parallel with the surface of the substrate 10 in the taggant distribution layer 11.
And as shown in FIG. 8, the shadow 9 of the taggant 12 is made when light scatters between the taggant 12 and the base material 10. In general, since the hue of an object is a hue having a wavelength of light reflected from the object, a shadow 9 having the same hue as that of the taggant 12 is formed.

ここで、影9とは、「光によって、物体の他にできる、その物体の姿」を意味する。つまり、その色相は黒に限定されない。本発明における「タガントの影」は、前述した通り、タガント12と基材10との間で散乱される光によって生じるものである。
一般に、物体の色相は、物体から反射する光の波長をもつ色相であるので、影9の色相はタガント12の色相と同一となる。ただし、彩度はタガント12よりも影9の方が低いものとなる。例えば、タガント12が青であれば、影9は淡い青となる。
Here, the shadow 9 means “the shape of the object that can be formed by light in addition to the object”. That is, the hue is not limited to black. The “taggant shadow” in the present invention is caused by light scattered between the taggant 12 and the substrate 10 as described above.
In general, since the hue of an object is a hue having a wavelength of light reflected from the object, the hue of the shadow 9 is the same as the hue of the taggant 12. However, the saturation is lower in the shadow 9 than in the taggant 12. For example, if the taggant 12 is blue, the shadow 9 is light blue.

物品1に対して、網点階調によって絵柄が印刷されている場合、タガント12の色相や影9の色相に近い色相の網点ドットが存在する可能性がある。そのため、物品1が撮影された画像の色相に基づいてタガント12に由来する特徴点を抽出しようとすると、網点ドットに由来する特徴点も抽出してしまい、識別精度が著しく低下してしまう。   When a pattern is printed on the article 1 with halftone gradation, there may be a halftone dot having a hue close to the hue of the taggant 12 or the hue of the shadow 9. For this reason, if a feature point derived from the taggant 12 is extracted based on the hue of the image in which the article 1 is photographed, a feature point derived from the halftone dot is also extracted, and the identification accuracy is significantly reduced.

ところで、後述するように、個体識別装置は、特徴点抽出処理(図11のステップS102、ステップS106)では、物品1の画像データをHSV変換し、所定の色相範囲の画素をタガント領域として抽出し、タガント領域の重心を算出することによって、タガント12に由来する特徴点を抽出する。従って、タガント12の周囲の影9をタガント領域として抽出したとしても、影9の領域が小さければ、タガント領域の重心の座標はあまり変わらず、特徴点の抽出結果に大きな影響を与えない。   As will be described later, in the feature point extraction process (steps S102 and S106 in FIG. 11), the individual identification device performs HSV conversion on the image data of the article 1 and extracts pixels in a predetermined hue range as taggant regions. The feature points derived from the taggant 12 are extracted by calculating the center of gravity of the taggant region. Therefore, even if the shadow 9 around the taggant 12 is extracted as a taggant region, if the shadow 9 region is small, the coordinates of the center of gravity of the taggant region do not change so much, and the feature point extraction result is not greatly affected.

一方、網点ドットは、大局的には、画像全体に一定の規則性を持って出現する。従って、網点ドットの色相が、タガント領域を抽出する際の所定の色相範囲に含まれる場合、網点ドットに由来する特徴点を数多く抽出してしまう。そして、タガント12に由来する特徴点の数よりも、網点ドットに由来する特徴点の数の方が多い場合、タガント12が付与されていない偽造品であっても、真の物品と誤判定してしまうことになる。   On the other hand, halftone dots generally appear with a certain regularity in the entire image. Therefore, when the hue of the halftone dot is included in the predetermined hue range when the taggant area is extracted, many feature points derived from the halftone dot are extracted. If the number of feature points derived from the halftone dots is larger than the number of feature points derived from the taggant 12, even a counterfeit product not provided with the taggant 12 is erroneously determined as a true article. Will end up.

そこで、ステップS2の微細物質分布解析処理では、物品1のタガント分布層11を撮影した画像に対して平滑化処理(図11のステップS101、ステップS105)を行った後に特徴点抽出処理を行うことによって、網点ドットに由来する特徴点が抽出されないようにする。そして、抽出された特徴点群(タガント12の分布位置情報)をその個体の特徴量として照合に利用する。   Therefore, in the fine substance distribution analysis process in step S2, the feature point extraction process is performed after the smoothing process (steps S101 and S105 in FIG. 11) is performed on the image obtained by photographing the taggant distribution layer 11 of the article 1. Therefore, feature points derived from halftone dots are not extracted. Then, the extracted feature point group (distribution position information of the taggant 12) is used for matching as the feature amount of the individual.

例えば、タガント12を印刷インクに混入して付与した場合は、たとえ同じ機種の印刷装置であっても個々の印刷装置には固有の癖があり、厳密には同じ仕上がり状態を得られない。そのため、印刷装置や、用いるインク、インクの残存量、印刷の設定、更には、印刷時の気温や湿度等の諸条件によって、異なる印刷結果を得る。また、タガントの混入の割合等によってもタガントの分布は異なる。本発明は、予め真の物品のタガント12の分布位置を求め、基準特徴点データとして記憶しておき、比較対象とする物品のタガント12の分布と比較照合することにより個体の一致、不一致(真偽)を判別しようとするものである。   For example, when the taggant 12 is mixed and applied to the printing ink, even if the printing device is the same model, each printing device has its own wrinkles, and strictly the same finished state cannot be obtained. Therefore, different printing results are obtained depending on the printing apparatus, the ink to be used, the ink remaining amount, the printing setting, and various conditions such as the temperature and humidity during printing. In addition, the distribution of taggant varies depending on the mixing ratio of taggant. In the present invention, the distribution position of the taggant 12 of the true article is obtained in advance, stored as reference feature point data, and compared and collated with the distribution of the taggant 12 of the article to be compared. False).

次に、微細物質分布解析処理を行う個体識別装置100について説明する。
図9は、個体識別装置100のハードウエア構成を示すブロック図である。
Next, the individual identification device 100 that performs the fine substance distribution analysis process will be described.
FIG. 9 is a block diagram illustrating a hardware configuration of the individual identification device 100.

図9に示すように、個体識別装置100は、制御部101、記憶部102、入力部103、表示部104、メディア入出力部105、通信I/F部106、周辺機器I/F部107等がバス109を介して接続されて構成される。また、周辺機器I/F部107には画像読取装置108及び光源110が接続されている。
個体識別装置100の制御部101、記憶部102、入力部103、表示部104、メディア入出力部105、通信I/F部106、周辺機器I/F部107及びバス109を含む各装置は、例えばコンピュータ等によって構成される。
As shown in FIG. 9, the individual identification device 100 includes a control unit 101, a storage unit 102, an input unit 103, a display unit 104, a media input / output unit 105, a communication I / F unit 106, a peripheral device I / F unit 107, and the like. Are connected via a bus 109. In addition, an image reading device 108 and a light source 110 are connected to the peripheral device I / F unit 107.
Each device including the control unit 101, the storage unit 102, the input unit 103, the display unit 104, the media input / output unit 105, the communication I / F unit 106, the peripheral device I / F unit 107, and the bus 109 of the individual identification device 100 is For example, it is configured by a computer or the like.

制御部101は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Accsess Memory)等により構成される。
CPUは、記憶部102、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス108を介して接続された各部を駆動制御する。ROMは、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持する。RAMは、ロードしたプログラムやデータを一時的に保持するとともに、制御部101が後述する各種処理を行うために使用するワークエリアを備える。
The control unit 101 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
The CPU calls and executes a program stored in the storage unit 102, ROM, recording medium, or the like in a work memory area on the RAM, and drives and controls each unit connected via the bus 108. The ROM permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM temporarily stores the loaded program and data, and includes a work area used by the control unit 101 for performing various processes described later.

記憶部102は、HDD(ハードディスクドライブ)であり、制御部101が実行するプログラムや、プログラム実行に必要なデータ、OS(オペレーティング・システム)等が格納されている。これらのプログラムコードは、制御部101により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。   The storage unit 102 is an HDD (hard disk drive), and stores a program executed by the control unit 101, data necessary for program execution, an OS (operating system), and the like. These program codes are read by the control unit 101 as necessary, transferred to the RAM, and read and executed by the CPU.

入力部103は、例えば、キーボード、マウス、タッチパネル、タブレット等のポインティング・デバイス、テンキー等の入力装置であり、入力されたデータを制御部101へ出力する。   The input unit 103 is an input device such as a keyboard, a mouse, a touch panel, a pointing device such as a tablet, or a numeric keypad, and outputs input data to the control unit 101.

表示部104は、例えば液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路(ビデオアダプタ等)で構成され、制御部101の制御により入力された表示情報をディスプレイ装置上に表示させる。
なお、入力部103と表示部104が一体的に構成されたタッチパネル式の入出力部としてもよい。
The display unit 104 includes, for example, a display device such as a liquid crystal panel or a CRT monitor, and a logic circuit (such as a video adapter) for executing display processing in cooperation with the display device, and is input under the control of the control unit 101. Display information is displayed on a display device.
Note that the input unit 103 and the display unit 104 may be integrated as a touch panel type input / output unit.

メディア入出力部105は、例えば、フロッピー(登録商標)ディスクドライブ、PDドライブ、CDドライブ、DVDドライブ、MOドライブ等のメディア入出力装置であり、データの入出力を行う。
通信I/F106は、通信制御装置、通信ポート等を有し、ネットワークとの通信を媒介する通信インタフェースであり、通信制御を行う。
The media input / output unit 105 is a media input / output device such as a floppy (registered trademark) disk drive, PD drive, CD drive, DVD drive, and MO drive, and performs data input / output.
The communication I / F 106 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication with the network, and performs communication control.

周辺機器I/F(インタフェース)107は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F107を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器I/F107は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。   A peripheral device I / F (interface) 107 is a port for connecting a peripheral device to a computer, and the computer transmits and receives data to and from the peripheral device via the peripheral device I / F 107. The peripheral device I / F 107 is configured by USB, IEEE 1394, RS-232C, or the like, and usually has a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.

画像読取装置108(撮影装置)は、スキャナ、CCDカメラ等であり、画像を光学的に読取り、画像データとして取得する装置である。画像読取装置108は、周辺機器I/F107を介して個体識別装置100に接続される。或いは、画像読取装置108は、通信I/F106を介して個体識別装置100と通信接続される構成としてもよい。画像読取装置108は読み取った画像データを制御部101へ出力する。制御部101は取得した画像データをRAMまたは記憶部102の所定のメモリ領域に記憶する。
光源110は、撮影対象とする物品1を撮影する際に、物品1に対して所定の方向から光を照射する。
バス109は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The image reading device 108 (photographing device) is a scanner, a CCD camera, or the like, and is a device that optically reads an image and acquires it as image data. The image reading device 108 is connected to the individual identification device 100 via the peripheral device I / F 107. Alternatively, the image reading apparatus 108 may be configured to be connected to the individual identification apparatus 100 via the communication I / F 106. The image reading device 108 outputs the read image data to the control unit 101. The control unit 101 stores the acquired image data in a predetermined memory area of the RAM or the storage unit 102.
The light source 110 irradiates the article 1 with light from a predetermined direction when photographing the article 1 to be photographed.
The bus 109 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

次に、微細物質分布解析処理の流れを説明する。
図10は、タガント12が付与され、網点階調によって絵柄が印刷された物品1の例である。図11は、微細物質分布解析処理の流れを説明するフローチャートである。図12は、平滑化処理について説明するフローチャートである。図13は、平滑化フィルタの例である。図14は、平滑化処理の実行例である。図15は、平滑化処理を実行せずに特徴点を抽出した例である。図16は、平滑化処理を実行した後に特徴点を抽出した例である。図17、図18は基準物品及び対象物品と、読み取る画像データの例である。図19は、特徴点の相対位置について説明する図である。図20は、基準画像データ及び対象物画像データから抽出された特徴点の例である。
Next, the flow of the fine substance distribution analysis process will be described.
FIG. 10 is an example of the article 1 to which the taggant 12 is applied and the pattern is printed with halftone gradation. FIG. 11 is a flowchart for explaining the flow of the fine substance distribution analysis process. FIG. 12 is a flowchart illustrating the smoothing process. FIG. 13 is an example of a smoothing filter. FIG. 14 is an execution example of the smoothing process. FIG. 15 is an example in which feature points are extracted without executing smoothing processing. FIG. 16 is an example in which feature points are extracted after the smoothing process is executed. 17 and 18 are examples of the reference article and the target article and the image data to be read. FIG. 19 is a diagram for explaining the relative positions of feature points. FIG. 20 is an example of feature points extracted from the reference image data and the object image data.

尚、図10、図14〜図16の元画像は、全てカラー画像である。特許図面の制約の為、カラー画像をグレースケール画像に変換している。図10、図14〜図16に示される物品1は、カード形状の媒体であり、網点階調によってカラーの絵柄が印刷されている。また、図10、図14〜図16に示される物品1には、様々な色相を有するタガント12が付されている。   The original images in FIGS. 10 and 14 to 16 are all color images. The color image is converted to a grayscale image due to limitations of the patent drawing. The article 1 shown in FIGS. 10 and 14 to 16 is a card-shaped medium on which a color picture is printed with halftone gradation. Moreover, the taggant 12 which has various hues is attached | subjected to the articles | goods 1 shown by FIG. 10, FIG. 14-16.

以下に説明する微細物質分布解析処理では、物品1には網点階調によって絵柄が印刷されているものとする。図10(a)は、タガントが付与された物品1の一部を画像読取装置108によって撮影した画像である。図10(b)は、図10(a)の矩形領域X1(黒の太線にて図示)の拡大画像である。   In the fine substance distribution analysis process described below, it is assumed that a pattern is printed on the article 1 with halftone gradation. FIG. 10A is an image obtained by photographing a part of the article 1 provided with the taggant by the image reading device 108. FIG. 10B is an enlarged image of the rectangular area X1 (shown by a thick black line) in FIG.

図10(b)を参照すると分かるように、図10に示す物品1の絵柄は、網点階調によって印刷されたものである。また、図1(b)の矩形領域X2(黒の太線にて図示)には、タガント12が2個存在する。   As can be seen from FIG. 10B, the pattern of the article 1 shown in FIG. 10 is printed with halftone gradation. Further, two taggants 12 exist in the rectangular region X2 (shown by a black thick line) in FIG.

図11のフローチャートに示すように、個体識別装置100の制御部101は、まず事前処理(ステップS100〜ステップS103)を行う。事前処理では、画像読取装置108を用いて基準物品(真の物品)に付与されたタガント分布層11を光学的に読み取る(ステップS100)。読み取り対象とする部位は、タガント分布層11の全部としてもよいし、一部としてもよい。   As shown in the flowchart of FIG. 11, the control unit 101 of the individual identification device 100 first performs pre-processing (steps S <b> 100 to S <b> 103). In the pre-processing, the taggant distribution layer 11 applied to the reference article (true article) is optically read using the image reading device 108 (step S100). The part to be read may be the entire taggant distribution layer 11 or a part thereof.

次に、制御部101は、読み取った画像(以下、「撮影画像」という。)に対して平滑化処理を行う(ステップS101)。
平滑化処理を行うことにより、後述する特徴点の抽出をより精密に行うことが可能となり、個体識別の精度が向上する。
Next, the control unit 101 performs a smoothing process on the read image (hereinafter referred to as “captured image”) (step S101).
By performing the smoothing process, it becomes possible to extract feature points, which will be described later, more precisely, and the accuracy of individual identification is improved.

ここで、ステップS101の平滑化処理について説明する。
図12のフローチャートに示すように、制御部101は、撮影画像の解像度とタガント12の実サイズとに基づいて、撮影画像におけるタガント12の画素サイズを算出する(ステップS11)。
Here, the smoothing process in step S101 will be described.
As shown in the flowchart of FIG. 12, the control unit 101 calculates the pixel size of the taggant 12 in the captured image based on the resolution of the captured image and the actual size of the taggant 12 (step S11).

図7に示すように、タガント12の平らな面は、円形、ハート形、多角形等の様々な形状を有する。そこで、本発明では、タガント12の実サイズは、垂直方向から見たときのタガント12の外接正方形の1辺の長さとする。また、撮影画像におけるタガント12の画素サイズとは、撮影画像において、タガント12の外接正方形の1辺の長さに相当する画素数である。   As shown in FIG. 7, the flat surface of the taggant 12 has various shapes such as a circle, a heart shape, and a polygon. Therefore, in the present invention, the actual size of the taggant 12 is the length of one side of the circumscribed square of the taggant 12 when viewed from the vertical direction. In addition, the pixel size of the taggant 12 in the captured image is the number of pixels corresponding to the length of one side of the circumscribed square of the taggant 12 in the captured image.

ステップS11における具体例を説明する。例えば、画像読取装置108の撮影解像度を「1200dpi」とする。この場合、1ドットの直径は、25.4mm÷1200×10≒21.2μmとなる。また、例えば、タガント12の実サイズ(=外接正方形の1辺の長さ)を、150μmとする。この場合、タガント12の画素サイズは、150÷21.2≒7.08画素となる。 A specific example in step S11 will be described. For example, the imaging resolution of the image reading apparatus 108 is “1200 dpi”. In this case, the diameter of one dot is 25.4 mm ÷ 1200 × 10 3 ≈21.2 μm. Further, for example, the actual size of the taggant 12 (= the length of one side of the circumscribed square) is 150 μm. In this case, the pixel size of the taggant 12 is 150 ÷ 21.2≈7.08 pixels.

次に、制御部101は、ステップS11において算出されたタガント12の画素サイズに基づいて所定のフィルタサイズを決定する(ステップS12)。そして、制御部101は、ステップS12において決定された所定のフィルタサイズに基づいて、撮影画像に平滑化フィルタをかける(ステップS13)。   Next, the control unit 101 determines a predetermined filter size based on the pixel size of the taggant 12 calculated in step S11 (step S12). And the control part 101 applies a smoothing filter to a picked-up image based on the predetermined filter size determined in step S12 (step S13).

平滑化フィルタは、図13に示すように、例えば、ガウシアンフィルタである。図13(a)には、フィルタサイズが「3」(3×3)のガウシアンフィルタが図示されている。また、図13(b)には、フィルタサイズが「5」(5×5)のガウシアンフィルタが図示されている。いずれも、斜線部が着目画素である。ガウシアンフィルタは、フィルタサイズが「3」や「5」だけでなく、「7」、「9」、・・・というように、奇数のフィルタサイズを定義することができる。   As shown in FIG. 13, the smoothing filter is, for example, a Gaussian filter. FIG. 13A shows a Gaussian filter having a filter size of “3” (3 × 3). FIG. 13B shows a Gaussian filter having a filter size of “5” (5 × 5). In both cases, the shaded area is the pixel of interest. In the Gaussian filter, not only “3” and “5” but also “7”, “9”,..., Odd filter sizes can be defined.

尚、平滑化フィルタは、ガウシアンフィルタに限定されない。適用可能な平均化フィルタとしては、例えば、平均化フィルタ、加重平均化フィルタ(ガウシアンフィルタの一般化)、メディアンフィルタなどが考えられる。いずれのフィルタであっても、奇数のフィルタサイズを定義することができる。   Note that the smoothing filter is not limited to a Gaussian filter. Applicable averaging filters include, for example, averaging filters, weighted averaging filters (generalization of Gaussian filters), median filters, and the like. For any filter, an odd filter size can be defined.

例えば、所定のフィルタサイズが、タガント12の画素サイズよりも大きいフィルタサイズとすると、タガント12自体の色相が平滑化されてしまい(ぼかされてしまい)、後述する特徴点抽出処理において、タガント12に由来する特徴点が抽出できなくなってしまう。一方、所定のフィルタサイズがあまりに小さすぎると、網点ドットの色相を十分に平滑化できず(ぼかすことができず)、後述する特徴点抽出処理において、網点ドットに由来する特徴点も抽出してしまう。   For example, if the predetermined filter size is a filter size larger than the pixel size of the taggant 12, the hue of the taggant 12 itself is smoothed (blurred), and the taggant 12 is extracted in the feature point extraction process described later. It becomes impossible to extract the feature points derived from. On the other hand, if the predetermined filter size is too small, the hue of halftone dots cannot be sufficiently smoothed (cannot be blurred), and feature points derived from halftone dots are also extracted in the feature point extraction process described later. Resulting in.

そこで、所定のフィルタサイズとしては、タガント12の画素サイズ以下の中で最も大きいフィルタサイズが望ましい。例えば、前述の具体例であれば、タガント12の画素サイズが「7.08画素」であることから、7.08以下のフィルタサイズ、つまり、フィルタサイズ=3、5、7の中で、最も大きいフィルタサイズである「7」とする。これによって、後述する特徴点抽出処理において、網点ドットに由来する特徴点を抽出することなく、タガント12に由来する特徴点のみを抽出することができる。   Therefore, the predetermined filter size is preferably the largest filter size within the taggant 12 pixel size. For example, in the above-described specific example, since the pixel size of the taggant 12 is “7.08 pixels”, the filter size of 7.08 or less, that is, the filter size = 3, 5, or 7 The large filter size is “7”. Thereby, in the feature point extraction process described later, only the feature points derived from the taggant 12 can be extracted without extracting the feature points derived from the halftone dots.

図14(a)は、図10(b)の矩形領域X2(黒の太線にて図示)の拡大画像である。楕円領域Y1、Y2(黒の太線にて図示)には、それぞれタガント12が1つずつ存在する。グレースケール変換をしている為に確認出来ないが、楕円領域Y1に存在するタガント12の色相は、赤に近い色相である。また、楕円領域Y2に存在するタガント12の色相は、緑に近い色相である。一方、物品1の絵柄を構成する各網点は、赤、青、白、灰色の4種類の網点ドットによって構成されている。尚、物品1の絵柄は、全体としては、青と灰色の領域が多くなっている。   FIG. 14A is an enlarged image of the rectangular area X2 (illustrated by a thick black line) in FIG. There is one taggant 12 in each of the elliptical areas Y1 and Y2 (illustrated by thick black lines). Although it cannot be confirmed because grayscale conversion is performed, the hue of the taggant 12 existing in the elliptical area Y1 is a hue close to red. Further, the hue of the taggant 12 existing in the elliptical region Y2 is a hue close to green. On the other hand, each halftone dot constituting the pattern of the article 1 is constituted by four types of halftone dots of red, blue, white and gray. In addition, the pattern of the article 1 has a large number of blue and gray areas as a whole.

図14(a)に示す画像データに対して、例えば、赤に近い色相のタガント12が抽出されるように、所定の色相範囲の画素をタガント領域として抽出する場合、赤の網点ドットもタガント領域として抽出されてしまう。   For example, when a pixel in a predetermined hue range is extracted as a taggant region so that a taggant 12 having a hue close to red is extracted from the image data shown in FIG. It will be extracted as a region.

図14(b)は、図14(a)に対してステップS13の処理を行った結果を示している。グレースケール変換をしている為に確認出来ないが、楕円領域Y3内は、ほとんどの画素が赤に近い色相となっている。また、楕円領域Y4内は、ほとんどの画素が緑に近い色相となっている。一方、それ以外の領域は、ほとんどの画素が、青や灰色に近い色相となっている。このように、ステップS13の処理を行うことによって、網点階調によって絵柄が印刷されている物品1に対しても、タガント12の領域とそれ以外の領域を、色相によって明確に区別することができる。   FIG. 14B shows the result of performing the process of step S13 on FIG. Although it cannot be confirmed because of grayscale conversion, most of the pixels in the ellipse area Y3 have a hue close to red. In the elliptical area Y4, most of the pixels have a hue close to green. On the other hand, in other areas, most pixels have a hue close to blue or gray. As described above, by performing the processing in step S13, the region of the taggant 12 and the other region can be clearly distinguished by the hue even for the article 1 on which the design is printed by the halftone gradation. it can.

図12の平滑化処理が終了すると、制御部101は、平滑化処理後の画像データを基準画像データとしてRAMに保持し、図11の微細物質分布解析処理のステップS102へ移行する。   When the smoothing process in FIG. 12 ends, the control unit 101 stores the image data after the smoothing process in the RAM as reference image data, and proceeds to step S102 of the fine substance distribution analysis process in FIG.

制御部101は、基準画像データに含まれるタガント12の分布位置を特徴点として抽出する(ステップS102)。   The control unit 101 extracts the distribution position of the taggant 12 included in the reference image data as a feature point (step S102).

ここで、ステップS102における特徴点抽出処理について説明する。制御部101は、基準画像データ(平滑化処理後の画像データ)に対してHSV変換を行い、色相データを算出する。そして、制御部101は、色相データに対して所定の色相範囲の画素をタガント領域として抽出し、タガント領域の重心を算出することによって、タガント12の分布位置情報を基準特徴点データとして抽出する。   Here, the feature point extraction process in step S102 will be described. The control unit 101 performs HSV conversion on the reference image data (image data after the smoothing process), and calculates hue data. Then, the control unit 101 extracts pixels in a predetermined hue range from the hue data as a taggant region, calculates the center of gravity of the taggant region, and extracts the distribution position information of the taggant 12 as reference feature point data.

図15(a)は、図10(a)に示す画像と同一である。また、図15(b)は、図15(a)に対して特徴点抽出処理を行った結果である。つまり、図15(b)は、平滑化処理を行っていない画像データに対して特徴点抽出処理を行った結果である。図15(b)では、カラー画像をグレースケール変換しているので、高輝度(図面上は白又は灰色)の画素が、タガント領域として抽出される画素に相当し、低輝度(図面上は黒)の画素が、タガント領域として抽出されない画素に相当する。図15(b)に示す結果では、明らかに、タガント12が存在しない箇所もタガント領域として抽出される。つまり、網点階調によって印刷された物品1の絵柄に起因するタガント12の分布位置の誤認識が発生する。   FIG. 15A is the same as the image shown in FIG. FIG. 15B shows the result of the feature point extraction process performed on FIG. That is, FIG. 15B shows the result of performing feature point extraction processing on image data that has not been subjected to smoothing processing. In FIG. 15B, since the color image is grayscale-converted, pixels with high luminance (white or gray on the drawing) correspond to pixels extracted as taggant regions, and low luminance (black on the drawing). ) Corresponds to a pixel that is not extracted as a taggant region. In the result shown in FIG. 15B, obviously, a portion where the taggant 12 does not exist is also extracted as a taggant region. That is, misrecognition of the distribution position of the taggant 12 due to the pattern of the article 1 printed with halftone dots occurs.

一方、図16(a)は、図10(a)に示す画像に対して、ステップS101の平滑化処理を行った結果である。また、図16(b)は、図16(a)に対して特徴点抽出処理を行った結果である。つまり、図16(b)は、平滑化処理を行った画像データに対して特徴点抽出処理を行った結果である。図16(b)では、カラー画像をグレースケール変換しているので、高輝度(図面上は白又は灰色)の画素が、タガント領域として抽出される画素に相当し、低輝度(図面上は黒)の画素が、タガント領域として抽出されない画素に相当する。図16(b)に示す結果では、明らかに、タガント12が存在しない箇所はタガント領域として抽出されず、タガント12が存在する箇所のみがタガント領域として抽出される。つまり、網点階調によって印刷された物品1の絵柄に起因するタガント12の分布位置の誤認識は発生しない。   On the other hand, FIG. 16A shows the result of performing the smoothing process in step S101 on the image shown in FIG. FIG. 16B shows the result of the feature point extraction process performed on FIG. That is, FIG. 16B shows the result of the feature point extraction process performed on the image data that has been subjected to the smoothing process. In FIG. 16B, since the color image is grayscale-converted, pixels with high luminance (white or gray on the drawing) correspond to pixels extracted as taggant regions, and low luminance (black on the drawing). ) Corresponds to a pixel that is not extracted as a taggant region. In the result shown in FIG. 16B, obviously, a part where the taggant 12 does not exist is not extracted as a taggant area, and only a part where the taggant 12 exists is extracted as a taggant area. That is, there is no erroneous recognition of the distribution position of the taggant 12 due to the pattern of the article 1 printed with halftone gradation.

上述の特徴点抽出処理によりタガント12の分布位置を特徴点として抽出し、抽出した特徴点の位置情報を求めて、基準特徴点データとしてRAMまたは記憶部102に記憶する(ステップS103)。
ここで、特徴点の位置情報は、絶対位置情報でもよいし、相対位置情報でもよい。
The distribution position of the taggant 12 is extracted as a feature point by the above-described feature point extraction processing, position information of the extracted feature point is obtained, and stored as reference feature point data in the RAM or the storage unit 102 (step S103).
Here, the position information of the feature points may be absolute position information or relative position information.

絶対位置情報を採用する場合は、図17に示すように、画像データの読取範囲は、基準物品と後に読み取る対象物品とで同じ位置、同じ向き、同じ範囲(同じ形状、同じ面積)とする必要がある。そのため、物品1に読取位置を示すマーカ等を予め付与しておくことが望ましい。
また、絶対位置情報は、読み取った画像データを所定の画素数で正規化し、正規化後画像データの、例えば中心点を原点として各特徴点の2次元絶対位置座標(X,Y)を求めればよい。
When the absolute position information is adopted, as shown in FIG. 17, the reading range of the image data needs to be the same position, the same direction, and the same range (the same shape and the same area) for the reference article and the target article to be read later. There is. For this reason, it is desirable to add a marker or the like indicating the reading position to the article 1 in advance.
The absolute position information is obtained by normalizing the read image data with a predetermined number of pixels and obtaining the two-dimensional absolute position coordinates (X, Y) of each feature point with the center point as the origin of the normalized image data, for example. Good.

また、相対位置情報を採用する場合は、画像データの読取範囲は、図18(a)、図18(b)に示すように、基準物品1Aと後に読み取る対象物品1Bとで同じとする必要がない。
相対位置情報とは、図19に示すように、ある特徴点とその特徴点の周囲の所定数の特徴点との各距離(相対距離)の集合データである。この相対距離の集合データを読取範囲内の各特徴点について繰り返し算出する。
When the relative position information is employed, the reading range of the image data needs to be the same for the reference article 1A and the target article 1B to be read later, as shown in FIGS. 18 (a) and 18 (b). Absent.
As shown in FIG. 19, the relative position information is set data of distances (relative distances) between a certain feature point and a predetermined number of feature points around the feature point. The relative distance set data is repeatedly calculated for each feature point in the reading range.

ステップS100〜ステップS103の処理により基準物品から読み取った画像データから基準特徴点データを取得すると、次に、制御部101は、本処理(ステップS104〜ステップS110)へ移行する。   When the reference feature point data is acquired from the image data read from the reference article by the processing of step S100 to step S103, the control unit 101 next proceeds to the main processing (step S104 to step S110).

本処理において、個体識別装置100は、対象物品に付与されたタガント分布層11を光学的に読み取る(ステップS104)。
基準特徴点データ算出時(ステップS102)に特徴点の絶対位置情報を求めた場合は、ステップS104の対象物品の読取りは、基準物品の読取りと同じ画像読取装置108を用い、同じ条件で読み取る。また、図17に示すように、読み取りの向き、位置、範囲も、基準物品の読取りと同一とする。制御部101は、読み取った画像データを対象物画像データとしてRAMに保持する。
In this process, the individual identification device 100 optically reads the taggant distribution layer 11 attached to the target article (step S104).
When the absolute position information of the feature point is obtained at the time of calculating the reference feature point data (step S102), the target article in step S104 is read using the same image reading device 108 as the reference article and under the same conditions. In addition, as shown in FIG. 17, the reading direction, position, and range are the same as those for reading the reference article. The control unit 101 holds the read image data in the RAM as target image data.

一方、基準特徴点データ算出時(ステップS103)に特徴点の相対位置情報を求めた場合は、ステップS104の対象物品の読取りは、基準物品の読取りと同じ画像読取装置108を用い、同じ条件で読み取るが、読み取りの向き、位置、範囲は、図18(a)、(b)に示すように、基準物品の読取りの向き、位置、範囲と異なっていてもよい。制御部101は、読み取った画像データを対象物画像データとしてRAMに保持する。   On the other hand, when the relative position information of the feature points is obtained at the time of calculating the reference feature point data (step S103), the reading of the target article in step S104 is performed under the same conditions using the same image reading device 108 as that of the reference article. Although the reading is performed, the reading direction, position, and range may be different from the reading direction, position, and range of the reference article as shown in FIGS. The control unit 101 holds the read image data in the RAM as target image data.

次に、制御部101は、対象物品から読み取った画像(以下、撮影画像という)に対して平滑化処理を行う(ステップS105)。ステップS105の平滑化処理は、ステップS101で行った平滑化処理と同一である。つまり、制御部101は、撮影画像の解像度とタガント12の実サイズとに基づいて、撮影画像におけるタガント12の画素サイズを算出する(ステップS11)。次に、制御部101は、ステップS11において算出されたタガント12の画素サイズに基づいて所定のフィルタサイズを決定する(ステップS12)。そして、制御部101は、ステップS12において決定された所定のフィルタサイズに基づいて、撮影画像に平滑化フィルタをかける(ステップS13)。   Next, the control unit 101 performs a smoothing process on an image read from the target article (hereinafter referred to as a captured image) (step S105). The smoothing process in step S105 is the same as the smoothing process performed in step S101. That is, the control unit 101 calculates the pixel size of the taggant 12 in the captured image based on the resolution of the captured image and the actual size of the taggant 12 (step S11). Next, the control unit 101 determines a predetermined filter size based on the pixel size of the taggant 12 calculated in step S11 (step S12). And the control part 101 applies a smoothing filter to a picked-up image based on the predetermined filter size determined in step S12 (step S13).

次に、制御部101は、平滑化処理後の対象物画像データからタガント12の分布位置を対象物特徴点データとして抽出する特徴点抽出処理を行う(ステップS106)。ここで、対象物品に対して行う特徴点抽出処理は、基準物品に対して行った特徴点抽出処理と同一である。すなわち、制御部101は、対象物画像データ(平滑化処理後の画像データ)に対してHSV変換を行い、色相データを算出する。そして、制御部101は、色相データに対して所定の色相範囲の画素をタガント領域として抽出し、タガント領域の重心を算出することによって、タガント12の分布位置情報を対象物特徴点データとして抽出する。   Next, the control unit 101 performs feature point extraction processing for extracting the distribution position of the taggant 12 as target feature point data from the target image data after the smoothing processing (step S106). Here, the feature point extraction process performed on the target article is the same as the feature point extraction process performed on the reference article. That is, the control unit 101 performs HSV conversion on the target object image data (image data after the smoothing process), and calculates hue data. Then, the control unit 101 extracts pixels in a predetermined hue range from the hue data as a taggant region, and calculates the center of gravity of the taggant region, thereby extracting the distribution position information of the taggant 12 as object feature point data. .

制御部101は、抽出した特徴点の位置情報を算出し、対象物特徴点データとしてRAMに記憶する。
基準特徴点データとして絶対位置情報を算出している場合は、対象物特徴点データとして絶対位置情報を求める。
The control unit 101 calculates the position information of the extracted feature points and stores them in the RAM as object feature point data.
When the absolute position information is calculated as the reference feature point data, the absolute position information is obtained as the object feature point data.

一方、基準特徴点データとして相対位置情報を算出している場合は、図18(c)のように、対象物特徴点データの読取範囲Bから、まず基準特徴点データと同一形状、同一面積となる比較領域19−1を切出し、この比較領域19−1についての対象物特徴点データとして各特徴点の相対位置情報(相対距離の集合データ)を求める。次に、切出し位置を例えばx方向に1画素ずらして別の比較領域19−2を切出し、この比較領域19−2についての対象物特徴点データとして各特徴点の相対位置情報(相対距離の集合データ)を求める。これを繰り返すことにより、各比較領域19−1,19−2,・・・,19−Nについて、それぞれ対象物特徴点データを求める。   On the other hand, when the relative position information is calculated as the reference feature point data, the same shape and the same area as the reference feature point data are first obtained from the reading range B of the object feature point data as shown in FIG. The comparison area 19-1 is cut out, and relative position information (set data of relative distances) of each feature point is obtained as object feature point data for the comparison area 19-1. Next, for example, another comparison region 19-2 is cut out by shifting the cut position by one pixel in the x direction, and relative position information (set of relative distances) of each feature point is obtained as object feature point data for this comparison region 19-2. Data). By repeating this, object feature point data is obtained for each of the comparison regions 19-1, 19-2,..., 19-N.

次に、制御部101は、RAMまたは記憶部102に記憶されている基準特徴点データと、ステップS106で求めた対象物特徴点データとを照合し、一致するか否かを判断する(ステップS107)。   Next, the control unit 101 collates the reference feature point data stored in the RAM or the storage unit 102 with the object feature point data obtained in step S106, and determines whether or not they match (step S107). ).

基準特徴点データと対象物特徴点データとの照合は、例えば、正規化相互相関(NCC;Normalized Cross−Correlation、またはZNCC;Zero−mean Normalized Cross−Correlation)等を求めることにより行える。具体的には、以下の式(3)の類似度RNCC、式(4)の類似度RZNCC等を相関値として求めればよい。 The reference feature point data and the object feature point data can be collated, for example, by obtaining a normalized cross-correlation (NCC: Normalized Cross-Correlation, or ZNCC: Zero-mean Normalized Cross-Correlation). Specifically, the similarity R NCC in the following formula (3), the similarity R ZNCC in the formula (4), and the like may be obtained as correlation values.

ここで、T(i,j)は、基準画像の輝度値の値、I(i,j)は、識別対象とする画像の輝度値の値であり、座標の(i,j)は基準画像の読取範囲Aをm画素×n画素としたとき、左上(もしくは左下)座標は(0,0)、右下(もしくは右上)座標は(m−1,n−1)である。Tバー、Iバーはそれぞれ基準画像の平均輝度値、識別対象とする画像の平均輝度値である。   Here, T (i, j) is the value of the luminance value of the reference image, I (i, j) is the value of the luminance value of the image to be identified, and (i, j) of the coordinates is the reference image. When the reading range A is m pixels × n pixels, the upper left (or lower left) coordinates are (0, 0), and the lower right (or upper right) coordinates are (m−1, n−1). T bar and I bar are the average luminance value of the reference image and the average luminance value of the image to be identified, respectively.

全ての比較領域について求めた相関値のうち、最大の値が所定閾値以上(相関値が類似度の場合)であれば、対象物品は真と判定する。一方、相関値の最大値が所定閾値を下回る場合は、基準物品と対象物品とが異なる個体(偽)であると判定する(相関値が類似度の場合)。   If the maximum value among the correlation values obtained for all the comparison regions is equal to or greater than a predetermined threshold (when the correlation value is a similarity), the target article is determined to be true. On the other hand, when the maximum correlation value is below the predetermined threshold, it is determined that the reference article and the target article are different individuals (false) (when the correlation value is similarity).

なお、照合の「一致」とは、厳密な一致に限定する必要はなく、所定の許容範囲内にあるものも含むものとする。また、その許容範囲は真偽判定に必要な精度に応じて、任意に設定できるようにしてもよい。   It should be noted that the “matching” of collation does not have to be limited to exact matching, and includes those within a predetermined allowable range. Further, the allowable range may be arbitrarily set according to the accuracy required for authenticity determination.

制御部101は、照合結果が「一致」であれば(ステップS108;Yes)、真と判定し、その結果を例えば表示部104に表示したり、所定の結果送信先へ送信したり、或いは所定のリストに登録する等の出力処理を行う(ステップS109)。また、照合結果が「不一致」であれば(ステップS108;No)、偽と判定し、その結果を例えば表示部104に表示したり、所定の結果送信先へ送信したり、或いは所定のリストに登録する等の出力処理を行う(ステップS110)。
その後、次の対象物品があれば、ステップS104〜ステップS110の本処理を繰り返し行い、結果を出力して、微細物質分布解析処理を終了する。
If the collation result is “match” (step S108; Yes), the control unit 101 determines that the result is true, and displays the result on the display unit 104, transmits the result to a predetermined result transmission destination, The output process such as registration in the list is performed (step S109). Further, if the collation result is “mismatch” (step S108; No), it is determined to be false, and the result is displayed on, for example, the display unit 104, transmitted to a predetermined result transmission destination, or stored in a predetermined list. Output processing such as registration is performed (step S110).
Thereafter, if there is a next target article, the main process of steps S104 to S110 is repeated, the result is output, and the fine substance distribution analysis process is terminated.

個体識別処理の具体例を図17及び図20を参照して説明する。
試料No.1は、基準物品から読み取り、平滑化処理を行った画像データ15とする。試料No.1Rは、試料No.1と同じ基準物品を同じ条件で再読取し、平滑化処理を行った画像データ16とする。また、試料No.2,No.3は、基準物品(試料No.1)と異なる条件でタガント分布層11が形成された物品から読み取り、平滑化処理を行った画像データ17,18とする。
A specific example of the individual identification processing will be described with reference to FIGS.
Sample No. Reference numeral 1 denotes image data 15 read from a reference article and subjected to a smoothing process. Sample No. 1R is Sample No. The same reference article as 1 is re-read under the same conditions, and the image data 16 is smoothed. Sample No. 2, no. Reference numeral 3 denotes image data 17 and 18 which are read from an article in which the taggant distribution layer 11 is formed under conditions different from those of the reference article (sample No. 1) and smoothed.

図19には、試料No.1から抽出した基準特徴点データを示す画像25、試料No.1Rから抽出した対象物特徴点データを示す画像26、試料No.2から抽出した対象物特徴点データを示す画像27、試料No.3から抽出した対象物特徴点データを示す画像28が示されている。   In FIG. 1 showing the reference feature point data extracted from Sample No. 1, Sample No. The image 26 showing the object feature point data extracted from 1R, sample No. 2 showing the object feature point data extracted from the sample No. 2; An image 28 showing the object feature point data extracted from 3 is shown.

このような例に対して、個体識別装置100が、図11に示す微細物質分布解析処理を行うと、基準物品を再読取した試料No.1Rが「一致」と判別し、基準物品と異なる条件でタガント分布層11が形成された対象物品No.2、No.3が「不一致」と判別する。   For such an example, when the individual identification device 100 performs the fine substance distribution analysis process shown in FIG. 1R is determined to be “match”, and the target article No. 1 in which the taggant distribution layer 11 is formed under conditions different from the reference article 2, No. 3 is determined as “mismatch”.

相対位置情報を用いる場合、まず画像読取装置108を用いて基準物品(真の物品)に付与されたタガント分布層11を光学的に読み取る。読み取り対象とする範囲(読取範囲A)は、タガント分布層11の一部とする。制御部101は、画像読取装置108によって読み取った画像データに対し、特徴点を抽出し、抽出した各特徴点について図19に示すように、まず任意の特徴点を基準点に設定する。そして、その基準点に隣接するt個の隣接点P1,P2,・・・,Ptを選択し、基準点から各隣接点までの各距離を算出する。次に、基準点を変更し、その基準点に隣接するt個の隣接点P1〜Ptを新たに選択し、基準点から各隣接点までの各距離を算出する。これを全ての特徴点について繰り返し、各特徴点と隣接するt個の特徴点との相対距離の集合データを求める。これを基準特徴点データとして記憶部102に記憶する。   When the relative position information is used, first, the taggant distribution layer 11 applied to the reference article (true article) is optically read using the image reading device 108. A range to be read (read range A) is a part of the taggant distribution layer 11. The control unit 101 extracts feature points from the image data read by the image reading device 108, and for each extracted feature point, first, an arbitrary feature point is set as a reference point as shown in FIG. Then, t adjacent points P1, P2,..., Pt adjacent to the reference point are selected, and each distance from the reference point to each adjacent point is calculated. Next, the reference point is changed, t adjacent points P1 to Pt adjacent to the reference point are newly selected, and each distance from the reference point to each adjacent point is calculated. This is repeated for all feature points, and the set data of the relative distances between each feature point and the t feature points adjacent thereto is obtained. This is stored in the storage unit 102 as reference feature point data.

次に、対象物品に付与されたタガント分布層11を光学的に読取る。ここで、対象物品の読取範囲Bは、図18(b)に示すように、基準物品の読取範囲Aより広い範囲とする。また読取範囲Bに読取範囲Aの少なくとも一部を含むものとする。   Next, the taggant distribution layer 11 applied to the target article is optically read. Here, the reading range B of the target article is wider than the reading range A of the reference article, as shown in FIG. The reading range B includes at least a part of the reading range A.

次に、制御部101は、図18(c)に示すように読取範囲B内の任意の点(例えば、読取範囲Bの左上)を切出し位置に設定し、基準画像データの読取範囲Aと同じ形状、同じ面積の範囲を比較領域19−1として切り出す。具体的には、例えば、「512画素×512画素」の読取範囲Bから「64画素×64画素」(実画像に対して1/8の大きさ)の比較領域を切出す。1画素の大きさは、スキャナの読取り精度に依存する。   Next, as shown in FIG. 18C, the control unit 101 sets an arbitrary point in the reading range B (for example, the upper left of the reading range B) as a cutout position, and is the same as the reading range A of the reference image data. A range having the same shape and the same area is cut out as a comparison region 19-1. Specifically, for example, a comparison area of “64 pixels × 64 pixels” (size of 1/8 of the actual image) is cut out from the reading range B of “512 pixels × 512 pixels”. The size of one pixel depends on the reading accuracy of the scanner.

なお、比較領域(すなわち、基準画像の読取範囲A)をどの程度の大きさに設定するかは、識別精度と計算速度とのトレードオフによって決まる。つまり、比較領域の大きさを大きくする(画素数を増やす)と、識別精度は上がるが計算速度は遅くなる。一方、比較領域の大きさを小さくする(画素数を減らす)と、精度は下がるが計算速度は速くなる。   Note that the size of the comparison area (that is, the reference image reading range A) is determined by a trade-off between the identification accuracy and the calculation speed. That is, when the size of the comparison area is increased (the number of pixels is increased), the identification accuracy increases, but the calculation speed decreases. On the other hand, reducing the size of the comparison area (decreasing the number of pixels) decreases the accuracy but increases the calculation speed.

また、比較領域の形状(すなわち、読取範囲Aの形状)は、正方形に限らず、長方形等でもよい。   The shape of the comparison area (that is, the shape of the reading range A) is not limited to a square, but may be a rectangle or the like.

制御部101は、切出した比較領域19−1について、各特徴点の相対距離の集合データを求める。そして、切出し位置を移動しながら別の比較領域19−2,19−3,・・・,19−Nを切出し、各比較領域について各特徴点の相対距離の集合データ(対象物特徴点データ)を求める。   The control unit 101 obtains the set data of the relative distance of each feature point for the cut out comparison area 19-1. Then, another comparison region 19-2, 19-3,..., 19-N is cut out while moving the cut-out position, and set data (object feature point data) of the relative distance of each feature point for each comparison region. Ask for.

そして、基準特徴点データと対象物特徴点データとを照合する際は、各比較領域の対象物特徴点データを基準特徴点データと比較し、一致する(許容範囲内のものも含む)対象物特徴点データ(相対距離の集合データ)があれば、同一と判別する。   When the reference feature point data and the object feature point data are collated, the object feature point data in each comparison area is compared with the reference feature point data, and the objects that match (including those within the allowable range) are also compared. If there is feature point data (relative distance set data), they are determined to be the same.

なお、読取り角度が異なる画像間の比較については国際公開WO2006/092957号等に詳細な手法が記載されている。本実施の形態の個体識別処理において、この文献に開示される手法(特徴点の近傍のn個の点を選択し、これらの相対的な位置情報として例えば、各点の複比の組み合わせを求め、特徴量として照合に利用する方法)を利用して、画像間の比較を行うようにしてもよい。   A detailed method is described in International Publication No. WO2006 / 092957 for comparison between images having different reading angles. In the individual identification processing according to the present embodiment, the method disclosed in this document (selecting n points in the vicinity of feature points and obtaining, for example, the combination of the cross ratios of the points as their relative position information. The comparison between images may be performed using a method used as a feature amount for matching).

なお、上述の実施の形態において、画像処理の結果、抽出される特徴点の点数が多い場合は、図11のステップS102及びステップS106の特徴点抽出処理において、図21に示す間引き処理を適用してもよい。   In the above-described embodiment, when the number of feature points to be extracted is large as a result of the image processing, the thinning process shown in FIG. 21 is applied in the feature point extraction process in steps S102 and S106 in FIG. May be.

制御部101は、まず、読み取った画像データ(基準画像データ及び対象物画像データ)を圧縮(一定間隔でサンプリング)する(ステップS201)。次に、元の画素数に戻し、間引き画像を作成する(ステップS202)。その後、制御部101は間引き画像に上述の(A)、(B)等の画像処理を施して特徴点を抽出する(ステップS203)。   First, the control unit 101 compresses (samples at regular intervals) the read image data (reference image data and object image data) (step S201). Next, the original number of pixels is restored, and a thinned image is created (step S202). Thereafter, the control unit 101 performs image processing such as (A) and (B) described above on the thinned image and extracts feature points (step S203).

このように圧縮画像を用いることにより、特徴点を間引くことができ、照合に適した数の特徴点を抽出できる。その結果、照合の精度を向上させることが可能となり、また演算を高速化できる。   By using the compressed image in this way, feature points can be thinned out and a number of feature points suitable for matching can be extracted. As a result, it is possible to improve the accuracy of collation and to speed up the calculation.

以上説明したように、第1の実施の形態の個体識別装置100によれば、基準物品に付与されたタガント分布層11を光学的に読み取った画像に対して平滑化処理を行い、基準画像データに対して所定の画像処理を施して特徴点(タガント12の位置)を抽出し、基準特徴点データとして記憶部102に記憶しておく。また識別対象とする対象物品に付与されたタガント分布層11を基準画像データの読み取りと同様の手法で読み取り、平滑化処理を行った対象画像データに対して同一の画像処理を施し、対象物特徴点データを抽出する。そして抽出された対象物特徴点データと、記憶部102に記憶されている基準特徴点データとを比較照合することにより対象物品と基準物品とが同一個体であるか否かを判別し、その結果を出力する。   As described above, according to the individual identification device 100 of the first embodiment, the image obtained by optically reading the taggant distribution layer 11 attached to the reference article is subjected to the smoothing process, and the reference image data Is subjected to predetermined image processing to extract a feature point (position of the taggant 12), and is stored in the storage unit 102 as reference feature point data. Further, the taggant distribution layer 11 attached to the target article to be identified is read by the same method as the reading of the reference image data, the same image processing is performed on the target image data subjected to the smoothing process, and the object feature is obtained. Extract point data. Then, by comparing and comparing the extracted object feature point data with the reference feature point data stored in the storage unit 102, it is determined whether or not the target article and the reference article are the same individual. Is output.

これにより、タガント12が付与された物品1を識別する際に、網点階調によって印刷された物品1の絵柄に起因するタガント12の分布位置の誤認識を防ぎ、精度良く特徴点抽出を行うことができる。   Thereby, when identifying the article 1 to which the taggant 12 is given, the misrecognition of the distribution position of the taggant 12 due to the pattern of the article 1 printed by the halftone gradation is prevented, and the feature point is extracted with high accuracy. be able to.

[第2の実施の形態]
次に、本発明の第2の実施の形態について説明する。
第2の実施の形態では、所定の形状を人工的に付与したタガント82が基材80の表面に付与された物品8について、本発明に係る個体識別方法を適用する例を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
In the second embodiment, an example in which the individual identification method according to the present invention is applied to an article 8 in which a taggant 82 artificially imparted with a predetermined shape is imparted to the surface of the substrate 80 will be described.

図22(a)は物品8の上面図、図22(b)は図22(a)のA−A線断面図、図22(c)はタガント分布層81のルーペによる拡大図である。
図22に示すように、物品8は、その基材80上にタガント分布層81を有する。タガント分布層81には、基材80とは異なる反射性を有するタガント82がランダムに複数配置されている。タガント分布層81のタガント82は、例えば、印刷インクに混入して基材80に印刷を施したり、粘着剤等に混入して塗布したりすることで、物品8の基材80上に配置される。これにより各タガント82はランダムな位置に配置される。
22A is a top view of the article 8, FIG. 22B is a cross-sectional view taken along the line AA of FIG. 22A, and FIG. 22C is an enlarged view of the taggant distribution layer 81 using a loupe.
As shown in FIG. 22, the article 8 has a taggant distribution layer 81 on the substrate 80. In the taggant distribution layer 81, a plurality of taggant 82 having reflectivity different from that of the base material 80 are randomly arranged. The taggant 82 of the taggant distribution layer 81 is arranged on the base material 80 of the article 8 by, for example, printing on the base material 80 mixed with printing ink, or by applying it mixed with an adhesive or the like. The Thereby, each taggant 82 is arranged at a random position.

なお、図22では、物品8は基材80及びタガント分布層81のみを有するように図示しているが、タガント分布層81の上面を更に透明プラスチック等で被覆してもよい。また、基材80としては、物品8の機能や性質、デザイン等に応じていかなる材料を利用してもよい。また、タガント分布層81を形成する物品8の表面は平面に限定されず、曲面であってもよい。また、タガント分布層81は、物品の表面の全部に設けられてもよいし、一部としてもよい。   In FIG. 22, the article 8 is illustrated as having only the base material 80 and the taggant distribution layer 81, but the upper surface of the taggant distribution layer 81 may be further covered with a transparent plastic or the like. Further, as the base material 80, any material may be used according to the function, property, design, etc. of the article 8. Further, the surface of the article 8 forming the taggant distribution layer 81 is not limited to a flat surface, and may be a curved surface. The taggant distribution layer 81 may be provided on the entire surface of the article or may be a part thereof.

タガント82は、ルーペで拡大するとその形状や表面の光学的特徴を視認できる大きさ(数μm〜数百μm程度)の微細な細粒である。   The taggant 82 is a fine fine particle having a size (about several μm to several hundred μm) that allows the shape and optical characteristics of the surface to be visually recognized when magnified with a loupe.

第2の実施の形態におけるタガント82は、所定の文字、図形、記号、模様もしくはこれらを結合したもの(以下、図案という)が付され、かつ、所定の3次元形状を有するものを採用する。すなわち、埃や塵等と識別可能なものとするために、人為的に所定の図案が付与される。また、その形状も所定の形状となるように作成される。   As the taggant 82 in the second embodiment, a predetermined character, figure, symbol, pattern, or a combination of these (hereinafter referred to as a design) is used, and a taggant 82 having a predetermined three-dimensional shape is employed. That is, a predetermined design is artificially given so that it can be distinguished from dust or dust. Further, the shape is created so as to be a predetermined shape.

また、タガント分布層81に分布する各タガント82の形状は、すべて同一のものとしてもよいし、異なるものとしてもよい。
例えば、図22(c)に示す例では、表面形状が円形、三角形、四角形、十字型となるタガント82が混在する。このように、異なる形状のタガント82を混ぜ合わせ、タガント分布層81にランダムに配置するようにしてもよい。
異なる形状のタガント82を分布させる場合は、後述する個体識別処理による個体識別性が向上する。一方、同一形状のタガント82を分布させる場合は、異なる形状のタガント82を付与する場合と比べて低コストで実現できる。
Further, the shapes of the taggants 82 distributed in the taggant distribution layer 81 may be the same or different.
For example, in the example shown in FIG. 22C, taggant 82 having a surface shape of a circle, a triangle, a quadrangle, or a cross shape is mixed. In this way, the taggant 82 having different shapes may be mixed and randomly arranged in the taggant distribution layer 81.
When distributing different shapes of taggant 82, the individual identification by the individual identification process described later is improved. On the other hand, the distribution of the taggant 82 having the same shape can be realized at a lower cost than the case where the taggant 82 having a different shape is provided.

また、タガント82の図案は、タガント82の表面から視認できるように付される。例えば、タガント82の表面に付与されてもよいし、更にその上面を透明性のある材料で被覆するようにしてもよい。   The design of the taggant 82 is attached so as to be visible from the surface of the taggant 82. For example, it may be applied to the surface of the taggant 82, and the upper surface thereof may be covered with a transparent material.

図23は、タガント82の一例であり、(a)は上面図、(b)は側面図、(c)は図23(b)のA−A線断面図である
図23では、タガント82の形状を六角柱とし、一部に「D」の文字(図案7)が付与されている。
FIG. 23 is an example of a taggant 82, where (a) is a top view, (b) is a side view, and (c) is a cross-sectional view taken along line AA of FIG. 23 (b). The shape is a hexagonal column, and the letter “D” (design 7) is given to a part.

また、タガント82を光学反射性のある材料によって形成するか、表面に光学反射性のある反射材料層71を設けるようにしてもよい。   Further, the taggant 82 may be formed of a material having optical reflectivity, or a reflective material layer 71 having optical reflectivity may be provided on the surface.

すなわち、図23(c)に示すように、基材73の表面に図案形成層72を設け、更にその上面に反射材料層71を形成するようにしてもよい。   That is, as shown in FIG. 23C, a design forming layer 72 may be provided on the surface of the base material 73, and a reflective material layer 71 may be further formed on the upper surface thereof.

図案形成層72は、印刷、刻印等により図案7が付与される。図案7は、基材73と異なる色の染料等を用いて形成される。
タガント82の基材73には、第1の実施の形態のタガント12と同様に、金属や樹脂等を用いる。
The design forming layer 72 is provided with the design 7 by printing, engraving or the like. The design 7 is formed using a dye having a color different from that of the base material 73.
For the base material 73 of the taggant 82, metal, resin, or the like is used as in the taggant 12 of the first embodiment.

反射材料層71は、物品8の基材81及び図案72の染料75とは異なる反射性を有する材料を用いて形成される。例えば、第1の実施の形態のタガント12と同様に、反射性金属層3を有するもの(図2)、誘電率が異なる薄膜を多層にコート(多層薄膜4)したもの(図3)、光回折構造体層5を有するもの(図4)、所定の照射光に対して特定の反射特性を有する反射層6を有するもの(図5)等を採用することが好適である。   The reflective material layer 71 is formed using a material having reflectivity different from that of the base material 81 of the article 8 and the dye 75 of the design 72. For example, similarly to the taggant 12 of the first embodiment, a film having the reflective metal layer 3 (FIG. 2), a thin film having different dielectric constants coated (multilayer thin film 4) (FIG. 3), optical It is preferable to employ one having a diffractive structure layer 5 (FIG. 4), one having a reflective layer 6 having specific reflection characteristics with respect to predetermined irradiation light (FIG. 5), and the like.

物品8の個体識別の方法は、第1の実施の形態と同様である。
第2の実施の形態では、タガント分布層81の各タガント82が図案及び所定形状を有するため、ルーペによる視認の段階(ステップS1)で真偽の判定精度が向上する。
更に、ステップS2の微細物質分布解析処理を行うことで、ランダムに配置されているタガント82の分布位置情報を基準特徴点データとして記憶しておき、これに基づいて対象とする物品の真偽を正確に判定することが可能となる。
The method of individual identification of the article 8 is the same as that in the first embodiment.
In the second embodiment, since each taggant 82 of the taggant distribution layer 81 has a design and a predetermined shape, the accuracy of authenticity determination is improved at the stage of visual recognition with a loupe (step S1).
Further, by performing the fine substance distribution analysis process in step S2, the distribution position information of the taggant 82 arranged at random is stored as reference feature point data, and based on this, the authenticity of the target article is determined. It becomes possible to determine accurately.

なお、本発明を適用する物品やタガントの形状、性質、形成方法、付与する図案等は一例であり、上述の実施形態に記載されるものに限定されない。その他、当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   It should be noted that the shape and properties of the article and taggant to which the present invention is applied, the forming method, the design to be applied, and the like are examples, and are not limited to those described in the above-described embodiment. In addition, it is obvious that those skilled in the art can come up with various changes and modifications within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. It is understood.

100・・・個体識別装置
101・・・制御部
102・・・記憶部
108・・・画像読取装置
1・・・・・基準物品
11・・・・タガント分布層
12・・・・タガント(微細物質)
3・・・・・反射性金属層
4・・・・・被覆層
5・・・・・光回折構造体層
6・・・・・所定の照射光による反射層
7・・・・・図案(文字、図形、記号、模様、もしくはこれらの組み合わせ)
72・・・・図案形成層
71・・・・反射材料層
8・・・・・物品
81・・・・タガント分布層
82・・・・タガント
9・・・・・タガントの影
15・・・・基準画像データ
16,17,18,19・・・・・・・・対象物画像データ
19−1,19−2,…,19−N・・・比較領域
25・・・・・・・・・・・・・・・・・基準特徴点データ
26,27,28・・・・・・・・・・・対象物特徴点データ
DESCRIPTION OF SYMBOLS 100 ... Individual identification device 101 ... Control part 102 ... Memory | storage part 108 ... Image reading device 1 ... Reference | standard article 11 ... Taggant distribution layer 12 ... Taggant (fine material)
3 ... Reflective metal layer 4 ... Coating layer 5 ... Light diffraction structure layer 6 ... Reflection layer by predetermined irradiation light 7 ... Design ( (Characters, figures, symbols, patterns, or combinations of these)
72... Design formation layer 71... Reflective material layer 8 .. Article 81... Taggant distribution layer 82... Taggant 9. Reference image data 16, 17, 18, 19 ... Object image data 19-1, 19-2, ..., 19-N ... Comparison area 25 ...・ ・ ・ ・ ・ ・ ・ ・ ・ Reference feature point data 26, 27, 28 ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ Object feature point data

Claims (6)

基材と前記基材の表面と平行に固着されているタガント分布層とを有し、網点階調によって絵柄が印刷されている物品を個体識別する個体識別装置であって、
個体識別の基準となる前記物品である基準物品に付与された前記タガントの分布位置情報を基準特徴点データとして記憶する記憶手段と、
識別対象となる前記物品である対象物品の撮影画像に対して、所定のフィルタサイズによって平滑化フィルタをかけることによって、対象物データとする平滑化手段と、
前記対象物データに基づいて、前記タガントの分布位置情報を対象物特徴点データとして抽出する対象物特徴点抽出手段と、
前記対象物特徴点抽出手段により抽出された対象物特徴点データと、前記基準特徴点データとを比較することにより前記対象物品と前記基準物品とが同一個体であるか否かを判別する判別手段と、
を備えることを特徴とする個体識別装置。
An individual identification device that individually identifies an article having a base material and a taggant distribution layer fixed in parallel with the surface of the base material, and having a pattern printed by halftone gradation,
Storage means for storing, as reference feature point data, distribution position information of the taggant given to a reference article that is the article serving as a reference for individual identification;
Smoothing means for obtaining object data by applying a smoothing filter with a predetermined filter size to a photographed image of a target article that is the article to be identified;
Object feature point extracting means for extracting the taggant distribution position information as object feature point data based on the object data;
Discriminating means for discriminating whether or not the object article and the reference article are the same individual by comparing the object feature point data extracted by the object feature point extracting means and the reference feature point data. When,
An individual identification device comprising:
前記平滑化手段は、
前記撮影画像の解像度と前記タガントの実サイズとに基づいて、前記タガントの画素サイズを算出する算出手段と、
前記算出手段によって算出された前記タガントの画素サイズに基づいて前記所定のフィルタサイズを決定する決定手段と、
前記決定手段によって決定された前記所定のフィルタサイズに基づいて、前記撮影画像に平滑化フィルタをかけるフィルタ手段と、
を含むことを特徴とする請求項1に記載の個体識別装置。
The smoothing means includes
Calculation means for calculating the pixel size of the taggant based on the resolution of the captured image and the actual size of the taggant;
Determining means for determining the predetermined filter size based on the pixel size of the taggant calculated by the calculating means;
Filter means for applying a smoothing filter to the captured image based on the predetermined filter size determined by the determination means;
The individual identification device according to claim 1, comprising:
前記決定手段は、前記所定のフィルタサイズを、前記タガントの画素サイズ以下とすることを特徴とする請求項2に記載の個体識別装置。   3. The individual identification apparatus according to claim 2, wherein the determination unit sets the predetermined filter size to be equal to or smaller than a pixel size of the taggant. 前記対象物特徴点抽出手段は、所定の色相範囲の画素をタガント領域として抽出し、前記タガント領域の重心を算出することによって、前記タガントの分布位置情報を前記対象物特徴点データとして抽出することを特徴とする請求項3に記載の個体識別装置。   The object feature point extracting means extracts pixels in a predetermined hue range as a taggant region, and calculates the center of gravity of the taggant region, thereby extracting the distribution position information of the taggant as the object feature point data. The individual identification device according to claim 3. 基材と前記基材の表面と平行に固着されているタガント分布層とを有し、網点階調によって絵柄が印刷されている物品を個体識別する個体識別方法であって、
個体識別の基準となる前記物品である基準物品に付与された前記タガントの分布位置情報を基準特徴点データとして記憶する記憶ステップと、
識別対象となる前記物品である対象物品の撮影画像に対して、所定のフィルタサイズによって平滑化フィルタをかけることによって、対象物データとする平滑化ステップと、
前記対象物データに基づいて、前記タガントの分布位置情報を対象物特徴点データとして抽出する対象物特徴点抽出ステップと、
前記対象物特徴点抽出ステップにより抽出された対象物特徴点データと、前記基準特徴点データとを比較することにより前記対象物品と前記基準物品とが同一個体であるか否かを判別する判別ステップと、
を含むことを特徴とする個体識別方法。
An individual identification method for individually identifying an article having a base material and a taggant distribution layer fixed in parallel with the surface of the base material, and having a pattern printed with halftone dots,
A storage step of storing, as reference feature point data, the distribution position information of the taggant given to a reference article that is the article serving as a reference for individual identification;
A smoothing step to obtain object data by applying a smoothing filter with a predetermined filter size to a photographed image of a target article that is the article to be identified;
An object feature point extracting step for extracting the distribution position information of the taggant as object feature point data based on the object data;
A determination step of determining whether the target article and the reference article are the same individual by comparing the object feature point data extracted in the target feature point extraction step with the reference feature point data. When,
An individual identification method comprising:
コンピュータにより読み取り可能な形式で記述されたプログラムであって、
基材と前記基材の表面と平行に固着されているタガント分布層とを有し、網点階調によって絵柄が印刷されている物品について、個体識別の基準となる前記物品である基準物品に付与された前記タガントの分布位置情報を基準特徴点データとして記憶する記憶ステップと、
識別対象となる前記物品である対象物品の撮影画像に対して、所定のフィルタサイズによって平滑化フィルタをかけることによって、対象物データとする平滑化ステップと、
前記対象物データに基づいて、前記タガントの分布位置情報を対象物特徴点データとして抽出する対象物特徴点抽出ステップと、
前記対象物特徴点抽出ステップにより抽出された対象物特徴点データと、前記基準特徴点データとを比較することにより前記対象物品と前記基準物品とが同一個体であるか否かを判別する判別ステップと、
を含む処理をコンピュータに実行させるためのプログラム。
A program written in a computer-readable format,
For an article having a base material and a taggant distribution layer fixed in parallel to the surface of the base material and having a pattern printed with halftone dots, the reference article which is the article serving as a reference for individual identification A storage step of storing the distribution position information of the given taggant as reference feature point data;
A smoothing step to obtain object data by applying a smoothing filter with a predetermined filter size to a photographed image of a target article that is the article to be identified;
An object feature point extracting step for extracting the distribution position information of the taggant as object feature point data based on the object data;
A determination step of determining whether the target article and the reference article are the same individual by comparing the object feature point data extracted in the target feature point extraction step with the reference feature point data. When,
A program for causing a computer to execute processing including
JP2011199158A 2011-09-13 2011-09-13 Individual identification device, individual identification method, and program Pending JP2013062648A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011199158A JP2013062648A (en) 2011-09-13 2011-09-13 Individual identification device, individual identification method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011199158A JP2013062648A (en) 2011-09-13 2011-09-13 Individual identification device, individual identification method, and program

Publications (1)

Publication Number Publication Date
JP2013062648A true JP2013062648A (en) 2013-04-04

Family

ID=48186959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011199158A Pending JP2013062648A (en) 2011-09-13 2011-09-13 Individual identification device, individual identification method, and program

Country Status (1)

Country Link
JP (1) JP2013062648A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949332A (en) * 2017-12-20 2019-06-28 北京京东尚科信息技术有限公司 Method and apparatus for handling image
CN110929084A (en) * 2019-12-17 2020-03-27 徐庆 Method and device for acquiring image shape feature descriptor
CN113361671A (en) * 2021-06-29 2021-09-07 珠海新华通软件股份有限公司 Anti-fake method for building material
WO2023188680A1 (en) * 2022-03-31 2023-10-05 日本発條株式会社 Determination system and method for determinint authenticity of determination code

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032178A (en) * 2007-07-30 2009-02-12 Seiko Epson Corp Coloring picture producing device, coloring picture producing method, and program thereof
JP2009093280A (en) * 2007-10-04 2009-04-30 Fuji Xerox Co Ltd Image processor and collation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032178A (en) * 2007-07-30 2009-02-12 Seiko Epson Corp Coloring picture producing device, coloring picture producing method, and program thereof
JP2009093280A (en) * 2007-10-04 2009-04-30 Fuji Xerox Co Ltd Image processor and collation system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949332A (en) * 2017-12-20 2019-06-28 北京京东尚科信息技术有限公司 Method and apparatus for handling image
CN110929084A (en) * 2019-12-17 2020-03-27 徐庆 Method and device for acquiring image shape feature descriptor
CN110929084B (en) * 2019-12-17 2023-04-11 徐庆 Method and device for acquiring image shape feature descriptor
CN113361671A (en) * 2021-06-29 2021-09-07 珠海新华通软件股份有限公司 Anti-fake method for building material
WO2023188680A1 (en) * 2022-03-31 2023-10-05 日本発條株式会社 Determination system and method for determinint authenticity of determination code

Similar Documents

Publication Publication Date Title
JP5834692B2 (en) Individual identification device, individual identification method, and program
US10482370B2 (en) Identification method and identification medium
TWI646470B (en) A method of authenticating a security element and an optically variable security element
US7885428B2 (en) Automatic microparticle mark reader
US9058535B2 (en) Security barcode
KR20190107024A (en) Validation of Security Documents
JP5765152B2 (en) Authentication apparatus, authentication method, and program
EP4325457A2 (en) Gaming chip and management system
CN111971683A (en) Method and system for performing optical product authentication
JP2013062648A (en) Individual identification device, individual identification method, and program
JP5760889B2 (en) Individual identification device, individual identification method, and program
US20200079134A1 (en) Anti-counterfeiting sheet using visual characteristics according to viewing angle, direction, and distance, and manufacturing method and recognition method therefor
KR20220052892A (en) A Film for Preventing Forgery and Falsification and Method of Using there of
JP5720506B2 (en) Individual identification device, individual identification method, and program
JP2012212288A (en) Individual identification device, individual identification method, and program
KR101528710B1 (en) Non-duplicable tag for identification of genuine item and method of identifying genuine item by using the same
JP5794111B2 (en) Individual identification device, individual identification method, and program
JP2013182376A (en) Individual identification method, individual identification device, and pogram
JP5760909B2 (en) Individual identification device, individual identification method, and program
CN110476196A (en) Antifalsification label and antifalsification label verification method
WO2019022990A1 (en) Systems and methods for authentication of consumer products
KR20220032717A (en) A Film for Preventing Forgery and Falsification and Method Using there of
KR20200060858A (en) RFID Tag Preventing Forgery and Falsification Comprising Photonic Crystal Materials and Method Using there of
EP4156120B1 (en) Collation device, program, and collation method
CN112698435B (en) Anti-counterfeiting changing device containing retro-reflective material

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151104