JP2019139640A - Authentication system and authentication method - Google Patents

Authentication system and authentication method Download PDF

Info

Publication number
JP2019139640A
JP2019139640A JP2018024231A JP2018024231A JP2019139640A JP 2019139640 A JP2019139640 A JP 2019139640A JP 2018024231 A JP2018024231 A JP 2018024231A JP 2018024231 A JP2018024231 A JP 2018024231A JP 2019139640 A JP2019139640 A JP 2019139640A
Authority
JP
Japan
Prior art keywords
image
authentication
feature point
color information
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018024231A
Other languages
Japanese (ja)
Other versions
JP7076772B2 (en
Inventor
真良 登
Masayoshi Nobori
真良 登
欣也 旭野
Kinya Asahino
欣也 旭野
智成 牧野
Tomonari Makino
智成 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shachihata Inc
Original Assignee
Shachihata Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shachihata Inc filed Critical Shachihata Inc
Priority to JP2018024231A priority Critical patent/JP7076772B2/en
Publication of JP2019139640A publication Critical patent/JP2019139640A/en
Application granted granted Critical
Publication of JP7076772B2 publication Critical patent/JP7076772B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an authentication system that enables authentication of originality of an object having a mark and the like attached, is quite difficult to fake even if a mechanism of an authenticity determination is unveiled, and is achievable by a readily device configuration.SOLUTION: An authentication method is configured to: execute template matching to a reading image including an authentication object with a master image as a reference, and acquire an authentication image with the reading image erected; acquire chromatic information for each prescribed region composed of one or a plurality of pixels in the authentication image; determine a differential between chromatic information on one or a plurality of prescribed regions located around each prescribed region for each of the plurality of prescribed regions included in the authentication image, and decide the region serving a plurality of characteristic points from the plurality of prescribed regions included in the authentication image; and conduct matching of a plurality of characteristic points of a storage unit to a plurality of characteristic points of the authentication image on the basis of a differential between chromatic information on each characteristic point in the storage unit and a differential between chromatic information on the plurality of characteristic points of the authentication image.SELECTED DRAWING: Figure 1

Description

本発明は、色を構成する材料が定着された平面物や立体物である全ての標識が付された若しくは標識とみなせるものが存在する物の原本性を認証するための認証技術に関する。   The present invention relates to an authentication technique for authenticating the originality of an object to which all the signs, which are flat objects or three-dimensional objects to which a material constituting the color is fixed, is attached or can be regarded as a sign.

従来から、人間の活動のあらゆる局面で、正当な対象であるか否かを判定する様々な認証技術が用いられており、インターネットや情報の電子化の進展からより高度な認証技術が求められている。古典的な認証技術としては、印鑑や署名など独特の形状を対象に標示させることが行われてきたが、偽造などにより現在ではホログラム、すき入れ(透かし)、潜像模様、パールインキ、マイクロ文字、特殊発光インキ、凹版印刷などの技術を用いて偽造防止を図っている他、電子化の進展にあわせ現在ではパスワードなどの一定の情報を暗号化等して秘密にしておき、そうした秘密情報と照合することにより、偽造防止を図っている。また、指紋など個人の人体に固有な生体情報を予め登録しておき、認証が必要な場合に実際の生体情報を読み取って登録された生体情報と一致するか否かで認証を行う様々な生体認証技術も用いられている(例えば、特許文献1)。   Conventionally, various authentication technologies have been used to determine whether or not a legitimate subject is legitimate in every aspect of human activity, and more advanced authentication technologies have been demanded from the progress of computerization of the Internet and information. Yes. As a classic authentication technology, it has been done to mark unique shapes such as seals and signatures, but due to counterfeiting, it is now a hologram, crease (watermark), latent image pattern, pearl ink, micro characters In addition to anti-counterfeiting using technologies such as special light-emitting ink and intaglio printing, along with the progress of computerization, certain information such as passwords is currently kept secret by encrypting it. By checking, we try to prevent forgery. In addition, biometric information unique to an individual human body, such as a fingerprint, is registered in advance, and when authentication is required, various biometrics that perform authentication based on whether the biometric information matches the registered biometric information by reading the actual biometric information Authentication technology is also used (for example, Patent Document 1).

特開2009−205393号公報JP 2009-205393 A

しかし、上記の認証技術のうちパスワードを用いる技術は、予めパスワードを決定し、使用者自体も記憶していなければならいため、情報量が極めて少なく、窃取や偽造が容易あるという問題がある。また、生体情報を用いる技術においては、正当な対象であるか否か判定できるのは人間のみであり、それ以外の物や動植物などには基本的に使用できない。また、近年では生体情報自体を偽造する行為も発生してきており、必ずしも完全に安全な認証技術とは言えないという問題がある。   However, among the above authentication techniques, a technique using a password has a problem that since the password must be determined in advance and the user itself must be stored, the amount of information is extremely small, and theft and forgery are easy. In the technique using biological information, only a human can determine whether or not it is a legitimate object, and basically it cannot be used for other objects, animals and plants. In recent years, an act of forging the biometric information itself has also occurred, and there is a problem that it is not necessarily a completely secure authentication technique.

さらに、高度な認証技術の多くは、認証情報を予め対象物に、物理的または電子的に付加させる事が多く、対象物への加工が必要であるため、認証技術の普及を妨げる要因になるという問題がある。   Furthermore, many advanced authentication techniques often add authentication information to an object in advance physically or electronically, and processing to the object is necessary, which hinders the spread of the authentication technique. There is a problem.

また、一般的な認証技術においては、手本となる登録情報(例えば登録された陰影など)と、認証対象となる認証情報(例えば認証しようとする陰影など)とを比較するが、この時、登録情報の向きと認証情報の向きとが合致しないことが通常であり、このことにより認証精度が悪くなるという問題があった。   Further, in general authentication technology, registration information as a model (for example, a registered shadow) is compared with authentication information to be authenticated (for example, a shadow to be authenticated). At this time, Usually, the direction of the registration information and the direction of the authentication information do not match, which causes a problem that the authentication accuracy deteriorates.

本発明は、上記課題に鑑みてなされたものであり、認証対象に加工を必要とせず、認証対象の個別の特徴を簡易な構成を有するデジタル撮像機器を用いて取得したイメージデータから固有情報を抽出して、抽出した固有情報に基づいて認証対象が正当なものであるか否かを判定する認証システムおよび認証方法を提供することを目的とする。   The present invention has been made in view of the above-described problems, and does not require processing for an authentication target, and specific information is obtained from image data acquired using a digital imaging device having a simple configuration for individual features of the authentication target. An object of the present invention is to provide an authentication system and an authentication method that extract and determine whether or not an authentication target is valid based on the extracted unique information.

上記課題を解決するために、本発明の一態様は、認証対象を含む画像である読取画像を取得する読取画像取得部と、マスター画像を基準として、テンプレートマッチングによって前記読取画像の前記マスター画像の位置からの回転方向のずれを検出することにより、前記読取画像を正立させた認証画像を取得するテンプレートマッチング実行部と、前記認証画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、前記認証画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との前記色情報の差分を判定し、この判定結果に基づいて、前記認証画像に含まれる複数の前記所定領域の中から、前記認証対象の特徴を示す複数の特徴点となる領域を決定する特徴点決定部と、あらかじめ、登録されている画像の複数の特徴点と、各特徴点の色情報の差分と、が関連付けて記憶されている記憶部を参照して、前記記憶部に記憶されている各特徴点の色情報の差分と、前記特徴点決定部によって決定された前記認証画像の前記複数の特徴点の色情報の差分とに基づいて、前記記憶部に記憶されている前記複数の特徴点と、前記認証画像の前記複数の特徴点とのマッチングを行うマッチング部と、を備える認証装置である。   In order to solve the above-described problem, according to one aspect of the present invention, a read image acquisition unit that acquires a read image that is an image including an authentication target and a master image of the read image by template matching on the basis of the master image. A template matching execution unit that acquires an authentication image obtained by erecting the read image by detecting a shift in the rotation direction from the position, and a predetermined number of pixels included in the authentication image. The color information for each predetermined area that is a size area is acquired, and for each of the plurality of predetermined areas included in the authentication image, the difference in the color information from one or more predetermined areas located around each predetermined area Based on the determination result, a plurality of features indicating the characteristics of the authentication target are selected from the plurality of predetermined areas included in the authentication image. Refer to a storage unit that stores a feature point determination unit that determines a region to be a point, a plurality of feature points of a registered image, and color information differences of each feature point in association with each other. The storage unit based on the difference between the color information of each feature point stored in the storage unit and the difference between the color information of the plurality of feature points of the authentication image determined by the feature point determination unit. And a matching unit that performs matching between the plurality of feature points stored in the image and the plurality of feature points of the authentication image.

また、本発明の他の態様は、登録用の認証対象を含む画像である読取画像を取得する読取画像取得部と、マスター画像を基準として、テンプレートマッチングによって前記読取画像の前記マスター画像の位置からの回転方向のずれを検出することにより、前記読取画像を正立させた登録画像を取得するテンプレートマッチング実行部と、前記登録画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、前記登録画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との前記色情報の差分を判定し、この判定結果に基づいて、前記登録画像に含まれる複数の前記所定領域の中から、前記認証対象の特徴を示す複数の特徴点となる領域を決定する特徴点決定部と、前記登録画像の前記複数の特徴点について、各特徴点と、各特徴点の前記色情報の差分と、を関連付けて記憶する記憶部と、を備える認証用の登録装置である。   According to another aspect of the present invention, a read image acquisition unit that acquires a read image that is an image including an authentication target for registration, and a position of the master image of the read image by template matching on the basis of the master image. A template matching execution unit that acquires a registered image in which the read image is erected by detecting a shift in the rotation direction of the image, and a predetermined size that includes one or a plurality of pixels in the registered image Color information for each predetermined area is obtained, and for each of the plurality of predetermined areas included in the registered image, the difference in the color information with one or more predetermined areas located around each predetermined area is determined. Then, based on the determination result, a plurality of feature points indicating the feature of the authentication target are selected from the plurality of predetermined regions included in the registered image. A feature point determination unit that determines a region; and a storage unit that stores each feature point and the difference in color information of each feature point in association with each other for the plurality of feature points of the registered image. Registration device.

また、本発明の他の態様は、コンピュータ装置が実行する認証方法であって、認証対象を含む画像である読取画像を取得するステップと、マスター画像を基準として、テンプレートマッチングによって前記読取画像の前記マスター画像の位置からの回転方向のずれを検出することにより、前記読取画像を正立させた認証画像を取得するステップと、前記認証画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、前記認証画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との前記色情報の差分を判定し、この判定結果に基づいて、前記認証画像に含まれる複数の前記所定領域の中から、前記認証対象の特徴を示す複数の特徴点となる領域を決定するステップと、あらかじめ、登録されている画像の複数の特徴点と、各特徴点の色情報の差分と、が関連付けて記憶されている記憶部を参照して、前記記憶部に記憶されている各特徴点の色情報の差分と、前記決定された前記認証画像の前記複数の特徴点の色情報の差分とに基づいて、前記記憶部に記憶されている前記複数の特徴点と、前記認証画像の前記複数の特徴点とのマッチングを行うステップと、を含む認証方法である。   According to another aspect of the present invention, there is provided an authentication method executed by a computer apparatus, the step of obtaining a read image that is an image including an authentication target, and the matching of the read image by template matching on the basis of a master image. A step of obtaining an authentication image obtained by erecting the read image by detecting a shift in a rotation direction from the position of the master image; and a predetermined number of pixels included in the authentication image. The color information for each predetermined area that is a size area is acquired, and for each of the plurality of predetermined areas included in the authentication image, the difference in the color information from one or more predetermined areas located around each predetermined area Based on the determination result, a plurality of features indicating the characteristics of the authentication target are selected from the plurality of predetermined areas included in the authentication image. Referring to a storage unit in which a step of determining a region to be a point, a plurality of feature points of an image registered in advance, and a difference in color information of each feature point are stored in association with each other, the storage The plurality of feature points stored in the storage unit based on the difference between the color information of the feature points stored in the unit and the difference in color information of the plurality of feature points of the determined authentication image. An authentication method comprising: matching a feature point with the plurality of feature points of the authentication image.

また、本発明の他の態様は、コンピュータ装置が実行する登録方法であって、登録用の認証対象を含む画像である読取画像を取得するステップと、マスター画像を基準として、テンプレートマッチングによって前記読取画像の前記マスター画像の位置からの回転方向のずれを検出することにより、前記読取画像を正立させた登録画像を取得するステップと、前記登録画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、前記登録画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との前記色情報の差分を判定し、この判定結果に基づいて、前記登録画像に含まれる複数の前記所定領域の中から、前記認証対象の特徴を示す複数の特徴点となる領域を決定するステップと、前記登録画像の前記複数の特徴点について、各特徴点と、各特徴点の前記色情報の差分と、を関連付けて記憶するステップと、を含む登録方法である。   According to another aspect of the present invention, there is provided a registration method executed by a computer apparatus, the step of obtaining a read image that is an image including an authentication target for registration, and the reading by template matching on the basis of a master image. Acquiring a registered image in which the read image is erected by detecting a shift in the rotation direction of the image from the position of the master image; and in advance, the registered image is configured by one or more pixels. The color information for each predetermined area that is an area of a predetermined size is acquired, and the color of one or more predetermined areas located around each predetermined area for each of the plurality of predetermined areas included in the registered image A difference in information is determined, and based on the determination result, a feature of the authentication target is indicated from among the plurality of predetermined areas included in the registered image. Determining a region to be a number of feature points; and storing each feature point and the difference of the color information of each feature point in association with each other for the plurality of feature points of the registered image. It is a registration method.

また、本発明の他の態様は、上記方法をコンピュータに実行させるためのコンピュータプログラムである。   Moreover, the other aspect of this invention is a computer program for making a computer perform the said method.

また、本発明の他の態様は、上記方法をコンピュータに実行させるためのコンピュータプログラムを記憶したコンピュータ可読記録媒体である。   Another aspect of the present invention is a computer-readable recording medium storing a computer program for causing a computer to execute the above method.

本発明の一実施形態に係る認証システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the authentication system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る認証方法における事前処理の一例を示すフロー図である。It is a flowchart which shows an example of the pre-processing in the authentication method which concerns on one Embodiment of this invention. テンプレート画像の生成方法の一例を説明する図である。It is a figure explaining an example of the production | generation method of a template image. エッジマスク画像の生成手順の一例を説明する図である。It is a figure explaining an example of the production | generation procedure of an edge mask image. 本発明の一実施形態に係る認証方法における登録処理の一例を示すフロー図である。It is a flowchart which shows an example of the registration process in the authentication method which concerns on one Embodiment of this invention. テンプレートマッチングについて説明する図である。It is a figure explaining template matching. 本発明の一実施形態に係る登録処理における差分算出による特徴点抽出の具体例を示す図である。It is a figure which shows the specific example of the feature point extraction by the difference calculation in the registration process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る登録処理における差分算出処理のイメージを示す図である。It is a figure which shows the image of the difference calculation process in the registration process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る登録処理における輝度ベクトルの判定の一例を示す図である。It is a figure which shows an example of the determination of the brightness | luminance vector in the registration process which concerns on one Embodiment of this invention. 本発明の一実施形態に係る認証方法における認証処理の一例を示すフロー図である。It is a flowchart which shows an example of the authentication process in the authentication method which concerns on one Embodiment of this invention. 本発明の一実施形態に係る登録装置および認証装置の機能ブロックの一例を示す図である。It is a figure which shows an example of the functional block of the registration apparatus and authentication apparatus which concern on one Embodiment of this invention.

以下、図面を参照しながら、本発明の実施の形態について説明する。なお、以下の説明において参照する各図では、他の図と同等の部分は同一符号によって示される。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each drawing referred to in the following description, parts equivalent to those in other drawings are denoted by the same reference numerals.

(認証システムの構成)
本実施形態に係る認証システムは、印鑑の印影、サイン、商標、ロゴマーク、ブランドマーク、紙幣等に印刷された識別用のマーク、転写紙によって立体物上に付されたマーク、磁気カードやICカードに付された識別用のマーク等、紙や木や布や樹脂や金属等の薄片や立体物の表面に付されたり、顔料・染料等のインクにより印刷されたり、描かれたり、ペンキ等の塗料により塗布されたり、色材を含む樹脂により成型されるなど、なんらかの色を構成する材料が定着された平面物や立体物である標識等である認証対象が付された物体を認証することが可能な認証システムである。
(Configuration of authentication system)
The authentication system according to this embodiment includes seal stamps, signatures, trademarks, logo marks, brand marks, identification marks printed on banknotes, marks attached to solid objects by transfer paper, magnetic cards and ICs. Identification marks on cards, such as paper, wood, cloth, resin, metal, etc., or the surface of solid objects, printed or drawn with inks such as pigments and dyes, paint, etc. Authenticate objects that are subject to authentication such as flat objects or solid objects such as solid objects that are fixed in some color, such as being applied with paint or molded with resin containing color materials It is an authentication system that can.

図1は、本実施形態に係る認証システムの構成の一例を示す図である。図1に示される認証システム1は、スキャナー2、コンピュータ3、プリンター4、ディスプレイ5、およびキーボードやマウス等の入力装置6を含んで構成されている。   FIG. 1 is a diagram illustrating an example of a configuration of an authentication system according to the present embodiment. An authentication system 1 shown in FIG. 1 includes a scanner 2, a computer 3, a printer 4, a display 5, and an input device 6 such as a keyboard and a mouse.

スキャナー2は、認証対象をメッシュ区分ごとの色情報として読み取るための読取手段である。コンピュータ3は、CPUからなる制御部3aと、ハードディスク、ROM、RAM等の記憶装置からなる記憶部3bとを含んで構成され、記憶部3bには後述する各処理を実行するための各種のプログラムが保存されている。制御部3aを構成するCPUは、記憶部3bから必要に応じて各種のプログラムを読み出してシステム全体の制御を行いうる。   The scanner 2 is a reading unit for reading an authentication target as color information for each mesh section. The computer 3 includes a control unit 3a composed of a CPU and a storage unit 3b composed of a storage device such as a hard disk, a ROM, and a RAM, and the storage unit 3b stores various programs for executing each process described later. Is saved. The CPU constituting the control unit 3a can read out various programs from the storage unit 3b as necessary to control the entire system.

なお、本構成はあくまで一例であり、これに限定されるものではない。例えば、図1に示される認証システム1はコンピュータとスキャナーを用いて構成されているが、例えば、スキャナーに代えてデジタルカメラなどによる読取手段、CPU等による制御部と、メモリやハードディスクなどによる記憶部、液晶ディスプレイ等による表示手段、およびキーボード、マウス、またはタッチパネル等による入力手段を備えていてもよい。認証システム1は、例えば、スマートフォンやPDAなどの携帯端末や携帯電話等に代表される様々なコンピュータ装置により実現可能である。   In addition, this structure is an example to the last, and is not limited to this. For example, the authentication system 1 shown in FIG. 1 is configured using a computer and a scanner. For example, instead of the scanner, a reading unit such as a digital camera, a control unit such as a CPU, and a storage unit such as a memory or a hard disk In addition, display means such as a liquid crystal display and input means such as a keyboard, a mouse, or a touch panel may be provided. The authentication system 1 can be realized by various computer devices typified by mobile terminals such as smartphones and PDAs, mobile phones, and the like.

次に、本実施形態に係る認証システムにおける認証方法について説明する。   Next, an authentication method in the authentication system according to the present embodiment will be described.

(認証方法)
本実施形態に係る認証方法においては、あらかじめ認証対象である標識等の認証元の画像(事前に登録しておく標識等の画像。以下、「登録画像」という)の登録処理を行なっておき、この登録データに基づき、認証しようとする標識等の認証処理を行う。後述するように、この登録処理と認証処理とにおいては、テンプレートマッチング処理とエッジ除去処理が実行される。本実施形態においては、このテンプレートマッチング処理とエッジ除去処理のためにテンプレート画像とエッジマスク画像とを事前に生成しておく。まず、この事前処理について説明する。
(Authentication method)
In the authentication method according to the present embodiment, registration processing of an image of an authentication source such as a sign to be authenticated (an image such as a sign registered in advance; hereinafter referred to as “registered image”) is performed in advance. Based on this registered data, an authentication process such as a sign to be authenticated is performed. As will be described later, in this registration process and authentication process, a template matching process and an edge removal process are executed. In the present embodiment, a template image and an edge mask image are generated in advance for the template matching process and the edge removal process. First, this pre-processing will be described.

(事前処理)
図2は、本実施形態に係る認証方法における事前処理の一例を示すフロー図である。まず、テンプレート画像を生成する(ステップS102)。後述するように、テンプレートマッチング処理は、登録しようとする標識等と、認証しようとする標識等とをスキャナー2等の読取手段で読み取った際の回転方向のズレを補正するための処理である(詳細は後述する)。この回転方向のズレを検出するために用いるテンプレート画像を事前に生成しておく。
(Pre-processing)
FIG. 2 is a flowchart showing an example of pre-processing in the authentication method according to the present embodiment. First, a template image is generated (step S102). As will be described later, the template matching process is a process for correcting a deviation in the rotation direction when a sign or the like to be registered and a sign or the like to be authenticated are read by a reading unit such as the scanner 2 ( Details will be described later). A template image used for detecting the deviation in the rotation direction is generated in advance.

図3は、テンプレート画像の生成方法の一例を説明する図である。テンプレート画像は標識等の位置の基準となる画像として一意に選択された標識等を含むマスター画像から生成される。図3に示されるように、マスター画像10を、あらかじめ定められた回転角度範囲において、あらかじめ定められた角度ずつ回転させて複数のテンプレート画像31を生成する。図3の例においては、回転角度+20°〜−20°の範囲で10°ずつ回転させることで5枚のテンプレート画像11を生成している。このように生成された各テンプレート画像11と、登録時または認証時の標識等をスキャナー2等によって読み取った読取画像とを比較することにより、回転方向のズレを修正する(テンプレートマッチング処理の詳細は後述する)。   FIG. 3 is a diagram illustrating an example of a template image generation method. The template image is generated from a master image including a sign or the like uniquely selected as an image serving as a reference for a position of the sign or the like. As shown in FIG. 3, a plurality of template images 31 are generated by rotating the master image 10 by a predetermined angle within a predetermined rotation angle range. In the example of FIG. 3, five template images 11 are generated by being rotated by 10 ° in the range of the rotation angle + 20 ° to −20 °. Each template image 11 generated in this manner is compared with a read image obtained by reading a sign or the like at the time of registration or authentication with the scanner 2 or the like, thereby correcting the deviation in the rotation direction (details of the template matching process are Will be described later).

図2に戻り、次に、エッジ除去処理を実行するためのエッジマスク画像を生成する(ステップS104)。エッジマスク画像は、生成された複数のテンプレート画像11のうち、回転角度0°のテンプレート画像(図3の画像12)を用いて生成されうる。図4は、エッジマスク画像の生成手順の一例を説明する図である。エッジマスク画像は、例えばグラフィック編集ツール等を用いて以下の手順によって生成される。すなわち、
1.回転角度0°の画像12をグレースケールに変換する(図4(a)→(b))。
2.生成されたグレースケール画像にガウスフィルタをかけてノイズを除去する。実際の画像には、除去すべき余白部分に微小な黒い点(ノイズ)が散在している場合があるが、この処理によって、これらのノイズを除去することができる。また、本例では、画像をグレースケールに変換することとしたが、カラー画像のままガウスフィルタをかけてノイズを除去してもよい。
3.次に、画像を2値化する。2値化画像をBMP形式、PNG形式、JPEG形式などの適当なファイル形式にて保存する(図4(c))。この2値化における閾値は適宜設定されうる。
4.当該2値化画像をトレースし、エッジのマスク幅や、エッジの角および端の描画についての設定を行って出力する(図4(d))。この時のエッジ幅、並びにエッジの角および端の描画についての各種設定は、適当に設定されうる。そして、この出力された画像が、エッジ除去のために使用されるエッジマスク画像となる。エッジマスク画像は、黒以外の色の部分をマスクするピクセルとみなす。後述する登録時および認証時におけるエッジ除去処理においては、このようにして生成されうるエッジマスク画像を用いて、登録画像または認証画像のエッジを画像処理によって除去することができる。
Returning to FIG. 2, next, an edge mask image for executing the edge removal processing is generated (step S104). The edge mask image can be generated using a template image (image 12 in FIG. 3) having a rotation angle of 0 ° among the plurality of generated template images 11. FIG. 4 is a diagram for explaining an example of an edge mask image generation procedure. The edge mask image is generated by the following procedure using, for example, a graphic editing tool. That is,
1. The image 12 having a rotation angle of 0 ° is converted into a gray scale (FIG. 4 (a) → (b)).
2. Noise is removed by applying a Gaussian filter to the generated grayscale image. In an actual image, there are cases where minute black dots (noise) are scattered in the margin part to be removed, but this noise can be removed by this processing. In this example, the image is converted to gray scale. However, the noise may be removed by applying a Gaussian filter while maintaining the color image.
3. Next, the image is binarized. The binarized image is saved in an appropriate file format such as BMP format, PNG format, or JPEG format (FIG. 4C). The threshold for binarization can be set as appropriate.
4). The binarized image is traced, and the mask width of the edge, the edge corner and the edge drawing are set and output (FIG. 4D). Various settings for edge width and edge corner and edge drawing at this time can be appropriately set. The output image becomes an edge mask image used for edge removal. The edge mask image is regarded as a pixel that masks a color portion other than black. In edge removal processing at the time of registration and authentication described later, the edge of the registered image or the authentication image can be removed by image processing using the edge mask image that can be generated in this way.

(登録処理)
次に、登録画像の登録処理について説明する。
(registration process)
Next, registration processing of a registered image will be described.

図5は、本実施形態に係る認証方法における登録処理の一例を示すフロー図である。   FIG. 5 is a flowchart showing an example of registration processing in the authentication method according to the present embodiment.

まず、登録を受けようとする標識等の認証対象をスキャナー2にセットし、ピクセルごとの色情報を取得するために、認証対象である標識等が付された印刷面等をスキャナー2で一回(または複数回)読み取る(ステップS202)。ここで、本実施形態においては、特許第4961564号公報に開示の認証方法のように、メッシュ区分ごとの色情報を取得するようになっていてもよい。そして、以下に説明する各処理において、ピクセルごとに代えてメッシュ区分ごとに各処理を行うようになっていてもよい。例えば、コンピュータ3は、XY配列のメッシュで区分けされた光反応素子によって、このメッシュ区分の大きさに応じた光学解像度で色情報を取得し、取得した色情報を記憶部3bに保存するようになっていてもよい。また、認証対象の印刷用インクの色材粒子は、メッシュ区分の大きさよりも小さいことを前提としてもよい(例えば、スキャナー2等の読取手段が600dpiの解像度で色情報を取得する場合には、メッシュ区分は一辺が42.3μmとなり、色材粒子よりも大きくなる)。この場合、メッシュ区分内にあるいくつかの色材粒子の色組成は、ある単色のRGB値としてピクセルカラー化される。   First, an authentication target such as a sign to be registered is set in the scanner 2, and a printing surface or the like to which the mark or the like to be authenticated is attached once by the scanner 2 in order to acquire color information for each pixel. Read (or multiple times) (step S202). Here, in the present embodiment, color information for each mesh section may be acquired as in the authentication method disclosed in Japanese Patent No. 4951564. And in each process demonstrated below, it may replace with every pixel and may perform each process for every mesh division. For example, the computer 3 acquires the color information with an optical resolution corresponding to the size of the mesh section by using the photoreactive elements partitioned by the mesh of the XY array, and stores the acquired color information in the storage unit 3b. It may be. The color material particles of the printing ink to be authenticated may be assumed to be smaller than the size of the mesh section (for example, when the reading unit such as the scanner 2 acquires color information with a resolution of 600 dpi, The mesh section has a side of 42.3 μm and is larger than the colorant particles). In this case, the color composition of some colorant particles in the mesh section is pixel-colored as a single monochrome RGB value.

次に、テンプレートマッチングを行う(ステップS204)。本実施形態においては、ステップS202において登録しようとする認証対象の標識等を含む領域をスキャナー2で読み取り、認証処理時にも認証しようとする標識等を含む領域をスキャナー2で読み取るが、この時、登録時と認証時とにおいて全く同じように認証対象を位置決めし、正確に正立(回転していない状態)させることは期待できず、登録時と認証時とにおいて読取画像の位置がズレていたり、回転していたりするのが通常である。そこで、本実施形態においては、認証対象を含む領域をスキャナー2で読み取った画像を正立させて認証対象を含む画像を切り取るために(本明細書においては、これを「正規化」という)、登録時と認証時とにおいて、テンプレートマッチングを行う。   Next, template matching is performed (step S204). In the present embodiment, the scanner 2 reads the area including the sign of the authentication target to be registered in step S202, and the scanner 2 reads the area including the sign to be authenticated during the authentication process. Positioning the authentication target exactly the same at the time of registration and at the time of authentication, and it cannot be expected to be erect correctly (not rotating), and the position of the scanned image may be misaligned between the time of registration and the time of authentication. Usually, it is rotating. Therefore, in the present embodiment, in order to erect an image obtained by reading the area including the authentication target with the scanner 2 and to cut out the image including the authentication target (in this specification, this is referred to as “normalization”), Template matching is performed during registration and authentication.

(テンプレートマッチング)
以下、テンプレートマッチングについて詳述する。あらかじめ、図3において説明したようにマスター画像10を所定の角度ごとに回転させて複数のテンプレート画像11を生成しておく。そして、これらのテンプレート画像11と、スキャナー2で登録しようとする標識等を読み取った際の読取画像とをテンプレートマッチング技術により照合する。なお、この時、テンプレート画像11と読取画像とを同じ率で縮小して照合してもよい。これにより処理データのサイズが小さくなり、処理負担が低減され処理速度が向上しうる。
(Template matching)
Hereinafter, template matching will be described in detail. In advance, as described in FIG. 3, the master image 10 is rotated at predetermined angles to generate a plurality of template images 11. Then, these template images 11 are compared with a read image when a marker or the like to be registered is read by the scanner 2 by a template matching technique. At this time, the template image 11 and the read image may be reduced and collated at the same rate. As a result, the size of the processing data can be reduced, the processing load can be reduced, and the processing speed can be improved.

そして、複数のテンプレート画像11の中で最も照合値(合致する度合いを示す値)が高かったものの回転角度が読取画像の回転角度である。例えば回転角度が−10°のテンプレート画像が、照合値が最も高くなった場合、図6に示されるように、−10°のズレを元に戻すために読取画像20を+10°回転させることにより正立させた読取画像21を生成する。また、この正立させた読取画像21から登録対象の画像を切り出して正規化画像22が得られる。   Then, the rotation angle of the template image 11 having the highest collation value (value indicating the degree of matching) is the rotation angle of the read image. For example, when the template image with the rotation angle of −10 ° has the highest collation value, as shown in FIG. 6, the read image 20 is rotated by + 10 ° in order to restore the deviation of −10 °. The erect read image 21 is generated. Further, a normalized image 22 is obtained by cutting out an image to be registered from the erected read image 21.

なお、本例において説明したテンプレートマッチングにおいては、マスター画像10を10度ずつ回転角度+20°〜−20°の範囲で回転させてテンプレート画像11を生成したが、これに限定されるものではない。読取画像のピクセルサイズ(幅や高さ)、マッチング半径を何ピクセルにするか、本実施形態に係る認証方法を実行するコンピュータの処理能力、等によって、マスター画像10を何度ずつ、どれほどの角度回転範囲で回転させてテンプレート画像を生成するかを決定することができる。   In the template matching described in this example, the template image 11 is generated by rotating the master image 10 by 10 degrees within the range of the rotation angle + 20 ° to −20 °. However, the present invention is not limited to this. Depending on the pixel size (width and height) of the read image, the number of matching radii, the processing capability of the computer executing the authentication method according to the present embodiment, and the like, the angle of the master image 10 is determined several times. It is possible to determine whether to generate a template image by rotating within the rotation range.

さらに、テンプレートマッチングの処理時間をより短縮するために、複数のステップで段階的にテンプレートマッチングを行うようになっていてもよい。   Furthermore, in order to further shorten the template matching processing time, template matching may be performed step by step in a plurality of steps.

例えば、第1のステップでは、広めの回転角度範囲において、大きめの角度ごとにマスター画像を回転させてテンプレート画像を生成する。そして、読取画像とテンプレート画像とを縮小してテンプレートマッチングを行い、最も照合度が高い角度と、その合致位置を判定する。   For example, in the first step, a template image is generated by rotating the master image for each larger angle in a wider rotation angle range. Then, template matching is performed by reducing the read image and the template image, and the angle with the highest matching degree and its matching position are determined.

第2のステップでは、第1のステップにおいて得られた読取画像内における標識等の合致位置に拡大縮小時の誤差を吸収するためのマージンを加えた範囲を本ステップにおける探索範囲として読取画像から切り取り、あらかじめ定められた縮小率で縮小する。また、第1のステップで得られた角度を中心として、マスター画像をより小さい回転角度範囲にて、より小さい角度ごとに回転させて、探索範囲と同じ縮小率で縮小した複数のテンプレート画像とテンプレートマッチングを行い、最も照合度が高い角度と、その合致位置を判定する。   In the second step, a range obtained by adding a margin for absorbing an error at the time of enlargement / reduction to a matching position such as a label in the read image obtained in the first step is cut out from the read image as a search range in this step. , The image is reduced at a predetermined reduction rate. Further, a plurality of template images and templates obtained by rotating the master image for each smaller angle in a smaller rotation angle range around the angle obtained in the first step and reducing the same at the same reduction rate as the search range. Matching is performed to determine the angle with the highest matching level and the matching position.

さらに、第3のステップでは、第2のステップにおいて得られた読取画像内における標識等の合致位置に拡大縮小時の誤差を吸収するためのマージンを加えた範囲を本ステップにおける探索範囲として読取画像から切り取り、あらかじめ定められた縮小率で縮小する。また、第2のステップで得られた角度を中心として、マスター画像をさらに小さい回転角度範囲にて、さらに小さい角度ごとに回転させて、探索範囲と同じ縮小率で縮小した複数のテンプレート画像とテンプレートマッチングを行い、最も照合度が高い角度と、その合致位置を判定する。以降、これを必要な回数だけ繰り返す。   Further, in the third step, a read image obtained by adding a margin for absorbing an error at the time of enlargement / reduction to a matching position such as a label in the read image obtained in the second step is used as a search range in this step. And cut at a predetermined reduction rate. Further, a plurality of template images and templates that are reduced at the same reduction rate as the search range by rotating the master image in smaller rotation angle ranges at smaller angles around the angle obtained in the second step. Matching is performed to determine the angle with the highest matching level and the matching position. Thereafter, this is repeated as many times as necessary.

上記のようにして段階的にテンプレートマッチングを繰り返すことで、ステップごとにマッチング対象面積(ピクセル数)を減らして次のステップのテンプレートマッチングが行われるため、テンプレートマッチングの処理時間を短縮することが可能となる。   By repeating template matching step by step as described above, the matching area (number of pixels) is reduced for each step, and template matching for the next step is performed, so the template matching processing time can be reduced. It becomes.

以上のようにして、テンプレートマッチングにより正規化された登録画像を取得することができる。また、認証時においても同様に、認証しようとする標識等を含む読取画像についてテンプレートマッチングをして正規化画像を得ることで、登録画像と認証画像の位置および回転のズレが補正され、認証の精度が向上しうる。   As described above, a registered image normalized by template matching can be acquired. Similarly, at the time of authentication, template matching is performed on a read image including a sign or the like to be authenticated to obtain a normalized image, thereby correcting the position and rotation misalignment between the registered image and the authentication image. Accuracy can be improved.

図5に戻り、ステップS204にて取得された正規化済みの登録画像のエッジ(輪郭)を、画像処理によって除去する(ステップS206)。当該エッジ除去を行う際に、図4にて説明したように生成されたエッジマスク画像を用いる。エッジを除去する幅については、例えば、ユーザの入力によって設定されるようになっていてもよい。   Returning to FIG. 5, the edge (contour) of the normalized registered image acquired in step S204 is removed by image processing (step S206). When performing the edge removal, the edge mask image generated as described with reference to FIG. 4 is used. The width for removing the edge may be set, for example, by a user input.

次に、差分算出により登録画像の特徴点を抽出する(ステップS208)。差分算出による登録画像の特徴点抽出とは、登録画像を構成する各ピクセルと、その周辺ピクセルとのRGB色情報の差分を求め、差分値の大きいピクセルを、この登録画像(認証対象)の特徴を示す特徴点として抽出する手法である。以下、差分算出による特徴点の抽出方法について詳しく説明する。   Next, feature points of the registered image are extracted by calculating the difference (step S208). Feature point extraction of a registered image by difference calculation is to obtain a difference in RGB color information between each pixel constituting the registered image and its surrounding pixels, and to determine a pixel having a large difference value as a feature of this registered image (authentication target). This is a method of extracting as feature points indicating. Hereinafter, a feature point extraction method based on difference calculation will be described in detail.

(差分算出による特徴点抽出)
図7は、差分算出による特徴点抽出の具体例を示す図である。
(Feature point extraction by difference calculation)
FIG. 7 is a diagram illustrating a specific example of feature point extraction by difference calculation.

差分算出の対象であるピクセルをピクセルP(以下、「注目ピクセル」という)300とし、その周辺8ピクセルをそれぞれ、A301(左)、ピクセルB302(上)、ピクセルC303(右)、ピクセルD304(下)、ピクセルE305(左上)、ピクセF306(右上)、ピクセルG307(右下)、ピクセルH308(左下)とすると、ピクセルPと各ピクセルA〜HとのRGB色情報の差分を求める。ここで、画像の左上を原点(0,0)とし、右方向にx、下方向にyの座標とした場合、注目ピクセルP300の座標(x, y)は、周辺ピクセルA301〜ピクセルH308の座標はそれぞれ、(x-1, y)、(x, y-1)、(x+1, y)、(x, y+1)、(x-1, y-1)、(x+1, y-1)、(x+1, y+1)、(x-1, y+1)、と表される。   The pixel that is the target of the difference calculation is a pixel P (hereinafter referred to as “target pixel”) 300, and its surrounding eight pixels are A301 (left), pixel B302 (upper), pixel C303 (right), and pixel D304 (lower), respectively. ), Pixel E305 (upper left), pixel F306 (upper right), pixel G307 (lower right), and pixel H308 (lower left), the difference in RGB color information between the pixel P and each of the pixels A to H is obtained. Here, if the upper left corner of the image is the origin (0, 0), the right direction is x, and the lower direction is y, the coordinates (x, y) of the pixel of interest P300 are the coordinates of the surrounding pixels A301 to H308. Are (x-1, y), (x, y-1), (x + 1, y), (x, y + 1), (x-1, y-1), (x + 1, y-1), (x + 1, y + 1), and (x-1, y + 1).

また、注目ピクセルP300のRGB値を、R、G、Bと表し、ピクセルA301のRGB値を、R、G、B、ピクセルB302のRGB値を、R、G、B、・・・、ピクセルH308のRGB値を、R、G、B、と表すと、注目ピクセルPと周辺ピクセルA〜HとのRGB値の差分は、以下の式で表される。
差分=|A−P|+|B−P|+|C−P|+|D−P|+|E−P|+|F−P|+|G−P|+|H−P|
=(|R−R|+|G−G|+|B−B|)+
(|R−R|+|G−G|+|B−B|)+
(|R−R|+|G−G|+|B−B|)+
(|R−R|+|G−G|+|B−B|)+
(|R−R|+|G−G|+|B−B|)+
(|R−R|+|G−G|+|B−B|)+
(|R−R|+|G−G|+|B−B|)+
(|R−R|+|G−G|+|B−B|)
Further, the RGB value of the pixel of interest P300 is represented as R P , G P , and B P , the RGB value of the pixel A301 is represented as R A , G A , B A , and the RGB value of the pixel B 302 is represented as R B , G B , When the RGB values of B B ,..., The pixel H308 are expressed as R H , G H , and B H , the difference between the RGB values of the pixel of interest P and the surrounding pixels A to H is expressed by the following equation: The
Difference = | A−P | + | B−P | + | C−P | + | D−P | + | E−P | + | G−P | + | H−P |
= (| R A -R P | + | G A -G P | + | B A -B P |) +
(| R B -R P | + | G B -G P | + | B B -B P |) +
(| R C -R P | + | G C -G P | + | B C -B P |) +
(| R D -R P | + | G D -G P | + | B D -B P |) +
(| R E -R P | + | G E -G P | + | B E -B P |) +
(| R F −R P | + | G F −G P | + | B F −B P |) +
(| R G -R P | + | G G -G P | + | B G -B P |) +
(| R H -R P | + | G H -G P | + | B H -B P |)

本例では、注目ピクセルと、その全周8ピクセルとのRGB色情報の差分値を算出しているが、認証対象の標識等の印刷の方向性(くせ)に応じて、一部の周辺ピクセルとの差分を算出するようになっていてもよい。例えば、注目ピクセルPと、左ピクセルAおよび上ピクセルBとの差分を算出するようになっていてもよい。   In this example, the difference value of the RGB color information between the pixel of interest and its surrounding 8 pixels is calculated. However, some peripheral pixels are selected depending on the directionality of printing such as a sign to be authenticated. The difference may be calculated. For example, the difference between the target pixel P and the left pixel A and the upper pixel B may be calculated.

また、上記式によるRGB差分値の算出方法は一例であり、これに限定されるものではない。例えば、上記式で算出される合計値を周辺ピクセルの数(上記の例では8)で割って平均値を算出し、これを各注目ピクセルについてのRGB差分値としてもよい。つまり、RGB差分値は、登録画像中の複数のピクセルを比較して、いずれのピクセルが、より周辺ピクセルとのRGB色情報における差が大きいか(小さいか)が判断できるような情報であればよい。   Moreover, the calculation method of the RGB difference value by the above formula is an example, and the present invention is not limited to this. For example, the average value may be calculated by dividing the total value calculated by the above formula by the number of surrounding pixels (8 in the above example), and this may be used as the RGB difference value for each pixel of interest. That is, the RGB difference value is information that can compare a plurality of pixels in the registered image and determine which pixel has a larger (smaller) difference in RGB color information from the surrounding pixels. Good.

上記のように、ピクセルPとその周辺ピクセルとのRGB差分値の合計を算出すると、次にその右隣のピクセルを注目ピクセルとして、同様の処理を行う。そして、処理が終わると、さらにその右隣のピクセルを注目ピクセルとして同様の処理を行う・・・という具合に、図5のステップS206で取得された登録画像の左上の原点(x, y)=(0, 0)から右下(x, y)=(width-1, height-1)(width:画像の幅、height:画像の高さ)までの各ピクセルについて、上記の処理を行う(注目ピクセルとなるピクセルの座標(x, y)のx、yの範囲は、x=1〜width-2、y=1〜height-2となる)。図8は、処理のイメージを示す図である。上述したような処理によって登録画像中の各ピクセルについてRGB差分値を算出するたびに、ピクセルPの(x, y)座標と、算出したRGB差分値とを関連付けて、配列データ等の形式で記憶部3bに保存する。   As described above, when the sum of the RGB difference values between the pixel P and its surrounding pixels is calculated, the same processing is performed with the next pixel on the right as the target pixel. When the processing is completed, the same processing is performed with the pixel on the right as the target pixel, and so on, and so on. The origin (x, y) = upper left of the registered image acquired in step S206 in FIG. Perform the above processing for each pixel from (0, 0) to the lower right (x, y) = (width-1, height-1) (width: image width, height: image height) (The range of x and y of the coordinates (x, y) of the pixel to be a pixel is x = 1 to width-2, y = 1 to height-2). FIG. 8 is a diagram showing an image of processing. Each time the RGB difference value is calculated for each pixel in the registered image by the process as described above, the (x, y) coordinates of the pixel P and the calculated RGB difference value are associated and stored in a format such as array data. Stored in section 3b.

図5に戻り、ステップS208において登録画像の全ピクセルについて差分を算出した後、算出された差分値の上位30〜5000のピクセルを、その登録画像の最終的な特徴点として決定する(ステップS210)。そして、各特徴点(の座標)をRGB差分値の大きい順にソートしたデータ(以下、「ヒトフデコード」という)を保存する。言い換えれば、ヒトフデコードは各特徴点をRGB差分値の大きい順に連結した連結線を示すデータでもある。また、ヒトフデコードは、例えば、連結線の位置ベクトル(位置および距離)のデータの集合であってもよい。なお、ステップS210の処理は必須ではなく、差分値の上位100〜1000のピクセルのみならず、全ての注目ピクセルを差分値とともに記憶することで特徴点として保存しておくようになっていてもよい。   Returning to FIG. 5, after calculating the difference for all the pixels of the registered image in step S208, the top 30 to 5000 pixels of the calculated difference value are determined as final feature points of the registered image (step S210). . Then, the data (hereinafter referred to as “human decoding”) in which the feature points (the coordinates thereof) are sorted in descending order of the RGB difference values is stored. In other words, the human decoding is also data indicating a connecting line that connects the feature points in descending order of RGB difference values. Further, the human decoding may be, for example, a set of data of position vectors (positions and distances) of connecting lines. Note that the processing in step S210 is not essential, and not only the top 100 to 1000 pixels of the difference value but also all the target pixels may be stored together with the difference value to be stored as feature points. .

また、ステップS210において抽出される特徴点の数は、登録画像のデザインや画素数により決定されるようになっていてもよい。また、特徴点はあらかじめ設定された数だけ抽出されるのではなく、各ピクセルの差分値が所定の範囲に属するピクセルを特徴点として抽出するようになっていてもよい。また、各ピクセルの輝度が所定の範囲に属するピクセルを特徴点として決定するようになっていてもよい。さらに、例えば決定された複数の特徴点が登録画像中において所定の距離以下で位置している(集中している)場合には、規則に基づいて特徴点をいくつか排除するようになっていてもよい。   Further, the number of feature points extracted in step S210 may be determined by the design of the registered image and the number of pixels. In addition, a predetermined number of feature points are not extracted, but pixels whose difference values of pixels belong to a predetermined range may be extracted as feature points. Further, a pixel whose luminance falls within a predetermined range may be determined as a feature point. Further, for example, when a plurality of determined feature points are located at a predetermined distance or less (concentrated) in the registered image, some feature points are excluded based on a rule. Also good.

ところで、本実施形態では、上述したステップS206において登録画像のエッジを除去するようにしている。これは、差分算出によって特徴点を決定するにあたっては、画像のエッジ部分は差分が著しく大きくなり、本来抽出したい認証対象の微妙な色の諧調差よりもエッジ部分が上位にランキングされてしまい、その結果、認証対象の認証時(後述する)において、誤判定が起こる可能性が高くなる。よって、登録画像(および認証画像)のエッジ部分を除去することにより、誤判定を低減させることができる。   By the way, in this embodiment, the edge of the registered image is removed in step S206 described above. This is because when the feature points are determined by the difference calculation, the difference in the edge portion of the image is remarkably large, and the edge portion is ranked higher than the subtle gradation difference of the authentication target to be originally extracted. As a result, there is a high possibility that an erroneous determination will occur at the time of authentication of the authentication target (described later). Therefore, erroneous determination can be reduced by removing the edge portion of the registered image (and the authentication image).

さらに、図5のフローの続きを説明する。ステップS212において、各特徴点における輝度ベクトルを判定する。この処理は、さらに認証精度を向上させるために実行される。本実施形態における認証方法では、登録処理によってあらかじめ保存されたヒトフデコードの座標(ステップS210の処理結果)と、後述する認証処理において認証対象を読み込むことによって生成されるヒトフデコードの座標とを照合し、例えば、各特徴点どうしの座標が一致または所定範囲内の距離にあるものをカウントする。そして、カウント値が所定の条件を満たす場合(例えば、所定の割合以上である、等)には両者は同一であると認証される。しかしながら、登録済みの特徴点と、認証時に標識等を読み込んだ際の特徴点とが、たまたま近くに存在したが為に、両者の座標が一致する等と判断されてしまう場合がある(以下、このような特徴点を「なりすまし点」という)。このなりすまし点を排除するために、本実施形態においては、認証処理の際に、ステップS208と同様に周辺ピクセルとのRGB色情報の差分を算出したピクセルのそれぞれについて、さらに輝度ベクトルをも考慮して最終的な特徴点を決定することで、認証をより精密なものとする。ステップS212では、認証時にこのような処理を行うために、あらかじめ登録画像についてステップS210で決定された各特徴点について、輝度ベクトルを判定して保存しておく処理が実行される。ここで、各特徴点における輝度ベクトルとは、特徴点の輝度と、その周辺ピクセルの輝度との比較結果を示すデータである。   Further, the continuation of the flow of FIG. 5 will be described. In step S212, the luminance vector at each feature point is determined. This process is executed to further improve the authentication accuracy. In the authentication method according to the present embodiment, the coordinates of the human decoding decoded in advance by the registration process (the processing result of step S210) are collated with the coordinates of the human decoding generated by reading the authentication target in the authentication processing described later. For example, the number of features whose coordinates coincide with each other or within a predetermined range is counted. When the count value satisfies a predetermined condition (for example, a predetermined ratio or more), the two are authenticated as the same. However, since the registered feature point and the feature point when reading a sign etc. at the time of authentication existed near by chance, it may be determined that the coordinates of both coincide, etc. Such feature points are called “spoofing points”). In order to eliminate this spoofing point, in the present embodiment, the luminance vector is further considered for each of the pixels for which the difference of the RGB color information from the surrounding pixels is calculated in the authentication process, as in step S208. By determining the final feature points, the authentication is made more precise. In step S212, in order to perform such processing at the time of authentication, processing for determining and storing a luminance vector for each feature point determined in advance in step S210 for the registered image is executed. Here, the luminance vector at each feature point is data indicating a comparison result between the luminance of the feature point and the luminance of the surrounding pixels.

(輝度ベクトルの判定)
以下、輝度ベクトルの判定方法について詳述する。
(Determination of luminance vector)
Hereinafter, a method for determining the luminance vector will be described in detail.

上述したように、輝度ベクトルは、ステップS210で決定された各特徴点の輝度と、その周辺ピクセルの輝度との比較結果を示すデータである。輝度を算出する周辺ピクセルは、ステップS208でのRGB差分値の算出と同様に、各特徴点の周辺8方向のピクセルでもよいし、周辺4方向(例えば、上下左右)のピクセルであってもよい。さらに左,上などの周辺2方向のピクセルであってもよい。   As described above, the brightness vector is data indicating a comparison result between the brightness of each feature point determined in step S210 and the brightness of the surrounding pixels. The peripheral pixels for calculating the luminance may be pixels in the eight directions around each feature point or pixels in the four directions (for example, up, down, left, and right) as in the calculation of the RGB difference values in step S208. . Further, it may be a pixel in two peripheral directions such as left and top.

図9は、輝度ベクトルの判定のイメージを示す図である。なお、図9では一例として、特徴点Pと、その周辺8方向の周辺ピクセルA〜Hについて輝度を算出する場合のイメージを示している。   FIG. 9 is a diagram showing an image of determination of the luminance vector. In addition, in FIG. 9, the image in the case of calculating the brightness | luminance about the feature point P and the surrounding pixels AH of the surrounding 8 directions is shown as an example.

まず、特徴点Pの輝度値と、周辺ピクセルA〜Hの輝度値をそれぞれ算出する。輝度値は、各ピクセルのRGB値から以下の式によって算出される。   First, the brightness value of the feature point P and the brightness values of the surrounding pixels A to H are calculated. The luminance value is calculated from the RGB value of each pixel by the following formula.

輝度値=0.299×R+0.587×G+0.114×B
そして、算出された特徴点Pの輝度値と、周辺ピクセルA〜Hの輝度値とを比較し、各比較結果を数字列として表現する。例えば、左ピクセルAの輝度値−ピクセルPの輝度値=正の値である場合(特徴点PよりもピクセルAのほうが明るい場合)には、この比較結果を“0”と示す。また、左ピクセルAの輝度値−ピクセルPの輝度値=0となる場合(両者の輝度値が同じ場合)はこの比較結果を“1”と示す。また、左ピクセルAの輝度値−ピクセルPの輝度値=負の値となる場合(特徴点Pのほうが明るい場合)には、この比較結果を“2”と示す。同様に、他の周辺ピクセルB〜Hについても特徴点Pと輝度値を比較して暗号化する。例えば、特徴点Pについて、図9に示されるような比較結果になったとすると、輝度ベクトルは、“01200021”と決定される。この結果を、ステップS210において保存されたヒトフデコード(各特徴点)の座標と関連付けて保存して(ステップS214)、登録処理は終了する。
Luminance value = 0.299 x R + 0.587 x G + 0.114 x B
Then, the calculated luminance value of the feature point P is compared with the luminance values of the peripheral pixels A to H, and each comparison result is expressed as a numeric string. For example, when the luminance value of the left pixel A−the luminance value of the pixel P = a positive value (when the pixel A is brighter than the feature point P), this comparison result is indicated as “0”. When the luminance value of the left pixel A−the luminance value of the pixel P = 0 (when both luminance values are the same), this comparison result is indicated as “1”. Further, when the luminance value of the left pixel A−the luminance value of the pixel P = negative value (when the feature point P is brighter), this comparison result is indicated as “2”. Similarly, the other peripheral pixels B to H are encrypted by comparing the feature point P with the luminance value. For example, if the comparison result as shown in FIG. 9 is obtained for the feature point P, the luminance vector is determined to be “01200021”. This result is stored in association with the coordinates of the human decoding (each feature point) stored in step S210 (step S214), and the registration process ends.

なお、本例では、輝度ベクトルを3つの数字を用いた数字列で表したが、あくまで一例であり、これに限定されるものではない。例えば、輝度ベクトルは、他の記号や英数字等によって表現されるようになっていてもよい。また、上記の例では、特徴点Pと周辺ピクセルとの輝度値の差を3つに分類したが(明・暗・同一)、より細かく(または、より大まかに)分類してもよい。例えば、両者の輝度値の差を複数の所定範囲に分類し、いずれの範囲に属するかによって各輝度値の差に対して異なる英数字を割り当てるようになっていてもよい。   In this example, the luminance vector is represented by a number string using three numbers, but is merely an example, and the present invention is not limited to this. For example, the luminance vector may be expressed by other symbols, alphanumeric characters, and the like. In the above example, the difference in luminance value between the feature point P and the surrounding pixels is classified into three (bright / dark / identical), but may be classified more finely (or roughly). For example, the difference between the two luminance values may be classified into a plurality of predetermined ranges, and different alphanumeric characters may be assigned to the difference between the luminance values depending on which range they belong to.

また、ステップS210とステップS212の処理は、順番が逆であってもよい。すなわち、ステップS208で記憶部3bに座標が保存された全ての注目ピクセルについて、輝輝度ベクトルを判定して記憶部3bに記憶してから、ステップS210で登録画像の最終的な特徴点を決定してもよい。   Further, the order of the processes in step S210 and step S212 may be reversed. That is, for all the target pixels whose coordinates are stored in the storage unit 3b in step S208, the brightness vector is determined and stored in the storage unit 3b, and then the final feature point of the registered image is determined in step S210. May be.

また、本実施形態に係る認証方法では、ピクセル単位で特徴点抽出を行っているが、複数のピクセル(例えば、3×3ピクセル)で構成される所定の大きさの領域を一単位として特徴点抽出を行うようになっていてもよい。   Further, in the authentication method according to the present embodiment, feature points are extracted in units of pixels. However, a feature point is defined with an area having a predetermined size composed of a plurality of pixels (for example, 3 × 3 pixels) as one unit. Extraction may be performed.

なお、本実施形態に係る認証方法は、差分算出による特徴点抽出(主にステップS208)および輝度ベクトルの判定(主にステップS212)を主たる特徴とする認証方法である。これら以外の処理の具体的手法については、特許第4961564号公報や特許5280386号公報に記載された手法が応用可能である。(後述する認証処理についても同様。)   Note that the authentication method according to the present embodiment is an authentication method mainly including feature point extraction by difference calculation (mainly step S208) and luminance vector determination (mainly step S212). For specific methods other than these, the methods described in Japanese Patent No. 4951564 and Japanese Patent No. 5280386 can be applied. (The same applies to the authentication processing described later.)

(認証処理)
次に、なんらかの色を構成する材料が定着された標識等である認証対象が、正当なものであるか認証するための認証処理について説明する。図10は、本実施形態に係る認証方法における認証処理の一例を示すフロー図である。
(Authentication process)
Next, an authentication process for authenticating whether an authentication target, which is a sign or the like to which a material constituting some color is fixed, is valid will be described. FIG. 10 is a flowchart showing an example of authentication processing in the authentication method according to the present embodiment.

認証処理は、図5で説明した登録処理と類似の処理を行う。すなわち、認証対象である標識等が付された印刷面について認証対象を含む領域を一回(または複数回)スキャナー2で読み込む(ステップS302)。   The authentication process is similar to the registration process described with reference to FIG. That is, the area including the authentication target is read once (or a plurality of times) by the scanner 2 on the printing surface to which the mark or the like as the authentication target is attached (step S302).

次に、テンプレートマッチングを行って正規化画像(認証画像)を取得する(ステップS304)。テンプレートマッチングは、登録処理時と同様の方法で行う。次に、ステップS304にて取得された正規化画像のエッジを画像処理によって除去する(ステップS306)。エッジを除去する方法についても、登録処理時と同様の方法で行う。   Next, template matching is performed to obtain a normalized image (authentication image) (step S304). Template matching is performed in the same manner as in the registration process. Next, the edge of the normalized image acquired in step S304 is removed by image processing (step S306). The method for removing the edge is performed in the same manner as in the registration process.

次に、登録処理時のステップS208と同様に、取得された認証画像についてRGB色情報の差分の算出を行い(ステップS308)、算出された差分値の上位30〜5000のピクセルを、その認証画像の特徴点として決定し、ヒトフデコードを取得する(ステップS310)。そして、登録処理時のステップS212と同様に、各特徴点における輝度ベクトルを判定する(ステップS312)。   Next, similarly to step S208 at the time of registration processing, the difference between the RGB color information is calculated for the acquired authentication image (step S308), and the top 30 to 5000 pixels of the calculated difference value are converted to the authentication image. And the human decoding is obtained (step S310). Then, similarly to step S212 during the registration process, the luminance vector at each feature point is determined (step S312).

事前の登録処理によって認証システム1の記憶部3bに記憶されているヒトフデコードと、ヒトフデコードを構成する各特徴点の輝度ベクトルとを、記憶部3bから読み出して、ステップS310で取得されたヒトフデコードと、ベクトルマッチング等の手法によりマッチングを行う(ステップS314)。この時、ステップS312にて算出された認証しようとしている標識等の各特徴点における輝度ベクトルが、認証システム1の記憶部3bから読み出したヒトフデコードの各特徴点における輝度ベクトルと同一であるか判定する。両者の輝度ベクトルが同一でなければ、この特徴点はなりすまし点であると判断して、ステップS310で取得されたヒトフデコードからなりすまし点を排除する(ステップS316)。   The human decode decoded in advance in the storage unit 3b of the authentication system 1 and the luminance vector of each feature point constituting the human decode are read from the storage unit 3b and acquired in step S310. And matching is performed by a technique such as vector matching (step S314). At this time, it is determined whether or not the luminance vector at each feature point such as the sign to be authenticated calculated in step S312 is the same as the luminance vector at each feature point of the human decoding read from the storage unit 3b of the authentication system 1. To do. If the two brightness vectors are not the same, it is determined that the feature point is a spoofing point, and the spoofing point is excluded from the human decoding acquired in step S310 (step S316).

なりすまし点を排除した状態において、両ヒトフデコードのマッチングを行う(ステップS318)。マッチングの方法としては、例えば、各特徴点どうしの座標が一致または所定範囲内の距離にあるものをカウントし、カウント値が所定の割合以上であれば両者は同一であると認証される。   In the state where the impersonation point is excluded, matching between both human decoding is performed (step S318). As a matching method, for example, the feature points having the same coordinates or a distance within a predetermined range are counted, and if the count value is equal to or greater than a predetermined ratio, they are authenticated as the same.

(機能ブロック)
図11は、本実施形態に係る認証システムにおける登録装置および認証装置の機能ブロックの一例を示す図である。なお、以下の説明においては、登録装置と認証装置とは別々のブロックで示されているが、両装置は、図1に示される構成例のように、一つの装置が登録装置と認証装置を兼ねていてもよいし、別々の装置で構成されていてもよい。
(Function block)
FIG. 11 is a diagram illustrating an example of functional blocks of the registration device and the authentication device in the authentication system according to the present embodiment. In the following description, the registration device and the authentication device are shown as separate blocks. However, as in the configuration example shown in FIG. 1, both devices have a registration device and an authentication device. It may also serve as a separate device.

(1)登録装置
登録装置100は、認証対象の認証のために、あらかじめヒトフデコードを登録しておくための処理(図5のフロー図の処理)を実行する装置である。登録装置100は、第一読取画像取得部101と、第一テンプレートマッチング実行部102と、第一エッジ除去部103と、第一特徴点決定部104と、第一輝度ベクトル判定部105と、記憶部106とを備える。
(1) Registration Device The registration device 100 is a device that executes processing for registering human decoding in advance (processing in the flowchart of FIG. 5) for authentication of an authentication target. The registration apparatus 100 includes a first read image acquisition unit 101, a first template matching execution unit 102, a first edge removal unit 103, a first feature point determination unit 104, a first luminance vector determination unit 105, and a storage Unit 106.

第一読取画像取得部101は、認証対象である標識等を含む画像である読取画像を取得する。第一読取画像取得部101は、主に図5のステップS202の処理を実行する。   The first read image acquisition unit 101 acquires a read image that is an image including a sign or the like to be authenticated. The first read image acquisition unit 101 mainly executes the process of step S202 of FIG.

第一テンプレートマッチング実行部102は、マスター画像と、第一読取画像取得部101において取得された読取画像とに対してテンプレートマッチングを実行して、当該読取画像を正立させて切り取った正規化画像(登録画像)を取得する。第一テンプレートマッチング実行部102は、主に図5のステップS204の処理を実行する。   The first template matching execution unit 102 performs template matching on the master image and the read image acquired by the first read image acquisition unit 101, and normalizes the cut image by erecting the read image. (Registered image) is acquired. The first template matching execution unit 102 mainly executes the process of step S204 in FIG.

第一エッジ除去部103は、第一テンプレートマッチング実行部102において取得された登録画像に含まれる標識等(認証対象)のエッジを除去する。第一エッジ除去部103は、主に図5のステップS206の処理を実行する。   The first edge removing unit 103 removes an edge such as a sign (authentication object) included in the registered image acquired by the first template matching execution unit 102. The first edge removal unit 103 mainly executes the process of step S206 in FIG.

第一特徴点決定部104は、登録画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、登録画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との色情報の差分を判定し、この判定結果に基づいて、登録画像に含まれる複数の所定領域の中から、認証対象の特徴を示す複数の特徴点となる領域を決定する。第一特徴点決定部104は、主に図5のステップS208(およびステップS210)の処理を実行する。   The first feature point determination unit 104 obtains color information for each predetermined area, which is an area of a predetermined size composed of one or a plurality of pixels in the registered image, and a plurality of predetermined points included in the registered image. For each region, a difference in color information from one or more predetermined regions located around each predetermined region is determined, and based on the determination result, an authentication target is selected from the plurality of predetermined regions included in the registered image. A region to be a plurality of feature points indicating the features is determined. The first feature point determination unit 104 mainly executes the process of step S208 (and step S210) in FIG.

第一輝度ベクトル判定部105は、登録画像において、所定領域ごとの輝度情報を取得し、第一特徴点決定部104にて決定された特徴点ごとに、各特徴点の輝度情報と、各特徴点の周辺に位置する1または複数の所定領域の輝度情報との比較結果を示す情報である輝度ベクトルを判定する。第一輝度ベクトル判定部105は、主に図5のステップS212の処理を実行する。   The first brightness vector determination unit 105 acquires brightness information for each predetermined area in the registered image, and for each feature point determined by the first feature point determination unit 104, the brightness information of each feature point and each feature A luminance vector that is information indicating a result of comparison with luminance information of one or more predetermined regions located around the point is determined. The first luminance vector determination unit 105 mainly executes the process of step S212 in FIG.

記憶部106は、登録画像の複数の特徴点について、各特徴点と、各特徴点の色情報の差分と、各特徴点の輝度ベクトルとを関連付けて記憶する。   The storage unit 106 stores, for each of a plurality of feature points of the registered image, each feature point, a difference in color information of each feature point, and a luminance vector of each feature point in association with each other.

(2)認証装置
認証装置200は、認証対象が正当なものであるかを認証するための処理(図10にフロー図の処理)を実行する装置である。認証装置200は、第二読取画像取得部201と、第二テンプレートマッチング実行部202と、第二エッジ除去部203と、第二特徴点決定部204と、第二輝度ベクトル判定部205と、マッチング部206とを備える。
(2) Authentication Device The authentication device 200 is a device that executes processing for authenticating whether the authentication target is valid (the processing in the flowchart in FIG. 10). The authentication apparatus 200 includes a second read image acquisition unit 201, a second template matching execution unit 202, a second edge removal unit 203, a second feature point determination unit 204, a second luminance vector determination unit 205, a matching Unit 206.

第二読取画像取得部201は、認証対象の標識等を含む画像である読取画像を取得する。第二読取画像取得部201は、主に図10のステップS302の処理を実行する。   The second read image acquisition unit 201 acquires a read image that is an image including a sign or the like to be authenticated. The second read image acquisition unit 201 mainly executes the process of step S302 in FIG.

第二テンプレートマッチング実行部202は、マスター画像と、第二読取画像取得部201において取得された読取画像とに対してテンプレートマッチングを実行して、当該読取画像を正立させて切り取った正規化画像(認証画像)を取得する。第二テンプレートマッチング実行部202は、主に図10のステップS304の処理を実行する。   The second template matching execution unit 202 performs template matching on the master image and the read image acquired by the second read image acquisition unit 201, and normalizes the cut image by erecting the read image. Acquire (authentication image). The second template matching execution unit 202 mainly executes the process of step S304 in FIG.

第二エッジ除去部203は、第二テンプレートマッチング実行部202において取得された認証画像に含まれる標識等(認証対象)のエッジを除去する。第二エッジ除去部203は、主に図10のステップS306の処理を実行する。   The second edge removing unit 203 removes an edge of a sign or the like (authentication target) included in the authentication image acquired by the second template matching execution unit 202. The second edge removal unit 203 mainly executes the process of step S306 in FIG.

第二特徴点決定部204は、認証画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、認証画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との色情報の差分を判定し、この判定結果に基づいて、認証画像に含まれる複数の所定領域の中から、認証対象の特徴を示す複数の特徴点となる領域を決定する。第二特徴点決定部204は、主に図10のステップS308(およびステップS310)の処理を実行する。   The second feature point determination unit 204 obtains color information for each predetermined area, which is an area having a predetermined size composed of one or a plurality of pixels, in the authentication image, and a plurality of predetermined points included in the authentication image. For each region, a difference in color information from one or more predetermined regions located around each predetermined region is determined, and based on the determination result, an authentication target is selected from a plurality of predetermined regions included in the authentication image. A region to be a plurality of feature points indicating the features is determined. The second feature point determination unit 204 mainly executes the process of step S308 (and step S310) in FIG.

第二輝度ベクトル判定部205は、認証画像において、所定領域ごとの輝度情報を取得し、第二特徴決定部204にて決定された特徴点ごとに、各特徴点の輝度情報と、各特徴点の周辺に位置する1または複数の所定領域の輝度情報との比較結果を示す情報である輝度ベクトルを判定する。第二輝度ベクトル判定部205は、主に図10のステップS312の処理を実行する。   The second brightness vector determination unit 205 acquires brightness information for each predetermined area in the authentication image, and for each feature point determined by the second feature determination unit 204, the brightness information of each feature point and each feature point A luminance vector that is information indicating a result of comparison with luminance information of one or more predetermined areas located around the area is determined. The second luminance vector determination unit 205 mainly executes the process of step S312 in FIG.

マッチング部206は、あらかじめ、登録画像の複数の特徴点と、各特徴点の色情報の差分と、各特徴点の輝度ベクトルとが関連付けて記憶されている記憶部106を参照して、記憶部106に記憶されている各特徴点の色情報の差分と、第二特徴点決定部204によって決定された認証画像の複数の特徴点の色情報の差分とに基づいて、記憶部106に記憶されている複数の特徴点と、認証画像の複数の特徴点とのマッチングを行う。また、マッチング部206は、記憶部106に記憶されている特徴点の輝度ベクトルと、認証画像の特徴点の輝度ベクトルとが、所定の条件を満たさない場合には、その認証画像の特徴点を、決定された複数の特徴点から除外してマッチングを行う。マッチング部206は、主に図10のステップS314、ステップS316、およびステップS318の処理を実行する。   The matching unit 206 refers to the storage unit 106 in which a plurality of feature points of the registered image, the difference in color information of each feature point, and the luminance vector of each feature point are stored in advance. 106, based on the difference between the color information of each feature point stored in 106 and the difference between the color information of the plurality of feature points of the authentication image determined by the second feature point determination unit 204. The plurality of feature points are matched with the plurality of feature points of the authentication image. Further, the matching unit 206 determines the feature point of the authentication image when the brightness vector of the feature point stored in the storage unit 106 and the brightness vector of the feature point of the authentication image do not satisfy a predetermined condition. The matching is performed by excluding the determined feature points. The matching unit 206 mainly executes the processes of step S314, step S316, and step S318 in FIG.

なお、登録装置100および認証装置200の各機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現される。例えば、図1に示されるハードウェア構成において、制御部3aが、記憶部3bから各機能に対応した各種のプログラムを読み出して実行することにより、各機能が実現されうる。   Note that each function of the registration device 100 and the authentication device 200 is realized by hardware, software, or a combination of hardware and software. For example, in the hardware configuration shown in FIG. 1, each function can be realized by the controller 3 a reading and executing various programs corresponding to each function from the storage unit 3 b.

ここまで、本発明の一実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。   Up to this point, one embodiment of the present invention has been described. However, the present invention is not limited to the above-described embodiment, and it is needless to say that the present invention may be implemented in various forms within the scope of the technical idea.

本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。   The scope of the present invention is not limited to the illustrated and described exemplary embodiments, but includes all embodiments that provide the same effects as those intended by the present invention. Further, the scope of the invention is not limited to the combinations of features of the invention defined by the claims, but may be defined by any desired combination of particular features among all the disclosed features. .

1 認証システム
2 スキャナー
3 コンピュータ
3a 制御部
3b 記憶部
4 プリンター
5 ディスプレイ
6 入力装置
10 マスター画像
11 テンプレート画像
20 読取画像
22 正規化画像
100 登録装置
101 第一読取画像取得部
102 第一テンプレートマッチング実行部
103 第一エッジ除去部
104 第一特徴点決定部
105 第一輝度ベクトル判定部
106 記憶部
200 認証装置
201 第二読取画像取得部
202 第二テンプレートマッチング実行部
203 第二エッジ除去部
204 第二特徴点決定部
205 第二輝度ベクトル判定部
206 マッチング部
202 第二テンプレートマッチング実行部
300 注目ピクセル
301〜308 周辺ピクセル
DESCRIPTION OF SYMBOLS 1 Authentication system 2 Scanner 3 Computer 3a Control part 3b Storage part 4 Printer 5 Display 6 Input device 10 Master image 11 Template image 20 Read image 22 Normalized image 100 Registration apparatus 101 First read image acquisition part 102 First template matching execution part 103 first edge removal unit 104 first feature point determination unit 105 first luminance vector determination unit 106 storage unit 200 authentication device 201 second read image acquisition unit 202 second template matching execution unit 203 second edge removal unit 204 second feature Point determination unit 205 Second luminance vector determination unit 206 Matching unit 202 Second template matching execution unit 300 Pixels of interest 301 to 308 Neighboring pixels

Claims (12)

認証対象を含む画像である読取画像を取得する読取画像取得部と、
マスター画像を基準として、テンプレートマッチングによって前記読取画像の前記マスター画像の位置からの回転方向のずれを検出することにより、前記読取画像を正立させた認証画像を取得するテンプレートマッチング実行部と、
前記認証画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、前記認証画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との前記色情報の差分を判定し、この判定結果に基づいて、前記認証画像に含まれる複数の前記所定領域の中から、前記認証対象の特徴を示す複数の特徴点となる領域を決定する特徴点決定部と、
あらかじめ、登録されている画像の複数の特徴点と、各特徴点の色情報の差分と、が関連付けて記憶されている記憶部を参照して、前記記憶部に記憶されている各特徴点の色情報の差分と、前記特徴点決定部によって決定された前記認証画像の前記複数の特徴点の色情報の差分とに基づいて、前記記憶部に記憶されている前記複数の特徴点と、前記認証画像の前記複数の特徴点とのマッチングを行うマッチング部と、
を備える認証装置。
A read image acquisition unit that acquires a read image that is an image including an authentication target;
A template matching execution unit that acquires an authentication image in which the read image is erected by detecting a shift in the rotation direction of the read image from the position of the master image by template matching with reference to the master image;
In the authentication image, color information is acquired for each predetermined area that is an area of a predetermined size composed of one or a plurality of pixels, and each predetermined area is included in each of the predetermined areas included in the authentication image. A difference of the color information with one or a plurality of predetermined areas located in the periphery of the image, and based on the determination result, the feature of the authentication target is selected from the plurality of the predetermined areas included in the authentication image. A feature point determination unit for determining a region to be a plurality of feature points to be shown;
A plurality of feature points of an image registered in advance and a color information difference of each feature point are referred to and stored in association with each feature point stored in the storage unit. Based on the difference in color information and the difference in color information of the plurality of feature points of the authentication image determined by the feature point determination unit, the plurality of feature points stored in the storage unit, A matching unit that performs matching with the plurality of feature points of the authentication image;
An authentication device comprising:
前記テンプレートマッチング実行部は、あらかじめ定められた回転角度の範囲において、あらかじめ定められた回転角度単位で前記マスター画像を回転させることにより複数のテンプレート画像を生成し、当該複数のテンプレート画像と前記読取画像とを比較することによって前記読取画像が回転している角度範囲を決定し、さらに、当該決定された角度範囲において、あらかじめ定められた回転角度単位で前記マスター画像を回転させることにより、再度、複数のテンプレート画像を生成し、当該生成された複数のテンプレート画像と前記読取画像とを比較することによって前記読取画像が回転している角度範囲を決定する、ということを繰り返すことで、前記読取画像の前記マスター画像の位置からの回転方向のずれを検出する、請求項1に記載の認証装置。   The template matching execution unit generates a plurality of template images by rotating the master image by a predetermined rotation angle unit within a predetermined rotation angle range, and the plurality of template images and the read image are generated. To determine the angle range in which the read image is rotated, and by rotating the master image in a predetermined rotation angle unit in the determined angle range, The template image is generated, and the angle range in which the read image is rotated is determined by comparing the generated plurality of template images with the read image. The rotation direction deviation from the position of the master image is detected. Authentication device according to. 前記認証画像において、前記所定領域ごとの輝度情報を取得し、前記特徴点ごとに、各特徴点の輝度情報と、各特徴点の周辺に位置する1または複数の所定領域の輝度情報との比較結果を示す情報である輝度ベクトルを判定する輝度ベクトル判定部をさらに備え、
前記記憶部は、前記登録されている画像の複数の特徴点と、各特徴点の前記色情報の差分と、に加えて、各特徴点の輝度ベクトルをも関連付けて記憶しており、
前記マッチング部は、前記記憶部に記憶されている特徴点の輝度ベクトルと、前記認証画像の特徴点の輝度ベクトルとが、所定の条件を満たさない場合には、その前記認証画像の特徴点を、前記決定された複数の特徴点から除外してマッチングを行う
ことを特徴とする請求項1または2に記載の認証装置。
In the authentication image, luminance information for each predetermined region is acquired, and for each feature point, the luminance information of each feature point is compared with the luminance information of one or more predetermined regions located around each feature point. A luminance vector determining unit that determines a luminance vector that is information indicating a result;
In addition to the plurality of feature points of the registered image and the difference of the color information of each feature point, the storage unit stores a brightness vector of each feature point in association with each other.
The matching unit determines the feature point of the authentication image when the brightness vector of the feature point stored in the storage unit and the brightness vector of the feature point of the authentication image do not satisfy a predetermined condition. The authentication apparatus according to claim 1, wherein matching is performed by excluding the plurality of determined feature points.
前記記憶部は、前記特徴点の前記色情報の差分に基づいて前記特徴点をソートして記憶していることを特徴とする請求項1から3のいずれか一項に記載の認証装置。   The authentication device according to claim 1, wherein the storage unit sorts and stores the feature points based on a difference in the color information of the feature points. 前記特徴点決定部は、前記認証対象の印刷の方向性に応じて、前記画像に含まれる複数の前記領域ごとに、前記領域の周辺に位置する複数の領域のうち、一部の領域のみとの前記色情報の差分を判定することを特徴とする請求項1から4のいずれか一項に記載の認証装置。   The feature point determination unit, for each of the plurality of regions included in the image, according to the direction of printing of the authentication target, only a part of the plurality of regions located around the region The authentication apparatus according to claim 1, wherein a difference between the color information is determined. 前記テンプレートマッチング実行部において取得された前記認証画像に含まれる前記認証対象のエッジを除去するエッジ除去部をさらに備える請求項1から5のいずれか一項に記載の認証装置。   The authentication apparatus according to claim 1, further comprising an edge removal unit that removes the authentication target edge included in the authentication image acquired by the template matching execution unit. 登録用の認証対象を含む画像である読取画像を取得する読取画像取得部と、
マスター画像を基準として、テンプレートマッチングによって前記読取画像の前記マスター画像の位置からの回転方向のずれを検出することにより、前記読取画像を正立させた登録画像を取得するテンプレートマッチング実行部と、
前記登録画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、前記登録画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との前記色情報の差分を判定し、この判定結果に基づいて、前記登録画像に含まれる複数の前記所定領域の中から、前記認証対象の特徴を示す複数の特徴点となる領域を決定する特徴点決定部と、
前記登録画像の前記複数の特徴点について、各特徴点と、各特徴点の前記色情報の差分と、を関連付けて記憶する記憶部と、
を備える認証用の登録装置。
A read image acquisition unit that acquires a read image that is an image including an authentication target for registration;
A template matching execution unit that acquires a registered image in which the read image is erected by detecting a shift in the rotation direction of the read image from the position of the master image by template matching with reference to the master image;
In the registered image, color information is acquired for each predetermined area that is a predetermined size area composed of one or a plurality of pixels, and each predetermined area is included in each of the predetermined areas included in the registered image. A difference of the color information with one or a plurality of predetermined areas located in the vicinity of the image, and based on the determination result, the feature of the authentication target is selected from the plurality of the predetermined areas included in the registered image. A feature point determination unit for determining a region to be a plurality of feature points to be shown;
For each of the plurality of feature points of the registered image, a storage unit that associates and stores each feature point and the difference of the color information of each feature point;
A registration device for authentication comprising:
前記テンプレートマッチング実行部において取得された前記登録画像に含まれる前記認証対象のエッジを除去するエッジ除去部をさらに備える請求項7に記載の登録装置。   The registration device according to claim 7, further comprising an edge removal unit that removes the authentication target edge included in the registration image acquired by the template matching execution unit. コンピュータ装置が実行する認証方法であって、
認証対象を含む画像である読取画像を取得するステップと、
マスター画像を基準として、テンプレートマッチングによって前記読取画像の前記マスター画像の位置からの回転方向のずれを検出することにより、前記読取画像を正立させた認証画像を取得するステップと、
前記認証画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、前記認証画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との前記色情報の差分を判定し、この判定結果に基づいて、前記認証画像に含まれる複数の前記所定領域の中から、前記認証対象の特徴を示す複数の特徴点となる領域を決定するステップと、
あらかじめ、登録されている画像の複数の特徴点と、各特徴点の色情報の差分と、が関連付けて記憶されている記憶部を参照して、前記記憶部に記憶されている各特徴点の色情報の差分と、前記決定された前記認証画像の前記複数の特徴点の色情報の差分とに基づいて、前記記憶部に記憶されている前記複数の特徴点と、前記認証画像の前記複数の特徴点とのマッチングを行うステップと、
を含む認証方法。
An authentication method executed by a computer device,
Obtaining a read image that is an image including an authentication target;
Obtaining an authentication image in which the read image is erected by detecting a shift in the rotation direction of the read image from the position of the master image by template matching with reference to the master image;
In the authentication image, color information is acquired for each predetermined area that is an area of a predetermined size composed of one or a plurality of pixels, and each predetermined area is included in each of the predetermined areas included in the authentication image. A difference of the color information with one or a plurality of predetermined areas located in the periphery of the image, and based on the determination result, the feature of the authentication target is selected from the plurality of the predetermined areas included in the authentication image. Determining a region to be a plurality of feature points to be shown;
A plurality of feature points of an image registered in advance and a color information difference of each feature point are referred to and stored in association with each feature point stored in the storage unit. The plurality of feature points stored in the storage unit and the plurality of authentication images based on the difference in color information and the difference in color information of the plurality of feature points of the determined authentication image Matching with feature points of
An authentication method that includes:
コンピュータ装置が実行する登録方法であって、
登録用の認証対象を含む画像である読取画像を取得するステップと、
マスター画像を基準として、テンプレートマッチングによって前記読取画像の前記マスター画像の位置からの回転方向のずれを検出することにより、前記読取画像を正立させた登録画像を取得するステップと、
前記登録画像において、1または複数のピクセルから構成されるあらかじめ定められた大きさの領域である所定領域ごとの色情報を取得し、前記登録画像に含まれる複数の所定領域ごとに、各所定領域の周辺に位置する1または複数の所定領域との前記色情報の差分を判定し、この判定結果に基づいて、前記登録画像に含まれる複数の前記所定領域の中から、前記認証対象の特徴を示す複数の特徴点となる領域を決定するステップと、
前記登録画像の前記複数の特徴点について、各特徴点と、各特徴点の前記色情報の差分と、を関連付けて記憶するステップと、
を含む登録方法。
A registration method executed by a computer device,
Obtaining a read image that is an image including an authentication target for registration;
Obtaining a registered image in which the read image is erected by detecting a shift in the rotation direction of the read image from the position of the master image by template matching on the basis of the master image;
In the registered image, color information is acquired for each predetermined area that is a predetermined size area composed of one or a plurality of pixels, and each predetermined area is included in each of the predetermined areas included in the registered image. A difference of the color information with one or a plurality of predetermined areas located in the vicinity of the image, and based on the determination result, the feature of the authentication target is selected from the plurality of the predetermined areas included in the registered image. Determining a region to be a plurality of feature points to be shown;
Storing each feature point and the difference of the color information of each feature point in association with each other for the plurality of feature points of the registered image;
Registration method including.
請求項9または10に記載の方法をコンピュータに実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute the method according to claim 9 or 10. 請求項9または10に記載の方法をコンピュータに実行させるためのコンピュータプログラムを記憶したコンピュータ可読記録媒体。   A computer-readable recording medium storing a computer program for causing a computer to execute the method according to claim 9 or 10.
JP2018024231A 2018-02-14 2018-02-14 Authentication system and authentication method Active JP7076772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018024231A JP7076772B2 (en) 2018-02-14 2018-02-14 Authentication system and authentication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018024231A JP7076772B2 (en) 2018-02-14 2018-02-14 Authentication system and authentication method

Publications (2)

Publication Number Publication Date
JP2019139640A true JP2019139640A (en) 2019-08-22
JP7076772B2 JP7076772B2 (en) 2022-05-30

Family

ID=67695385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018024231A Active JP7076772B2 (en) 2018-02-14 2018-02-14 Authentication system and authentication method

Country Status (1)

Country Link
JP (1) JP7076772B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112070084A (en) * 2020-09-04 2020-12-11 北京百度网讯科技有限公司 Method and device for determining position of repeated image unit
CN113033257A (en) * 2019-12-24 2021-06-25 杭州海康威视数字技术股份有限公司 Fingerprint identification method and device, electronic equipment and readable storage medium
WO2022144980A1 (en) * 2020-12-28 2022-07-07 三菱電機株式会社 Image processing device, program, and image processing method
WO2023063006A1 (en) * 2021-10-13 2023-04-20 株式会社日立製作所 Device for recognizing object and method for recognizing object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10206134A (en) * 1997-01-17 1998-08-07 Matsushita Electric Works Ltd Position detecting method by image processing
JP2010224681A (en) * 2009-03-19 2010-10-07 Glory Ltd Image detection device, image detection method, and image detection program
WO2014002813A1 (en) * 2012-06-26 2014-01-03 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP2015149008A (en) * 2014-02-07 2015-08-20 伊藤 庸一郎 authentication system and authentication method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10206134A (en) * 1997-01-17 1998-08-07 Matsushita Electric Works Ltd Position detecting method by image processing
JP2010224681A (en) * 2009-03-19 2010-10-07 Glory Ltd Image detection device, image detection method, and image detection program
WO2014002813A1 (en) * 2012-06-26 2014-01-03 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP2015149008A (en) * 2014-02-07 2015-08-20 伊藤 庸一郎 authentication system and authentication method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WENLI LIU, 外2名: ""Identification method of circular seal based on adaptive rotation and approximation"", 2017 FIRST INTERNATIONAL CONFERENCE ON ELECTRONICS INSTRUMENTATION & INFORMATION SYSTEMS (EIIS), JPN6022002239, 5 June 2017 (2017-06-05), US, ISSN: 0004688886 *
塩野充, 外2名: ""印鑑自動照合のためのパラメータ平面を用いた位置と回転角度の正規化実験"", 画像電子学会誌, vol. 第23巻, 第5号, JPN6022002237, 25 October 1994 (1994-10-25), JP, pages 471 - 479, ISSN: 0004688885 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033257A (en) * 2019-12-24 2021-06-25 杭州海康威视数字技术股份有限公司 Fingerprint identification method and device, electronic equipment and readable storage medium
CN113033257B (en) * 2019-12-24 2023-08-18 杭州海康威视数字技术股份有限公司 Fingerprint identification method, fingerprint identification device, electronic equipment and readable storage medium
CN112070084A (en) * 2020-09-04 2020-12-11 北京百度网讯科技有限公司 Method and device for determining position of repeated image unit
CN112070084B (en) * 2020-09-04 2024-01-12 北京百度网讯科技有限公司 Method and device for determining position of repeated image unit
WO2022144980A1 (en) * 2020-12-28 2022-07-07 三菱電機株式会社 Image processing device, program, and image processing method
JP7118295B1 (en) * 2020-12-28 2022-08-15 三菱電機株式会社 Image processing device, program and image processing method
WO2023063006A1 (en) * 2021-10-13 2023-04-20 株式会社日立製作所 Device for recognizing object and method for recognizing object

Also Published As

Publication number Publication date
JP7076772B2 (en) 2022-05-30

Similar Documents

Publication Publication Date Title
US11055589B2 (en) Method for authenticating an illustration
JP7076772B2 (en) Authentication system and authentication method
Ferrer et al. Robustness of offline signature verification based on gray level features
US9594993B2 (en) Two dimensional barcode and method of authentication of such barcode
US7711140B2 (en) Secure recorded documents
Gebhardt et al. Document authentication using printing technique features and unsupervised anomaly detection
US8736908B2 (en) Printing and authentication of a security document on a substrate utilizing unique substrate properties
US10657636B1 (en) Methods and systems to ensure correct printing plate usage for encoded signals
US8842916B2 (en) Method and system for model-based signature profile extraction
US20180033020A1 (en) System and apparatus for detecting forgery features on identification documents
CA2954089A1 (en) Systems and methods for authentication of physical features on identification documents
JP2011034535A (en) Apparatus for appraising genuineness of personal identification document
US20100201114A1 (en) Page mark-up using printed dot barcodes
CN112017352A (en) Certificate authentication method, device, equipment and readable storage medium
JP5833689B2 (en) Authentication system and authentication method
US11176363B2 (en) System and method of training a classifier for determining the category of a document
US8038073B2 (en) Tamper detection of documents using encoded dots
CN115410191B (en) Text image recognition method, device, equipment and storage medium
US11042792B2 (en) Methods for encoding a source color illustration, for authenticating an illustration, and related computer media
CN116469090A (en) Method and device for detecting code spraying pattern, electronic equipment and storage medium
KR101030548B1 (en) Color laser printer identification system and method by analyzing halftone texture of cyan color image
JP2012212287A (en) Individual identification device, individual identification method, and program
JP5056063B2 (en) Image processing apparatus and image processing program
Puteaux et al. Crossing number features: from biometrics to printed character matching
CN117499551B (en) Encryption anti-counterfeiting printing method based on binary signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220511

R150 Certificate of patent or registration of utility model

Ref document number: 7076772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150