JP5647297B2 - Authentication method and system using connecting line generated from optical information difference - Google Patents

Authentication method and system using connecting line generated from optical information difference Download PDF

Info

Publication number
JP5647297B2
JP5647297B2 JP2013108295A JP2013108295A JP5647297B2 JP 5647297 B2 JP5647297 B2 JP 5647297B2 JP 2013108295 A JP2013108295 A JP 2013108295A JP 2013108295 A JP2013108295 A JP 2013108295A JP 5647297 B2 JP5647297 B2 JP 5647297B2
Authority
JP
Japan
Prior art keywords
authentication
difference
digital data
connection
optical information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013108295A
Other languages
Japanese (ja)
Other versions
JP2013179687A (en
Inventor
伊藤 庸一郎
庸一郎 伊藤
Original Assignee
伊藤 庸一郎
庸一郎 伊藤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 伊藤 庸一郎, 庸一郎 伊藤 filed Critical 伊藤 庸一郎
Priority to JP2013108295A priority Critical patent/JP5647297B2/en
Publication of JP2013179687A publication Critical patent/JP2013179687A/en
Application granted granted Critical
Publication of JP5647297B2 publication Critical patent/JP5647297B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、光情報差分から生成される連結線を用いた認証方法およびシステムに関し、対象の画像に固有な特徴を画像データから抽出し、抽出した特徴を用いる認証システム並びに認証情報登録および照会方法に関する。   The present invention relates to an authentication method and system using a connecting line generated from optical information difference, and extracts a feature unique to a target image from image data, and an authentication system and authentication information registration and inquiry method using the extracted feature About.

従来から、人間の活動のあらゆる局面で、正当な対象であるか否かを判定する様々な認証技術が用いられており、インターネットや情報の電子化の進展からより高度な認証技術が求められている。古典的な認証技術としては、印鑑や署名など独特の形状を対象に標示させることが行われてきたが、偽造などにより現在ではホログラム、すき入れ(透かし)、潜像模様、パールインキ、マイクロ文字、特殊発光インキ、凹版印刷などの技術を用いて偽造防止を図っている他、電子化の進展にあわせ現在ではパスワードなどの一定の情報を暗号化等して秘密にしておき、そうした秘密情報と照合することにより、偽造防止を図っている。また、指紋など個人の人体に固有な生体情報を予め登録しておき、認証が必要な場合に実際の生体情報を読み取って登録された生体情報と一致するか否かで認証を行う様々な生体認証技術も用いられている(例えば、特許文献1参照)。   Conventionally, various authentication technologies have been used to determine whether or not a legitimate subject is legitimate in every aspect of human activity, and more advanced authentication technologies have been demanded from the progress of computerization of the Internet and information. Yes. Classic authentication technology has been used to mark unique shapes such as seals and signatures, but due to counterfeiting, holograms, creases (watermarks), latent image patterns, pearl ink, micro characters In addition to anti-counterfeiting using technologies such as special light-emitting ink and intaglio printing, along with the progress of computerization, certain information such as passwords is currently kept secret by encrypting it. By checking, we try to prevent forgery. In addition, biometric information unique to an individual human body, such as a fingerprint, is registered in advance, and when authentication is required, various biometrics that perform authentication based on whether the biometric information matches the registered biometric information by reading the actual biometric information Authentication technology is also used (see, for example, Patent Document 1).

特開2009−205393号公報JP 2009-205393 A

しかし、上記の認証技術のうちパスワードを用いる技術は、予めパスワードを決定し、使用者自体も記憶していなければならいため、情報量が極めて少なく、窃取や偽造が容易であるという問題がある。   However, among the authentication techniques described above, a technique using a password has a problem that the amount of information is extremely small and theft and counterfeiting are easy because the password must be determined in advance and the user itself must be stored.

また、生体情報を用いる技術においては、正当な対象であるか否か判定できるのは人間のみであり、それ以外の物や動植物などには基本的に使用できない。また、近年では生体情報自体を偽造する行為も発生してきており、必ずしも完全に安全な認証技術とは言えないという問題がある。   In the technique using biological information, only a human can determine whether or not it is a legitimate object, and basically it cannot be used for other objects, animals and plants. In recent years, an act of forging the biometric information itself has also occurred, and there is a problem that it is not necessarily a completely secure authentication technique.

さらに、高度な認証技術の多くは、認証情報を予め対象物に、物理的または電子的に付加させる事が多く、対象物への加工が必要であるため、認証技術の普及を妨げる要因になるという問題がある。   Furthermore, many advanced authentication techniques often add authentication information to an object in advance physically or electronically, and processing to the object is necessary, which hinders the spread of the authentication technique. There is a problem.

本発明は上記従来の問題に鑑みてなされたものであり、認証する対象に加工を必要とせず、対象の個別の特徴を一定の構成を有する標準的なデジタル撮像機器を用いて一定の構成条件で撮影したイメージデータから固有情報を抽出して、抽出した固有情報に基づいて正当な対象であるか否かを判定する認証システム並びに認証情報登録および照会方法を提供することを目的とする。   The present invention has been made in view of the above-described conventional problems, and does not require processing for an object to be authenticated, and uses a standard digital imaging device having a certain configuration for each individual feature of the object, and certain configuration conditions It is an object of the present invention to provide an authentication system and an authentication information registration / inquiry method for extracting unique information from image data photographed in the above and determining whether or not it is a legitimate object based on the extracted unique information.

第1の態様は、デジタル撮像手段の走査により認証対象を解像して得られた複数のデジタルデータの特定された対応位置における光情報差分を算出し、デジタル撮像手段のピクセルサイズに対応する被写体における物理サイズにより算出された対応位置におけるピクセルの中心位置に対応する被写体の物理位置の中点を、算出された光情報差分の大きい順に連結点として連結して生成される連結線を、対象を一意に特定する個体差情報として、連結線を記憶する記憶手段と、所定のデジタル撮像手段の構成条件において、デジタル撮像手段により認証対象を複数回走査してデジタルデータとして解像し、得られた複数のデジタルデータを比較し、それぞれのデジタルデータが認証対象を写像する位置を一致させるための移動及び回転変換を算出する変換値算出手段と、前記算出された移動及び回転変換を用いて複数のデジタルデータのそれぞれのピクセル配列の対応位置を特定して対応位置における、記憶手段に記憶された個体差情報の連結線を読み出して、読み出された連結線上の連結点の位置を、折れ線を辿るように追跡し、連結点の位置が含まれる重ね合わせたピクセルの物理面に対応するピクセルの光情報差分を算出して算出した光情報差分が、連結線の順序に対して、所定の関係にあると判定される場合は認証が成功したと判定する個体差情報抽出判定手段とを備えることを特徴とする。   The first aspect calculates an optical information difference at a specified corresponding position of a plurality of digital data obtained by resolving an authentication target by scanning of the digital imaging means, and subjects corresponding to the pixel size of the digital imaging means A connection line generated by connecting the midpoint of the physical position of the subject corresponding to the center position of the pixel at the corresponding position calculated based on the physical size in FIG. As individual difference information uniquely specified, obtained by resolving digital data by scanning the authentication object a plurality of times with the digital imaging means under the configuration conditions of the storage means for storing the connecting line and the predetermined digital imaging means Compare multiple digital data, and calculate the movement and rotation conversion to match the position where each digital data maps the object to be authenticated. A conversion value calculating means for determining the corresponding position of each pixel array of a plurality of digital data using the calculated movement and rotation conversion, and connecting lines of individual difference information stored in the storage means at the corresponding position And tracking the position of the connection point on the read connection line so as to follow the broken line, and calculating the optical information difference of the pixel corresponding to the physical surface of the superimposed pixel including the position of the connection point. When the optical information difference calculated in the above is determined to be in a predetermined relationship with respect to the order of the connecting lines, it is characterized by comprising individual difference information extraction determining means for determining that the authentication is successful.

第2の態様は、第1の態様において、デジタル撮像手段の構成条件はデジタル撮像手段の解像度を含み、デジタル撮像手段の解像度は、認証対象の画像を形成する粒子の大きさよりも低い解像度であることを特徴とする。   According to a second aspect, in the first aspect, the configuration condition of the digital imaging unit includes the resolution of the digital imaging unit, and the resolution of the digital imaging unit is lower than the size of the particles forming the image to be authenticated. It is characterized by that.

第3の態様は、第1の態様または第2の態様において、変換値算出手段は、認証対象を連続して複数回走査することを特徴とする。   A third aspect is characterized in that, in the first aspect or the second aspect, the conversion value calculation means continuously scans the authentication target a plurality of times.

第4の態様は、第1の態様ないし第3の態様のいずれかにおいて、予め設定された情報により、デジタル撮像手段の構成条件の相違によるイメージデータの相違を標準化するための補正を行う補正手段を更に備えたことを特徴とする。   According to a fourth aspect, in any one of the first to third aspects, a correction unit that performs correction to standardize a difference in image data due to a difference in configuration conditions of the digital imaging unit according to preset information. Is further provided.

第5の態様は、第1の態様ないし第4の態様のいずれかにおいて、記憶手段は、連結線の比較のためのパラメータ及び比較方法を含む連結比較設定をさらに記憶し、個体差情報抽出判定手段は、記憶手段に記憶された比較設定を用いて、読み出された連結線上の連結点の位置を、折れ線を辿るように追跡し、算出した光情報差分が、連結線の順序に対して比較設定に定められた所定の関係を有している場合は認証が成功したと判定することを特徴とする。   According to a fifth aspect, in any one of the first to fourth aspects, the storage unit further stores a connection comparison setting including a parameter for comparison of connection lines and a comparison method, and individual difference information extraction determination The means uses the comparison setting stored in the storage means to track the position of the connection point on the read connection line so as to follow the broken line, and the calculated optical information difference is calculated with respect to the order of the connection lines. When it has a predetermined relationship defined in the comparison setting, it is determined that the authentication is successful.

第6の態様は、第1の態様ないし第5の態様のいずれかにおいて、個体差情報抽出判定手段は、算出した光情報差分が、連結線の順序に対して、所定の数降順である場合は認証が成功したと判定することを特徴とする。   A sixth aspect is any one of the first aspect to the fifth aspect, wherein the individual difference information extraction determination unit is configured such that the calculated optical information difference is in a predetermined descending order with respect to the order of the connecting lines. Is characterized in that authentication is determined to be successful.

第7の態様は、認証情報登録方法であって、所定のデジタル撮像手段の構成条件において、デジタル撮像手段により認証対象を複数回走査してデジタルデータとして解像し、得られた複数のデジタルデータを比較し、それぞれのデジタルデータが認証対象を写像する位置を一致させるための移動及び回転変換を算出する変換値算出ステップと、算出された移動及び回転変換を用いて複数のデジタルデータのそれぞれのピクセル配列の対応位置を特定して特定された対応位置における光情報差分を算出するステップと、デジタル撮像手段の構成条件からデジタルデータのピクセルサイズに対応する被写体における物理サイズを算出し、算出された物理サイズにより、対応位置におけるピクセルの中心位置に対応する被写体の物理位置の中点を連結点として算出し、算出した光情報差分の大きい順に、任意の回数降順に連結店を連結し連結線を個体差情報として抽出するステップと、抽出された連結線を記憶手段に登録する登録ステップとを備えることを特徴とする。   A seventh aspect is an authentication information registration method, wherein a plurality of digital data obtained by resolving digital data by scanning an authentication target a plurality of times with a digital imaging unit under a predetermined configuration condition of the digital imaging unit And a conversion value calculation step for calculating a movement and rotation conversion for matching the positions where the respective digital data map the authentication target, and each of the plurality of digital data using the calculated movement and rotation conversion. The step of calculating the optical information difference at the specified corresponding position by specifying the corresponding position of the pixel array, and calculating the physical size in the subject corresponding to the pixel size of the digital data from the configuration conditions of the digital imaging means Depending on the physical size, the midpoint of the physical position of the subject corresponding to the center position of the pixel at the corresponding position is linked. Calculating the points, connecting the linked stores in the descending order of the calculated light information difference, extracting the connecting lines as individual difference information, and registering the extracted connecting lines in the storage means; It is characterized by providing.

第8の態様は、デジタル撮像手段の走査により認証対象を解像して得られた複数のデジタルデータの特定された対応位置における光情報差分を算出し、デジタル撮像手段のピクセルサイズに対応する被写体における物理サイズにより算出された対応位置におけるピクセルの中心位置に対応する被写体の物理位置の中点を、算出された光情報差分の大きい順に連結点として連結して生成される連結線を、対象を一意に特定する個体差情報として、連結線を記憶する記憶手段を備えた認証システムにおいて、所定のデジタル撮像手段の構成条件において、デジタル撮像手段により認証対象を複数回走査してデジタルデータとして解像し、得られた複数のデジタルデータを比較し、それぞれのデジタルデータが認証対象を写像する位置を一致させるための移動及び回転変換を算出する変換値算出ステップと、算出された移動及び回転変換を用いて複数のデジタルデータのそれぞれのピクセル配列の対応位置を特定して対応位置における、記憶手段に記憶された個体差情報の連結線を読み出して、読み出された連結線上の連結点の位置を、折れ線を辿るように追跡し、連結点の位置が含まれる重ね合わせたピクセルの物理面に対応するピクセル光情報差分を算出して算出した光情報差分が、連結線の順序に対して、所定の関係にあると判定される場合は認証が成功したと判定する個体差情報抽出判定ステップとを備えることを特徴とする。   According to an eighth aspect, a subject corresponding to the pixel size of the digital imaging means is calculated by calculating an optical information difference at a specified corresponding position of a plurality of digital data obtained by resolving an authentication target by scanning of the digital imaging means. A connection line generated by connecting the midpoint of the physical position of the subject corresponding to the center position of the pixel at the corresponding position calculated based on the physical size in FIG. In an authentication system including a storage unit that stores connection lines as uniquely-identified individual difference information, the digital imaging unit scans an authentication target a plurality of times and resolves it as digital data under a predetermined configuration of the digital imaging unit. The obtained digital data are compared, and the positions where each digital data is mapped to the authentication target are matched. A conversion value calculation step for calculating movement and rotation conversion for the image, and a corresponding position of each pixel array of the plurality of digital data is specified using the calculated movement and rotation conversion, and stored in the storage means at the corresponding position. The connected line of the individual difference information is read, the position of the connection point on the read connection line is traced so as to follow the broken line, and the pixel corresponding to the physical surface of the superimposed pixel including the position of the connection point An optical information difference calculated by calculating the optical information difference includes an individual difference information extraction determination step for determining that the authentication is successful when it is determined that the optical information difference is in a predetermined relationship with respect to the order of the connecting lines. It is characterized by.

本発明の一実施形態における認証システムのシステム構成図である。It is a system configuration figure of an authentication system in one embodiment of the present invention. 本発明の一実施形態の機能ブロック図である。It is a functional block diagram of one embodiment of the present invention. 本発明の一実施形態の認証処理を示すフローチャートである。It is a flowchart which shows the authentication process of one Embodiment of this invention. 本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の一実施形態の個体差認証形状の抽出処理を説明するための図である。It is a figure for demonstrating the extraction process of the individual difference authentication shape of one Embodiment of this invention. 本発明の一実施形態の個体差認証形状の抽出処理を説明するための図である。It is a figure for demonstrating the extraction process of the individual difference authentication shape of one Embodiment of this invention. 本発明の一実施形態の個体差認証形状の抽出処理を説明するための図である。It is a figure for demonstrating the extraction process of the individual difference authentication shape of one Embodiment of this invention. 本発明の一実施形態の予め抽出された個体差認証形状を用いて行う認証処理を説明するための図である。It is a figure for demonstrating the authentication process performed using the individual difference authentication shape previously extracted of one Embodiment of this invention. 本発明の一実施形態の予め抽出された個体差認証形状を用いて行う認証処理一致判定の一例を説明するための図である。It is a figure for demonstrating an example of the authentication process coincidence determination performed using the individual difference authentication shape previously extracted of one Embodiment of this invention. 本発明の一実施形態の抽出された対象画像の補正処理の一例を説明するための図である。It is a figure for demonstrating an example of the correction process of the extracted target image of one Embodiment of this invention. 本発明の一実施形態の具体的な応用例の抽出処理を説明するための図である。It is a figure for demonstrating the extraction process of the specific application example of one Embodiment of this invention. 本発明の一実施形態の具体的な応用例の一致判定処理を説明するための図である。It is a figure for demonstrating the coincidence determination process of the specific application example of one Embodiment of this invention. 本発明の一実施形態の具体的な別の応用例を説明するための図である。It is a figure for demonstrating another specific application example of one Embodiment of this invention. 本発明の一実施形態の具体的な別の応用例を説明するための図である。It is a figure for demonstrating another specific application example of one Embodiment of this invention. 本発明の一実施形態の具体的な別の応用例を説明するための図である。It is a figure for demonstrating another specific application example of one Embodiment of this invention. 本発明の一実施形態の具体的な別の応用例を説明するための図である。It is a figure for demonstrating another specific application example of one Embodiment of this invention. 本発明の一実施形態の連結イロメガネの例を示す図である。It is a figure which shows the example of the connection eyeglasses of one Embodiment of this invention. 本発明の一実施形態のヒトフデガキ線画の連結方式の一例を示す図である。It is a figure which shows an example of the connection system of the starfish line drawing of one Embodiment of this invention. 本発明の一実施形態のヒトフデガキ線画の連結方式の別の例を示す図である。It is a figure which shows another example of the connection system of the starfish line drawing of one Embodiment of this invention. 本実施形態の個体差情報を登録する処理を示すフローチャートである。It is a flowchart which shows the process which registers the individual difference information of this embodiment. 本実施形態の認証処理を示すフローチャートである。It is a flowchart which shows the authentication process of this embodiment. 本実施形態の光情報差分の算出の詳細を説明するための図である。It is a figure for demonstrating the detail of calculation of the optical information difference of this embodiment. 本発明の一実施形態の予め抽出された個体差認証形状を用いて行う認証処理一致判定の一例を説明するための図である。It is a figure for demonstrating an example of the authentication process coincidence determination performed using the individual difference authentication shape previously extracted of one Embodiment of this invention.

以下本発明の認証システム並びに認証情報登録および照会方法について図面を参照して実施形態を説明する。   Embodiments of an authentication system and authentication information registration and inquiry method according to the present invention will be described below with reference to the drawings.

<個体差認証システム原理>
本実施形態のシステムは、認証する対象に加工を必要とせず対象の個別の特徴を一定の構成を有する標準的なデジタル撮像機器を用いて一定の構成条件で撮影したイメージデータから抽出した対象の固有情報に関する原理、固有情報を読取画像から抽出する固有情報抽出方法および抽出された固有情報に基づいて適宜必要時に対象を認証する個体差認証方法に従って、対象の同一性を判定する。また、対象とは、印刷物、様々な完成品、部品などの物質や人体など、その表面をスキャンあるいは撮像して画像を読取ることができるものであればいずれのものも含むことができる。
<Individual difference authentication system principle>
The system according to the present embodiment does not require any processing on the object to be authenticated, and the individual features of the object are extracted from image data captured under a certain configuration condition using a standard digital imaging device having a certain configuration. The identity of the object is determined according to the principle relating to the unique information, the unique information extraction method for extracting the unique information from the read image, and the individual difference authentication method for authenticating the object as needed based on the extracted unique information. The object may include any material such as printed matter, various finished products, parts such as parts, and the human body as long as the surface can be scanned or imaged to read an image.

<個体差に基づく固有情報>
デジタル撮像装置、例えばスキャナやカメラなどによる、現実に存在する物質の走査は、表面の状態を数値化することであるが、対象の物質構成の全てを読取ることはできない。物質の表面の走査とは、一瞬一瞬の物質表面上で起こる現象の写像であるといえる。例えば、光波長(短波長側360nm〜400nmと長波長側760nm〜830nmとの間の可視光領域)内の光に反応する画像素子等の受光部を平面に配列するイメージセンサ(CCD・CMOS)による画像走査(スキャン)では、画像処理や三原色への分光方法および素子構成に相違はあるが、集光した光をRGB他に分光し、各々の受光部の電荷反応を数値化して、数値を順に並べ、配列データとして出力するカラー撮像プロセス(数値画像化プロセス)によりデジタル再現された、現象の写像が行われる。それら光の写像情報はXYZの配列に対応した解像度の尺度に置き換えられた数値ということになる。さらに、イメージセンサにおいては、解像度が高い、すなわちセンサを構成する各受光部が光の波長の長さより小さければ光として観察は不可能であり、大きければ逆にその各受光部による物質自体の個々の観察も不可能となる。加えて、自然物質は、ランダムに配置されているため、受光部が配列で構成されるイメージセンサでは自然物そのものを再現することは不可能である。
<Specific information based on individual differences>
Scanning a substance that actually exists with a digital imaging device, such as a scanner or a camera, is to digitize the surface state, but it is not possible to read the entire material configuration of interest. Scanning the surface of a material can be said to be a mapping of a phenomenon that occurs on the surface of the material momentarily. For example, an image sensor (CCD / CMOS) that arranges light receiving parts such as image elements that respond to light in the light wavelength (visible light region between 360 nm to 400 nm on the short wavelength side and 760 nm to 830 nm on the long wavelength side) in a plane. In image scanning (scanning), there is a difference in image processing and the spectral method and element configuration for the three primary colors, but the collected light is split into RGB and other components, and the charge reaction of each light receiving unit is digitized to obtain a numerical value. The phenomena are digitally reproduced by a color imaging process (numerical imaging process) arranged in sequence and output as array data. The mapping information of the light is a numerical value replaced with a scale of resolution corresponding to the XYZ arrangement. Further, in an image sensor, if the resolution is high, that is, each light receiving part constituting the sensor is smaller than the length of the wavelength of light, it cannot be observed as light. It becomes impossible to observe. In addition, since the natural substances are randomly arranged, it is impossible to reproduce the natural objects themselves with an image sensor in which the light receiving portions are arranged in an array.

これが分解能であり、イメージセンサの走査単位である素子のサイズに応じて受光した光に反応し、この反応を数値化して配列、つまりイメージセンサに所定の形態で配置された素子に各々受光した光に応じて発生した電気量を配列したものがイメージデータである。従って、この数値化も、結局1つの走査単位に対応する対象の部分内の現象を数値化して色圧縮処理したものであり、これを配列したイメージデータは、走査単位のサイズに応じて解像された現象ということができる。すなわち、スキャンされたイメージデータは解像度などの構成条件に応じて変化するが、本実施形態ではこの現象に着目し対象の固有な情報を抽出する。ここで、構成条件とは、撮像素子の物理的位置、種類、サイズ、解像度、レンズ構成、レンズ倍率、LEDなど照明機器の物理的位置、輝度、周波数特性、色温度、認証対象との被写体間距離、フォーカス位置、焦点距離、シャッタースピード、フレームレート、認証対象とレンズ、および撮像素子で構成される光学系の相対位置関係などのパラメータにより構成される撮像機器構成と撮影条件とである。   This is the resolution and reacts to the light received according to the size of the element that is the scanning unit of the image sensor, and this response is digitized and arranged, that is, the light received by each element arranged in a predetermined form on the image sensor. Image data is an array of the amount of electricity generated according to the above. Therefore, this digitization is also the result of digitizing the phenomenon in the target portion corresponding to one scanning unit and performing color compression processing. The image data in which this is arranged is resolved according to the size of the scanning unit. It can be said that it was a phenomenon. In other words, the scanned image data changes according to the configuration conditions such as the resolution. In this embodiment, the target specific information is extracted by focusing on this phenomenon. Here, the configuration conditions are the physical position of the image sensor, type, size, resolution, lens configuration, lens magnification, physical position of lighting equipment such as LEDs, brightness, frequency characteristics, color temperature, and the distance between subjects to be authenticated. The imaging device configuration and shooting conditions are configured by parameters such as a distance, a focus position, a focal length, a shutter speed, a frame rate, a relative position relationship of an optical system including an authentication target and a lens, and an imaging device.

実際に正当性を判定することとなる対象は、自然物質で構成されているため、その最小サイズは、ナノ・マイクロサイズよりさらに小さい「粒子」である。光子はそれより大きく、さらに可視光では、波長は短波長側360nm〜400nmと長波長側760nm〜830nmとの間の可視光領域内とされているため、このサイズより小さい単位の物質は単体では光(可視光)を反射しない。したがって、センサによる数値化によっても、解像度よりもはるかに微細な自然物質自体の現象は解読できないが、読取結果、すなわちセンサにより出力された値はサイズ内の現象に左右される。すなわち、少し(マイクロオーダ)でも走査位置がずれる、すなわち同一の対象を複数回読み取った場合に得られたイメージデータのデータ配列のうち対応する位置と、その読取った素子の相対位置とが僅かにずれると、その対応するイメージセンサの素子で読取られる光情報の数値は影響を受け、よって同一の対象を同一の条件で走査しても同じ走査情報が得られないこととなる。これは、光の波長サイズより小さい解像度を持つイメージセンサが存在しない限り必ず起こり、この読取結果の差異を本願では解像差と呼ぶ。このような解像差を具体的なCCDセンサを用いて説明したのが図4である。ここで、図4に示す例は、本原理を適用する一例に過ぎず、本発明はこの例に具体的に示されたいずれの技術によっても限定されるものではない。   Since the object whose validity is actually judged is composed of natural substances, the minimum size is “particle” which is smaller than the nano / micro size. Photons are larger than that, and in visible light, the wavelength is in the visible light region between the shorter wavelength side of 360 nm to 400 nm and the longer wavelength side of 760 nm to 830 nm. Does not reflect light (visible light). Therefore, the phenomenon of the natural substance itself, which is much finer than the resolution, cannot be deciphered even by the digitization by the sensor, but the reading result, that is, the value output by the sensor depends on the phenomenon within the size. That is, the scanning position is shifted even a little (micro order), that is, the corresponding position in the data array of the image data obtained when the same object is read a plurality of times and the relative position of the read element are slightly If shifted, the numerical value of the optical information read by the element of the corresponding image sensor is affected, so that the same scanning information cannot be obtained even if the same object is scanned under the same conditions. This always occurs unless there is an image sensor having a resolution smaller than the light wavelength size, and this difference in the reading result is referred to as a resolution difference in the present application. FIG. 4 illustrates such a resolution difference using a specific CCD sensor. Here, the example shown in FIG. 4 is merely an example to which the present principle is applied, and the present invention is not limited by any technique specifically shown in this example.

図4を参照すると、一般に認証対象を読み取るスキャナで使用される、例えばCCDセンサでは、図に示すように一定の間隔をもって配列された撮像素子により、RGB 等に分光され、撮像素子の開口部から入る波長(短波長側360nm〜400nmと長波長側760nm〜830nmとの間の可視光領域)の可視光が電荷に変換され蓄積される。この蓄積された電荷を光の強弱として、デジタル化し、デジタル化されたRGB 等の数値により、撮影対象は、撮像素子のピッチと開口部によって制限される入射光が、1素子に対して1色に色圧縮され、色の配列データとして表現される。このようにして得られる色の配列データは、撮像素子の位置を表す座標とRGB 等の表色系のそれぞれの成分を表す数値データとして表現される。例えば、(X座標,Y座標:R,G,B)とすると、図に示すように(1,1: 112, 28, 93)、(1,2: 17, 30,104)、(1,3: 39, 36,107)・・・といったデータが得られるが、これらの値は、スキャナで読み取られるたびに走査位置がマイクロオーダで変化するため異なる値となる。   Referring to FIG. 4, for example, in a CCD sensor that is generally used in a scanner that reads an authentication target, as shown in FIG. Visible light having an incoming wavelength (visible light region between 360 nm to 400 nm on the short wavelength side and 760 nm to 830 nm on the long wavelength side) is converted into charges and accumulated. The accumulated charge is digitized as the intensity of light, and according to the digitized numerical values such as RGB, the object to be imaged is incident light limited by the pitch of the image sensor and the aperture, and one color per element. And are expressed as color arrangement data. The color arrangement data obtained in this way is expressed as numerical data representing the coordinates representing the position of the image sensor and the respective components of the color system such as RGB. For example, assuming that (X coordinate, Y coordinate: R, G, B), as shown in the figure, (1,1: 112, 28, 93), (1,2: 17, 30,104), (1,3: 39, 36, 107)..., But these values are different because the scanning position changes in micro order each time the data is read by the scanner.

この解像差は、ナノ・マイクロサイズで印刷されている印刷物においても同様に発生する。印刷物のような複製品(量産品)において、走査して得られた画像は、実際の現象から現実的に観察できないナノ・マイクロレベルの印刷誤差・紙面の違いが影響している。つまり、この解像差には、意図せず作られた、または意図しても同一物を量産製造不可能なナノサイズの粒子による個体の特徴が反映されるのである。この個体の特徴に起因して発生する、対象読み取り時の解像差による差異を、本願では「個体差」と呼ぶ。   This resolution difference also occurs in the printed matter printed in the nano / micro size. In a reproduction product (mass production product) such as a printed matter, an image obtained by scanning is influenced by a nano / micro level printing error and a difference in paper surface that cannot be actually observed from an actual phenomenon. In other words, the resolution difference reflects the individual characteristics of the nano-sized particles that are made unintentionally or that cannot be mass-produced and manufactured by the intention. In the present application, the difference due to the difference in resolution at the time of object reading caused by the characteristics of the individual is referred to as “individual difference”.

<対象に固有な情報の抽出>
本発明では、この個体差を、これには限られないが印刷物等の対象から取得し、取得した個体差から1つの対象に対し一意な情報を抽出して認証処理に使用する。そのような対象に固有な情報の抽出法の1つを説明する。上述したように、走査毎に出力されるイメージデータは、解像の再現を不安定にしており、ここに個体差が反映されている。しかし、単純に解像した結果得られた値自体は通常は一定ではないことから、そのままでは対象を一意に表す情報として使用することは出来ない。そこで、個体差から一定の関係性を得られる情報を抽出する。すなわち、得られた読み取りデータを、各読み取りデータの対応する位置毎に比較してその変化が大きい順番に並べ、その相対位置関係を3次元座標に置き換えて順に連結し、一定の折れ線の形状、すなわち個体差により同一の解像を妨げる要素である「不安定再現要素点」が不安定再現強度順に並んだ「線」を生成する。この「線」は、先に述べたようにスキャナのセンサの解像度にかかわらず、対象を画像として読み取れば必ず生成することができ、この「線」を生成する順序には、対象に固有な情報の一意性に基づく一定の普遍性が現れる。
<Extraction of information specific to the target>
In the present invention, this individual difference is acquired from a target such as, but not limited to, a printed matter, and information unique to one target is extracted from the acquired individual difference and used for authentication processing. One method of extracting information specific to such an object will be described. As described above, the image data output for each scan has unstable reproducibility of resolution, and individual differences are reflected here. However, since the value itself obtained as a result of simple resolution is usually not constant, it cannot be used as information that uniquely represents the object as it is. Therefore, information that can obtain a certain relationship from individual differences is extracted. That is, the obtained read data is arranged in the order of the change in comparison with each corresponding position of each read data, the relative positional relationship is replaced with three-dimensional coordinates and sequentially connected, and the shape of a fixed broken line, That is, a “line” is generated in which “unstable reproduction element points” that are elements that hinder the same resolution due to individual differences are arranged in the order of unstable reproduction intensity. As described above, this “line” can always be generated if the object is read as an image regardless of the resolution of the sensor of the scanner. The order of generating this “line” includes information specific to the object. A certain universality based on the uniqueness of appears.

このような線は、その生成順位が不安定再現を起こす順位のため、具体的には同一の対象を最低2回走査してその差の順位を特定することによって求めることができる。本発明の基本的な原理は、同一の対象でも走査するたびに物理的(光の波長・物性)な条件により同じ結果は得られないため、単に得られた個体差の比較では類の識別は可能であっても個の識別は印刷物のような量産品においては困難であるという課題に対して、個体差自体の比較ではなく、読取られる配列毎の解像再現性の不安定さの順位関係を観察して個の識別を可能にするという、より具体的な手法によって実現可能となる。これは、物理的に対象が存在することと、これもまた物理的にイメージセンサの配列関係が存在するという事実とから得られる。すなわち、イメージセンサの配列は、物理的に一定であるため、走査毎の走査位置のずれが生じてもイメージセンサ内部構成の崩れる可能性は、少なくとも走査位置のずれの発生の可能性よりは低いため、その配列は構成状態を保っていると考えていい。従って、走査領域のイメージデータ(配列値)から得られた「線」において、その位置関係は保持される。すなわち、イメージセンサの対応する各素子について値は走査毎に変化するが、その差異の順位は保持されるということである。また、例えば異なる印刷物の対象において、この「線」形状を順に走査しても一致する確率は低く、「不安定再現要素点」の個数によって後述するような確率のものとなり、認証判定が十分に可能なものである。この「線」は、不安定解像、すなわちイメージデータの対応する各素子で得られる値の不安定さを再現することから、不安定再現を起こす順位でもある。ここで、この「線」は不安定さの再現性の程度を表現できれば良いことから、結局同じ対象を連続して最低2回走査してその差の順位によって求める事ができる。すなわち、例えば連続して2回走査して得られたイメージデータは、その走査の解像レベルよりも小さい対象の(微細な)特徴により僅かに異なるものとなり、その差異を例えば順位という概念で処理することにより、その対象の微細な特徴を把握することができるのである。ここで、2回の走査は通常連続して、つまり一定の時間内で行うが、これは時間間隔を開けすぎると対象内で起こる現象が大きく変化してしまい、上述のような原理が働かなくなる可能性があるからである。例えば、1回目の撮影後撮像機器の電源を落とした場合など、イメージセンサ内の電荷量、光量に対する感度などの非可逆性等により撮像条件が大きく変化してしまい、調整するのが困難になる可能性がる。したがって、複数回の撮影は一定の近接した時間内で行ったり、ほぼ同様の撮影条件が保たれていたりする状態で引き続き撮影されるのが好ましい。このようにして本発明の原理に従えば、何ら新しい機器を必要とせず1回の解像処理では捉えきれない現象を複数のイメージデータから推定することで、イメージセンサの分解能を超えた対象の現象を獲得することができることとなる。   Such a line can be obtained by scanning the same object at least twice and specifying the rank of the difference because the generation rank causes the unstable reproduction. The basic principle of the present invention is that even if the same object is scanned, the same result cannot be obtained due to physical (light wavelength / physical properties) conditions. Even if possible, for the problem that identification is difficult in mass-produced products such as printed matter, it is not a comparison of individual differences itself, but a ranking relationship of instability of resolution reproducibility for each read sequence This can be realized by a more specific method that enables individual identification by observing. This is derived from the physical presence of the object and the fact that there is also a physical image sensor alignment. In other words, since the arrangement of the image sensors is physically constant, the possibility that the internal configuration of the image sensor will collapse is lower than at least the possibility of occurrence of the deviation of the scanning position even if the deviation of the scanning position for each scanning occurs. Therefore, it can be considered that the arrangement is maintained in the configuration state. Accordingly, the positional relationship is maintained in the “line” obtained from the image data (array value) of the scanning area. That is, the value of each corresponding element of the image sensor changes with each scanning, but the order of the difference is maintained. Also, for example, in the case of different printed materials, even if this “line” shape is scanned in order, the probability of matching is low, and the probability of being described later depends on the number of “unstable reproducible element points”. It is possible. This “line” is also the order of instability reproducibility because it reproduces instability resolution, that is, the instability of values obtained in each corresponding element of image data. Here, since it is sufficient that this “line” can express the degree of reproducibility of instability, the same object can be scanned continuously at least twice and determined by the rank of the difference. That is, for example, the image data obtained by scanning twice in succession is slightly different depending on the (fine) feature of the object smaller than the resolution level of the scan, and the difference is processed by the concept of rank, for example. By doing so, it is possible to grasp the fine features of the object. Here, the two scans are usually performed continuously, that is, within a certain period of time. However, if the time interval is too long, the phenomenon occurring in the object changes greatly, and the above-described principle does not work. Because there is a possibility. For example, when the power of the imaging device is turned off after the first shooting, the imaging conditions change greatly due to irreversibility such as charge amount in the image sensor and sensitivity to the light quantity, and it is difficult to adjust. There is a possibility. Therefore, it is preferable that a plurality of shootings be performed within a certain close time, or the shooting is continued in a state where substantially the same shooting conditions are maintained. In this way, according to the principle of the present invention, a phenomenon that does not require any new equipment and cannot be detected by a single resolution process is estimated from a plurality of image data. The phenomenon can be acquired.

以上のような原理を適用し、以下に対象に固有な情報の抽出処理の1つを説明する。図5を参照すると、図4を参照して説明したように、CCD やCMOS イメージセンサを搭載するカメラ501で対象502を、同一の構成条件で連続して複数回走査しデジタルデータとして解像する。図20は、本実施形態の個体差情報を登録する処理を示すフローチャートである。   Applying the principle as described above, one of the processes for extracting information unique to the object will be described below. Referring to FIG. 5, as described with reference to FIG. 4, the object 502 is scanned continuously a plurality of times under the same configuration conditions by the camera 501 equipped with a CCD or CMOS image sensor, and is resolved as digital data. . FIG. 20 is a flowchart showing processing for registering individual difference information according to the present embodiment.

認証時には異なる撮像機器を使用することも考えられるため、予め標準的な教示データを用いて個体差情報を算出するために使用する撮像機器等の位置補正、解像度、センサ受光色温度補正、ホワイトバランス補正、ISO感度補正、レンズの歪補正、色収差補正、集光補正、照明の光量補正、スペクトル補正、撮像機器のタイプによる変換など、解像を標準化する、すなわちケンガン補正するための補正値を取得しておき、この補正値を適用するために構成されたフィルタを解像されたイメージデータに適用する。これにより、イメージデータの各ピクセル値を変換し、撮像機器構成などによらず一定の条件でイメージデータの読み取りを可能とするが、これに限られることなく記憶装置に記憶するなど別途補正値データをやり取りし、あるいはその他本技術分野で知られた方法によりイメージデータを生成することができる。例えば、登録時と認証時とで異なる解像度の撮像機器を使用した場合でも、予め解像度を記録しておいて、低い解像度のイメージデータの解像度を高くしたり(数値自体は変わらずデータ量が解像度が高くなる分増加する)、低くしたりして同じ解像度に換算して処理することができる。   Since different imaging devices may be used during authentication, position correction, resolution, sensor light-receiving color temperature correction, white balance, etc. used for calculating individual difference information in advance using standard teaching data Correction, ISO sensitivity correction, lens distortion correction, chromatic aberration correction, condensing correction, illumination light amount correction, spectral correction, conversion according to the type of imaging device, etc. In addition, a filter configured to apply the correction value is applied to the resolved image data. As a result, each pixel value of the image data is converted, and the image data can be read under a certain condition regardless of the configuration of the imaging device, but the correction value data is stored separately in the storage device without being limited thereto. Or other image data can be generated by methods known in the art. For example, even when using an imaging device with different resolutions at the time of registration and at the time of authentication, the resolution is recorded in advance, and the resolution of the image data with a low resolution is increased (the numerical value itself remains the same as the resolution Can be processed by converting to the same resolution.

現実の物体の像512、522は1回目も2回目も同一であるが、1回目に解像されたイメージデータ511と、2回目に解像されたイメージデータ521とを比較すると、スキャナの微細な走査位置の相違などにより、解像された配列データは異なるものになっていることが理解される。具体的には、1回目の読み取り時のイメージデータ511の配列である(1,1: 112, 28, 93)(2,1: 17, 30,104)(3,1: 39, 36,107)(4,1: 221, 38,108)・・・に対し、2回目のイメージデータ521の配列は、(1,1: 110, 45, 99)(2,1: 28, 24,167)(3,1: 35, 41,100)(4,1: 209, 43,111)・・・と少し異なるものとなっている。   The actual object images 512 and 522 are the same for the first time and the second time, but the image data 511 resolved for the first time and the image data 521 resolved for the second time are compared. It is understood that the resolved array data is different due to a difference in the scanning position. Specifically, it is an array of image data 511 at the time of the first reading (1,1: 112,28,93) (2,1: 17,30,104) (3,1: 39,36,107) (4, 1: 221, 38,108) ..., the second sequence of image data 521 is (1,1: 110,45,99) (2,1: 28,24,167) (3,1: 35,41,100 ) (4,1: 209, 43,111) ... a little different.

次に、以上のように複数回読み込むことにより得られた複数のイメージデータから解像差を抽出する。具体的には、図6に示すように、複数、ここでは2つのイメージデータ601及び602からその差分画像603を抽出し、複数回解像した場合に起こる解像差を光情報差分として顕在化した個体差を捉える。実際に解像差を算出する場合は、異なる点同士を比較しても意味がないから、それぞれのイメージデータが被写体同じ部分を写像する位置が重ね合わせるための移動と回転の変換値を算出する。イメージデータに算出された各々の変換値を用いて、各イメージデータのピクセル配列を重ね合わせ、重ね合わさる位置のピクセルの光情報を比較して光情報差分を算出する。この位置の重ね合わせのための変換値の算出には本技術分野で知られたいずれの方法も用いることができる。   Next, a resolution difference is extracted from a plurality of image data obtained by reading a plurality of times as described above. Specifically, as shown in FIG. 6, the difference image 603 is extracted from a plurality of image data 601 and 602 in this case, and the resolution difference that occurs when the image is resolved a plurality of times is revealed as an optical information difference. Capture individual differences. When actually calculating the resolution difference, it is meaningless to compare different points. Therefore, the conversion value of movement and rotation is calculated to superimpose the positions where each image data maps the same part of the subject. . Using each conversion value calculated for the image data, the pixel array of each image data is overlapped, and the light information of the pixel at the overlapping position is compared to calculate the light information difference. Any method known in this technical field can be used to calculate the conversion value for superimposing the positions.

例えば、このような変換値は、各々のイメージデータから特徴的な点を何点か抽出し、それらの特徴点が一致するようにアフィン変換する等して算出することができるが、これに限られない。なお、本実施形態では、複数のイメージデータ同士を比較するために、相互に対応する点を特定し、それらの点が重ね合わさるようにするためにイメージデータをどのように平行等の移動や、回転を施す必要があるかを示す変換値を求め、実際にイメージデータを変化して重ね合わせてしまわずに、変換値を用いて対応する点を特定して、その対応する位置にあるピクセルの光情報の差分を取るが、これは、実際に変換処理をしてイメージデータを重ね合わせると、微妙なズレが生じる可能性があるからである。したがって、このようなズレを回避することができれば、実際にイメージデータに変換処理をしてから差分を取って、以上の処理を行うこともできる。   For example, such a conversion value can be calculated by extracting some characteristic points from each image data and performing an affine transformation so that the feature points coincide with each other. I can't. In this embodiment, in order to compare a plurality of image data, the points corresponding to each other are specified, how to move the image data in parallel or the like in order to overlap those points, Find a conversion value that indicates whether it is necessary to apply rotation, actually change the image data, do not superimpose it, identify the corresponding point using the conversion value, and find the pixel at the corresponding position. The difference between the optical information is taken because this may cause subtle deviations when the image data is actually converted and superimposed. Therefore, if such a shift can be avoided, the above processing can be performed by taking a difference after actually converting the image data.

図22は、本実施形態の光情報差分の算出の詳細な一例を説明するための図である。上述の通り、本実施形態では、対象を複数回走査したイメージデータを、それが被写体を写像する位置を重ね合わせるための変換を行い、相互に対応している各ピクセルの光情報を比較して光情報差分を求めるが、具体的には、図22に示すような処理により実行することができる。まず、各イメージデータA2201、イメージデータB2202に対して被写体を写像する位置が重ね合わさるように変換値を求める。次に、各イメージデータA、Bを変換した結果、対応するピクセルの光情報(この例では、RBG成分)を比較し、その差を対応する物理位置の光情報差分とする。より具体的には、図22に示すように仮想的なイメージデータP2203を形成し(したがって、イメージデータPは、イメージデータA、Bよりも小さなサイズとなる)、イメージデータP2203の各点からイメージデータA、Bの対応する点を求める。イメージデータの拡大図A2205及びB2206に示すように、重ね合わせをしてもピルセルレベルでは、イメージデータAとBとは完全に一致することはなく、イメージデータA2205のあるピクセルは、イメージデータB2206の複数のピクセルと重なる。   FIG. 22 is a diagram for explaining a detailed example of the calculation of the optical information difference according to the present embodiment. As described above, in the present embodiment, the image data obtained by scanning the object a plurality of times is converted to superimpose the position where the object is mapped, and the light information of each pixel corresponding to each other is compared. Although the optical information difference is obtained, specifically, it can be executed by a process as shown in FIG. First, conversion values are obtained so that the positions where the subject is mapped are superimposed on the image data A2201 and the image data B2202. Next, as a result of converting each of the image data A and B, the light information of the corresponding pixels (in this example, the RBG component) is compared, and the difference is set as the light information difference of the corresponding physical position. More specifically, virtual image data P2203 is formed as shown in FIG. 22 (therefore, image data P has a smaller size than image data A and B), and an image is obtained from each point of image data P2203. The corresponding points of data A and B are obtained. As shown in enlarged views A2205 and B2206 of the image data, the image data A and B do not completely coincide with each other at the pill cell level even if they are overlapped. Overlapping with multiple pixels.

したがって、本実施形態では、例えば、光情報差分をとるため、1つのピクセルの光情報の値と、そのピクセルと重なる複数のピクセルの光情報の値との差分を取ることにより、光情報差分を算出するが、これに限られず本技術分野で知られたいずれの方法で算出することもできる。この場合、後述する連結点は、1つのピクセルの中心点2209と、対応する複数のピクセルの中心点の中心2210との中点2211とすることができる。この結果、得られた光情報差分をイメージとして色表現したものである。ただし、実際にはこのような中間過程は存在せず、光情報差分のデータより直接ヒトフデガキ線画が求められる。この各成分値を総和したものがイメージデータA、Bに対する光情報差分となる。   Therefore, in this embodiment, for example, in order to obtain the optical information difference, the optical information difference is obtained by taking the difference between the optical information value of one pixel and the optical information values of a plurality of pixels overlapping with the pixel. Although it calculates, it is not restricted to this, It can calculate by any method known in this technical field. In this case, a connection point to be described later can be a midpoint 2211 of the center point 2209 of one pixel and the center 2210 of the center point of a plurality of corresponding pixels. As a result, the obtained optical information difference is color-represented as an image. However, in reality, such an intermediate process does not exist, and a human balloon graphic is directly obtained from the optical information difference data. The sum of these component values is the optical information difference for the image data A and B.

このようにして、解像差は、対応するイメージの重なり合う位置における位相差として、例えば、図6に示すように各重なりあう位置におけるRGB各成分毎の差の絶対値の総和で表すことができる。ここで、2つのイメージデータ601、602の差分を取るにあたり、上述の通り各イメージデータのピクセルの重なり合う位置の特定をする必要があるために、予め各々のイメージデータの各特徴点などからそれぞれ対応する重なり合う位置を特定、すなわち被写体の同じ部分の光情報を比較できるように対応位置を特定している。このような重ね合わせの結果、A,B のイメージデータ601,602の物理対応位置に相当する各ピクセル値をRGB 成分毎に比較し、その差分を光情報差分として色表現したものが光情報差分C となる。すなわち、イメージデータ601の配列A(1,1: 112, 28, 93)(2,1: 17, 30,104)(3,1: 39, 36,107)(4,1: 221, 38,108)・・・およびB(1,1: 110, 45, 99)(2,1: 28, 24,167)(3,1: 35, 41,100)(4,1: 209, 43,111)・・・を実際の距離に換算し、A’(0.009,5.391,0.0: 112, 28, 93)(0.027,5.391,0.0: 17, 30,104)(0.045,5.391,0.0: 39, 36,107)(0.063,5.391,0.0: 221, 38,108)・・・(座標の単位はμm)およびB’(0.011,5.392,0.0: 110, 45, 99)(0.031,5.392,0.0: 28, 24,167)(0.048,5.392,0.0: 35, 41,100)(0.066,5.392,0.0: 209, 43,111)・・・とすると、A’(+)B’= CB’(0.011,5.392,0.0: 110, 45, 99)(0.031,5.392,0.0: 28, 24,167)(0.048,5.392,0.0: 35, 41,100)(0.066,5.392,0.0: 209, 43,111)・・・となる。   In this way, the resolution difference can be expressed as a phase difference at the overlapping position of the corresponding images, for example, as a sum of absolute values of differences for each RGB component at each overlapping position as shown in FIG. . Here, in order to obtain the difference between the two image data 601 and 602, it is necessary to specify the overlapping position of the pixels of each image data as described above. The overlapping positions are specified, that is, the corresponding positions are specified so that the light information of the same part of the subject can be compared. As a result of such superposition, each pixel value corresponding to the physically corresponding position of the A and B image data 601 and 602 is compared for each RGB component, and the color representation of the difference as an optical information difference is an optical information difference. C. That is, array A (1,1: 112,28,93) (2,1: 17,30,104) (3,1: 39,36,107) (4,1: 221,38,108) ... of image data 601 and B (1,1: 110,45,99) (2,1: 28,24,167) (3,1: 35,41,100) (4,1: 209, 43,111) ... is converted into the actual distance, A '(0.009,5.391,0.0: 112, 28, 93) (0.027,5.391,0.0: 17, 30,104) (0.045,5.391,0.0: 39, 36,107) (0.063,5.391,0.0: 221, 38,108) ...・ (Coordinate unit is μm) and B '(0.011,5.392,0.0: 110, 45, 99) (0.031,5.392,0.0: 28, 24,167) (0.048,5.392,0.0: 35, 41,100) (0.066,5.392 , 0.0: 209, 43, 111) ... A '(+) B' = CB '(0.011, 5.392, 0.0: 110, 45, 99) (0.031, 5.392, 0.0: 28, 24, 167) (0.048, 5.392,0.0: 35, 41, 100) (0.066, 5.392, 0.0: 209, 43, 111).

以上のようにして得られた解像差は、対象に固有な特徴が反映されることから対象に一意な属性を有し、同一対象に対しさらに複数回読取って抽出して得られた結果同士に一定の相関関係が存在することとなる。この関係をより明確にする、すなわち対象の認証を可能にするため、得られた解像差から不安定再現要素点の連結を行う。換言すると、解像差から不安定再現要素点を不安定再現強度、つまり上述の例の各重ね合わせの位置の中点を光情報差分値の大きい順に並べると、この順位は撮影対象の解像処理に対して再現性、つまり同一の対象について一定の相関関係を持つ。不安定再現強度の数値、すなわち各イメージデータの光情報差分自体は、解像時の誤差の影響を個体差以上に受けるため、対象に固有な情報としては適さない。したがって、不安定再現強度の数値自体は無視して、位置情報のみを保持して並べ替えた順番でこの点を順に連結する。位置情報は、登録時と認証時の撮像機器構成が異なることにより被写体とイメージデータの大きさの比率が変化した場合などに対応するため、重なり合うピクセルの位置から、撮像機器構成である、撮像素子サイズ、レンズ構成、被写体間距離などの光学系の構成情報を用いて、イメージデータのピクセルサイズが対応する被写体の物理サイズ算出し、これにより重なり合うピクセルの中心点の物理写像位置の中点を求めて使用する。   The resolution difference obtained as described above has unique attributes for the target because the characteristics unique to the target are reflected, and the results obtained by further reading and extracting the same target multiple times There is a certain correlation in. In order to make this relationship clearer, that is, to enable authentication of the object, unstable reproducible element points are connected from the obtained resolution difference. In other words, if the unstable reproduction element points are arranged from the resolution difference to the unstable reproduction intensity, that is, the middle point of each overlapping position in the above example in descending order of the optical information difference value, this order is the resolution of the object to be imaged. Reproducibility for processing, that is, a certain correlation with respect to the same object. The numerical value of the unstable reproduction intensity, that is, the optical information difference itself of each image data is affected by the error at the time of resolution more than the individual difference, and thus is not suitable as information unique to the object. Therefore, the numerical value of the unstable reproduction intensity itself is ignored, and this point is connected in order in the order in which only the position information is retained and rearranged. The position information corresponds to the case where the ratio of the size of the subject and the image data changes due to the difference in the imaging device configuration at the time of registration and at the time of authentication. Using the optical system configuration information such as size, lens configuration, and distance between subjects, calculate the physical size of the subject corresponding to the pixel size of the image data, and find the midpoint of the physical mapping position of the center point of the overlapping pixels. To use.

具体的には、図7に示すように、図6において光情報差分を求めるために重ね合わせを行った各イメージデータの変換値から、重なり合うピクセル位置をピクセル中心点に写像される被写体の物理位置(3次元位置)に変換し、その中点を個体差を表す折れ線形状の連結線を構成する各連結点の位置情報として採用する。光情報差分701D(25) (80) (16) (20)・・・を、光情報差分の値の順に並べ替え、その先頭から差分値の計算に使用した2つのイメージデータの対応するピクセルの中心位置に写像される被写体の物理位置A’(3.353, 0.072, 0.0) (1.771, 0.960, 0.0) (5.295, 5.245, 0.0) (4.276, 0.928, 0.0)・・・、B’(3.357, 0.072, 0.0) (1.773, 0.963, 0.0) (5.292, 5.247, 0.0) (4.275, 0.927, 0.0)・・・を求める。その中点(X,Y,Z軸の平均位置)の位置情報をL (3.355, 0.072, 0.0) (1.772, 0.9615, 0.0) (5.2935, 5.246, 0.0) (4.2755, 0.9275, 0.0)・・・とし、画像702に示すように走査領域のイメージデータから得られた個体差を表す連結線を生成する。ここで、このような連結線あるいは連結線を示す画像をヒトフデガキ線画と呼ぶ。得られたヒトフデガキ線画は、後述するように1回の解像処理では得られない、再現性がある順位を持つものであり対象に固有な特徴を表している。   Specifically, as shown in FIG. 7, the physical position of the subject that is mapped to the pixel center point from the overlapping pixel position from the converted values of the respective image data that are superimposed to obtain the optical information difference in FIG. 6. It is converted into (three-dimensional position), and the midpoint is adopted as position information of each connecting point constituting a connecting line having a polygonal line shape representing individual differences. The light information differences 701D (25) (80) (16) (20)... Are rearranged in the order of the light information difference values, and the corresponding pixels of the two image data used for the calculation of the difference values from the head are calculated. Physical position A '(3.353, 0.072, 0.0) (1.771, 0.960, 0.0) (5.295, 5.245, 0.0) (4.276, 0.928, 0.0) ..., B' (3.357, 0.072) , 0.0) (1.773, 0.963, 0.0) (5.292, 5.247, 0.0) (4.275, 0.927, 0.0) ... L (3.355, 0.072, 0.0) (1.772, 0.9615, 0.0) (5.2935, 5.246, 0.0) (4.2755, 0.9275, 0.0) ... As shown in an image 702, a connection line representing an individual difference obtained from the image data of the scanning region is generated. Here, such a connection line or an image showing the connection line is referred to as a human balloon line drawing. As will be described later, the obtained human balloon line drawing has a reproducible order that cannot be obtained by a single resolving process, and represents a characteristic unique to the object.

以上の処理により、対象の走査により得られたデータの個体差から抽出される個体差情報である、不安定再現要素点の連結データを得ることができ、本実施形態では、この個体差情報を用いて対象の同一性に関する認証を行うが、以上説明した個体差情報、及び抽出方法は、本発明の一手法に過ぎず、対象を画像として読取った結果得られるデータの解像差に反映される対象に固有な情報を示すいずれかの情報を個体差情報として、本技術分野で知られたいずれかの方法により抽出することにより本発明で用いることができる。また、上述の説明ではRGBの各成分の値を用いたが、本発明の原理から理解できるように対象の表面の状態を一定の解像度で光学的に走査して得られる、各走査単位における光の強度のデータの配列であればいずれのデータも用いることができる。   Through the above processing, it is possible to obtain the connection data of unstable reproduction element points, which is individual difference information extracted from individual differences of data obtained by scanning the target. In this embodiment, this individual difference information is The individual difference information and the extraction method described above are only one method of the present invention, and are reflected in the resolution difference of data obtained as a result of reading the target as an image. Any information indicating information unique to a target to be detected can be used as an individual difference information in the present invention by being extracted by any method known in the art. In the above description, the values of the RGB components are used. However, as can be understood from the principle of the present invention, the light in each scanning unit obtained by optically scanning the surface state of the target with a constant resolution. Any data can be used as long as it is an array of data of the same intensity.

<対象の認証処理>
以下、図8、10及び23を参照して、上記で得られた個体差情報から対象を認証する、つまり印刷物などの対象を、既に個体差情報を抽出した対象と同一か否かを、個体差情報を用いて判定する一手法を説明する。まず、その前提として、図8を参照し、不安定再現要素点の順位関係の再現性、つまり光情報差分の強度の高い順に並べた連結点の位置情報が、同一の対象についてのものの場合、一定の類似性を有することを説明する。図21は、本実施形態の認証処理を示すフローチャートである。
<Target authentication process>
Hereinafter, referring to FIGS. 8, 10 and 23, the object is authenticated from the individual difference information obtained above, that is, whether the object such as a printed matter is the same as the object from which the individual difference information has already been extracted. One method for determination using difference information will be described. First, as a premise, with reference to FIG. 8, when the reproducibility of the ranking relationship of unstable reproduction element points, that is, the position information of the connection points arranged in order of the intensity of the optical information difference is for the same object, Explain that it has a certain similarity. FIG. 21 is a flowchart showing the authentication processing of this embodiment.

図8に示すように、対象502は予め複数回スキャナ等で読取られたイメージデータから、画像801に示す連結線で表されるような個体差情報が抽出され、データベース等の何らかの記憶手段に記憶されている。ここで、対象502をさらにカメラ501で複数回走査し、画像802に示すように、予め抽出した画像801に示すヒトフデガキ線画に従って、ヒトフデガキ線画の連結位置が重ね合わせたピクセルと対応する位置の光情報差分を求め、具体的には連結の順番に従って連結位置を比較する。この比較の結果、このヒトフデガキ線画は、解像差に個体差が反映されることから、図8に示すように全く同一にはならないものの、例えば画像801に示すヒトフデガキ線画上の点と、画像802の点とで、不安定再現要素点の順位に一定の再現性を持ち、ヒトフデガキ線画803を得ることができる。このため、同一の対象について得られたヒトフデガキ線画同士では、対応する連結位置の連結順位に再現性が存在することとなるので、順位が一致する程度により同一性を判定することができる。   As shown in FIG. 8, the object 502 is obtained by extracting individual difference information as represented by a connecting line shown in an image 801 from image data read in advance by a scanner or the like a plurality of times and storing it in some storage means such as a database. Has been. Here, the target 502 is further scanned with the camera 501 a plurality of times, and as shown in an image 802, optical information at a position corresponding to the pixel where the connected positions of the human balloon lines are overlapped according to the human balloon lines drawn in the image 801 extracted in advance. The difference is obtained, and specifically, the connection positions are compared according to the connection order. As a result of this comparison, since the individual difference is reflected in the resolution difference, this human balloon line drawing is not completely the same as shown in FIG. 8, but for example, the point on the human balloon line drawing shown in the image 801 and the image 802 With this point, the order of the unstable reproducible element points has a certain reproducibility, and a human balloon line drawing 803 can be obtained. For this reason, between the human line drawings obtained for the same object, there is reproducibility in the connection order of the corresponding connection positions, and therefore the identity can be determined based on the degree of the order matching.

ここで、本実施形態では光情報差分の強度の高い順に並べた連結点の位置を比較することにより対象の一致を判定しているが、ヒトフデガキ線画の比較の方法としては、これに限られず不安定再現要素強度の低い順に連結し、比較するなど、種々のパターンの比較方法、つまり連結比較法のバリエーションが考えられる。本発明を用いる場合は、撮像対象に最適なパラメータおよび比較方法を用いることで、認証対象の限定などが可能となるので、このようなパラメータおよび比較方法をあわせて、連結イロメガネあるいは連結比較設定と呼ぶ。連結イロメガネは、下記のように様々なパラメータを使用し、この組み合わせにより、ヒトフデガキ線画の連結方式が決められる。連結イロメガネの例を図17に示す。また、図18及び図19にヒトフデガキ線画の連結方式を示す。図18が、インデックス式を示しており、図19はシーケンス方式を示している。連結イロメガネで使用するパラメータ:((不安定再現要素強度の順位(正逆))(連結最低距離)(強度の閾値)(変化強度)(連結数)(走査領域)+α)である。   Here, in this embodiment, the matching of the objects is determined by comparing the positions of connection points arranged in descending order of the intensity of the optical information difference. Various pattern comparison methods, that is, variations of the connection comparison method, such as connecting and comparing in ascending order of stable reproduction element strength, are conceivable. In the case of using the present invention, it is possible to limit the authentication target by using the parameters and comparison method optimal for the imaging target. Call. The connected eyeglasses use various parameters as described below, and the combination method of the human line drawing is determined by this combination. An example of connected eyeglasses is shown in FIG. FIG. 18 and FIG. 19 show the connection method of the human line drawing line drawing. FIG. 18 shows an index formula, and FIG. 19 shows a sequence system. Parameters used in connected eyeglasses: ((rank of unstable reproduction element strength (forward / reverse)) (lowest connected distance) (threshold of intensity) (change intensity) (number of connections) (scanning region) + α).

また、これに対応するヒトフデガキ線画の形式の例を以下に示す。
「ヒトフデガキ線画」インデックス式:
((始点3次元座標XYZ)(始点3次元座ベクトル)(距離))+個数×((3次元ベクトル)(距離))
「ヒトフデガキ線画」シーケンス式:個数×3次元座標XYZ
すなわち、下記で詳述する降順の他に昇順、連結最低距離に満たない不安定再現要素点はスキップする、強度閾値以下の不安定再現要素点は連結しない、強度変化が一定以下の点はスキップする、連結数の最大値まで連結する、定義領域の範囲内のみ連結するなど種々の比較方法が可能である。なお、連結イロメガネは、対象が現れている素材自体や、対象の表現方法、すなわちどのようなインクを使用したどのような印刷方法かなどにより最適なものを選択することができ、実際の認証処理においては、予めどのような連結イロメガネを使用するかを定めておく必要がある。このため、上述の個体差情報を記憶しておくデータベース等には個体差情報に加え、どのような連結イロメガネを使用するのかをともに、あるいは一定の手法により関連付けて付随情報として記憶しておくことにより、最適な条件で個体差情報を使用して認証処理をすることができる。この付随情報には連結イロメガネのほかに、個体差情報を使用して対象の同一性を判定するために有効な、その他の情報も含めることができる。
In addition, an example of the format of the human balloon line drawing corresponding to this is shown below.
"Hitofudaki line drawing" index formula:
((Start point 3D coordinates XYZ) (start point 3D coordinate vector) (distance)) + number x ((3D vector) (distance))
“Hitokigaki Line Drawing” Sequence Formula: Number x 3D Coordinate XYZ
In other words, in addition to the descending order detailed below, ascending order, skip the unstable reproducible element points less than the minimum connection distance, do not connect the unstable reproducible element points below the intensity threshold, skip the points whose intensity change is below a certain level Various comparison methods such as connecting to the maximum number of connections, connecting only within the range of the definition area, and the like are possible. In addition, it is possible to select the most suitable linked eyeglasses depending on the material on which the object appears and the expression method of the object, that is, what printing method using what ink, and the actual authentication process. in, it is necessary to define whether to use the advance what connection colored glasses. For this reason, in addition to the individual difference information, a database or the like for storing the individual difference information described above stores, as ancillary information, what kind of connected glasses is used or is associated with a certain method. Thus, the authentication process can be performed using the individual difference information under the optimum conditions. In addition to the connected eyeglasses, the accompanying information can also include other information effective for determining the identity of the object using the individual difference information.

次に、具体的に同一性を判定、すなわち不安定再現要素点の順位の再現性を判定する手法を説明する。具体的な処理例として図23を参照して説明すると、認証対象の一致判定は、まず、最初に抽出され登録されたヒトフデガキ線画2301を連結順位に辿ることで、各連結位置が認証時に読み取り重ね合わせたイメージデータ2302のピクセルの物理面と対応するピクセルの光情報差分の値が所定の関係であるかどうかを見ることにより行う。ここで、一致判定は、連結イロメガネで定義された比較方法に従って行われる。例えば、一致ポリゴン形状が3点形状の場合は、ヒトフデガキ線画の連結の先頭から3点ずつ対応する順位関係が成立しているかを判定し、3点の対応関係が成立した場合、一致形状として一致ポリゴンをカウントする。次に、順に対応関係を判定していき、ヒトフデガキ線画の終点まで検索する。この結果、一致ポリゴン配列に一致形状が格納され、一致形状の個数が一致判定閾値以上の場合、認証成功と判定する。もちろん、所定のカウント数まで一致ポリゴンを探索し、そのカウント数を越えた時点で認証が成功したとして処理を終了させることもできる。   Next, a method for specifically determining the identity, that is, determining the reproducibility of the order of unstable reproducible element points will be described. A specific processing example will be described with reference to FIG. 23. First, the authentication target match determination is performed by first tracing the human balloon line drawing 2301 extracted and registered to the connection order so that each connection position is read and overlapped at the time of authentication. This is done by checking whether the value of the light information difference of the pixel corresponding to the physical surface of the pixel of the combined image data 2302 has a predetermined relationship. Here, the coincidence determination is performed according to a comparison method defined by the connected glasses. For example, if the matching polygon shape is a three-point shape, it is determined whether or not a ranking relationship corresponding to each of the three points from the beginning of the connection of the line-up line drawing is established. Count polygons. Next, the correspondence is determined in order, and the search is performed up to the end point of the human line drawing. As a result, when the coincidence shape is stored in the coincidence polygon array and the number of coincidence shapes is equal to or greater than the coincidence determination threshold, it is determined that the authentication is successful. Of course, it is also possible to search for matching polygons up to a predetermined number of counts and terminate the processing when authentication is successful when the number of counts is exceeded.

本実施形態では、認証時に連結線を生成せずに、登録された連結線に沿って認証時に走査したイメージデータをたどり一致順位の数をカウントしたが、認証時にも連結線を生成して、連結線同士を同様に比較して同一性を判定することもできる。具体的に図9を参照して、ポリゴンによるマッチングを説明する。すなわち、ヒトフデガキ線画を比較する1つの手法として、ヒトフデガキ線画の始点から順に3点ずつ対応関係をとり3点が一致した場合一致ポリゴンが存在すると係数することにより同一性の判定を行う。ポリゴンによるマッチングも、最初に抽出され登録された個体差情報の画像901に示すヒトフデガキ線画と、認証時に再度抽出した個体差情報の画像902に示すヒトフデガキ線画とを比較することで行う。2つのヒトフデガキ線画は、上述の連結の順位などのいずれかの連結イロメガネに従って比較され、一致判定され、連続する3点から三角形が形成される(一致ポリゴン形状が存在する)ので、マッチング画像903に示すようにヒトフデガキ線画の先頭から3点ずつ対応する順位関係が成立しているかを判定し、3点の対応関係が成立した場合、一致するポリゴンをカウントする。このように順に対応関係を判定していき、ヒトフデガキ線画の終点まで検索する。この結果、一致ポリゴン配列904に一致形状が格納され、一致形状の個数が一致判定閾値以上の場合、認証成功と判定する。   In this embodiment, without generating a connection line at the time of authentication, the image data scanned at the time of authentication along the registered connection line is traced and the number of matching ranks is counted. The connecting lines can be similarly compared to determine identity. Specifically, referring to FIG. 9, polygon matching will be described. That is, as one method for comparing the human balloon line drawings, the correspondence is determined in order from the start point of the human balloon line drawings, and the identity is determined by calculating a coefficient that a matching polygon exists when the three points match. The matching by polygon is also performed by comparing the human balloon line drawing shown in the image 901 of individual difference information extracted and registered first with the human balloon line drawing shown in the image 902 of individual difference information extracted again at the time of authentication. The two human balloon lines are compared according to any one of the connected iro-glasses, such as the above-mentioned connection order, and are determined to match, and a triangle is formed from three consecutive points (a matching polygon shape exists). As shown in the figure, it is determined whether or not a ranking relationship corresponding to each of the three points from the top of the line drawing is established, and if a corresponding relationship of three points is established, the matching polygons are counted. In this way, the correspondence is determined in order, and the search is performed up to the end point of the line drawing. As a result, when the matching shape is stored in the matching polygon array 904 and the number of matching shapes is equal to or greater than the matching determination threshold, it is determined that the authentication is successful.

<認証一致確率について>
デジタル撮影機器の解像度で解像される認証対象の物理サイズとフォーカスによって集光されるイメージデータのサイズ(ピクセルサイズ)に対応して、不安定(解像)再現強度点を重複せずに単純に強度順に全てのピクセルをつないだ場合に一致する確率が、点数を減らした場合どのように変化するかを以下に説明する。ここで、読み取られるイメージデータの枚数は2枚とし、解像度は同じものとする。
<About the authentication probability>
Corresponding to the physical size of the authentication target resolved at the resolution of the digital photographic device and the size of the image data collected by the focus (pixel size), it is simple without duplicating unstable (resolution) reproduction intensity points. The following describes how the probability of matching when all pixels are connected in order of intensity changes when the score is reduced. Here, the number of image data to be read is two and the resolution is the same.

上記の認証方法に基づき、最終的に、ヒトフデガキ線画は座標位置だけの相対関係のデータとなり、このヒトフデガキ線画が偶然に一致する確率は、以下に述べる式で表わされる。トリミング後の画像のx,y,z方向のサイズを、Xt, Yt, Ztとすると、不安定再現要素点の不安定性は一様であるとした場合、各要素点の自由度は、Xt×Yt×Ztとなり、不安定再現要素点の総数をNとすると、イメージデータ上の任意の1点が不安定再現要素点である確率は、 Based on the authentication method described above, the human balloon line drawing finally becomes the data of the relative relationship only in the coordinate position, and the probability that the human balloon line drawing coincides by chance is expressed by the following formula. If the instability of unstable reproducible element points is uniform, assuming that the size in the x, y, z direction of the cropped image is X t , Y t , Z t , the degree of freedom of each element point is , X t × Y t × Z t , where N is the total number of unstable reproduction element points, the probability that any one point on the image data is an unstable reproduction element point is

となる。ヒトフデガキ線画のマッチングを行った場合に、この1点が一致する確率は、登録時の画像のサイズを、Xr, Yr, Zrとすると、ピクセルに対応する物理位置が別のイメージデータの対応ピクセルの領域に入る場合と捉えると、 It becomes. The probability of matching this one point when matching a human line drawing is the size of the image at the time of registration is X r , Y r , Z r, and the physical position corresponding to the pixel is different from that of the image data. If you think that it falls within the corresponding pixel area,

となり、一致ポリゴン形状を3点形状とした場合、最初の3点が全て一致する確率は、 If the matching polygon shape is a three-point shape, the probability that the first three points all match is

となる。これを2番目以降の3点についても適用すると、一致形状数がPの場合の認証一致確率Rは、 It becomes. When this is applied to the second and subsequent three points, the authentication matching probability R when the number of matching shapes is P is

また、ヒトフデガキ線画として連結する不安定再現要素点の数Nを、イメージデータの全ピクセルとした場合は、   In addition, when the number N of unstable reproducible element points to be connected as a human line drawing is all pixels of the image data,

となり、連結数を減らしていくに従って、偶然に一致する確率は高くなることが分かる。逆に、認証判定の精度を上げるためには、一定以上の連結数の一致を条件とする必要がある。また、連続して一致するマッチング形状を3点から増やすと[数5]に示した{}内の乗算の数が増えることから偶然に一致する確率は低くなり、こうすることでも、認証精度を高めることが可能である。さらに自明であるが、[数3]において、最初の1番目および3番目の点のみ一致する確率は、 It can be seen that the probability of coincidence increases as the number of connections is reduced. On the other hand, in order to increase the accuracy of authentication determination, it is necessary to use a condition that the number of connections is equal to or greater than a certain level. Also, if the number of matching shapes that match continuously increases from 3 points, the number of multiplications in {} shown in [Equation 5] increases, so the probability of coincidence decreases, and this also improves the authentication accuracy. It is possible to increase. Furthermore, it is self-evident that in [Equation 3], the probability that only the first and third points match is

となり、偶然に一致する確率が高くなることが分かる。 It turns out that the probability of coincidence increases by chance.

上記で図9を参照して説明した例では、一致ポリゴン3点形状として、一致ポリゴン数5個を閾値として、これ以上の一致がなければ認証が失敗したと判定している。なお、この閾値は認証対象の特性、すなわちどのような素材にどのような方法で印刷したのか等により最適な値を決定することができる。   In the example described above with reference to FIG. 9, it is determined that the authentication has failed if there is no more match, with a match polygon three-point shape, with the number of match polygons being five as a threshold. Note that an optimum value can be determined as the threshold value depending on the characteristics of the authentication target, that is, what kind of material is printed by what method.

<実施例>
図1は、本発明の一実施形態における認証システムのシステム構成図である。本実施形態の認証システム100は、CPU101、ROM102、RAM103や各種外部とのインタフェースを備えた装置に、対象を読取るスキャナ110や、結果などを表示するディスプレイ120を接続できるようになっている。もちろん、本発明では、対象を読取るために何らかのスキャナが必要であるので、装置に内蔵することもできるし、その他の機能として結果を出力するプリンタを備えることもできるし、ネットワークに接続してデータベースと必要なデータのやり取りをすることもできる。具体的には、認証用の専用装置とすることもでき、カメラつき携帯電話やノートパソコン、あるいはパソコンにスキャナを接続するなど、本技術分野で知られた種々のシステム構成が可能である。
<Example>
FIG. 1 is a system configuration diagram of an authentication system according to an embodiment of the present invention. The authentication system 100 according to the present embodiment can connect a scanner 110 for reading an object and a display 120 for displaying a result to an apparatus having an interface with the CPU 101, ROM 102, RAM 103 and various external devices. Of course, in the present invention, since some kind of scanner is necessary to read the object, it can be built in the apparatus, or can be provided with a printer that outputs the result as another function, or can be connected to a network and used as a database. You can also exchange necessary data. Specifically, it can be a dedicated device for authentication, and various system configurations known in this technical field such as connecting a scanner to a camera-equipped mobile phone, a notebook computer, or a personal computer are possible.

図2は、本発明の一実施形態の機能ブロック図である。本実施形態では、ソフトウェアプログラムがCPU101上で実行され、本発明を達成するために必要な種々の機能が処理されるが、例えば図2に示すような機能ブロックごと処理することもできる。すなわち、対象をスキャンして画像を抽出する画像読取部201、得られた画像から個体差情報を算出する個体差情報算出部202、算出された個体差情報を比較する個体差情報比較部203および最終的に認証するかしないかを決定する判定部204などにより処理が実行される。本実施形態では、図2に示すような機能ブロックにより処理を実行するが、これに限られず、さらに機能ブロックを分割し、あるいは複数の機能ブロックを統合して異なる機能ブロックで処理を実行することもできる。   FIG. 2 is a functional block diagram of an embodiment of the present invention. In the present embodiment, a software program is executed on the CPU 101, and various functions necessary for achieving the present invention are processed. For example, each function block as shown in FIG. 2 can be processed. That is, an image reading unit 201 that scans a target and extracts an image, an individual difference information calculation unit 202 that calculates individual difference information from the obtained image, an individual difference information comparison unit 203 that compares the calculated individual difference information, and Processing is executed by the determination unit 204 that determines whether or not to authenticate finally. In the present embodiment, the processing is executed with the functional blocks as shown in FIG. 2, but the present invention is not limited to this, and the functional blocks are further divided, or a plurality of functional blocks are integrated and the processing is executed with different functional blocks. You can also.

本実施例の処理を図3、10ないし12を参照して説明する。ここで、本実施例は何らかの対象を、予め登録あるいは想定している対象と比較して、認証すなわち一致するか否かの判定を行うものであるから、本処理の前提として、既に説明した個体差情報が予め算出され、いずれかに記憶されているものとする。予め算出された個体差情報は、例えば、ROM102やRAM103などの装置内部のメモリに記憶しておいても良いし、外部の記憶装置やネットワークを介して取得することもできる。   The processing of this embodiment will be described with reference to FIGS. Here, in the present embodiment, a certain target is compared with a target that is registered or assumed in advance, and authentication or determination is made as to whether or not they match. It is assumed that the difference information is calculated in advance and stored in any one of them. For example, the individual difference information calculated in advance may be stored in a memory inside the device such as the ROM 102 or the RAM 103, or may be acquired via an external storage device or a network.

図3は、本発明の一実施形態の認証処理を示すフローチャートである。画像読取部201は、スキャナ110を用いて対象を読み取り画像データを出力する(S301)。読取に用いたスキャナ110は、予め個体差情報を算出するために使用された読取装置とは異なることが通常であるから、このようにして得られた画像データに一定の補正をかけ、読み取り差異がなくなるようにする(S302)。本実施例では、予め標準的な教示データを用いて個体差情報を算出するために使用する撮像機器等の位置補正、センサ受光色温度補正、ホワイトバランス補正、ISO感度補正、レンズの歪補正、色収差補正、集光補正、照明の光量補正、スペクトル補正、撮像機器のタイプによる変換などの解像を標準化するための補正値を取得しておき、この補正値を用いて構成されたフィルタを解像されたイメージデータに適用することにより、イメージデータの各ピクセル値を変換し、撮像機器構成などによらず一定の条件でイメージデータの読み取りを可能とするが、これに限られることなく記憶装置に記憶するなど別途補正値データをやり取りし、あるいはその他本技術分野で知られた方法によりイメージデータを生成することができる。   FIG. 3 is a flowchart showing authentication processing according to an embodiment of the present invention. The image reading unit 201 reads the target using the scanner 110 and outputs image data (S301). Since the scanner 110 used for reading is usually different from the reading device used for calculating individual difference information in advance, the image data obtained in this way is subjected to a certain correction and read difference. (S302). In this embodiment, position correction of an imaging device or the like used for calculating individual difference information using standard teaching data in advance, sensor light reception color temperature correction, white balance correction, ISO sensitivity correction, lens distortion correction, Obtain correction values for standardizing resolution such as chromatic aberration correction, condensing correction, illumination light quantity correction, spectral correction, and conversion according to the type of imaging device, and use these correction values to solve the filter. By applying to imaged image data, each pixel value of the image data is converted, and image data can be read under certain conditions regardless of the configuration of the imaging device, but the storage device is not limited to this. The image data can be generated by exchanging correction value data separately, such as by storing the image data, or by other methods known in the art.

次に、対象画像のうち通常は一部分を用いて認証することができる。図11は、本発明の一実施形態の具体的な応用例の抽出処理を説明するための図である。図11に示すように、対象となるのは何らかの製品に付されている表示ラベルであり、一種の印刷物である。このラベルのうちの適当に定められた一定のエリアを対象として画像を2回読み取り、得られた2つの画像からヒトフデガキ線画を生成する(S303)。次に、メモリ等から予め算出したヒトフデガキ線画を読み込み(S304)、図12に示すようにS303で生成されたヒトフデガキ線画と比較する(S305)。図12は、本発明の一実施形態の具体的な応用例の一致判定処理を説明するための図である。比較は、例えば上述したポリゴンによる連結比較法を用いて行い、一定の確率で一致が認められれば(S306)、認証成功を通知し(S307)、認められなければ認証の失敗を通知する(S308)。本実施例では表示ラベルの印刷部分を使用して認証判定したが、これに限られず本技術分野で知られたいずれの方法も用いることができる。例えば、目印としてラベルに予め印鑑を押下しておきその印影を対象とし使用することもでき、容器のいずれかの表面から色情報が読取れればそのようなデータを使用することもできる。   Next, it is possible to authenticate using a part of the target image. FIG. 11 is a diagram for explaining extraction processing of a specific application example of an embodiment of the present invention. As shown in FIG. 11, a target is a display label attached to some product, which is a kind of printed matter. An image is read twice for a predetermined area of the label as a target, and a human line drawing is generated from the two obtained images (S303). Next, the pre-calculated human balloon line drawing is read from the memory or the like (S304), and compared with the human balloon line drawing generated in S303 as shown in FIG. 12 (S305). FIG. 12 is a diagram for explaining the coincidence determination process of a specific application example of the embodiment of the present invention. The comparison is performed using, for example, the above-described connection comparison method using polygons. If a match is recognized with a certain probability (S306), a successful authentication is notified (S307), and if not, an authentication failure is notified (S308). ). In this embodiment, authentication is determined using the printed portion of the display label. However, the present invention is not limited to this, and any method known in this technical field can be used. For example, it is possible to press a seal stamp on a label in advance as a mark and use it as a target, and such data can be used if color information can be read from any surface of the container.

本実施例では以下のような装置及び設定等により、医薬品ラベルを用いて個体差抽出および個体差認証の処理を行った。認証対象のラベルは、縦横の長さが44.0[mm]×74.0[mm] のフィルム基材ラベルとし、印刷時に、特別なインクを使用したり、特殊な加工は行ったりはしていない。ヒトフデガキ線画の形式はシーケンス式とし、撮像用機材は、1075 万画素のCCD デジタルカメラ、フォーカスはマニュアルフォーカス、感度はISO100、絞りはF = 8、シャッタースピードは1/20[s]、撮影画像サイズ(W×H)は3872×2592[pixel]に設定し、撮影回数は2回とした。   In this example, individual difference extraction and individual difference authentication processing was performed using a pharmaceutical label with the following devices and settings. The label to be certified is a film base label with a vertical and horizontal length of 44.0 [mm] x 74.0 [mm], and no special ink is used or special processing is performed during printing. The format of the line drawing is sequence, the imaging equipment is a CCD digital camera with 10.75 million pixels, the focus is manual focus, the sensitivity is ISO 100, the aperture is F = 8, the shutter speed is 1/20 [s], and the captured image size (W × H) was set to 3872 × 2592 [pixel], and the number of shootings was two.

具体的には、以下の手順で個体差特徴の抽出を行った。
(1)図11に示すように、対象のラベルを、撮影範囲が縦横15.5[mm]×23.2[mm] になるようにセットし、上記の条件により2回撮影し、2枚分のイメージデータを得る。
(2)得られた2枚のイメージデータをそれぞれ8.7[mm]×8.7[mm] のサイズでトリミングし、次式で定義する光情報差分D(x,y)を2枚のイメージデータより求める。イメージデータ1をg1(x,y)、イメージデータ2をg2(x,y)とする。 X,Yは、イメージデータのx座標、y座標の集合とする。
Specifically, individual difference features were extracted by the following procedure.
(1) As shown in Fig. 11, set the target label so that the shooting range is 15.5 [mm] x 23.2 [mm] in the vertical and horizontal directions, and shoot twice under the above conditions. Get.
(2) The two image data obtained are trimmed to a size of 8.7 [mm] × 8.7 [mm], respectively, and the optical information difference D (x, y) defined by the following equation is obtained from the two image data. . Let image data 1 be g1 (x, y) and image data 2 be g2 (x, y). X and Y are a set of x and y coordinates of the image data.

ただし、g1R(x,y)は、g1(x,y)のRGB値のR成分を表しており、その他も同様である。
(3)次の条件で、ヒトフデガキ線画を生成する。不安定再現要素の連結順位は降順連結、連結最低距離は、62μm、不安定再現強度の閾値は10.0、連結数は250として、上記で得られた光情報差分から図11に示すヒトフデガキ線画1201を生成する。
(4)得られたヒトフデガキ線画1201を、認証対象の個体差特徴としてデータベースに付帯情報(使用した装置の設定、ヒトフデガキ線画生成条件など) と共に格納する。
(5)上記(1)と同条件で再度、対象を2回撮影し、同様に図12に示すようなヒトフデガキ線画1302を生成する。
(6)付帯情報にもとづいて、ヒトフデガキ線画をデータベースに照会し、データベースから呼び出したヒトフデガキ線画1201と、ここで求めたヒトフデガキ線画1302とを連結の先頭よりマッチングする。マッチング条件は、以下のように設定した。マッチング形状は、3点形状。一致判定最低形状数歯、4ポリゴン。
(7)マッチングの結果は図12に示すような認証結果1301となる。図12に示すように一致したポリゴン1303は一致形状数が26個で、4ポリゴン以上という条件を超えているので、登録したヒトフデガキ線画と同じ対象であると判定され、認証が成功したことが確認できる。
However, g1 R (x, y) represents the R component of the RGB value of g1 (x, y), and so on.
(3) Generate a starfish line drawing under the following conditions. The connection order of unstable reproduction elements is descending order connection, the minimum connection distance is 62 μm, the threshold value of unstable reproduction intensity is 10.0, and the number of connections is 250. From the optical information difference obtained above, the human line drawing shown in FIG. 1201 is generated.
(4) The obtained human balloon line drawing 1201 is stored in the database together with the accompanying information (setting of the used device, human balloon line drawing generation condition, etc.) as individual difference features to be authenticated.
(5) The object is imaged twice again under the same conditions as in (1) above, and a human balloon line drawing 1302 as shown in FIG. 12 is generated in the same manner.
(6) Based on the incidental information, the human balloon line drawing is referred to the database, and the human balloon line drawing 1201 called from the database and the human balloon line drawing 1302 obtained here are matched from the head of the connection. Matching conditions were set as follows. The matching shape is a three-point shape. Matching minimum shape number of teeth, 4 polygons.
(7) The matching result is an authentication result 1301 as shown in FIG. As shown in FIG. 12, since the number of matched polygons 1303 is 26 and exceeds the condition of 4 polygons or more, it is determined that the same target is the same as the registered human balloon line drawing and it is confirmed that the authentication is successful. it can.

図13ないし16は、本発明の一実施形態の具体的な別の応用例を説明するための図である。図13に示す例は、錠剤を対象とするものである。錠剤は、一般にその錠剤が何であるかを示すマークや名称などが表面に印刷されている。この印刷部分に本発明を用いて、錠剤1つ1つを個別に識別することができる。例えば、製造時に個体差情報を作成しておけば、どの工場のどのロットでいつ製造された錠剤かを一意に特定できることができ、様々な活用を期待することができる。また、錠剤表面自体から色情報を読取ることができれば、マーク等が印刷されていない錠剤でも本発明を用いて個体識別が可能となる。   13 to 16 are diagrams for explaining another specific application example of the embodiment of the present invention. The example shown in FIG. 13 is for tablets. In general, a tablet is printed on the surface with a mark or name indicating what the tablet is. Using the present invention for this printed part, each tablet can be identified individually. For example, if individual difference information is created at the time of manufacture, it is possible to uniquely identify which tablet in which lot of which factory and when it is manufactured, and various uses can be expected. Further, if color information can be read from the tablet surface itself, individual identification can be performed using the present invention even for a tablet on which no mark or the like is printed.

上述の医薬品ラベルと同様に具体的な認証処理を説明する。図13に示すように、錠剤は、縦横の長さが7.5[mm]×7.5[mm]の白地にグレーの刻印がある円形錠剤を使用した。これは一般的に購入できる市販薬である。撮像用機材は、上述の医薬品ラベルの例で用いたものと同じ機材とし、撮影条件は、シャッタースピードのみ1/50[s] とし、その他の値は同じ設定とした。また、撮影回数も同じ2回とした。   A specific authentication process will be described in the same manner as the above-described pharmaceutical label. As shown in FIG. 13, the tablet used was a round tablet with a gray stamp on a white background with a length and width of 7.5 [mm] × 7.5 [mm]. This is a commercially available drug that can generally be purchased. The imaging equipment was the same as that used in the above-mentioned example of the pharmaceutical label, the shooting conditions were 1/50 [s] only for the shutter speed, and the other values were set the same. Also, the number of times of shooting was the same two times.

以上の条件で下記のように個体差特徴の抽出を行った。
(1)対象の錠剤を、撮影範囲が縦横15.5[mm]×23.2[mm]になるようにセットし、上記の撮影条件により2回撮影し、2枚分のイメージデータを得る。
(2)2枚のイメージデータをそれぞれ、縦横4.2[mm]×3.5[mm] のサイズでトリミングし、上述の医薬品ラベルと同様にデジタル再現差を2枚のイメージデータより求める。
(3)連結イロメガネは、ヒトフデガキ線画形式:シーケンス式、連結順位;降順、連結最低距離:63μm、不安定再現強度の閾値:20.0、連結数:250とし、これによりヒトフデガキ線画を求める。求めたヒトフデガキ線画を図13に示す。
(4)求めたヒトフデガキ線画と付帯情報とをデータベースに格納し、認証登録を完了する。
(5)上記、(1)と同条件で再度、対象を2回撮影し、ヒトフデガキ線画を抽出する。
(6)同様に、データベースから呼び出したヒトフデガキ線画と今求めたものを連結の先頭よりマッチングをとる。マッチング条件は、マッチング形状:3点形状、一致判定最低形状数:5ポリゴンに設定した。
(7)マッチングの結果を図13に示す。一致形状数は13個であり、認証が成功したことを表している。
Under the above conditions, individual difference features were extracted as follows.
(1) The target tablet is set so that the shooting range is 15.5 [mm] × 23.2 [mm] in the vertical and horizontal directions, and is shot twice under the above shooting conditions to obtain image data for two sheets.
(2) The two image data are trimmed in a size of 4.2 [mm] × 3.5 [mm] in length and width, respectively, and the digital reproduction difference is obtained from the two image data in the same manner as the above-described pharmaceutical label.
(3) The connected cardboard glasses have a human balloon line drawing format: sequence formula, connection rank: descending order, minimum connection distance: 63 μm, threshold of unstable reproduction intensity: 20.0, number of connections: 250, thereby obtaining a human balloon line drawing. FIG. 13 shows the obtained human balloon line drawing.
(4) The obtained human balloon graphic and incidental information are stored in the database, and the authentication registration is completed.
(5) The subject is imaged twice again under the same conditions as in (1) above, and a human balloon line drawing is extracted.
(6) Similarly, matching is performed from the head of the connection between the human graffiti line drawing called from the database and what has been obtained. Matching conditions were set to a matching shape: a three-point shape and a minimum number of matching determination shapes: 5 polygons.
(7) The result of matching is shown in FIG. The number of matching shapes is 13, which indicates that the authentication is successful.

図14に示す例は、日本酒やワインなどのラベルに、本発明を適用する例であるが、ラベルの特定部分を定めるため、例えば落款や印章の部分などを使用することもでき、予め読み取り場所を詳細に定めなくても、容易に読み取り領域を特定することができる。あるいはまた、本発明による認証に使用するために、印鑑を押下して表れた像を対象に読み取りを行って認証処理をすることもできる。   The example shown in FIG. 14 is an example in which the present invention is applied to a label such as sake or wine. However, in order to define a specific part of the label, for example, a part of a seal or a seal can be used, and a reading place is previously stored. It is possible to easily specify the reading area without specifying the details. Alternatively, for use in authentication according to the present invention, an authentication process can be performed by reading an image displayed by pressing a seal stamp.

図15に示す例では、レトルト食品の印刷部分を使用しているが、このように対象はどのような素材にどのような方法で印刷等されても、スキャナ等で読み取って画像を生成することができれば本発明に使用することができる。   In the example shown in FIG. 15, the printed portion of the retort food is used. In this way, even if the object is printed on any material by any method, it can be read by a scanner or the like to generate an image. If possible, it can be used in the present invention.

図16に示す例では、絵画の識別に本発明を用いているが、全体が印刷物であるため、どの部分を使用しても本発明を適用することができる。また、経年劣化が激しいこのような対象でも、一定の割合で一致する連結点が欠損せず保持されるため、認証精度を保つことが可能である。   In the example shown in FIG. 16, the present invention is used to identify a picture. However, since the whole is a printed matter, the present invention can be applied to any portion. Further, even in such an object that is severely deteriorated over time, the connection points that coincide with each other at a certain rate are retained without being lost, so that the authentication accuracy can be maintained.

上述の実施例の中では、錠剤を除きいずれもどの領域を用いて認証するかを特定する必要があるが、本技術分野で知られた、例えば予め右端の部分であると決めておいたり、別途指定領域の情報を伝達したりするなどにより特定することができる。   In the above-described embodiments, it is necessary to specify which area is used for authentication except for tablets, but it is known in the technical field, for example, it is determined in advance as the right end part, It can be specified by separately transmitting information on the designated area.

Claims (8)

第1のデジタル撮像手段の走査により認証対象を解像して得られた複数の第1のデジタルデータの対応位置における光情報差分を算出し、前記複数の第1のデジタルデータのピクセルサイズに対応する被写体における物理サイズにより算出された、前記複数の第1のデジタルデータの対応位置からなる点を前記算出された光情報差分の所定順に連結点として連結して生成される連結線を、前記認証対象を一意に特定する個体差情報として、記憶する手段と、
第2のデジタル撮像手段の走査により認証対象を解像して得られた複数の第2のデジタルデータのそれぞれのピクセル配列の対応位置を特定し、前記記憶する手段に記憶された前記連結線を読み出し、前記読み出された連結線上の前記連結点の位置を、折れ線を辿るように追跡し、前記連結点の位置に対応する、前記複数の第2のデジタルデータの対応位置におけるピクセルの光情報差分を算出し、前記複数の第2のデジタルデータの光情報差分が、前記連結線の順序に対して、所定の関係にあると判定される場合は認証が成功したと判定する手段と
を備えたことを特徴とする認証システム。
The optical information difference at the corresponding position of the plurality of first digital data obtained by resolving the authentication target by scanning with the first digital imaging means is calculated, and corresponds to the pixel size of the plurality of first digital data. A connection line generated by connecting points, which are calculated based on the physical size of the subject, corresponding positions of the plurality of first digital data as connection points in a predetermined order of the calculated optical information difference, Means for storing as individual difference information for uniquely identifying a target;
The corresponding position of each pixel array of the plurality of second digital data obtained by resolving the authentication target by scanning of the second digital imaging means is specified, and the connecting line stored in the storing means is determined. Reading, tracking the position of the connection point on the read connection line so as to follow a polygonal line, and the optical information of the pixel at the corresponding position of the plurality of second digital data corresponding to the position of the connection point Means for calculating a difference, and determining that the optical information difference of the plurality of second digital data is in a predetermined relationship with respect to the order of the connecting lines, and determining that the authentication is successful. An authentication system characterized by that.
前記第1のデジタル撮像手段および前記第2のデジタル撮像手段の解像度は異なることを特徴とする請求項1に記載の認証システム。   The authentication system according to claim 1, wherein the resolutions of the first digital imaging unit and the second digital imaging unit are different. 前記第1のデジタル撮像手段および前記第2のデジタル撮像手段は、認証対象を連続して複数回走査することを特徴とする請求項1または2に記載の認証システム。   The authentication system according to claim 1, wherein the first digital imaging unit and the second digital imaging unit scan an authentication target a plurality of times continuously. 予め設定された情報により、前記第1のデジタル撮像手段および前記第2のデジタル撮像手段の構成条件の相違によるイメージデータの相違を標準化するための補正を行う手段を更に備えたことを特徴とする請求項1ないし3のいずれかに記載の認証システム。   According to another aspect of the present invention, there is further provided means for performing correction for standardizing a difference in image data due to a difference in configuration conditions between the first digital imaging unit and the second digital imaging unit based on preset information. The authentication system according to any one of claims 1 to 3. 前記記憶する手段は、前記連結線の比較のためのパラメータ及び比較方法を含む連結比較設定をさらに記憶し、前記判定する手段は、前記連結比較設定を用いて、前記読み出された連結線上の前記連結点の位置を、折れ線を辿るように追跡し、前記第2のデジタルデータの光情報差分が、前記連結線の順序に対して前記連結比較設定に定められた所定の関係を有している場合は認証が成功したと判定することを特徴とする請求項1ないし4のいずれかに記載の認証システム。   The means for storing further stores a connection comparison setting including a parameter for comparison of the connection lines and a comparison method, and the means for determining uses the connection comparison setting on the read connection line. The position of the connection point is traced so as to follow a polygonal line, and the optical information difference of the second digital data has a predetermined relationship defined in the connection comparison setting with respect to the order of the connection lines. 5. The authentication system according to claim 1, wherein the authentication system determines that the authentication is successful. 前記連結線は、前記複数の第1のデジタルデータの対応位置からなる点を、前記複数の第1のデジタルデータの光情報差分の大きい順に連結して生成され、前記判定する手段は、前記複数の第2のデジタルデータの光情報差分が、前記連結線の順序に対して、所定の数降順である場合は認証が成功したと判定することを特徴とする請求項1ないし5のいずれかに記載の認証システム。   The connection line is generated by connecting points formed by corresponding positions of the plurality of first digital data in descending order of the optical information difference of the plurality of first digital data. The optical information difference of the second digital data is determined to be successful if it is in a predetermined descending order with respect to the order of the connecting lines. The described authentication system. デジタル撮像手段により認証対象を複数回走査して複数の第1のデジタルデータとして解像するステップと、
前記複数の第1のデジタルデータの対応位置における光情報差分を算出するステップと、
前記複数の第1のデジタルデータのピクセルサイズに対応する被写体における物理サイズを算出し、前記算出された物理サイズにより、前記複数の第1のデジタルデータの対応位置からなる点を連結点として算出し、前記算出された光情報差分の所定順に前記連結点を連結して生成される連結線を個体差情報として抽出するステップと、
前記抽出された連結線を記憶手段に登録するステップと
を備えたことを特徴とする認証情報登録方法。
Scanning the authentication object a plurality of times by the digital imaging means and resolving the plurality of first digital data;
Calculating an optical information difference at a corresponding position of the plurality of first digital data;
A physical size of a subject corresponding to a pixel size of the plurality of first digital data is calculated, and a point formed by a corresponding position of the plurality of first digital data is calculated as a connection point based on the calculated physical size. Extracting a connection line generated by connecting the connection points in a predetermined order of the calculated optical information difference as individual difference information;
An authentication information registration method comprising: registering the extracted connection line in a storage means.
第1のデジタル撮像手段の走査により認証対象を解像して得られた複数の第1のデジタルデータの対応位置における光情報差分を算出し、前記複数の第1のデジタルデータのピクセルサイズに対応する被写体における物理サイズにより算出された、前記複数の第1のデジタルデータの対応位置からなる点を前記算出された光情報差分の所定順に連結点として連結して生成される連結線を、前記認証対象を一意に特定する個体差情報として、記憶する手段を備えた認証システムにおいて、
第2のデジタル撮像手段により認証対象を複数回走査して複数の第2のデジタルデータとして解像するステップと、
前記複数の第2のデジタルデータのそれぞれのピクセル配列の対応位置を特定し、前記記憶する手段に記憶された前記連結線を読み出し、前記読み出された連結線上の前記連結点の位置を、折れ線を辿るように追跡し、前記連結点の位置に対応する、前記複数の第2のデジタルデータの対応位置におけるピクセル光情報差分を算出し、前記複数の第2のデジタルデータの光情報差分が、前記連結線の順序に対して、所定の関係にあると判定される場合は認証が成功したと判定するステップと
を備えたことを特徴とする認証方法。
The optical information difference at the corresponding position of the plurality of first digital data obtained by resolving the authentication target by scanning with the first digital imaging means is calculated, and corresponds to the pixel size of the plurality of first digital data. A connection line generated by connecting points, which are calculated based on the physical size of the subject, corresponding positions of the plurality of first digital data as connection points in a predetermined order of the calculated optical information difference, As an individual difference information that uniquely identifies a target, in an authentication system having means for storing,
Scanning the authentication object a plurality of times by the second digital imaging means and resolving the plurality of second digital data;
The corresponding position of each pixel arrangement of the plurality of second digital data is specified, the connection line stored in the storage means is read out, and the position of the connection point on the read connection line is a broken line The pixel light information difference at the corresponding position of the plurality of second digital data corresponding to the position of the connection point is calculated, and the light information difference of the plurality of second digital data is calculated as follows: An authentication method comprising: a step of determining that the authentication is successful when it is determined that the connection line order is in a predetermined relationship.
JP2013108295A 2013-05-22 2013-05-22 Authentication method and system using connecting line generated from optical information difference Active JP5647297B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013108295A JP5647297B2 (en) 2013-05-22 2013-05-22 Authentication method and system using connecting line generated from optical information difference

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013108295A JP5647297B2 (en) 2013-05-22 2013-05-22 Authentication method and system using connecting line generated from optical information difference

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010029528A Division JP5280386B2 (en) 2010-02-12 2010-02-12 Authentication system and authentication information registration and inquiry method

Publications (2)

Publication Number Publication Date
JP2013179687A JP2013179687A (en) 2013-09-09
JP5647297B2 true JP5647297B2 (en) 2014-12-24

Family

ID=49270847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013108295A Active JP5647297B2 (en) 2013-05-22 2013-05-22 Authentication method and system using connecting line generated from optical information difference

Country Status (1)

Country Link
JP (1) JP5647297B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05274435A (en) * 1992-03-27 1993-10-22 Fujitsu Denso Ltd Image processor
JP3215162B2 (en) * 1992-05-25 2001-10-02 武藤工業株式会社 Curve forming method and apparatus
WO2002007096A1 (en) * 2000-07-17 2002-01-24 Mitsubishi Denki Kabushiki Kaisha Device for tracking feature point on face
JP2007034380A (en) * 2005-07-22 2007-02-08 Fuji Xerox Co Ltd Identity determination method and identity determination system
US8265381B2 (en) * 2005-07-25 2012-09-11 Yoichiro Ito Sign authentication system and sign authentication method
JP2008015860A (en) * 2006-07-07 2008-01-24 Matsushita Electric Ind Co Ltd Image recognition camera

Also Published As

Publication number Publication date
JP2013179687A (en) 2013-09-09

Similar Documents

Publication Publication Date Title
JP5280386B2 (en) Authentication system and authentication information registration and inquiry method
JP3271750B2 (en) Iris identification code extraction method and device, iris recognition method and device, data encryption device
TWI279735B (en) Method and device of color correction for projector, and projector
TWI567689B (en) Method for producing a three-dimensional image on the basis of calculated image rotations
TWI525382B (en) Camera array systems including at least one bayer type camera and associated methods
TWI394093B (en) An image synthesis method
JP2012141729A (en) Authenticity determination method, authenticity determination device, authenticity determination system, and color two-dimentional code
JP5703707B2 (en) Image processing system, image processing apparatus, and image processing program
CN110115022B (en) Image processing system, optical sensor, and learning device
CN107636733A (en) Verify the method and data processing terminal of the authenticity of printing item
CN104166839A (en) Method and system for calligraphy and painting authentication
JP6478995B2 (en) System, method and computer-accessible medium for authenticating physical objects using microscopic textures
Zhang et al. Application of Structured‐Light 3‐D scanning to the documentation of plastic fingerprint impressions: A quality comparison with traditional photography
JP2016103806A (en) Imaging apparatus, image processing apparatus, imaging system, image processing method, and program
KR20110006360A (en) Calibration method and apparatus for three dimentional solid color image acquirement
KR20180114293A (en) Method Comparing The Forged Sealing
JP2021529336A (en) 2D barcode generation method, authentication method, server, and 2D barcode
CN111639726B (en) Seal-based identity authentication system and method
JP5647297B2 (en) Authentication method and system using connecting line generated from optical information difference
JP5647298B2 (en) Optical information difference extraction method and system for individual difference authentication
CN204229410U (en) A kind of painting and calligraphy authenticity system
Berchtold et al. Fingerprinting blank paper and printed material by smartphones
CN111605327B (en) 3D stamp with concave-convex structure and 3D stamp pattern forming method
CN208722228U (en) A kind of identity authorization system
TWI785398B (en) Method for reading information of steel slab and system for reading information of steel slab

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141106

R150 Certificate of patent or registration of utility model

Ref document number: 5647297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250