WO2005071939A1 - Unauthorized copy preventing device and method thereof, and program - Google Patents

Unauthorized copy preventing device and method thereof, and program Download PDF

Info

Publication number
WO2005071939A1
WO2005071939A1 PCT/JP2005/001176 JP2005001176W WO2005071939A1 WO 2005071939 A1 WO2005071939 A1 WO 2005071939A1 JP 2005001176 W JP2005001176 W JP 2005001176W WO 2005071939 A1 WO2005071939 A1 WO 2005071939A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
photographic paper
lumps
image
unit
Prior art date
Application number
PCT/JP2005/001176
Other languages
French (fr)
Japanese (ja)
Inventor
Hiroshi Abe
Jun Hirai
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/586,359 priority Critical patent/US7856143B2/en
Priority to JP2005517331A priority patent/JP4461389B2/en
Priority to CN200580002880.5A priority patent/CN1910900B/en
Priority to EP05704229A priority patent/EP1708477A4/en
Publication of WO2005071939A1 publication Critical patent/WO2005071939A1/en

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03GELECTROGRAPHY; ELECTROPHOTOGRAPHY; MAGNETOGRAPHY
    • G03G21/00Arrangements not provided for by groups G03G13/00 - G03G19/00, e.g. cleaning, elimination of residual charge
    • G03G21/04Preventing copies being made of an original
    • G03G21/046Preventing copies being made of an original by discriminating a special original, e.g. a bank note
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00838Preventing unauthorised reproduction
    • H04N1/0084Determining the necessity for prevention
    • H04N1/00843Determining the necessity for prevention based on recognising a copy prohibited original, e.g. a banknote
    • H04N1/00846Determining the necessity for prevention based on recognising a copy prohibited original, e.g. a banknote based on detection of a dedicated indication, e.g. marks or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00838Preventing unauthorised reproduction
    • H04N1/00856Preventive measures
    • H04N1/00875Inhibiting reproduction, e.g. by disabling reading or reproduction apparatus
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T428/00Stock material or miscellaneous articles
    • Y10T428/24Structurally defined web or sheet [e.g., overall dimension, etc.]
    • Y10T428/24802Discontinuous or differential coating, impregnation or bond [e.g., artwork, printing, retouched photograph, etc.]
    • Y10T428/24893Discontinuous or differential coating, impregnation or bond [e.g., artwork, printing, retouched photograph, etc.] including particulate material
    • Y10T428/24901Discontinuous or differential coating, impregnation or bond [e.g., artwork, printing, retouched photograph, etc.] including particulate material including coloring matter

Definitions

  • the present invention relates to an apparatus for preventing unauthorized duplication, a method thereof, and a program, and is suitably applied to a case where unauthorized duplication of the content printed on paper is prevented.
  • paper is used as a printing target for various contents
  • the printing paper on which the contents (hereinafter referred to as printing contents) is printed is, for example, a commodity exchange medium such as money, a content certifying medium such as a certificate or It often has high value because it functions as various media such as information storage media such as personal works.
  • an object of the present invention is to propose an apparatus for preventing unauthorized duplication, a method and a program capable of appropriately protecting printed contents.
  • an unauthorized duplication preventing apparatus for preventing improper duplication of print content printed on photographic paper comprising: an acquiring means for acquiring pattern information based on a pattern included in the photographic paper; A storage means for storing the pattern information obtained by the means on the photographic paper, and a verification means for verifying the validity of the photographic paper based on the pattern information stored by the storage means are provided.
  • a method for acquiring pattern information based on a pattern included in photographic paper in an unauthorized duplication preventing method for preventing improper duplication of print content printed on photographic paper, a method for acquiring pattern information based on a pattern included in photographic paper
  • a first step, a second step of storing the acquired pattern information on the photographic paper, and a third step of verifying the validity of the photographic paper based on the stored pattern information are provided.
  • an unauthorized duplication preventing apparatus for preventing improper duplication of print content imprinted on photographic paper, an image pickup means for picking up an image on a photographic paper, and a pattern image obtained as a result of the image pickup means.
  • Extracting means for dividing the pattern in the plurality of areas into a plurality of areas, and extracting the divided areas as pattern information each representing a predetermined shape; storage means for storing the pattern information extracted by the extracting means on printing paper;
  • a verification means for verifying the validity of the photographic paper based on the pattern information stored by the storage means is provided.
  • a first step of imaging a pattern included in the photographic paper In a pattern image obtained as a result of imaging, a pattern is divided into a plurality of regions, a second step of extracting each of the divided regions as pattern information representing a predetermined shape, and extracting the extracted pattern information.
  • a third step of storing on the photographic paper and a fourth step of verifying the validity of the photographic paper based on the stored pattern information are provided.
  • a second process for extracting the extracted pattern information as printed pattern information a third process for storing the extracted pattern information as photographic paper ⁇ , and a validity of the photographic paper based on the patterned information stored on the paper. 4th process to verify And have been established.
  • an image pickup means for imaging a pattern included in the photographic paper, and an image taken by the image pickup means
  • Extraction means for extracting the features of the resulting pattern image
  • storage means for storing the features extracted by the extraction means on photographic paper; reconstructing the pattern image based on the features stored by the storage means; Verification means for verifying the validity of the photographic paper based on the composed pattern image is provided.
  • a first step of capturing an image of a pattern on the photographic paper in a method for preventing unauthorized duplication of print content printed on photographic paper, a first step of capturing an image of a pattern on the photographic paper, and a method of capturing a pattern image obtained as a result of the imaging.
  • a second step of extracting the features a third step of storing the extracted features on photographic paper, reconstructing a pattern image based on the stored features, and forming a photographic paper based on the reconstructed pattern image.
  • a fourth step for verifying correctness is provided.
  • a fourth process for verifying the validity of the photographic paper based on the image is executed.
  • an unauthorized duplication preventing apparatus for preventing improper duplication of print content printed on photographic paper, comprising: a dividing means for dividing a pattern included in the photographic paper into a predetermined unit area; For each area divided by the dividing means, a plurality of points for generating a curve approximating the contour are determined based on points on the contour of the area, and these points are extracted as pattern information. Extracting means, storing means for storing the pattern information extracted by the extracting means on photographic paper, reconstructing each area from the pattern information stored by the storing means, and printing using the reconstructed areas. A verification means for verifying the validity of the paper is provided.
  • a first step of dividing the pattern of the photographic paper into regions of a predetermined unit A second step of determining, for each region, a plurality of points for generating a curve that approximates the contour based on points on the contour of the region, and extracting these points as pattern information;
  • a fourth step for verifying is provided.
  • a first process for dividing a pattern in a pattern image obtained as an imaging result of a pattern included in a printing paper on which a predetermined printing content is printed into a region of a predetermined unit is provided to the control device.
  • a fourth process for verification is provided.
  • the pattern information obtained based on the pattern on the paper is stored in the paper, and the validity of the pattern is verified based on the pattern information.
  • the pattern of the pattern image is divided into a plurality of areas, and these areas are respectively extracted as pattern information representing a predetermined shape and stored on the photographic paper.
  • a feature of a pattern image obtained as a result of capturing a pattern of a pattern on a photographic paper on which predetermined print content is printed is extracted, and the extracted features are stored on the photographic paper.
  • a pattern included in photographic paper is divided into regions of a predetermined unit, and for each of the divided regions, a curve that approximates the contour is determined based on points on the contour of the region.
  • a plurality of points to be generated are determined, these points are stored on photographic paper as pattern information, and the validity of the photographic paper is verified based on the stored pattern information. Since the pattern of photographic paper can be accurately reproduced, unauthorized duplication can be easily prevented with high certainty without using special paper or the like, and thus the printed content can be appropriately protected.
  • FIG. 1 is a schematic diagram showing a paper pattern
  • FIG. 2 is a schematic diagram used to explain an illegal duplication prevention method.
  • FIG. 3 is a schematic diagram for explaining the reproduction from the original photographic paper.
  • FIG. 4 is a block diagram showing a configuration of an unauthorized duplication prevention device according to the present embodiment.
  • FIG. 5 is a block diagram for explaining a first processing mode of the control unit according to the first embodiment. .
  • FIG. 6 is a schematic diagram for explaining extraction of low frequency components.
  • FIG. 7 is a schematic diagram used for explanation of image separation.
  • FIG. 8 is a schematic diagram for explaining image separation based on a luminance histogram.
  • Fig. 9 is a schematic diagram used to explain the division of white lumps (black lumps).
  • FIG. 10 is a schematic diagram for explaining the removal of small lumps.
  • FIG. 11 is a schematic diagram used for explaining the calculation of the feature amount.
  • FIG. 12 is a schematic diagram showing the experimental result (1).
  • FIG. 13 is a schematic diagram showing types of two-dimensional barcodes.
  • FIG. 14 is a schematic diagram used to explain the collation of lumps (1).
  • FIG. 15 is a schematic diagram used to explain the collation of lumps (2).
  • FIG. 16 is a schematic diagram illustrating the joining or separation of lumps.
  • FIG. 17 is a schematic diagram for explaining the connection of lumps.
  • FIG. 18 is a schematic diagram for explaining separation of lumps.
  • FIG. 19 is a schematic diagram showing the experimental result (2).
  • FIG. 20 is a block diagram for describing a second processing mode of the control unit according to the first embodiment.
  • FIG. 21 is a schematic diagram for explaining the calculation of a feature amount by elliptic approximation.
  • FIG. 22 is a schematic diagram used for explaining the collation of lumps by elliptic approximation (1).
  • FIG. 23 is a schematic diagram for explaining the collation of lumps by elliptic approximation (2).
  • FIG. 24 is a schematic diagram illustrating the joining or separation of lumps.
  • FIG. 25 is a schematic diagram for explaining the connection of lumps by elliptic approximation.
  • FIG. 26 is a schematic diagram used to explain the coupling of lumps by elliptic approximation.
  • FIG. 27 is a block diagram for explaining a third processing mode of the control unit according to the first embodiment. '
  • FIG. 28 is a schematic diagram used to explain the calculation of the feature amount by the circle approximation.
  • FIG. 29 is a schematic diagram showing the data size of the feature amount by the circle approximation.
  • FIG. 30 is a schematic diagram for explaining the collation of lumps by circular approximation (1).
  • FIG. 31 is a schematic diagram for explaining the connection of lumps by circular approximation.
  • FIG. 32 is a schematic diagram illustrating the separation of lumps by circular approximation.
  • FIG. 33 is a block diagram for explaining a fourth processing mode of the control unit according to the first embodiment.
  • FIG. 34 is a schematic diagram for explaining the determination of the control point sequence.
  • FIG. 35 is a schematic diagram used to explain the data size.
  • FIG. 36 is a schematic diagram illustrating the generation of a Bezier curve.
  • FIG. 37 is a schematic diagram explaining the generation of the reconstructed lumps.
  • FIG. 38 is a schematic diagram showing a phase-only correlation result.
  • FIG. 39 is a schematic diagram illustrating the generation of a Bezier curve according to another embodiment.
  • FIG. 40 is a flowchart showing the authentication processing procedure.
  • FIG. 41 is a block diagram for explaining a processing mode of the control unit according to the second embodiment.
  • FIG. 42 is a schematic diagram for describing the extraction of a pattern pattern.
  • FIG. 43 is a schematic diagram used for describing the detection of the minimum point and the maximum point.
  • FIG. 44 is a schematic diagram showing the data size of the minimum point or the maximum point.
  • FIG. 45 is a schematic diagram used to explain image reconstruction.
  • FIG. 46 is a schematic diagram used for describing the Polonoy division.
  • FIG. 47 is a schematic diagram for explaining the determination of the luminance value in the small area.
  • FIG. 48 is a flowchart showing an image reconstruction processing procedure.
  • FIG. 49 is a schematic diagram showing a low-frequency pattern image and a reconstructed low-frequency pattern image.
  • FIG. 50 is a schematic diagram for describing image separation based on a luminance histogram according to another embodiment.
  • paper has a unique pattern (hereinafter referred to as a pattern) composed of complex entanglement of fibers on the inside, not on the surface. As can be seen from the fact that it can be visually recognized, it can be obtained as an image (hereinafter, referred to as a pattern image) by, for example, a transmission scanner.
  • a pattern image an image
  • a pattern pattern (hereinafter, referred to as a pattern pattern) in the pattern image is extracted and printed on photographic paper using the pattern pattern. To prevent unauthorized duplication of printed content.
  • the unauthorized duplication prevention device uses a pre-designated area (hereinafter designated as the designated area) in the original photographic paper (hereinafter referred to as the original photographic paper) OP pattern image.
  • the pattern pattern possessed in the AR is extracted as authentication information of the original photographic paper OP.
  • the unauthorized duplication prevention device uses the pattern pattern (hereinafter, referred to as an authentication pattern pattern) as a two-dimensional barcode (hereinafter, referred to as an authentication pattern code) BC, and the photographic paper surface of the original photographic paper ⁇ P. And print the authentication pattern on the original photographic paper OP.
  • an authentication pattern pattern a two-dimensional barcode
  • BC a two-dimensional barcode
  • the unauthorized duplication prevention device duplicates the printing content of the printing paper on which the authentication pattern code BC is printed (hereinafter referred to as a coded printing paper) XP c.
  • the pattern pattern included in the designated area AR in the pattern image of the coded paper XPc is extracted as comparison information with the authentication pattern pattern.
  • the unauthorized duplication prevention apparatus uses the pattern pattern for comparison (hereinafter referred to as a comparison pattern pattern) and the authentication pattern pattern based on the authentication pattern code BC. And verify the validity of the coded print and paper XPc (the presence or absence of the original photographic paper OP).
  • the unauthorized copy prevention device determines that the coded paper XPc is the valid original photographic paper OP, and Permits duplication of the print contents printed on the attached photographic paper XP c.
  • the unauthorized duplication prevention device determines that the coded paper XP c is not the original photographic paper OP but the copied photographic paper, and Reproduction of the print content printed on the photographic paper with code XP c is prohibited.
  • the original photographic paper OP can copy the print contents without limitation, but as shown in Fig. 3, the copy photographic paper on which the print contents are copied is placed in the designated area AR. Since the pattern pattern possessed is not duplicated, the duplicated photographic paper cannot duplicate the photographic content (original photographic content) at all.
  • reference numeral 1 denotes an overall configuration of an unauthorized duplication prevention device according to the present embodiment.
  • a control unit 2 for controlling the entire unauthorized duplication prevention device 1 is connected to a scanner unit 4 and a bus unit 3 via a bus 3. It is configured by connecting the printer unit 5.
  • the control unit 2 includes a central processing unit, a work memory, and an information storage memory.
  • the information storage memory stores position information (hereinafter, referred to as an area) of a designated area AR (FIG. 2) for each of various standard sizes of paper. Position information), for 2D barcode And various information such as character string information (hereinafter referred to as “code sentence, character string information”).
  • the control unit 2 executes various processes according to the program loaded in the work memory, using various information stored in the information storage memory as appropriate.
  • control unit 2 sends a pattern image reading command to the scanner unit 4 when a predetermined command for printing the authentication pattern code BC '(FIG. 2A) is given from the operation unit (not shown). Send out.
  • the control unit 2 receives pattern image data D1 (hereinafter referred to as original pattern image data) on the original photographic paper OP (FIG. 2A) from the scanner unit 4. If given, transition to the first mode (hereinafter, this mode is called the code printing mode).
  • original pattern image data hereinafter referred to as original pattern image data
  • the code printing mode transition to the first mode
  • the control unit 2 extracts the authentication pattern pattern from the pattern image of the original pattern image data D1, and converts the authentication pattern pattern into character string data for a two-dimensional bar code (hereinafter referred to as the authentication pattern). It is generated as D2 and sent to the printer unit 5.
  • the authentication pattern code data D2 is printed on the original photographic paper OP (FIG. 2 (A)) as the authentication pattern code BC (FIG. 2 (A)) in the printer unit 5.
  • control unit 2 When a predetermined duplication command is given from the operation unit, the control unit 2 sends a pattern image reading command and a code reading command to the scanner unit 4.
  • control unit 2 receives, as a response result of these commands, the pattern image data on the coded paper XPc (FIG. 2 (B)) from the scanner unit 4 (hereinafter referred to as code-added pattern image data). If D3 and the authentication pattern code data D2 obtained by reading the authentication pattern code BC (FIG. 2 (A)) printed on the photographic paper XPc with the code, the second Mode (hereinafter referred to as verification mode). .
  • control unit 2 extracts a comparison pattern pattern from the pattern image of the code-added pattern image data D3, and compares this comparison pattern pattern with the authentication pattern code data D2. Is collated with the authentication pattern pattern based on.
  • control unit 2 generates a copy permission command only when a match rate higher than a predetermined match rate is obtained, and sends it to the scanner unit 4.
  • the printed content of the coded paper X Pc (FIG. 2B) is read by the scanner unit 4, and the printed content is printed by the printer 5.
  • control unit 2 prints the authentication pattern pattern extracted from the original photographic paper ⁇ P on the original photographic paper OP as the authentication pattern code BC, and authenticates the printed authentication pattern code BC. Only the coded paper XPc having the comparative pattern pattern that matches the pattern pattern can be permitted to copy the print content.
  • the scanner unit 4 has a transmission mode, a reflection mode, and a code reading mode.
  • the transmission mode is set.
  • the code reading mode is executed when a code reading command is given.
  • the scanner unit 4 irradiates light to the original photographic paper P or the coded paper XP c placed on the platen and transmits the photographic paper OP or XP c.
  • the pattern projection light obtained by the above is imaged on a solid-state imaging device via an optical system.
  • the scanner unit 4 performs an AZD (Ana1og / Digita1) conversion process or the like on the pattern image signal obtained from the solid-state imaging device, and obtains the original pattern image data D1 or D1 obtained as a result.
  • the code-added pattern image data D 3 is sent to the control unit 2.
  • the scanner unit 4 irradiates the original photographic paper OP placed on the document table with light, and reflects the print content reflected light obtained by reflecting the photographic paper OP via an optical system. An image is formed on a solid-state imaging device. Then, the scanner unit 4 performs an AZD conversion process or the like on the print content image signal obtained from the solid-state imaging device, and sends the print content image data D4 obtained as a result to the printer unit 5. Further, the scanner unit 4 is connected to the scanner unit 4 in the code reading mode. The two-dimensional code reader 4a is activated, and the authentication pattern code data D2 supplied by being read by the two-dimensional code reader 4a is sent to the control unit 2.
  • the scanner unit 4 can read the pattern image, the authentication pattern code BC (FIG. 2), or the print content by executing the mode according to the various commands given from the control unit 2. It has been made.
  • the printer unit 5 stores the font information for the two-dimensional code (hereinafter, referred to as code font information) and the position information of the authentication pattern code BC (FIG. 2) for each of various standard sizes of paper (hereinafter, referred to as “code font information”). Are referred to as code position information), etc. are stored in the internal memory, and the printing process is executed using these information as appropriate.
  • code font information the font information for the two-dimensional code
  • code position information position information for each of various standard sizes of paper
  • the printing paper original printing paper OP set on the printing paper base at this time is moved to a predetermined position.
  • the authentication pattern code BC (Fig. 2 (A)) will be printed.
  • the printer unit 5 performs pulse width modulation processing or the like on the print content image data D 4, and prints the resulting print data on the print head unit. To send to.
  • the printing content of the original printing paper OP is duplicated on the paper set on the printing paper base at this time.
  • the printer unit 5 prints the authentication pattern code BC (FIG. 2) based on the authentication pattern code data D2 supplied from the control unit 2, and prints the printing content based on the image data D4. Has been made so that it can be replicated. Control unit processing.
  • control unit processing will be specifically described separately for the first embodiment and the second embodiment. Control unit processing according to the first embodiment
  • processing of the control unit 2 according to the first embodiment includes first to fourth processing modes, the processing modes will be sequentially described.
  • a pattern image of a low-frequency component (hereinafter, referred to as a low-frequency pattern image) is obtained from the pattern image.
  • the low-frequency component extraction unit 11 to be extracted, the low-frequency pattern image is a low-luminance component image (hereinafter, referred to as a white component pattern image), and the high-luminance component image (hereinafter, a black component pattern)
  • An image separating unit 12 that separates the image into a plurality of regions; a region dividing unit 13 that divides a pattern included in the white component pattern image and the black component pattern image into a plurality of regions;
  • control unit 2 applies a low-frequency component extraction unit 11, an image separation unit 12, and an area division unit 13 to the original pattern image data D 1 provided from the scanner unit 4.
  • Various processes are sequentially performed via the pattern pattern extraction unit 14 and the two-dimensional code conversion unit 15, and the authentication pattern code data D 2 obtained as a result is sent to the printer unit 5.
  • control unit 2 controls the low-frequency component extraction unit 11, the image separation unit 12, the area division unit 13, and the pattern with respect to the code-added pattern image data D 3 provided from the scanner unit 4. After various processes are sequentially performed through the pattern extracting unit 14, a matching process based on the processing result and the authentication pattern code data D 2 given from the scanner unit 4 is performed in the matching unit 16. ing.
  • the low frequency component extraction processing by the low frequency component extraction unit 11 and the image separation unit Image separation processing by 12; area division unit; area division processing by 13; pattern pattern extraction processing by pattern extraction unit 14; 2D code conversion processing by 2D code conversion unit 15 The collation processing by the collation unit 16 will be described in detail.
  • the low-frequency component extraction unit 11 determines the designated area from the pattern image of the original photographic paper ⁇ P (FIG. 2 (A)) or the coded paper XPc (FIG. 2 (B)).
  • Pattern image of AR (Fig. 2) (hereafter referred to as area pattern image) IM1 (Fig. 6
  • the low-frequency component extraction unit 11 extracts the area from the original pattern image data D1 or the code-added pattern image data D3 given from the scanner unit 4 based on the area position information stored in the internal memory.
  • the data of the pattern image IM1 is acquired, and the data of the acquired area pattern image IMl is subjected to Fourier transform processing to generate frequency component data.
  • the low-frequency component extraction unit 11 performs an inverse Fourier transform process on the data of this frequency component after setting the data value of the high-frequency component equal to or greater than a predetermined threshold to “0”, thereby obtaining a low-frequency component pattern image IM. 2 (hereinafter referred to as low-frequency pattern image data) D11 is generated and sent to the image separation unit 12 In this manner, the low-frequency component extraction unit 11 By extracting the low-frequency component pattern image IM2, it is possible to remove various noise components generally included in high-frequency components of an image, such as noise of a solid-state imaging device in the scanner unit 4. RU
  • the low-frequency component extraction unit 11 can avoid a decrease in the accuracy of pattern pattern (feature) extraction by the pattern pattern extraction unit 14 due to various noise components. As a result, the reliability of the collation result of the collation processing in the collation unit 16 can be improved.
  • Image separation processing
  • the image separation unit 12 converts the low-frequency component pattern image IM2 (FIG. 7 (A)) extracted by the low-frequency component extraction unit 11 into a white component pattern image WI M (Fig. 7 (B)) and a black component pattern image BIM (Fig. 7 (C)).
  • the image separation unit 12 sequentially detects the luminance value of the low-frequency component pattern image IM2 of the low-frequency pattern image data D11 supplied from the low-frequency component extraction unit 11 for each pixel, Pixels other than pixels (hereinafter, referred to as white pixels) having a luminance value equal to or less than a predetermined low luminance threshold (hereinafter, referred to as a white threshold) are converted to the highest luminance level.
  • a predetermined low luminance threshold hereinafter, referred to as a white threshold
  • the white component pattern image WIM is referred to as data (hereinafter, referred to as white component pattern image data.) D 1 2 To send to.
  • the image separation unit 12 generates pixels having a luminance value at which the detection result of the luminance value of each pixel in the low-frequency component pattern image IM2 is equal to or higher than a predetermined high luminance threshold (hereinafter, referred to as a black threshold). (Hereinafter, this is called a black pixel.)
  • a black component pattern image BIM (Fig. 7 (C)) is extracted by converting the pixels other than. To the lowest luminance level. Data (hereinafter, referred to as black component pattern image data) is transmitted to the area dividing unit 13 as D13.
  • the image separation unit 12 separates the white component pattern image WIM (Fig. 7 (B)) and the black component pattern image BIM (Fig. 7 (C)) to reduce the complexity of the pattern. The degree has been reduced.
  • the image separation unit 12 can prevent the pattern pattern extraction unit 14 from deteriorating the accuracy of pattern pattern (feature) extraction due to the large degree of complexity. In other words, the reliability of the matching result of the matching process in the matching unit 16 can be improved.
  • the image separation unit 12 further includes a white component pattern image WIM (FIG. 7 (B)) and a black component pattern image BIM (FIG. 7) for the low-frequency component pattern image IM2 (FIG. 7 (A)).
  • WIM white component pattern image
  • BIM black component pattern image BIM
  • C The white threshold and the black are set so that the area ratio of The threshold is adjusted.
  • the image separation unit 12 sequentially detects the luminance value of the low-frequency component pattern image IM2 for each pixel, and detects the white component pattern image WIM (FIG. 7B) and the black component pattern image BIM (FIG. 7).
  • (C)) is extracted, a distribution of luminance values for each pixel in the low-frequency component pattern image IM2 is generated as a luminance histogram based on the detection result, as shown in FIG.
  • the image separation unit 12 determines the number of white pixels (black pixels) in the white component pattern image WIM (black component pattern image BIM) extracted at this time as a low-frequency component pattern image. It is determined whether or not 20% of all pixels in IM2 (FIG. 7A) (broken line in FIG. 8).
  • the image separation unit 12 changes the white threshold (black threshold).
  • the white component pattern image WIM black component pattern image BIM is extracted again based on the obtained white threshold value (black threshold value).
  • the image separation unit 12 sets the white component pattern image WI such that the number of white pixels and black pixels is 20% of all pixels in the low-frequency component pattern image IM2 (FIG. 7 (A)).
  • M black component pattern image BIM
  • D 12 black component pattern image data D 13).
  • the image separation unit 12 relatively outputs the white component pattern image WIM (FIG. 7 (B)) and the black component pattern image based on the total number of pixels of the low-frequency component pattern image IM2 (FIG. 7 (A)). Since the image BIM (Fig. 7 (C)) can be separated, even if the color tone of the photographic paper (low-frequency component pattern image IM2) changes due to, for example, aging, the change in the color tone Has been made so that it can be removed.
  • the image separation unit 12 can prevent the pattern pattern extraction unit 14 from deteriorating the extraction accuracy of the pattern pattern (feature amount) due to such a change in the color tone.
  • the reliability of the matching result of the matching process in Part 16 It has been made so that it can be improved.
  • the area dividing unit 13 is configured to store a pattern included in the white component pattern image WIM (FIG. 7B) in units of a set of adjacent white pixels (hereinafter, referred to as white).
  • the pattern in the black component pattern image BIM (Fig. 7 (C)) is divided into areas (hereinafter referred to as black lumps) in units of a set of adjacent black pixels. Divide.
  • the area dividing unit 13 detects all white pixels from the white component pattern image WIM (FIG. 7B) of the white component pattern image data D12 supplied from the image separation unit 1.2. Then, as shown in Fig. 9 (A), a total of 8 pixels (4 pixels in the vertical and horizontal directions and 4 pixels in the diagonal direction) adjacent to the arbitrary target pixel AP (hereinafter, referred to as 8 neighborhood ratios) White pixels are connected sequentially.
  • the area dividing unit 13 associates the identification information with the white pixel group connected so far. Form white WD WD 2 ??, and WD n .
  • the area dividing unit 13 also generates a white component pattern image WIM (FIG. 7 (C)) for the black component pattern image BIM (FIG. 7 (C)) of the black component pattern image data D13 supplied from the image separation unit 12.
  • WIM white component pattern image
  • BIM black component pattern image
  • BD black lumps
  • the area dividing section 13 divides the pattern in the white component pattern image WIM (FIG. 7 (B)) into a plurality of white WDs (WD WDJ), and also sets the black component pattern image BIM (FIG. 7 (C)), the pattern can be subdivided by dividing the pattern into a plurality of black lumps BD (BDi B Dn).
  • the area dividing unit 13 can analyze the patterns in the white component pattern image WIM (FIG. 7 (B)) and the black component pattern image BIM (FIG. 7 (C)) in detail. Therefore, the pattern pattern (feature) extraction accuracy in the pattern pattern extraction unit 14 Thus, the reliability of the collation result of the collation processing in the collation unit 16 can be improved.
  • the area dividing unit 13 includes, as shown in FIG. 10 (A), for example, a pattern having a white component pattern image WIM (FIG. 7 (B)) having a plurality of white dummy WDs (WD WD n ). Then, as shown in Fig. 10 (B), from each of the white lumps WD, the lumps whose number of connections is less than a predetermined number (hereinafter referred to as small lumps) are removed. Then, the white dummy WD (WDt WDj) obtained as a result of the removal is sent to the pattern extracting unit 14 as data (hereinafter, referred to as white dummy data) D14.
  • white dummy data data
  • the area dividing unit 13 removes small lumps in the same manner as white lumps WD (WDi WDj for black lumps BD (BDi BDj) and converts black lumps BD (BDi BDn) obtained as a result of the removal into data ( Hereinafter, this is referred to as black dama data.)
  • the data is transmitted to the pattern pattern extraction unit 14 as D15.
  • the area dividing unit 13 applies only the pattern feature portions of the white component pattern image WIM (FIG. 7 (B)) and the black component pattern image BIM (FIG. 7 (C)) to the white WD and WD. Since the pattern can be extracted as black lumps BD, the pattern pattern (characteristic amount) extraction accuracy in the pattern pattern extraction unit 14 can be further improved.
  • Pattern level feature extraction unit 14 and the feature quantity of the shape of each white lumps WD (WD 1 ⁇ WD n) and the black lumps BD (BDi BDn) to be calculated, to extract a crest-like pattern.
  • the pattern pattern extraction unit 14 determines the center coordinates (x c , y J, long side 1, short side w, and long side) of each of the lumps (white lumps WD or black lumps BD). 1
  • the angle ⁇ between the axis and the axis (hereinafter referred to as the rectangle information value) is calculated as a feature value.
  • the pattern pattern extraction unit 14 is configured to calculate individual feature amounts for each of the white damage WDs (WDi WDj) of the white damage data D 14 supplied from the area dividing unit 13. If the luminance value of the pixels that make up the white WD is defined as I (x, y),
  • the pattern pattern extraction unit 14 calculates these primary, secondary and tertiary image moments M 0 . , M 10 , M. There M 2. , M. 2. Using Mn, the center coordinates (x c , y c ) are
  • the angle ⁇ is calculated as follows:
  • the pattern pattern extraction unit 14 calculates the feature amount (rectangle information value) for each white WD (WD WDJ).
  • the pattern pattern extraction unit 14 also performs the above-mentioned processing for the black lumps 80 (BD 1 to BD n ) of the black lumps data 01 5 supplied from the area dividing unit 13, similarly to the white lumps WD (WD t to WD).
  • the features (rectangular information values) for each of the black lumps BD are calculated using equations (1) to (4).
  • the white lump WD (WD 1 to WD n ) and the black lump BD (BD 1 to B
  • the feature amount of each DJ (hereinafter, referred to as pattern feature amount) is a value representing the characteristic shape of the pattern included in the area pattern image IMl (FIG. 6 (A)). This means the pattern pattern extraction result itself contained in the image IMl.
  • the pattern pattern extracting unit 14 uses the pattern feature data for authentication pattern data (hereinafter, referred to as authentication pattern pattern data) D 16 (FIG. 5) to the two-dimensional code conversion unit 15, and in the case of the verification mode, the pattern feature amount is compared with the pattern pattern data for comparison (hereinafter, referred to as comparison pattern pattern data). ) Is sent to the collating unit 16 as D 26 (FIG. 5).
  • the pattern pattern extraction unit 14 calculates the pattern feature amount composed of the rectangular information values of each of the white lumps WD and the black lumps BD, so that the designated area AR (FIG. 2 (A)) It is possible to extract a pattern pattern (authentication pattern pattern or comparison pattern pattern) included in the above.
  • the two-dimensional code conversion unit 15 stores the authentication pattern pattern (pattern feature amount) as the authentication pattern code B C (FIG. 2A) on the original photographic paper OP.
  • the two-dimensional code conversion unit 15 determines the pattern feature amount of the supplied authentication pattern pattern data D 16 (rectangular information value of each white WD WD and each black BD) to a decimal point or less.
  • the pattern character amount obtained as a result is subjected to a two-dimensional barcode conversion process based on the code character string information stored in the memory to generate pattern code data D 2 for authentication, and It is sent to the printer unit 5 at the timing of.
  • the authentication pattern code data D2 is stored in the printer unit 5 at a predetermined position on the photographic paper (original photographic paper OP) set on the photographic paper board, as shown in FIG. )), And the authentication pattern is recorded on the original photographic paper OP (Fig. 2 (A)).
  • 1 Tsunoshiro lumps or black lumps BD rectangle information values in, (the center coordinates (x c, yc), the long side 1, the short side w and the angle 0) may take data range, in FIG. 1 2 (A) Assuming the data range shown in the figure, the data size of the rectangular information value in the single white or black dummy BD was about 9 [bytes] (72 [bit]) from the experimental results.
  • the pattern feature amount (each white WD and each black WD) obtained as a result of reducing redundant data by the above-described low frequency component extraction processing, image separation processing, area division processing, and pattern pattern extraction processing.
  • the data size of the rectangular information value of each dummy BD was 435 [bytes] on average and 504 [bytes] at maximum.
  • existing two-dimensional barcodes can convert two to three [Kbyte] binary data into two-dimensional barcodes. Therefore, even when the existing two-dimensional code is applied, the two-dimensional code conversion unit 15 performs the above-described low frequency component extraction processing, image separation processing, area division processing, and pattern pattern extraction processing. Thus, since redundant data is reduced, the authentication pattern pattern data D 16 can be appropriately converted into the authentication pattern code data D 2.
  • the matching unit 16 compares the comparative pattern pattern extracted from the coded paper XPc (FIG. 2 (B)) with the authentication pattern code BC (FIG. 2 (B)).
  • the original photographic paper OP stored in) is compared with the authentication pattern pattern.
  • the matching unit 16 is configured to use the white WD WD and the black black BD (hereinafter referred to as black WD) represented by the pattern feature (rectangular information value) of the comparison pattern ⁇ ⁇ ⁇ pattern data D 26 supplied from the pattern pattern extraction unit 14. , And these are referred to as comparison lumps.)
  • black WD the black black BD
  • authentication lumps a specific matching process by the matching unit 16 will be described with reference to FIG. 14. For convenience of explanation, a matching process between one authentication dummy and a comparison dummy will be described here.
  • Figure 14 shows the positional relationship of the rectangle represented by the rectangle information values (center coordinates ( xc , yJ, long side 1, short side w, and angle ⁇ between the long side 1 and the axis)).
  • g r is the center coordinates of the authentication lumps (x c, y c )
  • R is the rectangle of the comparison dummy (solid line)
  • S is the area represented by the long side 1 and short side w of the comparison dummy
  • g is the center coordinate of the comparison dummy
  • X c and y ' show the centers represented by J.
  • ⁇ ''and d is
  • the matching unit 1 6 based on the authentication lumps and rectangular information value of the comparison lumps both central g r of the authentication lumps are present in the rectangle R of the comparative lumps, and comparison center g of use lumps determines whether present within the rectangle R r of the authentication lumps. Then, if the centers g r and g of both sides are within the rectangles R and R r of each other, the matching unit 16 compares the distance d between the centers, the inclination difference ⁇ ′ between the rectangles, and the area S r of the authentication dummy. The difference from the area of the lump S (hereinafter referred to as the lump area difference) is equal to or less than a predetermined threshold. It is sequentially determined whether it is below. ,
  • the collation unit 16 determines that the authentication lumps and the comparison lumps are the same lumps if all of them are equal to or less than the threshold value. In such a case, it is determined that the authentication dummy and the comparison dummy are not the same dummy.
  • the matching unit 1 as a countermeasure to prevent such erroneous determination, the ratio of the long side 1 and the short side w of the ratio of the long side 1 tau and short w r of the authentication lumps and comparative lumps If both are close to “1”, even if the inter-rectangle difference 0 r — ⁇ (that is, 6 ′ in FIG. 14) is equal to or greater than the threshold, if the difference It is determined that the comparison dummy is the same as the dummy.
  • the matching ⁇ 16 is made up of a comparison pattern pattern (each comparison dummy represented by a pattern feature (rectangular information value)) extracted from the coded paper XPc (FIG. 2 (B)).
  • the original photographic paper OP stored in the authentication pattern code BC (Fig. 2 (B)) is compared with the authentication pattern pattern (each authentication dummy represented by the pattern feature (rectangular information value)). It has been made.
  • the matching unit 16 determines that the coded paper XPc corresponding to the comparative pattern image is a valid original photographic paper ⁇ P At this time, a copy permission command COM (FIG. 5) is generated and sent to the scanner unit 4 (FIG. 4).
  • the reflection mode is executed in the scanner unit 4, and the print content of the original photographic paper OP (FIG. 2 (A)) placed on the platen at this time is sent to the printer unit 5 as print content image data D4.
  • the printing content of the original printing paper OP (FIG. 2 (A)) is copied on the printing paper in the printer unit 5.
  • a comparative damper based on the coded paper XP c (FIG. 2 (A)). It can be assumed that the match rate of ⁇ becomes ⁇ .
  • one divided as one authentication dummy in the code printing mode is divided as two different comparison dummy in the verification mode.
  • two authentication lumps separated in the code printing mode are separated as one comparison lumbar in the verification mode.
  • the shape (rectangular information value) of the comparison dummy that should correspond to the authentication dummy differs, and as a result, a situation occurs when the matching rate of the comparison dummy decreases.
  • the matching unit 16 performs the joining matching processing for each of the comparison dummy that does not match. And the separation and collation processing are sequentially performed.
  • comparison combination lumps adjacent comparison lumps are combined with each other, and the combined lumps (hereinafter, referred to as comparison combination lumps) are matched with the corresponding authentication lumps.
  • comparison lumps are separated, and the separated lumps (hereinafter, referred to as comparison separation lumps) are compared with the corresponding authentication lumps.
  • join matching processing will first be specifically described with reference to FIG. 17, but for convenience of explanation, here, a comparison join is performed by joining two adjacent comparison lumps together. A description will be given of the process of combining and matching the lumbar and the authentication lumbar.
  • FIG 1 7 is represented by the case and the rectangle information values DoTetsu in FIG 4 (the center coordinates (x c, y J, long side 1, the angle 0 of the short side w and the long side 1 and the shaft) It is those that shows a rectangular position relationship, Ri, R 2 is (shown in phantom) rectangular comparative lumps, gl, g 2 is represented by the center coordinates of the comparison lumps (x c, y c) R M (R r ) is the rectangle (shown by a solid line) of the comparison lumps (authentication lumps), and g f is the center coordinates (x c , y J) of the lumps for authentication. It is a thing.
  • the matching unit 16 determines that the centers g and g 2 of the comparison lumps to be combined are within the rectangle R r of the authentication lumps (that is, the rectangle R M of the combined comparison lumps). Is determined, and if the center g or g 2 exists in the rectangle R r , the center of gravity G (G, y G ) is obtained between centers distance between the center of gravity G and the center g r of the authentication lumps Find d.
  • the matching unit 16 determines that the comparison combining dummy which is the combining result of the separated comparison dummy and the authentication dummy are the same. We judge that it is lumps.
  • the collation unit 16 combines the comparison lumps that did not match by the collation processing, and collates the combined comparison lumps again with the authentication lumps.
  • This FIG. 18 is represented by rectangular information values (center coordinates (x e , y J, long side 1, short side w, and angle ⁇ between the long side 1 and the axis ⁇ ) as in FIG. that is limited to showing a rectangular position relationship
  • R represents (shown in phantom) rectangular comparative lumps
  • the center g is represented by the center coordinates of the comparison lumps (x c, y c)
  • R s physician R S 2 (R rl , R r 2 ) is the rectangle (shown by a solid line) of the comparison dummy (authentication dummy)
  • g fl is represented by the center coordinates (x c , y c ) of the authentication dummy.
  • the center is shown respectively.
  • G represents the center of gravity G (x G , y G ) of the comparative separation ball calculated according to equation (6)
  • d represents the center of gravity G of the comparison separation ball calculated according to equation (5).
  • the center-to-center distance between the centers g is shown, and the ellipses in the figure show the combined lumps for comparison and the separated lumps for comparison separated from each other.
  • the matching unit 16 determines whether or not the center g r or gr 2 of the authentication lump exists in the rectangle R of the comparison lump before separation, and If g r , and g r 2 exist, the center of gravity G (, x G , y G ) of the comparison separation dummy which is the separation result of the comparison dummy is obtained, and the center of gravity G and the comparison dummy Find the distance d between the centers and the center g.
  • the matching unit 16 determines that the two comparison separation lumps obtained by separating the combined comparison lumps and the authentication lumps are the same lumps.
  • the collation unit 16 separates the comparison lumps that did not match by the collation processing, and collates the separated comparison lumps again with the authentication lumps.
  • the collation unit 16 can eliminate the influence of the change in the imaging state by correcting the lumps so as to combine or separate the lumps adjacent to each other and then collating again. It is designed to significantly improve the reliability of
  • FIG. 19 shows the experimental results.
  • Process 1 when the join matching process and the separate matching process are not executed (“process 1”), when only the join matching process is executed (“process 2”), the join matching process and the separate matching process are performed.
  • Process 3 the result was divided into white lumps and black lumps, and was performed 10 times.
  • FIG. 20 When the processing contents of the second processing mode in the control unit 2 are functionally classified, as shown in FIG. 20 in which the same reference numerals are assigned to corresponding parts to FIG.
  • the processing contents of the unit 12, the area dividing unit 13 and the two-dimensional code converting unit 15 are the same as those in the first processing mode described above, but the pattern pattern extracting unit 1 14 and the matching unit 1 16 Is different from the first processing mode.
  • the pattern pattern extraction unit 1 1 4 is configured to output each white dummy WD (WD WD n) and each black dummy WD BD (BDi BDn) is different from the pattern pattern extraction unit 114 in which each white ball WD and each black ball BD are approximated in a rectangular shape in terms of approximating each ellipse R shape.
  • the center coordinates (x c , y c ), the major axis rd a , the minor axis rd b, and the major axis rd a of each of the lumps (white lumps WD and black lumps BD) are shown in FIG.
  • the angle ⁇ (hereinafter, referred to as ellipse information value) between the horizontal axis and the horizontal axis is calculated as a feature value.
  • the pattern pattern extraction unit 114 calculates the individual feature amount for each white WD WD (WDi WDj) of the white dash data D 14 supplied from the area dividing unit 13. Assuming that the luminance value of the pixels composing the dam WD is I (X, y), the following equation (7)
  • MA ⁇ the center coordinate (c ) yc) is calculated by the following equation (8)
  • the angle ⁇ is calculated according to the following equation (10)
  • the pattern pattern extraction unit 114 calculates the feature amount (elliptical information value) for each white WD WD (WD WDJ.: ':
  • the pattern pattern extraction unit 114 also applies the black dummy BD (BD 1 to BD n ) of the black dummy data D 15 supplied from the area dividing unit 13 similarly to the white dummy WD (WD WDn).
  • the feature amounts (elliptical information values) for each of the black lumps BD are calculated using the above-described equations (7) to (10).
  • the characteristic amount (hereinafter, referred to as a pattern characteristic amount) of the white dummy WD (WD WDJ and black black BD (BDi BDJ)) thus calculated is a pattern included in the area pattern image I Ml (FIG. 6 (A)). Since the value represents the characteristic shape of the pattern image, it means the pattern pattern extraction result itself included in the area pattern image I Ml.
  • the pattern pattern extracting unit 114 uses the pattern feature data for authentication pattern data (hereinafter referred to as authentication pattern pattern data) D 16 (FIG. 20). Is transmitted to the two-dimensional code conversion unit 15, and in the case of the verification mode, the pattern feature amount is used as data of a comparison pattern pattern (hereinafter, referred to as comparison pattern pattern data). 26 (FIG. 20) is sent to the matching unit 116.
  • the pattern pattern extraction unit 114 calculates the pattern feature amount composed of the elliptical information values of each of the white lumps WD and the black lumps BD, so that the designated area AR ( The pattern pattern (authentication pattern pattern or comparison pattern pattern) shown in FIG. 2 (A) can be extracted.
  • Tsunoshiro lumps ellipse information values in WD or black lumps BD (the center coordinates (x c, y J, major diameter at d a, the angle between the shorter diameter rd b and diameter rd a horizontal axis [Phi) Ri preparative is Assuming the data range shown in Fig. 12 ( ⁇ ) as the data range to be obtained, the data size of the elliptical information value in the one white WD
  • the collating unit 1 16 performs comparison lumps (white lumps WD and black lumps BD) represented by pattern features (elliptical information values) of the comparison pattern pattern data D 26 supplied from the pattern pattern extraction section 114. Each of them is sequentially collated with authentication lumps (white lumps WD and black lumps BD) represented by pattern features (elliptical information values) of the authentication pattern code data D2 given from the scanner section 4.
  • FIG 22 shows the ellipse information values (center coordinates (x c, y J, diameter d a, the positional relationship of the elliptical shape represented by the angle [Phi) with minor rd b and diameter rd a horizontal axis are as hereinbefore, E rd is the authentication lumps ellipse (broken line), S rd is the area represented by the major axis rd a ⁇ Pi minor rd b of the authentication lump, g rd the center coordinates of the authentication lumps (x c, the center represented by y c), E is an ellipse of the comparative lumps (solid line), S is the area represented by the major axis rd a and the minor axis rd b ratio ⁇ lumps, g is the center of the comparative lumps Coordinates (xc, y 'indicate the center represented by J. Also, d1 is given by the following equation (1 1)
  • is the angle ⁇ between the major axis rd a of the authentication dummy and the horizontal axis
  • the angle ⁇ between the major axis rd a of the comparative dummy and the horizontal axis is ⁇ .
  • difference i.e. the difference of the slope between the oval l3 ⁇ 4 E rd and ellipse E (hereinafter referred to as slope difference between elliptic) shows the triangle in the figure shows a comparison lumps.
  • the matching unit 1 16 determines that the center g rd of the authentication dummy exists within the ellipse E of the comparison dummy, based on the ellipse information values of both the authentication dummy and the comparison dummy, and center g of the comparative lumps you determine whether present in the ellipse E rd of the authentication lumps.
  • the matching unit 1 16 compares the center distance d, the elliptic slope difference ⁇ ′, and the area of the authentication dummy. It is sequentially determined whether or not the difference from the area S of the litter (hereinafter, referred to as the lump area difference) is equal to or less than a predetermined threshold.
  • the collation unit 116 determines that the authentication dummy and the comparison dummy are the same if any of the thresholds are equal to or less than the threshold. In the case of the above, it is determined that the authentication dummy and the comparison dummy are not the same dummy.
  • the collating unit 1 16 proposes an authentication dummy as a countermeasure to prevent such misjudgment. If the ratio of the major axis rd a and minor axis rd b of Hi ⁇ Pi comparative lumps with major axis rd a and minor axis rd b of close to both "1", the ellipse between slope difference rd - [Phi (i.e., Even if ⁇ ′) in FIG. 23 is greater than or equal to the threshold, if the difference in the lumps area is less than or equal to the threshold, the authentication lumps and the comparison lumps are determined to be the same lumps.
  • the matching unit 1 16 converts each comparison pattern represented by the pattern pattern (pattern feature (elliptical information value) extracted from the coded paper XPc (FIG. 2 (B)). ) And the authentication pattern of the original photographic paper OP stored in the authentication pattern code BC (Fig. 2 (B)) (each authentication domma represented by the pattern feature (elliptical information value)). Matching is done.
  • the matching unit 1 16 converts the coded paper XP c corresponding to the comparative pattern image into a valid original photographic paper OP.
  • a copy permission command COM (FIG. 5) is generated and sent to the scanner unit 4 (FIG. 4).
  • the reflection mode is executed in the scanner unit 4, and the print content of the original photographic paper P (FIG. 2 (A)) placed on the platen at this time is sent to the printer unit 5 as print content image data D4.
  • the print content of the original photographic paper OP (FIG. 2 (A)) is copied onto the paper in the printer unit 5 in this way.
  • the matching unit 116 may perform the combined matching for each non-matching comparison dummy.
  • the processing and the separation / collation processing are sequentially performed.
  • adjacent comparison lumps are combined with each other, and the combined lumps (hereinafter, referred to as comparison combination lumps) are collated with the corresponding authentication lumps.
  • comparison combination lumps are collated with the corresponding authentication lumps.
  • the merging process the comparison lumps are separated, and the separated lumps (hereinafter, referred to as comparison separation lumps) are compared with the corresponding authentication lumps.
  • join matching process will be specifically described first with reference to FIG. 25.
  • a comparison join damper obtained by joining two adjacent comparison damas together.
  • matching verification process with the authentication dummy.
  • rd is the ellipse (shown by a solid line) of the combined lumps for authentication (authentication lumps), and g rd is the center represented by the center coordinates (x c , y,) of the lumps for authentication. It is a thing.
  • the matching unit 1 16 is such that the center g 2 of each of the comparison lumps to be combined is present in the ellipse E rd of the authentication lumps (that is, the ellipse E MA of the combined comparison lumps E MA ). And if the center ⁇ g 2 '' exists in the ellipse E rd , the center of gravity G (x G , y G ), and the distance d between the center of gravity G and the center g rd of the authentication ball is obtained.
  • the matching unit 1 16 determines that the comparison combining dummy and the authentication dummy are the same dummy.
  • the matching unit 1 16 combines the comparison lumps that did not match by the matching process, and again compares the combined comparison lumps with the authentication lumps.
  • FIG. 26 is an ellipse information values as in the case of FIG. 2 2 (the center coordinates (x c, y c), the major axis at d a, the angle ⁇ between the minor diameter rd b and diameter rd a horizontal axis) by Shows the positional relationship of the ellipse represented, ⁇ represents the ellipse of the comparative dummy (shown by a broken line), g represents the center represented by the central coordinates (x c , y c ) of the comparative dummy, and E s E S 2 (E rd E rd 2 ) is the ellipse (indicated by the solid line) of the separation dummy for authentication (authentication dummy), and g rd is g r d2 is the center coordinate of the authentication dummy (X c, y c ) shows the center represented by each.
  • represents the ellipse of the comparative dummy
  • the collating unit 1 16 shows the center g rd or g rd 2 of the authentication lumps. It is determined whether or not the ellipse E of the comparison dummy before separation exists, and if the center gr dl , g rd 2 exists in the ellipse E, the separation for comparison is a separation result of the dummy for comparison.
  • the center of gravity G (x G , y G ) at Dama is determined, and the center distance d between the center of gravity G and the center g of the comparison dummy is determined.
  • the matching unit 1 16 determines that the comparison separation dummy and the authentication dummy are the same dummy. I have.
  • the collating unit 1 16 separates the comparison lumps that did not match by the collation processing, and collates the separated comparison lumps again with the authentication lumps.
  • the collation unit 116 corrects the lumps by combining and / or separating the lumps adjacent to each other and then performs the collation again, thereby eliminating the influence of the change in the imaging state. It is designed to significantly improve the reliability of the results.
  • the low frequency component extraction unit 11 When the processing contents of the third processing mode in the control unit 2 are functionally classified, as shown in FIG. 27 in which the same reference numerals are given to the corresponding parts in FIG. 5, the low frequency component extraction unit 11 The processing contents of the section 12, the area dividing section 13 and the two-dimensional code converting section 15 are the same as those in the first processing mode described above, but the pattern pattern extracting section 2 14 and the matching section 2 16 Is different from the first processing mode.
  • the pattern pattern extraction unit 2 14 approximates each white ball WD (WDi WDj and each black ball BD (BDi BDj) to a circular shape, and approximates the white ball WD and each black ball BD to a rectangular shape. This is different from the pattern pattern extraction unit 14.
  • the pattern pattern extraction unit 2 14 uses the white defect WD of the white defect data D 14 supplied from the area dividing unit 13 (Equation (7) for each WD) calculating the primary image moment MA 00 and secondary image moments MA 10, MA 01 according to.
  • the pattern pattern extraction unit 214 converts the center coordinates (x c , y. C ) ′ of each white ball WD ′ into the corresponding primary and secondary image moments MA 0 . , MA 10 , and MA 01 are calculated according to equation (9), and the radius rd is calculated by the following equation (1 3)
  • the pattern level feature extraction unit 2 '14 like the region separate portions 1 3 Black supplied from Damade data D 1 5 black lumps BD (BD White also BDj lumps WD (WD 1 ⁇ WD n), above (1 1), adapted to calculate the following (1 2) and (1 3), the circle information values for each said black da Ma BD (the center coordinates (x c, y c) and the radius rd) ing.
  • Damade data D 1 5 black lumps BD BD White also BDj lumps WD (WD 1 ⁇ WD n), above (1 1), adapted to calculate the following (1 2) and (1 3), the circle information values for each said black da Ma BD (the center coordinates (x c, y c) and the radius rd) ing.
  • the pattern data is sent to the matching unit 216 as comparison pattern data D 26 (FIG. 27).
  • the pattern pattern extracting unit 214 calculates the pattern pattern in comparison with the pattern pattern extracting unit 14 (FIG. 5) for calculating the rectangular information value or the pattern pattern extracting unit 114 (FIG. 20) for calculating the elliptical information value.
  • the load can be significantly reduced.
  • the circle information value (center coordinates (x c , y c ) and radius rd) can take in one white ball WD or black ball BD, as is clear from the experimental results shown in Fig. 29, Assuming the same data range as in Fig. 12 (A), the data size of the circle information value in the one white WD or WD is the data size of the rectangular information value (elliptical information value) (Fig. 1 2 (A)), it was able to reduce about 24 [bit].
  • the pattern pattern extracting unit 214 determines the data amount of the pattern pattern data D 16 and D 26 as can be seen by referring to the number of lumps (white lumps and black lumps) shown in FIG. It has been made so that it can be significantly reduced.
  • the pattern pattern extraction unit 224 can print the two-dimensional barco KB C based on the pattern pattern data D 16 onto the original photographic paper OP more quickly. It has been made possible to further reduce the waiting time.
  • the pattern pattern extraction unit 214 can perform the pattern pattern data D 16 and D 26 more quickly, so that the waiting time at the time of the pattern matching can be shortened and printing on the original photographic paper can be performed earlier. The printed content can be reproduced.
  • the collating unit 2 16 includes a white dummy WD and a black dummy WD represented by the pattern feature amount (circle information value) of the comparative pattern pattern data D 26 supplied from the pattern pattern extraction unit 214.
  • FIG. 30 is a circle information values (center coordinates (x c, y c), the radius rd) and shows the circular positional relationship represented by the circle of authentication lumps (dashed line), S rd Is the area represented based on the radius rd of the authentication lumps , g rd is the center represented by the center coordinates (x c , y c ) of the authentication lumps, C is the circle of the comparison lumps (solid line), S Is the area expressed based on the radius rd of the comparison dummy, and g is the center represented by the center coordinates ( Xc , yJ) of the comparison dummy.
  • d2 indicates the distance between the centers of the authentication lumps and the comparison lumps calculated in the same manner as in Equation (11), and the triangle in the figure indicates the comparison lumps.
  • the collation unit 2 16 determines that the center g rd of the authentication dummy exists in the circle C of the comparison dummy, based on the circle information values of both the authentication dummy and the comparison dummy. It is determined whether or not the center g of the luggage is within the circle C rd of the luggage for authentication.
  • the matching unit 2 16 determines the distance d between the centers, the area S ⁇ of the authentication dummy, and the area S ⁇ of the comparison dummy. Then, it is sequentially determined whether or not the difference in the lump area is smaller than a predetermined threshold value.
  • the collation unit 2 16 determines that the authentication lumps and the comparison lumps are the same lumps if all of them are equal to or less than the threshold value. In the case above, it is determined that the authentication dummy and the comparison dummy are not the same dummy.
  • the matching unit 216 performs the matching process based only on the center coordinates (x c , y c ) and the radius rd, so that the process for preventing the erroneous determination described above with reference to FIG. 23 is performed. Without identification, the identity of lumps (authentication lumps and comparison lumps) This makes it possible to make a judgment, thereby reducing the load of the collation processing and the erroneous judgment rate.
  • the collating unit 2 16 generates the comparison pattern (a pattern feature value (circle information value)) extracted from the coded paper XPc (FIG. 2 (B)). ) And the authentication pattern pattern (each authentication dummy represented by the pattern feature (circle information value)) of the original photographic paper OP stored in the authentication pattern code BC (Fig. 2 (B)). It has been done.
  • the matching unit 2 16 determines that the coded paper XP c corresponding to the comparison pattern image is a valid original photographic paper OP. At this time, it generates the copy permission command COM and sends it to the scanner unit 4 (Fig. 4).
  • the reflection mode is executed in the scanner unit 4, and the print content of the original photographic paper OP (FIG. 2 (A)) placed on the platen at this time is sent to the printer unit 5 as print content image data D4.
  • the printing content of the original printing paper OP (FIG. 2 (A)) is copied on the printing paper in the printer unit 5.
  • the matching unit 216 performs the first or second processing.
  • the joining matching process and the separating matching process are sequentially executed for each of the comparison lumps that do not match.
  • join matching processing will be described first.
  • a comparison join in which two adjacent comparison lumps are joined together.
  • the collation matching process between the lumbar and the authentication lumbar is described with reference to FIG.
  • the 3 1 is shows the circular positional relationship represented by as in the case circle information values of FIG. 3 0 (the center coordinates (x c, y c), the radius rd), C 1 C 2 is the circle of the comparison dummy (indicated by a dashed line), gi and g 2 are the center represented by the center coordinates (x c , y c ) of the comparison dummy, and C MA (C rd ) is the joint dummy of the comparison ( Circle for authentication (Indicated by the solid line), g rd is an illustration of the center coordinates of the authentication lumps (x c, the center represented by y J respectively.
  • G indicates the center of gravity G (x G , y G ) of the comparison joint lumps calculated in the same manner as in equation (1 2)
  • d 2 indicates the comparison center calculated in the same manner as in equation (1 1).
  • the center of gravity G of the combined lumps and the center distance between the centers g rd of the authentication lumps are shown, and the rectangle in the figure indicates the separated lumps for comparison and the combined lumps for comparison obtained by combining them. Thing.
  • the matching unit 2 16 is configured such that the center g or g 2 of each of the comparison lumps to be combined is the circle C rd of the authentication lumps (that is, the circle C MA of the combined comparison lumps C MA ). And if the centers gl and g 2 exist in the circle C rd , the center of gravity G (x G , y G ) and the center distance d 2 between the center of gravity G and the center g rd of the authentication ball.
  • the collating unit 2 16 determines that the comparison combining dummy and the authentication dummy are the same dummy.
  • the collating unit 216 combines the comparison lumps that did not match by the collation processing, and compares the combined comparison lumps again with the authentication lumps.
  • This 3 2 circle information values (center coordinates (x c, y c), the radius rd) and shows the circular positional relationship represented by, G is indicated by a circle (dashed comparative lumps ), G is the center coordinate of the comparison dummy (x c , y J), and C S 1 and C S 2 (C rd or C r . D 2 ) are the comparison isolation dummy (authentication dummy). Circles (indicated by solid lines ) and g rd and g rd 2 indicate the center coordinates (x c , y J) of the authentication lumps, respectively.
  • the G is (1 2) and the comparative separating lumps which are calculated in the same manner the center of gravity G (x G, y G) indicates, d 2 is for comparison is calculated in the same manner as (1 1)
  • the center-to-center distance between the center of gravity G of the separation lumps and the center g of the comparison lumps is shown.
  • the rectangle in the figure shows the comparison lumps that were combined and the comparison lumps that separated them. In this FIG.
  • the matching unit 2 16 determines whether or not the center g rd or g rd 2 of the authentication dummy exists within the ellipse C of the comparison dummy before separation, and determines the ellipse C If the centers g rdl , g rd 2 exist in, find the center of gravity G (x G , y G ) in the comparison separator that is the result of the comparison separator separation, and calculate this center of gravity G and the center of the comparison dummy. Find the distance d between centers with respect to g.
  • the matching unit 2 16 determines that the comparison separation dummy and the authentication dummy are the same dummy. I have.
  • the matching unit 2 16 separates the comparison lumps that did not match by the matching process, and again collates the separated comparison lumps with the authentication lumps.
  • the collation unit 211 can correct the lumps by combining and / or separating the adjacent lumps and then collate again, thereby eliminating the influence of the change in the imaging state. It is designed to significantly improve the reliability of the results.
  • the area division unit 3 13 generates the white component pattern image data D 12 supplied from the image separation unit 12 as white lumped data D 14 in both the code printing mode and the verification mode.
  • the processing content is the same as that of the area dividing unit 13 in that the black component pattern image data D 13 supplied from 12 is generated as black dummy 'data D 15.
  • the destination of the white dama data D14 and the black dama data D15 in the area dividing section 3 13 is different from that of the area dividing section 13.
  • the area dividing unit 13 sends the white lumped data D14 and the black lumped data D15 to the pattern pattern extracting unit 14 as they are in both the code printing mode and the verification mode.
  • the division section 3 13 is sent to the pattern pattern extraction section 314 in the code printing mode, and is sent to the matching section 3 16 in the verification mode.
  • the pattern pattern extraction unit 3 1 4 approximates the white lumps WD and the black lumps BD to a rectangular shape in that the white lumps WD (WD WDJ and the black lumps BD (BDi BDj) approximate the respective shapes themselves. differs from the pattern level feature extraction unit 14. in practice, pattern level feature extraction section 3 1 4, for each of white lumps WD (WDi WDn) and each black lumps BD (BD 1 ⁇ BD n), on the outer circumference of the lump The control point sequence for generating a Bezier curve is determined based on the points in (hereinafter referred to as the lumbar outer peripheral points), and these control point sequences are extracted as a pattern pattern.
  • the area separate portions 3 1 3 Shiroda supplied from Madeta D 1 4 white lumps WD (WD 1 ⁇ WD n) and black Damadeta D 1 5 black Da Ma BD (hereinafter referred to as the total area of lumps) is calculated based on the number of pixels, and the total area of lumps (number of pixels) stored in the internal memory in advance and the grid size of the square lattice and the Bezier curve are calculated.
  • the pattern is switched to the grid size and the order of the Bezier curve corresponding to the number of pixels detected.
  • the pattern pattern extraction unit 314 uses the square grid of the grid size switched at this time to specify the white AR data D 14 and the designated area AR and black dummy data.
  • a white spot having a control point sequence consisting of n + lj control points in the designated area AR for generating the n-th order Bezier curve switched at this time Determined for WD and Black Lama BD.
  • the pattern pattern extraction unit 3 1 4 is composed of a square lattice and white WD! Intersections P to P i 2 with the outer circumference of are recognized as control points.
  • the control point P 1 is used as the first starting point, and four adjacent control points are used as control point sequences P to P 4 to P 7 and Py Pi. , P 10 to P 12 are sequentially selected.
  • pattern level feature extraction section 3 1 each control points ⁇ ⁇ 4, ⁇ 4 ⁇ 7 , ⁇ 7 ⁇ 10, the end point of ⁇ 10 ⁇ 12 (control point [rho 4, [rho 7, [rho 10) the start point of the next control points (control points ⁇ 4, ⁇ 7, ⁇ is made is in so selected as 10), also the last control points ⁇ 10 ⁇ 3 control points in 12
  • the control point sequence is selected as it is.
  • control point sequences P i to P 4 , P 4 to P 7 , P 7 to P 10 , and P 10 to P 12 are determined as they are as the control point sequence for the white ball WD i
  • the control points The Bezier curves generated from the columns P i to P 12 are inside or outside the outer periphery of the white lumps, respectively, and thus are obtained as extremely different lumps from the actual white lumps.
  • the pattern pattern extraction unit 314 determines the control points between the start point and the end point in each of the control point sequences ⁇ P 4 , P 4 ⁇ P 7 , and P 7 ⁇ P 10 referred to as the control point) P 2 and P 3, P 5 and P e, and P 8 and P 9, last control points ? ⁇ ⁇ ? ⁇
  • the control point sequence between the first control point sequence ⁇ and the starting point (P 1 C ), P i) (hereinafter also referred to as the intermediate control point) P 11 and P 12 are the outer periphery of the white ball WD 1 They are also shifted inward or outward.
  • the pattern pattern extraction unit 314 determines the perpendicular to the line segment Pi—P 4 from the intermediate control points P 2 and P 3 and The points C 2 and C 3 corresponding to the intersection points Q 2 and Q 3 with the line segments P and P 4 are detected, and the detected points C 2 and C 3 and the control points P and P 4 are used as control points. determined as a column Pi- Cs- C 3 _P 4.
  • the pattern pattern extraction unit 314 calculates the points C 5 for the other intermediate control points P 5 and P 6 , P 8 and P 9 , P ii and P x 2 in the same manner as the intermediate control points P 2 and P 3. And C 6 , c 8 and C 9 , C fatigueand C 12 , respectively, and the corresponding points C 5 and C 6 , C 8 and c g , C Behavior and C 12 and the corresponding control points P 4 and P 7 ,? 7 and? 10 ,. And P
  • the pattern pattern extraction unit 314 controls the control point sequence P i -C 2 —C 3 —P 4 , P 4 _C 5 -C 6 —P 7 , P 7 —C 8 — C 9 -P 10, P 10 one c "one c 12 a is adapted to determine, respectively.
  • the control point sequence for generating the third-order Bezier curve is determined in the same manner as in the case of.
  • the pattern pattern extraction unit 314 converts the control point sequence of each of the white balls WD— (WD WDJ and the black balls BDi BDj) determined in this manner into authentication pattern data (hereinafter referred to as authentication pattern data). It is generated as D16 (Fig. 5) and sent to the two-dimensional code converter 15.
  • pattern level feature extraction unit 3144 the selected control point sequence (P ⁇ P 4, P 4 ⁇ P 7, P 7 ⁇ P 10, P 10 ⁇ P 12) of the intermediate control points in the control point sequence ( By shifting P 2 and P 3 , P 5 and P or P 8 and P 9 , and P 12 ) inward or outward from the outer periphery of the white ball, the ball that approximates the actual white ball WD more closely.
  • Control point sequence (P i— Cg— Cs— P 4 , P 4 — C 5 — C 6 — P 7
  • the data size of the authentication pattern pattern data D 16 is 32 k (n + 1) [bit] from the experimental results.
  • the two-dimensional code conversion unit 15 supplies the two-dimensional code from the above-described pattern pattern extraction unit 314 even when the existing two-dimensional code is applied.
  • the control point sequence of the authentication pattern pattern data D 16 can be appropriately converted as the authentication pattern code data D 2.
  • the verification unit 316 reads the authentication pattern code BC printed on the designated area AR of the coded paper XPc (FIG. 2 (B)) by the scanner unit 4 (authentication mode).
  • the processing result of the low-frequency component extraction processing, image separation processing, and area division processing for the pattern image data D 2) and the pattern image data D 3 with code read from the designated area AR at this time (white lumped data D 14)
  • the collation processing is performed based on the black and black lumps data D 15).
  • the collating unit 3 16 restores the authentication pattern pattern data D 16 by performing an inverse two-dimensional code conversion process on the supplied authentication pattern code data D 2, and Based on the control point sequence of the data D 16, white lumps corresponding to the original white lumps WD (hereinafter referred to as reconstructed white lumps) and black lumps corresponding to the original black lumps BD (hereinafter referred to as Reconstructed black lumps).
  • reconstructed white lumps white lumps corresponding to the original white lumps WD
  • black lumps corresponding to the original black lumps BD hereinafter referred to as Reconstructed black lumps.
  • a method for reconstructing the reconstructed white lumps and the reconstructed black lumps will be specifically described.
  • the reconstructed white lumps corresponding to the white lumps described with reference to FIG. 34 are reconstructed. The case will be described.
  • the collation unit 3 16 generates a control point sequence P “C 2 -C” for the white lumps (hatched areas surrounded by broken lines in FIG. 36) extracted by the pattern pattern extraction ⁇ 14.
  • P 4 - C 5 - C 6 - P have P 7 - C 8 - C 9 - P 10, P 10 - Bezier curve B c 1 corresponding from C i-C ⁇ 2, B e 2, B e 3 and B c 4 are generated respectively.
  • the matching unit 316 reconstructs the area surrounded by the Bezier curves Bc1, Bc2, Be3, and Bc4 by filling the area with a predetermined single luminance value. Generate white lumps.
  • the matching unit 316 generates reconstructed white lumps corresponding to white lumps.
  • the Bezier curve of the nth order has the control point as CP and the Bernsteiin function as
  • the matching unit 3 1 as in the case of white lumps WD 1, based on the control points of the white lumps WD 2 ⁇ WD n in authentication A pattern code data D 2, the white lumps WD 2 ⁇
  • the white lumps WD 2 In addition to generating a reconstructed white lump corresponding to WD n , based on the control point sequence for the black lump BD (BDi BDn) in the authentication pattern code data D2, the reconstructed black lump corresponding to the black lump BD is generated. It is made to generate lumps.
  • the matching unit 3 1 6, having such a reconstruction white lumps were produced in, and this time realm separate portions 3 1 of 3 white Damadeta D 24 supplied from the white lumps WD (WDi ⁇ WD n)
  • the phase-only correlation value C p between the extended reconstructed black lumps and the black lumps BD (BDi BDj) of the black lumps data D 25 supplied from the area dividing section 3 13 at this time is represented by
  • the pixels of the reconstructed white lumps and reconstructed black lumps are RD (X, y)
  • the pixels of the relevant white lumps WD and black lumps BD are D (x, y)
  • the two-dimensional Fourier transform is F
  • the two-dimensional inverse Fourier When the converted F 1, the following equation (1 6)
  • the matching unit 316 calculates the phase-only correlation value C p equal to or less than a predetermined threshold. . Is obtained, it is determined that the coded paper XPc (FIG. 2) placed on the mounting table of the scanner unit 4 at this time is a copy, and that the copy is prohibited at this time. Is notified via the display unit (not shown) of the scanner unit 4.
  • the matching unit 316 generates a phase-only correlation value C p higher than a predetermined threshold. If c is obtained, it is determined that the coded paper XPc (Fig. 2) placed on the mounting table of the scanner unit 4 at this time is a valid original photographic paper OP, and copying is permitted at this time.
  • the command CAM is generated and sent to the scanner unit 4 (FIG. 4).
  • the reflection mode is executed in the scanner unit 4, and the printing content of the coded paper XPc (original photographic paper OP) placed on the platen at this time is transferred to the printer unit 5 as printing content image data D4.
  • the print content of the original photographic paper OP (FIG. 2A) is duplicated on the paper in the printer unit 5.
  • the matching unit 316 has a feature that appears as a sharp peak in the case of the phase-only correlation (Fig. 38 (A)) when the correlation is present (Fig. 38 (A)).
  • the calculated phase-only correlation result is notified via a display unit (not shown).
  • the matching unit 316 can visually and easily understand the degree of the phase-only correlation result (the degree of validity).
  • a plurality of control points for generating a Bezier curve approximating the outer periphery of each of the white lumps WD and the black lumps BD are extracted as a pattern pattern, and this pattern pattern is used as authentication information as the original information.
  • the reconstruction corresponding to the white WD and the black BD based on the pattern stored in the coded paper XPc.
  • the white lumps and the reconstructed black lumps are generated, and the validity of the original photographic paper ⁇ P is verified using the reconstructed white lumps and the reconstructed black lumps.
  • the fourth processing mode a plurality of control points that are close to the outer periphery of each of the white lumps WD and the black lumps BD constituting the pattern included in the low-frequency component pattern image I M2 are extracted as a pattern.
  • the pattern consisting of the reconstructed white lumps and the reconstructed black lumps generated from the control points is converted to the original low-frequency component pattern image IM2 (Fig. 6 (B) ) Can be remarkably accurately reproduced as a pattern substantially the same as the pattern possessed in the above. As a result, the verification accuracy of the validity can be improved.
  • the pattern consisting of the reconstructed white lumps and the reconstructed black lumps generated from these control points is furthermore regarded as a pattern almost identical to the pattern contained in the original low-frequency component pattern image IM2 (FIG. 6 (B)). It can be reproduced with high accuracy, and as a result, the accuracy of validity verification can be further improved.
  • the number of points corresponding to the total lumps of the white lumps WD and the black lumps BD is defined as a pattern. Extract.
  • the pattern pattern stored in the original photographic paper OP can be obtained as a substantially constant data size, the pattern division result (the total area of the white black WD and black black BD) Regardless of), the pattern can be appropriately stored in the original photographic paper OP.
  • a plurality of points for generating a curve approximating the contour are determined based on the points on the contour of the area, and these points are determined.
  • extraction means to extract as pattern information switch to grid size and order of Bezier curve according to total area of white WD and black black BD
  • the switching may be performed according to the largest lump area of the white lump WD and the black lump BD, and the lattice size and / or the order of the Bezier curve may be set as a fixed value.
  • the point that intersects with the square lattice is a point on the outer periphery of the white dummy WD and the black dummy BD.
  • a reference point on the outer periphery of the white dummy WD and the black dummy BD is determined, and the reference ⁇ ;
  • the point at which the circle intersects with the circle is defined as a point on the outer circumference of the white tama WD and black tama BD, and the point of intersection with the circle centered on this point is defined as the point on the outer circumference of the next white tama WD and black tama BD You may do it.
  • the diameter or radius of the circle may be switched according to the total surface of the white balls WD and the black balls BD.
  • a control point sequence for generating a Bezier curve is extracted based on points on the outer periphery of the white lumps WD and the black lumps BD, but based on the points on the contours of the white lumps WD and the black lumps BD.
  • a control point sequence for generating a Bezier curve may be extracted. In this way, as shown in FIG. 39, even if the donut is divided as a white dough WD (or a black dough BD), the dough is obtained by the same method as described above with reference to FIG. It is possible to extract a control point sequence that can faithfully reproduce the shape of.
  • the point can be extracted by not only the method described above with reference to FIG. 34 but also various other methods.
  • a control point sequence for generating a Bezier curve is extracted as pattern information, but a control point sequence for generating other various curves such as a rational Bezier curve, a B-spline curve, or a rational B-spline curve is used. It may be extracted as pattern information. In this case, the same effect as in the above-described fourth processing mode can be obtained.
  • a Bezier music based on a control point sequence is used as a verification means for verifying the validity of the photographic paper based on the pattern information stored by the storage means.
  • a line is generated, and a region surrounded by the Bezier curve is painted with a predetermined single luminance value to generate a reconstructed white ball and a reconstructed black ball, and the reconstructed white ball and the reconstructed black ball are generated.
  • various other curves such as a rational Bezier curve, a B-spline curve, or a rational B-spline curve were used based on the control point sequence. May be generated, or verification may be performed by a method other than the phase-only correlation. In this case, the same effect as in the above-described fourth processing mode can be obtained.
  • control unit 2 executes the above-described first to fourth processing modes in accordance with the authentication processing procedure RT shown in FIG.
  • the control unit 2 starts this authentication processing procedure RT in step SP0, and in the following step SP1, the authentication pattern code BC ( Wait for a print command or a copy command to print Figure 2 (A)).
  • step SP1 When receiving a print command from an operation unit (not shown) in step SP1, the control unit 2 controls the scanner unit 4 to acquire the original pattern image data D1 in the following step SP2. After that, in the next step SP3, the low-frequency component extraction processing is performed on the original pattern image data D1 to obtain a low-frequency pattern representing the low-frequency component pattern image IM2 (FIG. 7 (A)).
  • the image data D 11 is generated, and in the following step SP 4, the white component pattern image WIM (FIG. 7B) is represented by performing image separation processing on the low-frequency pattern image data D 11. , And black component pattern image data D13 representing a black component pattern image BIM (FIG. 7 (C)).
  • step SP5 the control unit 2 performs an area segmentation process on the white component pattern image data D12 and the black component pattern image data D13, so that a plurality of white dummy WDs (WDi Generate white lumps data D14 representing WDj and a plurality of black lumps BD (black lumps data D15 representing BD BDJ are generated.
  • a plurality of white dummy WDs WDi Generate white lumps data D14 representing WDj
  • black lumps BD black lumps data D15 representing BD BDJ
  • step SP7 based on a threshold value set in advance as a switching criterion for switching the processing content of the pattern pattern extraction process, the [2] By sequentially performing one of the pattern pattern extraction processing in the first (or second) processing mode, the pattern pattern extraction processing in the third processing mode, and the pattern pattern extraction processing in the fourth processing mode, the authentication The pattern pattern data D 16 is generated.
  • thresholds include a first threshold (hereinafter, referred to as a low threshold), a second threshold (hereinafter, referred to as a medium threshold) larger than the first threshold, '
  • the third threshold larger than the second threshold (hereinafter, referred to as an altitude threshold) is set, and the control unit 2 determines that the area of the lumps to be processed is smaller than the lower threshold and equal to or larger than the lower threshold. If it is within the first range less than the medium threshold, the pattern pattern extraction processing in the third processing mode is performed to generate data representing the circle information value as a pattern pattern.
  • the control unit 2 selects one of the first or second processing modes.
  • pattern pattern extraction processing in the processing mode to generate data representing a rectangular information value (elliptical information value) as a pattern pattern
  • the pattern pattern extraction process in the fourth processing mode is performed to generate data representing a control point sequence for generating a Bezier curve as a pattern and a turn.
  • the data generated for each of the white balls WD and the black balls BD in this manner is obtained as the authentication pattern data D 16.
  • step SP 8 the control unit 2 generates authentication pattern code data D 2 by performing a two-dimensional code conversion process on the authentication pattern pattern data D 16, and then continues In step SP9, printer 5 is controlled to The authentication pattern code BC based on the pattern code data D2 is stored in the photographic paper, and the process returns to step SP1.
  • step SP1 when receiving a duplication command from an operation unit (not shown) in step SP1, the control unit 2 controls the scanner unit 4 in the following step SP10 to control the code-added pattern image data D3. Then, in the next step SP 11, the same image processing as that of the original pattern image data D 1 is performed on the code-added pattern image data D 3.
  • control unit 2 sequentially performs the low-frequency component extraction processing, the image separation processing, and the area division processing from step SP3 to step SP5 on the code-added pattern image data D3. Thereafter, similarly to the step SP6, the areas of the white lumps WD and the black lumps BD based on the white lumps data D14 and the black lumps data D15 obtained as a result of the area division processing are individually calculated. At this time, only when the area of the lumps is within the first and second ranges, the control unit 2 executes the pattern pattern in the preset first or second processing mode in the same manner as in step SP7 described above. By performing an extraction process, comparative pattern data D 26 is generated.
  • the comparative pattern pattern data D 26 generated for the lumps in the first and second ranges, the white lumbar data D 14 and the black lumbar data generated for the lumps in the third range. D15 is obtained as a comparison object with the authentication pattern code BC stored on the photographic paper.
  • step SP12 the control section 2 controls the scanner section 4 to store the authentication pattern code data D2 based on the authentication pattern code BC stored on the photographic paper.
  • step SP 13 the authentication pattern code data D 2 is compared with the corresponding white dummy data D 14, black dummy data D 15 and comparative pattern pattern data D 26, and the following step SP 1
  • step 4 the control unit 2 controls the printer .5 in accordance with the collation result to duplicate the print content of the photographic paper, and returns to step SP1.Thus, the control unit 2 executes the above-described first to fourth processing modes. Can be run It is made to be able to.
  • control unit 2 since the control unit 2 extracts a large pattern which is an important feature of the pattern as a detailed pattern, the control unit 2 emphasizes and extracts a particularly characteristic pattern in the pattern while extracting it. Extraction time can be shortened for other lumps. In addition, a pattern defined as a medium pattern in the pattern may be extracted as a detailed pattern. In this case, the extraction time is further reduced while extracting the characteristics of the pattern in the pattern on average. be able to.
  • the pattern image is subdivided as lumps, and the feature amount of each lumbar is extracted as a pattern.
  • the pattern image is subdivided. The difference is that the pattern image is extracted as a whole by capturing the pattern image without conversion.
  • a pattern image of a low-frequency component (hereinafter, referred to as a low-frequency pattern image) is obtained from the pattern image. ), A low-frequency component extraction unit 411 for extracting the pattern, a pattern pattern extraction unit 412 for extracting the pattern in the low-frequency pattern image, and a two-dimensional code for converting the pattern into a two-dimensional barcode.
  • a conversion section 4 13, an image reconstruction section 4 14 for reconstructing a low-frequency pattern image from the pattern pattern, and a reconstructed low-frequency pattern image (hereinafter referred to as a reconstructed low-frequency pattern image ) Can be divided into a collating unit 4 15 which verifies the validity of the coded paper XPc (FIG. 2 (B)).
  • the control unit 2 applies the low-frequency component extraction unit 411, the pattern pattern extraction unit 4 1 2, and the low-frequency component extraction unit 411 to the original / regular pattern image data D 1 given from the scanner unit 4. ⁇
  • Various processes are sequentially performed via the two-dimensional code conversion unit 4 13, and the resulting pattern code data D 2 is sent to the printer unit 5.
  • the low-frequency component extraction processing result of the low-frequency component extraction section 4 11 for the code-added pattern image data D 3 given from the scanner section 4 and the scanner section 4 Image data for pattern code data D 2 given from A matching process based on the image reconstruction result in the configuration unit 414 is performed in the matching unit 415.
  • low-frequency component extraction processing by the low-frequency component extraction unit 4 11 pattern pattern extraction processing by the pattern pattern extraction unit 4 12, and two-dimensional code by the two-dimensional code conversion unit 4 13
  • the conversion process, the image reconstruction process by the image reconstruction unit 414, and the matching process by the matching unit 415 will be described in detail.
  • the low-frequency component extraction unit 411 converts the specified area AR (Fig. 2) from the pattern image of the original photographic paper OP (Fig. 2 (A)) or the coded paper XPc (Fig. 2 (B)).
  • the region pattern image IMl (Fig. 6 (A)) is acquired, and from this region pattern image IMl, the low-frequency component pattern image IM2 (Fig. B))) is extracted.
  • the low-frequency component extraction unit 411 sends the low-frequency pattern image data D 4 11 generated at this time to the pattern pattern extraction unit 4 12 and verifies it.
  • the low-frequency pattern image data D 4 11 generated at this time is illuminated and transmitted to the joining section 4 15.
  • the low-frequency component extraction unit 411 generally includes the high-frequency components of the image, such as the noise of the solid-state image sensor in the scanner unit 4. Various noise components can be removed.
  • the low-frequency component extraction section 4 11 1 can avoid a decrease in pattern pattern extraction accuracy due to the pattern pattern extraction 15 15 12 caused by various noise components.
  • the reliability of the collation processing result in the collation unit 4 15 can be improved.
  • the pattern / turn extraction unit 412 includes a pixel having the lowest luminance value on a curved surface formed by the luminance value of the low-frequency component pattern image IM2 (hereinafter, referred to as a pixel). This is referred to as a local minimum point) PS (PS i PS n) and a pixel having the highest luminance value on the surface (hereinafter referred to as a local maximum point) PL (P Li P Ln) are detected.
  • the average of the luminance values in the low-frequency component pattern image IM2 (hereinafter referred to as the luminance average) is calculated.
  • the minimum point PS (the black circle in FIG. 42) is a pixel having a predetermined low luminance value or less (hereinafter, referred to as a white pixel) among the white pixels adjacent to each other.
  • the pixel is located at the approximate center of the region in units of a set
  • the maximum point PL (black triangle in FIG. 42) is a pixel having a predetermined high luminance value or less (hereinafter, referred to as a black pixel). It is present at the approximate center of the area in units of a set of black pixels adjacent to each other, and these minimum points PS and maximum points PL represent the characteristic points of the pattern included in the low-frequency component pattern image IM2. I understand that there is.
  • the detection results of the minimum point PS and the maximum point PL are based on the pattern pattern in the area pattern image IM1 (FIG. 6A) (that is, the characteristic pattern of the pattern included in the area pattern image I Ml). would mean.
  • the pattern pattern extracting section 4 12 is a low-frequency component pattern based on the low-frequency pattern image data D 4 11 supplied from the low-frequency component extracting section 4 11. Recognize the horizontal direction of the image IM2 as the X axis, the vertical direction as the y axis, and the luminance value as the z axis.
  • Fig. 43 shows the spatial state formed by the luminance values of the low-frequency component pattern image IM2.
  • Fig. 43 (A) shows the spatial state of the front
  • Fig. 43 (B) shows the spatial state of the side. State, Figure 43 (C) shows the spatial state of the slope.
  • the pattern pattern extracting unit 4 12 detects the minimum point PS and the maximum point PL in the low-frequency component pattern image IM2, calculates the average luminance, and calculates the minimum point PS and the maximum point.
  • the position in the PL, the luminance value, and the luminance average are transmitted as data (hereinafter, referred to as pattern pattern data) D 4 12 to the two-dimensional code converter 4 13.
  • the pattern pattern extraction unit 4 12 can extract the feature of the pattern as a pattern by a simple calculation.
  • the data size of the one minimum point PS or maximum point PL was approximately 40 [bit] from the experimental results. Therefore, the pattern pattern extraction unit 412 is capable of generating a pattern feature as pattern data D 4 12 having a small data size.
  • the two-dimensional code conversion ⁇ 4 13 stores the pattern in the original photographic paper OP as a pattern code B C (FIG. 2A).
  • the two-dimensional code conversion section 4 13 cuts off the decimal part of the supplied pattern pattern data D 41 2, and stores the cut-off pattern pattern data D 41 2 in the information storage memory in advance.
  • the pattern code data D 2 is generated by performing a two-dimensional bar code conversion process based on the code character string information, and is transmitted to the printer unit 5 at a predetermined timing.
  • the pattern code data D2 is stored in the printer unit 5 at a predetermined position on the photographic paper (original photographic paper OP) set on the photographic paper table.
  • the existing two-dimensional barcode has a size of about 1 to
  • the image reconstructing unit 414 obtains the minimum point PS (PS ⁇ to uru S n ) and the maximum point PL (P Li P Ln) in the designated area AR shown in FIG. A reconstructed low-frequency pattern image RIM is generated.
  • the image reconstructing unit 4 1 4 stores the minimum point PS (PS i P Sj and the maximum point PL ( ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ) of the supplied pattern code data D 2 in the information storage memory. Based on the previously stored area position information, as shown in FIG. 45 (A), the designated area AR (FIG. 2), the minimum point PS (PS 1 to PS n ), and the maximum point PL ( ⁇ ⁇ ⁇ ⁇ ⁇ 1 ⁇ ⁇ ) Recognize each positional relationship.
  • the image reconstruction unit 414 executes the Voronoi division process using the recognized minimum point P S and maximum point P L as reference points. That is, as shown in FIG. 46, the image reconstructing unit 414 sets all pixels in the specified area AR (FIG. 2) except for the reference point (the black circle and the black triangle in FIG. 45) at the closest distance from the pixel. Then, a plurality of small areas are generated by dividing each of them as belonging to a reference point to be processed.
  • the image reconstruction unit 4 14 generates the designated area AR (FIG. 2) generated by the Voronoi division process based on the luminance information (the luminance value and the luminance average of the minimum point PS and the maximum point PL) of the pattern code data D 2.
  • the reconstructed low-frequency pattern image RIM (FIG. 45 (B)) by determining the luminance state in each of the small regions of FIG. It is sent as reconstructed low-frequency pattern image data) D 414 to the matching unit 415.
  • the image reconstruction unit 414 includes a small area (hereinafter, referred to as a target small area) adjacent to the target territory castle SAR in a small area to be processed (hereinafter, referred to as a target small area). This is called an adjacent small region) and border BDL with NAR, a reference point having the the target small area SAR (i.e., minimum point PS i ⁇ PS n and maximum point PL i ⁇ PL n (FIG. 42) of The luminance state of a triangle (indicated by hatching in FIG. 47) formed by P and P is sequentially determined using the luminance values of both the boundary line BDL and the reference point P.
  • a target small area adjacent to the target territory castle SAR in a small area to be processed
  • the image reconstruction unit 414 forms the reference point P and the adjacent small area NAR in the target small area SAR constituting the boundary line BDL. If both of the reference points P are the minimum point PS or the maximum point PL, the average of the luminance values of the reference points P and P ′ and the average luminance of the pattern code data D 2 is defined as the boundary line B DL Calculated as 1 luminance value m.
  • the image reconstruction unit 414 determines the brightness values of the reference points P and P ′. Is calculated as the luminance value m of the boundary line BDL1.
  • the image reconstructing unit 414 uses the calculated luminance value m of the boundary line BDL 1 to designate a pixel to be determined (hereinafter, referred to as a target pixel) as X, the target pixel X and the reference point P
  • a target pixel designate a pixel to be determined (hereinafter, referred to as a target pixel) as X
  • the target pixel X and the reference point P Let d5 be the distance of the reference point and Vpeek be the luminance value of the reference point P, and the following equation (17)
  • the exponential function V (X) Npeak one Vpeak ⁇ ⁇ ) 'd 2 ( 17), the distance PQ between an intersection Q between the extended line and the boundary line BDL 1 reference point P and the line segment PX as "1"
  • the luminance value V (x) of the target pixel X is determined by normalization.
  • the image reconstruction unit 414 determines each pixel in the triangle indicated by hatching in accordance with the exponential function of Expression (17). As a result, as is clear from FIGS. 47 (B) and (C), the image reconstructing unit 414 sets the luminance so that the luminance value of each pixel from the reference point P to the boundary line BDL 1 becomes gentle. The value can be determined, and the pattern image can be accurately reproduced.
  • Fig. 47 (B) and 47 (C) show that the luminance value m of the boundary line BD L1 is “1 110”, the reference point P is pole / J, the point PS is PS 2 ,. Or PS n , and the reference point P in the adjacent small area NAR is the maximum point PL, PL 2 ,..., or PL n
  • Fig. 47 (B) shows the luminance state between the reference point P based on Eq. (1) in a plan view
  • Fig. 47 (C) shows the luminance state in a three-dimensional manner.
  • the image reconstruction unit 414 also calculates the brightness state of the triangle formed by the boundary lines BDL2 to BDL4 and the reference point P by using the boundary line BDL1 and the reference point P. Each of them is determined in the same manner as the triangle formed.
  • the image reconstruction unit 414 starts this image processing procedure RT in step SP 20, and proceeds to step SP ′ 21, Recognize the positional relationship between the minimum point PS (PS! To PS N ) and the maximum point PL (PLP LJ and the designated area AR (FIG. 2) of the pattern code data D 2, proceed to the next step SP 22, and perform Voronoi division Executes the process and divides the specified area AR to generate multiple small areas.
  • step SP 23 calculates all the luminance values m of the generated boundary line BDL (FIG. 47) of each small area, and then proceeds to step SP 24 to
  • the luminance state (luminance value of each pixel) in the area SAR is sequentially determined according to the exponential function of Equation (17), and the process proceeds to step SP25, where the luminance state of all the small areas in the specified area AR is determined. Is determined.
  • the image reconstructing unit 414 if a negative result is obtained, the image reconstructing unit 414 returns to step SP24 and repeats the above processing with the remaining one small area as the target small area SAR. On the other hand, if a positive result is obtained, the image reconstruction unit 414 recognizes the reconstructed low-frequency pattern image RIM obtained at this time as the next processing target, and After transmitting the image RIM as the reconstructed low-frequency pattern image data D 414 to the matching unit 4 15, the process proceeds to step SP 26 to end the image processing procedure RT.
  • the image reconstructing unit 414 executes the image reconstructing process in this manner, and corresponds to the low-frequency component pattern image IM2 (FIG. 42) and the low-frequency component pattern image IM2.
  • FIG. 49 comparing the reconstructed low-pass pattern image RIM (FIG. 45 (B)) with the reconstructed low-pass pattern image RIM (see FIG. Reconstructed low-frequency pattern image RIM can be accurately reproduced from PS and local maximum point PL).
  • the matching unit 4 15 generates the reconstructed low-frequency pattern image RIM and the low-frequency component pattern image IM extracted from the coded paper XPc (FIG. 2 (B)) at this time. Compare with 2.
  • the matching unit 4 15 includes the reconstructed low-frequency pattern image data D 4 14 supplied from the image reconstruction unit 4 14 and the low-frequency component extraction unit 4 11 1 from the scanner unit 4 at this time.
  • a predetermined cross-correlation process is applied to the low-frequency component pattern image data D 411 supplied via the Calculate the match rate.
  • the collating unit 415 copies the coded paper XPc (FIG. 2) placed on the mounting table of the scanner unit 4 at this time. It is determined that the copying is prohibited, and at this time, the fact that copying is prohibited is notified via the display unit (not shown) of the scanner unit 4.
  • the collating unit 4 15 sets the code-added photographic paper XPc placed on the mounting table of the scanner unit 4 at this time (FIG. 2). Is a valid original photographic paper OP, and generates a copy permission command C ⁇ M (FIG. 5) and sends it to the scanner unit 4 (FIG. 4).
  • the scanner unit 4 executes the reflection mode, and the printing content of the photographic paper XPc (original photographic paper OP) placed on the platen at this time is set as the printing content image data D4 in the printer unit.
  • the print content of the original photographic paper #P (FIG. 2A) is copied onto the paper in the printer unit 5 as a result.
  • the matching unit 4 15 executes the matching process, and only when the matching result is higher than a predetermined threshold as the matching result, the original photographic paper OP (FIG. 2 (A) ) Can be permitted to be reproduced.
  • the control unit 2 captures the entire pattern image and extracts the pattern pattern without subdividing the pattern image, thereby obtaining the pattern of the first embodiment.
  • the processing load can be remarkably reduced as compared with the case.
  • the unauthorized duplication apparatus 1 extracts a pattern (pattern feature) from the pattern image included in the original photographic paper ⁇ P (FIG. 2 (A)), and uses this pattern as authentication target information. It is stored in the original photographic paper OP.
  • the unauthorized copying apparatus 1 determines whether the original photographic paper OP is based on the pattern stored in the coded paper XPc. Verify the validity of no.
  • the unauthorized duplication device 1 since the presence or absence of the original can be identified by the pattern pattern of the photographic paper itself, the unauthorized duplication can be easily prevented without using special paper or the like. it can.
  • the owner of the original photographic paper OP can copy the original photographic paper OP without considering illegal duplication of the duplicate photographic paper.
  • a pattern pattern (pattern feature amount) extracted from a pattern image included in the original photographic paper is stored in the original photographic paper, and the photographic print is copied when the print content of the coded paper XPc is copied.
  • the photographic paper OP By checking the validity of the original photographic paper OP based on the pattern pattern stored in the paper XP c, the photographic paper itself has a V pattern Since the presence or absence of the original can be identified, unauthorized duplication can be easily prevented without using special paper or the like, and thus the contents of the stamp surface can be easily protected.
  • a pattern is imaged by an imaging unit (scanner unit 4) as an acquiring unit for acquiring edge pattern information based on the pattern of the photographic paper, and the pattern pattern is obtained from the imaged pattern image.
  • imaging unit scanner unit 4
  • the present invention is not limited to this.
  • information about the pattern may be obtained by electrophoresis after the pattern is made visible by a chemical.
  • the scanner unit 4 that executes the transmission mode, the reflection mode, and the code reading mode is applied as an imaging unit that captures an image of a pattern included in photographic paper.
  • the present invention is not limited to this. In other words, the present invention can be applied to various other imaging units that irradiate light on photographic paper and generate a pattern image signal from the projection light via a solid-state imaging device.
  • the region division processing and the pattern pattern extraction processing are executed without executing the low frequency component processing or the image separation processing, and conversely, Only low-frequency component processing and image separation processing are performed, and the resulting white component pattern image WIM (Fig. 7 (B)) and black component pattern image BIM (Fig. 7 (C)) are used as pattern information.
  • the low-frequency component pattern image IM2 (FIG. 7 (A)) obtained as a result can be extracted as pattern information.
  • the pattern image picked up by the image pickup means is divided into, for example, a 5 ⁇ 5 image area, and one of the extracted areas is extracted as pattern information.
  • the feature amount may be extracted after the pattern included in one of the extracted regions is divided in the same manner as the region dividing process in the region dividing unit 13.
  • the content of the pattern pattern extraction processing for the lumps is switched according to the area of the lumps. May be switched in accordance with.
  • various targets such as the pixel amount of the edge can be adopted.
  • the low frequency component processing can be omitted.
  • a value obtained by approximating the shape of the lumps to the shape of a rectangle, an ellipse, or a circle Is extracted, but a value approximated to a shape other than these may be extracted.
  • the feature of the pattern image is extracted from the specified area AR (Fig. 2), but it may be extracted from multiple specified areas, or it may be extracted from the entire pattern image. Is also good.
  • the minimum point PS (FIG. 42), the maximum point PL (FIG. 42) and the luminance average are extracted, but only the minimum point PS is extracted. May extract only the maximum point PL, or may extract only the minimum point PS and the maximum point PL, or may extract predetermined pixels having various luminance values as the minimum point PS and the maximum point PL. You may do it.
  • the feature of the pattern image is extracted from the designated area AR (Fig. 2), but may be extracted from a plurality of designated areas, or may be extracted from the entire pattern image. You may.
  • white pixels and black pixels are set so that the number of white pixels and black pixels is 20% of all pixels in the low-frequency component pattern image IM2 (FIG. 7A).
  • the component pattern image WIM black component pattern image BIM
  • the luminance value at the center of the luminance range in the luminance histogram is determined. Pixels having a brightness value equal to or less than a certain brightness value (or more) from the determined brightness value may be separated as a white component pattern image WIM (black component pattern image BIM).
  • the middle and middle brightness values are, for example, the brightness value with the largest number of pixels, and the brightness histogram is represented by a histogram curve at an arbitrary frequency (number of pixels) as shown in FIG. 50 (B). Or the luminance value at the center between the two.
  • the average luminance value of the luminance values of all the pixels in the low-frequency component pattern image I M2 (FIG. 7 (A)) is calculated as this image separation processing, and the calculated average luminance value is calculated.
  • Pixels having a luminance value equal to or less than a certain luminance value (or more) may be separated as a white component pattern image WIM (black component pattern image BIM).
  • the point is that the images of the low luminance component and the high luminance component (white component pattern image WIM and black component image) have a relative area ratio to the pattern image before separation (low-frequency component pattern image IM2). If the image is separated into the component pattern images BIM), the same effect as in the above-described embodiment can be obtained.
  • a plurality of small areas are divided by dividing the designated area AR by Voronoi division using the minimum point PS (FIG. 42) and the maximum point PL (FIG. 42) of the pattern as reference points.
  • An area is generated (Fig. 46), and the brightness state between the reference points P and P '(Fig. 47 (C)) in adjacent areas is smoothed using the brightness value of the reference point.
  • the present invention is not limited to this, and a plurality of small areas may be generated by other various division methods. Alternatively, the luminance state of the small area may be determined by various methods.
  • the designated area AR can be divided by a table in which the position states of the minimum point P S (FIG. 42) and the maximum point P L (FIG. 42) are associated with the division results.
  • the brightness state of each small area is changed according to the exponential function of equation (1) so that the brightness state between reference points P and P '(Fig. 47 (C)) in the areas adjacent to each other becomes gentle.
  • it can be determined according to a linear function, or can be determined according to a table in which the distance between the reference points P and P ′ and the luminance state therebetween are associated.
  • the luminance average of the low-frequency component image I M2 is used as necessary, and the small regions adjacent to each other are used.
  • the brightness value of the boundary line BD (Fig. 47) was calculated. Almost the same effects as in the above embodiment can be obtained without using the luminance average.
  • a pattern pattern (a pattern feature amount) is used as the storage means for storing the pattern information on the photographic paper. ) Is printed on photographic paper (original photographic paper ⁇ P) as an authentication code (two-dimensional barcode) BC (Fig. 2 (A)).
  • the present invention is not limited to this. Holes and Braille corresponding to the pattern may be provided on the photographic paper, or the pattern (pattern feature) may be directly described on the photographic paper.
  • Various other pattern information can be stored.
  • a pattern pattern is used as a verification means for verifying the validity of a photographic paper based on the pattern information stored by the storage means, as shown in FIG. 14 to FIG. 18 or FIG.
  • the verification is performed by using the method described above with reference to FIGS. 26 and 30 to FIG. 32
  • the present invention is not limited to this.
  • the pattern obtained by the above-described obtaining means is used.
  • a collation method according to the information can be adopted
  • a program that causes the control unit to execute the various processes shown in FIG. 5 or a part of the processes may be installed in an existing apparatus that handles paper such as a copy machine or a newly manufactured apparatus. You may do it.
  • the present invention can be used when paper is used as various media such as a commodity exchange medium such as money, a content proof medium such as a certificate, or an information storage medium such as a personal work.

Abstract

There are provided an unauthorized copy preventing device, method, and program capable of easily protecting a printed content. A pattern (pattern characteristic amount) extracted from a pattern image on the original sensitized paper is stored on the original sensitized paper. When copying the printed content of the code-attached sensitized paper XPc, validity whether the original sensitized paper OP or not is decided according to the pattern stored in the sensitized paper XPc, so that presence/absence of the original can be checked by the pattern the sensitized paper itself has. Thus, it is possible to easily protect the printed content.

Description

不正複製防止装置及びその方法並びにプログラム 技術分野 FIELD OF THE INVENTION
本発明は、 不正複製防止装置及びその方法並びにプログラムに関し、 紙に印画 された内容の不正複製を防止する場合に適用して好適なものである。  The present invention relates to an apparatus for preventing unauthorized duplication, a method thereof, and a program, and is suitably applied to a case where unauthorized duplication of the content printed on paper is prevented.
 Light
背景技術 Background art
従来、 紙は各種内容の印画対象として用い書られ、 当該内容 (以下、 これを印画 内容と呼ぶ) が印画された印画紙は、 例えば貨幣等の商品交換媒体、 証明書等の 内容証明媒体又は個人の著作物等の情報記憶媒体などの各種媒体として機能する ため高い価値を有していることが多い。  Conventionally, paper is used as a printing target for various contents, and the printing paper on which the contents (hereinafter referred to as printing contents) is printed is, for example, a commodity exchange medium such as money, a content certifying medium such as a certificate or It often has high value because it functions as various media such as information storage media such as personal works.
このため、 印画紙に印画された印画内容の不正複製を防止する各種対処策が考 えられており、 当該対処策として、 例えば一般に用いられる用紙 (以下、 これを 普通用紙と呼ぶ) に微細な I C (I n t e g r a t e d C i r c u i t) チッ プを埋め込む、 又は、 普通用紙自体に特殊加工を施して特殊紙を生成する (例え ば特許文献 1参照) がある。 特許文献 1 特開平 2000— 3529 1 3公報。 ところでかかる対処策では、 その手法がいずれも煩雑であることから限定的な 場所で印画内容を印画しなければならないため、 例えば家庭やオフィス等におい てある用紙に所定の印画内容を印画してオリジナルの印画紙を作成した場合等に は、 当該印画内容の不正複製を防止することが困難となり、 この結果、 印画紙に 印画された印画内容を適切に保護できないという問題があつた。 発明の開示 For this reason, various countermeasures have been devised to prevent unauthorized duplication of the print content printed on photographic paper. For example, as countermeasures, finely divided paper generally used (hereinafter referred to as plain paper) is used. There is an IC (Integrated Circuit) chip embedded or special processing is performed on plain paper itself to generate special paper (for example, see Patent Document 1). Patent Document 1 Japanese Patent Laid-Open No. 2000-352913. By the way, in such a countermeasure, since the method is complicated, it is necessary to print the print content in a limited place.For example, the predetermined print content is printed on paper at home or office, and the original print content is printed. However, it was difficult to prevent unauthorized duplication of the print contents when the photographic paper was prepared, and as a result, there was a problem that the print contents printed on the photographic paper could not be appropriately protected. Disclosure of the invention
本発明は以上の点を考慮してなされたもので、 印画内容を適切に保護し得る不 正複製防止装置及ぴその方法並びにプログラムを提案しようとするものである。 かかる課題を解決するため本発明においては、 印画紙に印画された印画内容の 不正複製を防止する不正複製防止装置において、 印画紙に有する紋様に基づいて 紋様情報を取得する取得手段と、 当該取得手段により取得された紋様情報を印画 紙に記憶する記憶手段と、 当該記憶手段により記憶された紋様情報に基づいて、 印画紙の正当性を検証する検証手段とを設けるようにした。  The present invention has been made in view of the above points, and an object of the present invention is to propose an apparatus for preventing unauthorized duplication, a method and a program capable of appropriately protecting printed contents. In order to solve this problem, in the present invention, there is provided an unauthorized duplication preventing apparatus for preventing improper duplication of print content printed on photographic paper, comprising: an acquiring means for acquiring pattern information based on a pattern included in the photographic paper; A storage means for storing the pattern information obtained by the means on the photographic paper, and a verification means for verifying the validity of the photographic paper based on the pattern information stored by the storage means are provided.
また本発明においては、 印画紙に印画された印画内容の不正複製を防止する不 正複製防止方法において、 印画紙に有する紋様に基づいて紋様情報を取得する第 Also, in the present invention, in an unauthorized duplication preventing method for preventing improper duplication of print content printed on photographic paper, a method for acquiring pattern information based on a pattern included in photographic paper
1のステップと、 取得した紋様情報を印画紙に記憶する第 2のステップと、 記憶 した紋様情報に基づいて、 印画紙の正当性を検証する第 3のステップとを設ける ようにした。 A first step, a second step of storing the acquired pattern information on the photographic paper, and a third step of verifying the validity of the photographic paper based on the stored pattern information are provided.
さらに本発明においては、 制御装置に対して、 所定の印画内容が印画された印 画紙に有する紋様の撮像結果として得られた画像情報から紋様に基づく紋様情報 を抽出する第 1の処理と、 抽出した紋様情報を印画紙に記憶させるようにする第 2の処理と、 紙に記憶された紋様情報に基づいて、 印画紙の正当性を検証する第 3の処理とを実行させるようにした。  Further, in the present invention, a first process of extracting pattern information based on a pattern from image information obtained as an imaging result of a pattern included in a printing paper on which predetermined print content is printed, to a control device, A second process for storing the extracted pattern information on the photographic paper and a third process for verifying the validity of the photographic paper based on the pattern information stored on the paper are executed.
さらに本発明においては、 印画紙に印画された印画内容の不正複製を防止する 不正複製防止装置において、 印画紙に有する紋様を撮像する撮像手段と、 撮像手 段により撮像された結果得られる紋様画像における紋様を複数の領域に区割りし 、 区割りした各領域をそれぞれ所定の形状に表した紋様情報として抽出する抽出 手段と、 抽出手段により抽出された紋様情報を印 ίί紙に記憶する記憶手段と、 記 憶手段により記憶された紋様情報に基づいて、 印画紙の正当性を検証する検証手 段とを設けるようにした。  Further, according to the present invention, there is provided an unauthorized duplication preventing apparatus for preventing improper duplication of print content imprinted on photographic paper, an image pickup means for picking up an image on a photographic paper, and a pattern image obtained as a result of the image pickup means. Extracting means for dividing the pattern in the plurality of areas into a plurality of areas, and extracting the divided areas as pattern information each representing a predetermined shape; storage means for storing the pattern information extracted by the extracting means on printing paper; A verification means for verifying the validity of the photographic paper based on the pattern information stored by the storage means is provided.
また本発明においては、 印画紙に印画された印画内容の不正複製を防止する不 正複製防止方法において、 印画紙に有する紋様を撮像する第 1のステップと、 撮像した結果得られる紋様画像におけ、る紋様を複数の領域に区割りし、 当区割り した各領域をそれぞれ所定の形状に表した紋様情報として抽出する第 2のステツ プと、 抽出した紋様情報を印画紙に記憶する第 3のステップと、 記憶した紋様情 報に基づいて、 印画紙の正当性を検証する第 4のステップとを設けるようにした さらに本発明においては、 制御装置に対して、 所定の印画内容が印画された印 画紙に有する紋様の撮像結果として得られた紋様画像の紋様を複数の領域に区割 する第 1の処理と、 区割りした各領域をそれぞれ所定の形状に表した紋様情報と して抽出する第 2の処理と、 抽出した紋様情報を印画紙 ίと記憶させるようにする 第' 3の処理と、 紙に記憶された紋様情報に基づいて、 印画紙の正当性を検証する 第 4の処理とを設けるようにした。 Further, in the present invention, in a method for preventing unauthorized duplication of print content printed on photographic paper, a first step of imaging a pattern included in the photographic paper, In a pattern image obtained as a result of imaging, a pattern is divided into a plurality of regions, a second step of extracting each of the divided regions as pattern information representing a predetermined shape, and extracting the extracted pattern information. A third step of storing on the photographic paper and a fourth step of verifying the validity of the photographic paper based on the stored pattern information are provided. A first process of dividing a pattern of a pattern image obtained as an imaging result of a pattern on a printing paper on which a predetermined print content is printed into a plurality of regions; and displaying each of the divided regions in a predetermined shape. A second process for extracting the extracted pattern information as printed pattern information, a third process for storing the extracted pattern information as photographic paper ί, and a validity of the photographic paper based on the patterned information stored on the paper. 4th process to verify And have been established.
カかる課題を解決するため本発明においては、 印画紙に印画された印画内容の 不正複製を防止する不正複製防止装置において、 印画紙に有する紋様を撮像する 撮像手段と、 撮像手段により撮像された結果得られる紋様画像の特徴を抽出する 抽出手段と、 抽出手段により抽出された特徴を印画紙に記憶する記憶手段と、 記 憶手段により記憶された特徴に基づいて紋様画像を再構成し、 再構成した紋様画 像に基づいて印画紙の正当性を検証する検証手段とを設けるようにした。  In order to solve the above-mentioned problem, in the present invention, in an unauthorized duplication prevention device for preventing unauthorized duplication of the print content printed on photographic paper, an image pickup means for imaging a pattern included in the photographic paper, and an image taken by the image pickup means Extraction means for extracting the features of the resulting pattern image; storage means for storing the features extracted by the extraction means on photographic paper; reconstructing the pattern image based on the features stored by the storage means; Verification means for verifying the validity of the photographic paper based on the composed pattern image is provided.
また本発明においては、 印画紙に印画された印画内容の不正複製を防止する不 正複製防止方法において、 印画紙に有する紋様を撮像する第 1のステップと、 撮 像した結果得られる紋様画像の特徴を抽出する第 2のステップと、 抽出した特徴 を印画紙に記憶する第 3のステップと、 記憶した特徴に基づいて紋様画像を再構 成し、 再構成した紋様画像に基づいて印画紙の正当性を検証する第 4のステップ とを設けるようにした。  According to the present invention, in a method for preventing unauthorized duplication of print content printed on photographic paper, a first step of capturing an image of a pattern on the photographic paper, and a method of capturing a pattern image obtained as a result of the imaging. A second step of extracting the features, a third step of storing the extracted features on photographic paper, reconstructing a pattern image based on the stored features, and forming a photographic paper based on the reconstructed pattern image. A fourth step for verifying correctness is provided.
さらに本発明においては、 制御装置に対して、 所定の印画内容が印画された印 画紙に有する紋様の撮像結果として得られた紋様画像の特徴を抽出する第 1の処 理と、 抽出した特徴を印画紙に記憶させるようにする第 2の処理と、 印画紙に記 憶された特徴に基づいて紋様画像を再構成する第 3の処理と、 再構成した紋様画 像に基づいて印画紙の正当性を検証す、る第 4の処理とを実行させるようにした。 かかる課題を解決するため本発明においては、 印画紙に印画された印画内容の 不正複製を防止する不正複製防止装置において、 印画紙に有する紋様を所定単位 の領域に区割りする区割手段と、 区割手段により区割された各領域それぞれにつ いて、 当該領域の輪郭上の点に基づいて輪郭に近似する曲線を生成するための複 数の点を決定し、 これら点を紋様情報として抽出する抽出手段と、 抽出手段によ り抽出された紋様情報を印画紙に記憶する記憶手段と、 記憶手段により記憶され た紋様情報から各領域を再構築し、 当該再構築した各領域を用いて印画紙の正当 性を検証する検証手段とを設けるようにした。 Further, in the present invention, a first process for extracting a feature of a pattern image obtained as an imaging result of a pattern included in a printing paper on which predetermined printing content is printed, to the control device; A second processing for storing the image on the photographic paper, a third processing for reconstructing the pattern image based on the features stored on the photographic paper, and a reconstructed pattern image A fourth process for verifying the validity of the photographic paper based on the image is executed. According to the present invention, there is provided an unauthorized duplication preventing apparatus for preventing improper duplication of print content printed on photographic paper, comprising: a dividing means for dividing a pattern included in the photographic paper into a predetermined unit area; For each area divided by the dividing means, a plurality of points for generating a curve approximating the contour are determined based on points on the contour of the area, and these points are extracted as pattern information. Extracting means, storing means for storing the pattern information extracted by the extracting means on photographic paper, reconstructing each area from the pattern information stored by the storing means, and printing using the reconstructed areas. A verification means for verifying the validity of the paper is provided.
また本発明においては、 印画紙に印画された印画内容の不正複製を防止する不 正複製防止方法において、 印画紙に有する紋様を所定単位の領域に区割する第 1 のステップと、 区割した各領域それぞれについて、 当該領域の輪郭上の点に基づ V、て輪郭に近似する曲線を生成するための複数の点を決定し、 これら点を紋様情 報として抽出する第 2のステップと、 抽出手段により抽出された紋様情報を印画 紙に記憶する第 3のステップと、 記憶手段により記憶された紋様情報から各領域 を再構築し、 当該再構築した各領域を用いて印画紙の正当性を検証する第 4のス テツプとを設けるようにした。  Further, in the present invention, in a method for preventing unauthorized duplication of print content printed on photographic paper, a first step of dividing the pattern of the photographic paper into regions of a predetermined unit, A second step of determining, for each region, a plurality of points for generating a curve that approximates the contour based on points on the contour of the region, and extracting these points as pattern information; A third step of storing the pattern information extracted by the extracting means on the photographic paper, and reconstructing each area from the pattern information stored by the storing means, and using the reconstructed areas to validate the photographic paper A fourth step for verifying is provided.
さらに本発明においては、 制御装置に対して、 所定の印画内容が印画された印 画紙に有する紋様の撮像結果として得られた紋様画像における紋様を所定単位の 領域に区割りする第 1の処理と、 区割した各領域それぞれについて、 当該領域の 輪郭上の点に基づいて輪郭に近似する曲線を生成するための複数の点を決定し、 これら点を紋様情報として抽出する第 2の処理と、 決定した点を紋様情報として 印画紙に記憶する第 3の処理と、 印画紙に記憶された紋様情報から各領域を再構 築し、 当該再構築した各領域を用いて印画紙の正当性を検証する第 4の処理とを 設けるようにした。  Further, in the present invention, a first process for dividing a pattern in a pattern image obtained as an imaging result of a pattern included in a printing paper on which a predetermined printing content is printed into a region of a predetermined unit is provided to the control device. A second process of determining, for each of the divided regions, a plurality of points for generating a curve approximating the contour based on points on the contour of the region, and extracting these points as pattern information; A third process of storing the determined points on the photographic paper as pattern information, reconstructing each area from the pattern information stored on the photographic paper, and verifying the validity of the photographic paper using the reconstructed areas. A fourth process for verification is provided.
以上のように本発明によれば、 紙に有する紋^ に基づいて得られた紋様情報を 当該紙に記憶し、 当該紋様情報に基づいて紋の正当性を検証す.るようにしたこと により、 印画紙自体に有している固有の紋様に基づく情報からオリジナルの有無 を識別することができるため、 特殊紙等を用いることなく簡易に不正複製を防止 することができ、' かくして印画内容を適切に保護することができる。 As described above, according to the present invention, the pattern information obtained based on the pattern on the paper is stored in the paper, and the validity of the pattern is verified based on the pattern information. With this, it is possible to identify the presence or absence of the original from information based on the unique pattern of the photographic paper itself, so that unauthorized copying can be easily prevented without using special paper, etc. Can be properly protected.
以上のように本発明によれば、 紋様画像の紋様を複数の領域に区割し、 これら 領域をそれぞれ所定の形状に表した紋様情報として抽出して当該印画紙に記憶し た後、 当該印画紙に記憶された紋様情報に基づいて印画紙の正当性を検証するよ うにしたことにより、 印画紙自体に有している固有の紋様における詳細な特徴に 基づいて当該印画紙を精度良く識別させることができるため、 特殊紙等を用いる ことなく高い確実性をもって簡易に不正複製を防止することができ、 かく して印 画内容を適切に保護することができる。  As described above, according to the present invention, the pattern of the pattern image is divided into a plurality of areas, and these areas are respectively extracted as pattern information representing a predetermined shape and stored on the photographic paper. By verifying the validity of the photographic paper based on the pattern information stored on the paper, the photographic paper can be accurately identified based on the detailed characteristics of the unique pattern of the photographic paper itself. As a result, unauthorized duplication can be easily prevented with high certainty without using special paper or the like, and thus the printed contents can be appropriately protected.
以上のように本発明によれば、 所定の印画内容が印画された印画紙に有する紋 様の撮像結果として得られた紋様画像の特徴を抽出し、 抽出した特徴を印画紙に 記憶させ、 当該印画紙に記憶された特徴に基づいて紋様画像を再構成し、 再構成 した紋様画像に基づいて印画紙の正当性を検証するようにしたことにより、 印画 紙自体に有している固有の紋様に基づく情報からオリジナルの有無を識別するこ とができるため、 特殊紙等を用いることなく簡易に不正複製を防止することがで き、 力べ して印画内容を適切に保護することができる。  As described above, according to the present invention, a feature of a pattern image obtained as a result of capturing a pattern of a pattern on a photographic paper on which predetermined print content is printed is extracted, and the extracted features are stored on the photographic paper. By reconstructing the pattern image based on the features stored in the photographic paper and verifying the validity of the photographic paper based on the reconstructed pattern image, the unique pattern that the photographic paper itself has Since the presence or absence of the original can be identified from the information based on the information, it is possible to easily prevent unauthorized duplication without using special paper or the like, and to properly protect the print contents.
以上のように本発明によれば、 印画紙に有する紋様を所定単位の領域に区割し 、 区割した各領域それぞれについて、 当該領域の輪郭上の点に基づいて輪郭に近 似する曲線を生成するための複数の点を決定し、 これら点を紋様情報として印画 紙に記憶しておき、 この記憶された紋様情報に基づいて印画紙の正当性を検証す るようにしたことにより、 当該印画紙の紋様を精度良く再現することができるた め、 特殊紙等を用いることなく高い確実性をもって簡易に不正複製を防止するこ とができ、 かくして印画内容を適切に保護することができる。 図面の簡単な説明  As described above, according to the present invention, a pattern included in photographic paper is divided into regions of a predetermined unit, and for each of the divided regions, a curve that approximates the contour is determined based on points on the contour of the region. A plurality of points to be generated are determined, these points are stored on photographic paper as pattern information, and the validity of the photographic paper is verified based on the stored pattern information. Since the pattern of photographic paper can be accurately reproduced, unauthorized duplication can be easily prevented with high certainty without using special paper or the like, and thus the printed content can be appropriately protected. Brief Description of Drawings
図 1は、 紙の紋様を示す略線図である 図 2は、 不正複製防止手法の説明に供する略線図である。 Figure 1 is a schematic diagram showing a paper pattern FIG. 2 is a schematic diagram used to explain an illegal duplication prevention method.
図 3は、 オリジナル印画紙からの複製の説明に供する略線図である。  FIG. 3 is a schematic diagram for explaining the reproduction from the original photographic paper.
図 4は、 本実施の形態による不正複製防止装置の構成を示すプロック図である 図 5は、 第 1の実施の形態による制御部の第 1の処理形態の説明に供するプロ ック図である。  FIG. 4 is a block diagram showing a configuration of an unauthorized duplication prevention device according to the present embodiment. FIG. 5 is a block diagram for explaining a first processing mode of the control unit according to the first embodiment. .
図 6は、 低域周波数成分の抽出の説明に供する略線図である。  FIG. 6 is a schematic diagram for explaining extraction of low frequency components.
図 7は、 画像の分離説明に供する略線図である。  FIG. 7 is a schematic diagram used for explanation of image separation.
図 8は、 輝度ヒストグラムに基づく画像分離の説明に供する略線図である。 図 9は、 白ダマ (黒ダマ) の区割りの説明に供する略線図である。  FIG. 8 is a schematic diagram for explaining image separation based on a luminance histogram. Fig. 9 is a schematic diagram used to explain the division of white lumps (black lumps).
図 1 0は、 小ダマの除去の説明に供する略線図である。  FIG. 10 is a schematic diagram for explaining the removal of small lumps.
図 1 1は、 特徴量の算出の説明に供する略線図である。  FIG. 11 is a schematic diagram used for explaining the calculation of the feature amount.
図 1 2は、 実験結果 (1 ) を示す略線図である。  FIG. 12 is a schematic diagram showing the experimental result (1).
図 1 3は、 2次元バーコードの種類を示す略線図である。  FIG. 13 is a schematic diagram showing types of two-dimensional barcodes.
図 1 4は、 ダマの照合 (1 ) の説明に供する略線図である。  FIG. 14 is a schematic diagram used to explain the collation of lumps (1).
図 1 5は、 ダマの照合 (2 ) の説明に供する略線図である。  FIG. 15 is a schematic diagram used to explain the collation of lumps (2).
図 1 6は、 ダマの結合又は分離の説明に供する略線図である。  FIG. 16 is a schematic diagram illustrating the joining or separation of lumps.
図 1 7は、 ダマの結合の説明に供する略線図である。  FIG. 17 is a schematic diagram for explaining the connection of lumps.
図 1 8は、 ダマの分離の説明に供する略線図である。  FIG. 18 is a schematic diagram for explaining separation of lumps.
図 1 9は、 実験結果 (2 ) を示す略線図である。  FIG. 19 is a schematic diagram showing the experimental result (2).
図 2 0は、 第 1の実施の形態による制御部の第 2の処理形態の説明に供するブ ロック図である。  FIG. 20 is a block diagram for describing a second processing mode of the control unit according to the first embodiment.
図 2 1は、 楕円近似による特徴量の算出の説明に供する略線図である。  FIG. 21 is a schematic diagram for explaining the calculation of a feature amount by elliptic approximation.
図 2 2は、 楕円近似によるダマの照合 (1 ) の説明に供する略線図である。 図 2 3は、 楕円近似によるダマの照合 (2 ) の説明に供する略線図である。 図 2 4は、 ダマの結合又は分離の説明に供する略線図である。  FIG. 22 is a schematic diagram used for explaining the collation of lumps by elliptic approximation (1). FIG. 23 is a schematic diagram for explaining the collation of lumps by elliptic approximation (2). FIG. 24 is a schematic diagram illustrating the joining or separation of lumps.
図 2 5は、 楕円近似によるダマの結合の説明に供する略線図である。 図 2 6は、 楕円近似によるダマの結合の説明に供する略線図である。 FIG. 25 is a schematic diagram for explaining the connection of lumps by elliptic approximation. FIG. 26 is a schematic diagram used to explain the coupling of lumps by elliptic approximation.
図 2 7は、 1の実施の形態による制御部の第 3の処理形態の説明に供するプロ ック図である。 '  FIG. 27 is a block diagram for explaining a third processing mode of the control unit according to the first embodiment. '
図 2 8は、 円近似による特徴量の算出の説明に供する略線図である。  FIG. 28 is a schematic diagram used to explain the calculation of the feature amount by the circle approximation.
図 2 9は、 円近似による特徴量のデータサイズを示す略線図である。  FIG. 29 is a schematic diagram showing the data size of the feature amount by the circle approximation.
図 3 0は、 円近似によるダマの照合 (1 ) の説明に供する略線図である。 図 3 1は、 円近似によるダマの結合の説明に供する略線図である。  FIG. 30 is a schematic diagram for explaining the collation of lumps by circular approximation (1). FIG. 31 is a schematic diagram for explaining the connection of lumps by circular approximation.
図 3 2は、 円近似によるダマの分離の説明に供する略線図である。  FIG. 32 is a schematic diagram illustrating the separation of lumps by circular approximation.
図 3 3は、 第 1の実施の形態による制御部の第 4の処理形態の説明に供するブ 口ック図である。  FIG. 33 is a block diagram for explaining a fourth processing mode of the control unit according to the first embodiment.
図 3 4は、 制御点列の決定の説明に供する略 図である。  FIG. 34 is a schematic diagram for explaining the determination of the control point sequence.
図 3 5は、 データサイズの説明に供する略線図である。  FIG. 35 is a schematic diagram used to explain the data size.
図 3 6は、 ベジエ曲線の生成の説明に供する略線図である。  FIG. 36 is a schematic diagram illustrating the generation of a Bezier curve.
図 3 7は、 再構成ダマの生成の説明に供する略線図である。  FIG. 37 is a schematic diagram explaining the generation of the reconstructed lumps.
図 3 8は、 位相限定相関結果を示す略線図である。  FIG. 38 is a schematic diagram showing a phase-only correlation result.
図 3 9は、 他の実施の形態のよるベジエ曲線の生成の説明に供する略線図であ る。  FIG. 39 is a schematic diagram illustrating the generation of a Bezier curve according to another embodiment.
図 4 0は、 認証処理手順を示すフローチャートである。  FIG. 40 is a flowchart showing the authentication processing procedure.
図 4 1は、 第 2の実施の形態による制御部の処理形態の説明に供するブロック 図である。  FIG. 41 is a block diagram for explaining a processing mode of the control unit according to the second embodiment.
図 4 2は、 紋様パターンの抽出の説明に供する略線図である。  FIG. 42 is a schematic diagram for describing the extraction of a pattern pattern.
図 4 3は、 極小点及び極大点の検出の説明に供する略線図である。  FIG. 43 is a schematic diagram used for describing the detection of the minimum point and the maximum point.
図 4 4は、 極小点又は極大点のデータサイズを示す略線図である。  FIG. 44 is a schematic diagram showing the data size of the minimum point or the maximum point.
図 4 5は、 画像再構成の説明に供する略線図である。  FIG. 45 is a schematic diagram used to explain image reconstruction.
図 4 6は、 ポロノィ分割の説明に供する略線図である。  FIG. 46 is a schematic diagram used for describing the Polonoy division.
図 4 7は、 小領域内における輝度値の決定の説明に供する略線図である。 図 4 8は、 画像再構成処理手順を示すフローチャートである。 図 4 9は、 低域紋様画像と再構成低域紋様画像を示す略線図である。 FIG. 47 is a schematic diagram for explaining the determination of the luminance value in the small area. FIG. 48 is a flowchart showing an image reconstruction processing procedure. FIG. 49 is a schematic diagram showing a low-frequency pattern image and a reconstructed low-frequency pattern image.
図 5 0は、 他の実施の形態による輝度ヒストグラムに基づく画像分離の説明に 供する略線図である。 発明を実施するための最良の形態  FIG. 50 is a schematic diagram for describing image separation based on a luminance histogram according to another embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
不正複製防止手法 (原理) Unauthorized duplication prevention method (principle)
紙は、 図 1に示すように、 繊維の複雑な絡み合いにより構成された固有の模様 (以下、 これを紋様と呼ぶ) を表面ではなく内部に有しており、 この紋様は、 光 にかざすと視認できることからも分かるように、 例えば透過型スキャナ等により 画像 (以下、 これを紋様画像と呼ぶ) として得ることができる。  As shown in Fig. 1, paper has a unique pattern (hereinafter referred to as a pattern) composed of complex entanglement of fibers on the inside, not on the surface. As can be seen from the fact that it can be visually recognized, it can be obtained as an image (hereinafter, referred to as a pattern image) by, for example, a transmission scanner.
そこで本実施の形態による不正複製防止手法においては、 この紋様画像に有す る紋様のパターン (以下、 これを紋様パターンと呼ぶ) を抽出し、 当該紋様パタ ーンを用いて印画紙に印画された印画内容の不正複製を防止する。  Therefore, in the unauthorized duplication prevention method according to the present embodiment, a pattern pattern (hereinafter, referred to as a pattern pattern) in the pattern image is extracted and printed on photographic paper using the pattern pattern. To prevent unauthorized duplication of printed content.
例えば図 2 (A) に示すように、 不正複製防止装置は、 オリジナルの印画紙 ( 以下、 これをオリジナル印画紙と呼ぶ) O Pの紋様画像のうち、 予め指定された 領域 (以下、 これを指定領域と呼ぶ) A Rに有する紋様パターンをオリジナル印 画紙 O Pの認証情報として抽出する。  For example, as shown in Fig. 2 (A), the unauthorized duplication prevention device uses a pre-designated area (hereinafter designated as the designated area) in the original photographic paper (hereinafter referred to as the original photographic paper) OP pattern image. The pattern pattern possessed in the AR is extracted as authentication information of the original photographic paper OP.
そして不正複製防止装置は、 かかる紋様パターン (以下、 これを認証用紋様パ ターンと呼ぶ) を 2次元バーコード (以下、 これを認証用紋様コードと呼ぶ) B Cとしてオリジナル印画紙〇 Pにおける印画紙面の一部に印画し、 かく して認証 用紋様パターンをオリジナル印画紙 O Pに記憶する。  Then, the unauthorized duplication prevention device uses the pattern pattern (hereinafter, referred to as an authentication pattern pattern) as a two-dimensional barcode (hereinafter, referred to as an authentication pattern code) BC, and the photographic paper surface of the original photographic paper 〇P. And print the authentication pattern on the original photographic paper OP.
一方、 不正複製防止装置は、 図 2 ( B ) に示すように、 この認証用紋様コード B Cが印画された印画紙 (以下、 これをコード付印画紙と呼ぶ) X P cの印画内 容を複製する場合、 当該コード付印画紙 X P cの紋様画像のうち指定領域 A Rに 有する紋様パターンを認証用紋様パターンとの比較情報として抽出する。  On the other hand, as shown in FIG. 2 (B), the unauthorized duplication prevention device duplicates the printing content of the printing paper on which the authentication pattern code BC is printed (hereinafter referred to as a coded printing paper) XP c. In this case, the pattern pattern included in the designated area AR in the pattern image of the coded paper XPc is extracted as comparison information with the authentication pattern pattern.
そして不正複製防止装置は、 かかる紋様パターン (以下、 これを比較用紋様パ ターンと呼ぶ) と、 認証用紋様コード B Cに基づく認証用紋様パターンとに基づ いて照合するようにしてコード付印画、紙 X P cの正当性 (ォリジナル印画紙 O P の有無) を検証する。 Then, the unauthorized duplication prevention apparatus uses the pattern pattern for comparison (hereinafter referred to as a comparison pattern pattern) and the authentication pattern pattern based on the authentication pattern code BC. And verify the validity of the coded print and paper XPc (the presence or absence of the original photographic paper OP).
ここで不正複製防止装置は、 この照合結果として所定の合致率よりも高い合致 率が得られた場合には、 コード付印画紙 X P cが正当なオリジナル印画紙 O Pで あると判断し、 当該コード付印画紙 X P cに印画された印画内容の複製を許可す る。  Here, if a higher matching rate than the predetermined matching rate is obtained as a result of the collation, the unauthorized copy prevention device determines that the coded paper XPc is the valid original photographic paper OP, and Permits duplication of the print contents printed on the attached photographic paper XP c.
これに対して不正複製防止装置は、 所定の合致率よりも低い合致率が得られた 場合には、 コード付印画紙 X P cがオリジナル印画紙 O Pではなく複製印画紙で あると判断し、 当該コード付印画紙 X P cに印画された印画内容の複製を禁止す る。  On the other hand, if a matching rate lower than the predetermined matching rate is obtained, the unauthorized duplication prevention device determines that the coded paper XP c is not the original photographic paper OP but the copied photographic paper, and Reproduction of the print content printed on the photographic paper with code XP c is prohibited.
従ってこの不正複製防止手法では、 オリジナル印画紙 O Pはその印画内容を制 限なく複製することができるが、 図 3に示すように、 当該印画内容が複製された 複製印画紙には指定領域 A Rに有する紋様パターンが複製されることはないため 、 複製印画紙はその印画内容 (オリジナルの印画内容) を一切複製できないこと となる。  Therefore, in this illegal duplication prevention method, the original photographic paper OP can copy the print contents without limitation, but as shown in Fig. 3, the copy photographic paper on which the print contents are copied is placed in the designated area AR. Since the pattern pattern possessed is not duplicated, the duplicated photographic paper cannot duplicate the photographic content (original photographic content) at all.
このようにしてこの不正複製防止手法においては、 紋様パターン (認証用紋様 パターン又は比較用紋様パターン) に基づいて、 コード付印画紙 X P c (図 2 ( B ) ) の正当性 (オリジナル印画紙 O Pの有無) を検証することにより、 オリジ ナル印画紙〇Pに印画された印画内容の不正複製を防止するようになされている 本実施の形態による不正複製防止装置の構成 ·  In this way, in this unauthorized duplication prevention method, based on the pattern (authentication pattern or comparison pattern), the validity (original photographic paper OP) of the coded paper XPc (Fig. 2 (B)) is used. Is verified to prevent unauthorized duplication of the print content printed on the original photographic paper 〇P.
図 4において、 1は本実施の形態による不正複製防止装置の全体構成を示し、 この不正複製防止装置 1全体の制御を司る制御部 2に対してバス 3を介してスキ ャナ部 4及ぴプリンタ部 5が接続されることにより構成される。  In FIG. 4, reference numeral 1 denotes an overall configuration of an unauthorized duplication prevention device according to the present embodiment. A control unit 2 for controlling the entire unauthorized duplication prevention device 1 is connected to a scanner unit 4 and a bus unit 3 via a bus 3. It is configured by connecting the printer unit 5.
この制御部 2は、 中央処理ユニット、 ワークメモリ及び情報記憶メモリを有し 、 当該情報記憶メモリには、 紙の各種規格サイズそれぞれに対する指定領域 A R (図 2 ) の位置情報 (以下、 これを領域位置情報と呼ぶ) 、 2次元バーコード用 の文字列情報 (以下、'これをコード文、字列情報と呼ぶ) 等の各種情報及ぴプログ ラムが記憶されている。 そして制御部 2は、 ワークメモリにロードしたプロダラ ムに従って、 情報記憶メモリに記憶された各種情報を適宜用いて各種処理を実行 するようになされている。 The control unit 2 includes a central processing unit, a work memory, and an information storage memory. The information storage memory stores position information (hereinafter, referred to as an area) of a designated area AR (FIG. 2) for each of various standard sizes of paper. Position information), for 2D barcode And various information such as character string information (hereinafter referred to as “code sentence, character string information”). The control unit 2 executes various processes according to the program loaded in the work memory, using various information stored in the information storage memory as appropriate.
実際上、 制御部 2は、 認証用紋様コード B C' (図 2 ( A) ) を印画させる所定 の指令が操作部 (図示せず) から与えられると、 紋様画像読取コマンドをスキヤ ナ部 4に送出する。  In practice, the control unit 2 sends a pattern image reading command to the scanner unit 4 when a predetermined command for printing the authentication pattern code BC '(FIG. 2A) is given from the operation unit (not shown). Send out.
そして制御部 2は、 このコマンドの応答結果として、 スキャナ部 4からオリジ ナル印画紙 O P (図 2 (A) ) における紋様画像のデータ (以下、 これをオリジ ナル紋様画像データと呼ぶ) D 1が与えられた場合、 第 1のモード (以下、 この モードをコード印画モードと呼ぶ) に遷移する。  As a response result of this command, the control unit 2 receives pattern image data D1 (hereinafter referred to as original pattern image data) on the original photographic paper OP (FIG. 2A) from the scanner unit 4. If given, transition to the first mode (hereinafter, this mode is called the code printing mode).
この場合、 制御部 2は、 オリジナル紋様画像データ D 1の紋様画像から認証用 紋様パターンを抽出し、 この認証用紋様パターンを 2次元バーコ一ド用の文字列 データ (以下、 これを認証用紋様コードデータと呼ぶ) D 2として生成し、 これ をプリンタ部 5に送出する。 この認証用紋様コードデータ D 2は、 プリンタ部 5 において、 認証用紋様コード B C (図 2 (A) ) としてオリジナル印画紙 O P ( 図 2 (A) ) に印画される。  In this case, the control unit 2 extracts the authentication pattern pattern from the pattern image of the original pattern image data D1, and converts the authentication pattern pattern into character string data for a two-dimensional bar code (hereinafter referred to as the authentication pattern). It is generated as D2 and sent to the printer unit 5. The authentication pattern code data D2 is printed on the original photographic paper OP (FIG. 2 (A)) as the authentication pattern code BC (FIG. 2 (A)) in the printer unit 5.
また制御部 2は、 所定の複製指令が操作部から与えられると、 紋様画像読取コ マンド及ぴコード読取コマンドをスキャナ部 4に送出する。  When a predetermined duplication command is given from the operation unit, the control unit 2 sends a pattern image reading command and a code reading command to the scanner unit 4.
そして制御部 2は、 これらコマンドの応答結果として、 スキャナ部 4からコー ド付印画紙 X P c (図 2 ( B ) ) における紋様画像のデータ (以下、 これをコー ド付紋様画像データと呼ぶ) D 3と、 当該コード付印画紙 X P cに印画された認 証用紋様コード B C (図 2 (A) ) の読取結果である認証用紋様コードデータ D 2とが与えられた場合、 第 2のモード (以下、 このモードを検証モードと呼ぶ) に遷移する。 .  Then, the control unit 2 receives, as a response result of these commands, the pattern image data on the coded paper XPc (FIG. 2 (B)) from the scanner unit 4 (hereinafter referred to as code-added pattern image data). If D3 and the authentication pattern code data D2 obtained by reading the authentication pattern code BC (FIG. 2 (A)) printed on the photographic paper XPc with the code, the second Mode (hereinafter referred to as verification mode). .
この場合、 制御部 2は、 コード付紋様画像データ D 3の紋様画像から比較用紋 様パターンを抽出し、 この比較用紋様パターンと、 認証用紋様コードデータ D 2 に基づく認証用紋様パターンとを照合する。 In this case, the control unit 2 extracts a comparison pattern pattern from the pattern image of the code-added pattern image data D3, and compares this comparison pattern pattern with the authentication pattern code data D2. Is collated with the authentication pattern pattern based on.
そして制御部 2は、 所定の合致率よりも高い合致率が得られた場合にのみ複製 許可コマンドを生成し、 これをスキャナ部 4に送出する。 この場合、 コード付印 画紙 X P c (図 2 ( B ) ) の印画内容がスキャナ部 4において読み取られ、 この 印画内容はプリンタ都 5において印画される。  Then, the control unit 2 generates a copy permission command only when a match rate higher than a predetermined match rate is obtained, and sends it to the scanner unit 4. In this case, the printed content of the coded paper X Pc (FIG. 2B) is read by the scanner unit 4, and the printed content is printed by the printer 5.
このようにして制御部 2は、 オリジナル印画紙〇 Pから抽出した認証用紋様パ ターンを認証用紋様コー B Cとして当該オリジナル印画紙 O Pに印画させ、 当 該印画させた認証用紋様コード B Cの認証用紋様パターンと一致する比較用紋様 パターンを有するコード付印画紙 X P cについてのみ、 印画内容の複製を許可す ることができるようになされている。  In this way, the control unit 2 prints the authentication pattern pattern extracted from the original photographic paper 〇P on the original photographic paper OP as the authentication pattern code BC, and authenticates the printed authentication pattern code BC. Only the coded paper XPc having the comparative pattern pattern that matches the pattern pattern can be permitted to copy the print content.
一方、 スキャナ部 4は、 透過モード、 反射モード及びコード読取モードを有し 、 制御部 2から紋様画像読取コマンドが与えられた場合には透過モード、 また複 製許可コマンドが与えられた場合には反射モード、 さらにコード読取コマンドが 与えられた場合にはコード読取モードをそれぞれ実行するよ,.うになされている。 実際上、 スキャナ部 4は、 透過モード時には、 原稿台に载置されたオリジナル 印画紙〇P又はコード付印画紙 X P cに対して光を照射し、 当該印画紙 O P又は X P cを透過することにより得られる紋様投影光を光学系を介して固体撮像素子 に結像する。 そしてスキャナ部 4は、 この固体撮像素子から得られる紋様画像信 号に対して AZD (A n a 1 o g /D i g i t a 1 ) 変換処理等を施し、 この結 果得られたオリジナル紋様画像データ D 1又はコード付紋様画像データ D 3を制 御部 2に送出する。  On the other hand, the scanner unit 4 has a transmission mode, a reflection mode, and a code reading mode. When the pattern image reading command is given from the control unit 2, the transmission mode is set. In the reflection mode, the code reading mode is executed when a code reading command is given. In actuality, in the transmission mode, the scanner unit 4 irradiates light to the original photographic paper P or the coded paper XP c placed on the platen and transmits the photographic paper OP or XP c. The pattern projection light obtained by the above is imaged on a solid-state imaging device via an optical system. Then, the scanner unit 4 performs an AZD (Ana1og / Digita1) conversion process or the like on the pattern image signal obtained from the solid-state imaging device, and obtains the original pattern image data D1 or D1 obtained as a result. The code-added pattern image data D 3 is sent to the control unit 2.
またスキャナ部 4は、 反射モード時には、 原稿台に載置されたオリジナル印画 紙 O Pに対して光を照射し、 当該印画紙 O Pを反射することにより得られる印画 内容反射光を光学系を介して固体撮像素子に結像する。 そしてスキャナ部 4は、 この固体撮像素子から得られる印画内容画像信号に対して AZD変換処理等を施 し、 この結果得られた印画内容画像データ D 4をプリンタ部 5に送出する。 さらにスキャナ部 4は、 コード読取モード時には、 当該スキャナ部 4に接続さ れた 2次元コードリーダ 4 aを起動し,、 当該 2次元コードリーダ 4 aにより読み 取られることにより供給される認証用紋様コードデータ D 2を制御部 2に送出す る。 In the reflection mode, the scanner unit 4 irradiates the original photographic paper OP placed on the document table with light, and reflects the print content reflected light obtained by reflecting the photographic paper OP via an optical system. An image is formed on a solid-state imaging device. Then, the scanner unit 4 performs an AZD conversion process or the like on the print content image signal obtained from the solid-state imaging device, and sends the print content image data D4 obtained as a result to the printer unit 5. Further, the scanner unit 4 is connected to the scanner unit 4 in the code reading mode. The two-dimensional code reader 4a is activated, and the authentication pattern code data D2 supplied by being read by the two-dimensional code reader 4a is sent to the control unit 2.
このようにしてスキャナ部 4は、 制御部 2から与えられる各種コマンドに応じ たモードを実行することにより、 紋様画像、 認証用紋様コード B C (図 2 ) 、 又 は印画内容を読み取ることができるようになされている。  In this way, the scanner unit 4 can read the pattern image, the authentication pattern code BC (FIG. 2), or the print content by executing the mode according to the various commands given from the control unit 2. It has been made.
他方、 プリンタ部 5は、 2次元コード用のフォント情報 (以下、 これをコード フォント情報と呼ぶ) 及び紙の各種規格サイズそれぞれに対する認証用紋様コー ド B C (図 2 ) の位置情報 (以下、 これをコード位置情報と呼ぶ) 等の各種情報 を内部メモリに記憶しており、 これら情報を適宜用いて印画処理を実行する。 この場合、 プリンタ部 5は、 制御部 2から認証用紋様コードデータ D 2が与え られると、 この認証用紋様コードデータ D 2に対してパルス幅変調処理等を施し 、 この結果得られた印画データを印画ヘッド部に送出する。 この結果、 この印画 データ、 コードフォント情報及ぴコ一ド位置情報に基づく印画へッド部の駆動に より、 このとき印画紙台にセットされた印画紙 (オリジナル印画紙 O P ) の所定 位置に認証用紋様コード B C (図 2 (A) ) が印画されることとなる。  On the other hand, the printer unit 5 stores the font information for the two-dimensional code (hereinafter, referred to as code font information) and the position information of the authentication pattern code BC (FIG. 2) for each of various standard sizes of paper (hereinafter, referred to as “code font information”). Are referred to as code position information), etc. are stored in the internal memory, and the printing process is executed using these information as appropriate. In this case, when the authentication pattern code data D 2 is given from the control unit 2, the printer unit 5 performs pulse width modulation processing or the like on the authentication pattern code data D 2, and obtains the print data obtained as a result. To the print head unit. As a result, by driving the printing head based on the printing data, code font information and code position information, the printing paper (original printing paper OP) set on the printing paper base at this time is moved to a predetermined position. The authentication pattern code BC (Fig. 2 (A)) will be printed.
またプリンタ部 5は、 スキャナ部 4から印画内容画像データ D 4が与えられる と、 この印画内容画像データ D 4に対してパルス幅変調処理等を施し、 この結果 得られた印画データを印画ヘッド部に送出する。 この結果、 この印画データに基 づく印画へッド部の駆動により、 このとき印画紙台にセットされた用紙にオリジ ナル印画紙 O Pの印画内容が複製されることとなる。  Further, when the print content image data D 4 is provided from the scanner unit 4, the printer unit 5 performs pulse width modulation processing or the like on the print content image data D 4, and prints the resulting print data on the print head unit. To send to. As a result, by driving the printing head based on the printing data, the printing content of the original printing paper OP is duplicated on the paper set on the printing paper base at this time.
このようにしてプリンタ部 5は、 制御部 2から供給される認証用紋様コードデ ータ D 2に基づく認証用紋様コード B C (図 2 ) を印画するとともに、 印画内容 画像データ D 4に基づく印画内容を複製することができるようになされている。 制御部の処理.  In this way, the printer unit 5 prints the authentication pattern code BC (FIG. 2) based on the authentication pattern code data D2 supplied from the control unit 2, and prints the printing content based on the image data D4. Has been made so that it can be replicated. Control unit processing.
ここで、 かかる制御部 2の処理を、 第 1の実施の形態と、 第 2の実施の形態と に分けてそれぞれ具体的に説明する。 第 1の実施の形態による制御部の処理 Here, the processing of the control unit 2 will be specifically described separately for the first embodiment and the second embodiment. Control unit processing according to the first embodiment
この第 1の実施の形態による制御部 2の処理には、 第 1〜第 4の処理形態があ るため、 当該処理形態を順次説明することにする。  Since the processing of the control unit 2 according to the first embodiment includes first to fourth processing modes, the processing modes will be sequentially described.
第 1の処理形態 First processing mode
まず、 この制御部 2における第 1の処理形態について説明する。  First, a first processing mode in the control unit 2 will be described.
制御部 2における第 1の処理形態の処理内容を機能的に分類すると、 図 5に示 すように、 紋様画像から低域周波数成分の紋様画像 (以下、 これを低域紋様画像 と呼ぶ) を抽出する低域周波数成分抽出部 1 1と、 当該低域紋様画像を低輝度成 分の画像 (以下、 これを白成分紋様画像と呼ぶ) 及び高輝度成分の画像 (以下、 これを黒成分紋様画像と呼ぶ) に分離する画像分離部 1 2と、 当該白成分紋様画 像及び黒成分紋様画像に有する紋様を複数の領域に区割りする領域区割部 1 3と 、 当該各領域それぞれの特徴量を算出するようにして紋様パターンを抽出する紋 様パターン抽出部 1 4と、 当該紋様パターン (各特長量) を 2次元パーコード変 換する 2次元コード変換部 1 5と、 当該紋様パターン (各特長量) を用いてコー ド付印画紙 X P c (図 2 ( B ) ) の正当性を検証する照合部 1 6とに分けること ができる。  When the processing content of the first processing mode in the control unit 2 is functionally classified, as shown in FIG. 5, a pattern image of a low-frequency component (hereinafter, referred to as a low-frequency pattern image) is obtained from the pattern image. The low-frequency component extraction unit 11 to be extracted, the low-frequency pattern image is a low-luminance component image (hereinafter, referred to as a white component pattern image), and the high-luminance component image (hereinafter, a black component pattern) An image separating unit 12 that separates the image into a plurality of regions; a region dividing unit 13 that divides a pattern included in the white component pattern image and the black component pattern image into a plurality of regions; A pattern pattern extraction unit 14 for extracting the pattern pattern by calculating the pattern pattern, a two-dimensional code conversion unit 15 for converting the pattern pattern (each feature amount) into a two-dimensional per code, Photographic paper with code X P c (FIG. 2 (B)) can be divided into a collating unit 16 that verifies the validity of P c (FIG. 2 (B)).
この場合、 制御部 2は、 コード印画モード時には、 スキャナ部 4から与えられ るオリジナル紋様画像データ D 1に対して低域周波数成分抽出部 1 1、 画像分離 部 1 2、 領域区割部 1 3、 紋様パターン抽出部 1 4及び 2次元コード変換部 1 5 を順次介して各種処理を施し、 この結果得られる認証用紋様コードデータ D 2を プリンタ部 5に送出する。 '  In this case, in the code printing mode, the control unit 2 applies a low-frequency component extraction unit 11, an image separation unit 12, and an area division unit 13 to the original pattern image data D 1 provided from the scanner unit 4. Various processes are sequentially performed via the pattern pattern extraction unit 14 and the two-dimensional code conversion unit 15, and the authentication pattern code data D 2 obtained as a result is sent to the printer unit 5. '
また制御部 2は、 検証モード時には、 スキャナ部 4から与えられるコード付紋 様画像データ D 3に対して低域周波数成分抽出部 1 1、 画像分離部 1 2、 領域区 割部 1 3及び紋様パターン抽出部 1 4を順次介して各種処理を施した後、 この処 理結果と、 スキャナ部 4から与えられる認証用紋様コードデータ D 2とに基づく 照合処理を照合部 1 6において行うようになされている。  Further, in the verification mode, the control unit 2 controls the low-frequency component extraction unit 11, the image separation unit 12, the area division unit 13, and the pattern with respect to the code-added pattern image data D 3 provided from the scanner unit 4. After various processes are sequentially performed through the pattern extracting unit 14, a matching process based on the processing result and the authentication pattern code data D 2 given from the scanner unit 4 is performed in the matching unit 16. ing.
以下、 低域周波数成分抽出部 1 1による低域周波数成分抽出処理、 画像分離部 1 2による画像分離処理、 領域区割部、 1 3による領域区割処理、 紋様パターン抽 出部 1 4による紋様パターン抽出処理、 2次元コード変換部 1 5による 2次元コ 一ド変換処理及ぴ照合部 1 6による照合処理を詳細に説明する。 Below, the low frequency component extraction processing by the low frequency component extraction unit 11 and the image separation unit Image separation processing by 12; area division unit; area division processing by 13; pattern pattern extraction processing by pattern extraction unit 14; 2D code conversion processing by 2D code conversion unit 15 The collation processing by the collation unit 16 will be described in detail.
低域周波数成分抽出処理 Low frequency component extraction processing
低域周波数成分抽出部 1 1は、 例えば図 6に示すように、 オリジナル印画紙〇 P (図 2 ( A) ) 又はコード付印画紙 X P c (図 2 ( B ) ) の紋様画像から指定 領域 A R (図 2 ) の紋様画像 (以下、 これを領域紋様画像と呼ぶ) I M 1 (図 6 For example, as shown in FIG. 6, the low-frequency component extraction unit 11 determines the designated area from the pattern image of the original photographic paper 〇P (FIG. 2 (A)) or the coded paper XPc (FIG. 2 (B)). Pattern image of AR (Fig. 2) (hereafter referred to as area pattern image) IM1 (Fig. 6
(A) ) を取得し、 この領域紋様画像 I M lから低域成分紋様画像 I M 2 (図 6(A)) and the low-frequency component pattern image I M2 (Fig. 6
( B ) ) を抽出する。 (B)) is extracted.
具体的に低域周波数成分抽出部 1 1は、 内部メモリに記憶された領域位置情報 に基づいて、 スキャナ部 4から与えられるオリジナル紋様画像データ D 1又はコ 一ド付紋様画像データ D 3から領域紋様画像 I M 1のデータを取得し、 当該取得 した領域紋様画像 I M lのデータに対してフーリエ変換処理を施すことにより周 波数成分のデータを生成する。  Specifically, the low-frequency component extraction unit 11 extracts the area from the original pattern image data D1 or the code-added pattern image data D3 given from the scanner unit 4 based on the area position information stored in the internal memory. The data of the pattern image IM1 is acquired, and the data of the acquired area pattern image IMl is subjected to Fourier transform processing to generate frequency component data.
そして低域周波数成分抽出部 1 1は、 この周波数成分のデータに対して、 所定 閾値以上の高周波成分のデータ値を 「0」 とした後に逆フーリエ変換処理を施す ことにより低域成分紋様画像 I M 2のデータ (以下、 これを低域紋様画像データ と呼ぶ) D 1 1を生成し、 これを画像分離部 1 2に送出するようになされている このようにして低域周波数成分抽出部 1 1は、 低域成分紋様画像 I M 2を抽出 することにより、 例えばスキャナ部 4での固体撮像素子のノイズ等、 一般に画像 の高周波成分に含まれる各種ノイズ成分を除去することができるようになされて レ、る。  Then, the low-frequency component extraction unit 11 performs an inverse Fourier transform process on the data of this frequency component after setting the data value of the high-frequency component equal to or greater than a predetermined threshold to “0”, thereby obtaining a low-frequency component pattern image IM. 2 (hereinafter referred to as low-frequency pattern image data) D11 is generated and sent to the image separation unit 12 In this manner, the low-frequency component extraction unit 11 By extracting the low-frequency component pattern image IM2, it is possible to remove various noise components generally included in high-frequency components of an image, such as noise of a solid-state imaging device in the scanner unit 4. RU
この結果、 低域周波数成分抽出部 1 1は、 各種ノイズ成分に起因する紋様バタ ーン抽出部 1 4での紋様パターン (特徴量) の抽出精度の低下を回避させること ができるようになり、 ひいては照合部 1 6での照合処理の照合結果における信頼 性を向上させることができるようになされている。 画像分離処理 、 As a result, the low-frequency component extraction unit 11 can avoid a decrease in the accuracy of pattern pattern (feature) extraction by the pattern pattern extraction unit 14 due to various noise components. As a result, the reliability of the collation result of the collation processing in the collation unit 16 can be improved. Image separation processing,
画像分離部 1 2は、 例えば図 7に示すように、 低域周波数成分抽出部 1 1にお いて抽出された低域成分紋様画像 IM2 (図 7 (A) ) を、 白成分紋様画像 WI M (図 7 (B) ) と、 黒成分紋様画像 B IM (図 7 (C) ) とに分離する。  For example, as shown in FIG. 7, the image separation unit 12 converts the low-frequency component pattern image IM2 (FIG. 7 (A)) extracted by the low-frequency component extraction unit 11 into a white component pattern image WI M (Fig. 7 (B)) and a black component pattern image BIM (Fig. 7 (C)).
具体的に画像分離部 1 2は、 低域周波数成分抽出部 1 1から供給される低域紋 様画像データ D 1 1の低域成分紋様画像 I M 2の輝度値を画素ごとに順次検出し 、 当該検出結果が所定の低輝度閾値 (以下、 これを白閾値と呼ぶ) 以下の輝度値 でなる画素 (以下、 これを白画素と呼ぶ) 以外の画素を最も高い輝度レベルに変 換するようにして白成分紋様画像 WIM (図 7 (B) ) を抽出した後、 この白成 分紋様画像 WIMをデータ (以下、 として白成分紋様画像データと.呼ぶ) D 1 2 として領域区割部 1 3に送出する。  Specifically, the image separation unit 12 sequentially detects the luminance value of the low-frequency component pattern image IM2 of the low-frequency pattern image data D11 supplied from the low-frequency component extraction unit 11 for each pixel, Pixels other than pixels (hereinafter, referred to as white pixels) having a luminance value equal to or less than a predetermined low luminance threshold (hereinafter, referred to as a white threshold) are converted to the highest luminance level. After extracting the white component pattern image WIM (see FIG. 7 (B)), the white component pattern image WIM is referred to as data (hereinafter, referred to as white component pattern image data.) D 1 2 To send to.
また画像分離部 1 2は、 低域成分紋様画像 I M 2における各画素の輝度値の検 出結果が所定の高輝度閾値 (以下、 これを黒閾値と呼ぶ) 以上となる輝度値を有 する画素 (以下、 これを黒画素と呼ぶ) .以外の画素を最も低い輝度レベルに変換 するようにして黒成分紋様画像 B IM (図 7 (C) ) を抽出し、 この黒成分紋様 画像 B IMをデータ (以下、 これを黒成分紋様画像データと呼ぶ) D 1 3として 領域区割部 1 3に送出する。  In addition, the image separation unit 12 generates pixels having a luminance value at which the detection result of the luminance value of each pixel in the low-frequency component pattern image IM2 is equal to or higher than a predetermined high luminance threshold (hereinafter, referred to as a black threshold). (Hereinafter, this is called a black pixel.) A black component pattern image BIM (Fig. 7 (C)) is extracted by converting the pixels other than. To the lowest luminance level. Data (hereinafter, referred to as black component pattern image data) is transmitted to the area dividing unit 13 as D13.
このようにして画像分離部 1 2は、 白成分紋様画像 WIM (図 7 (B) ) と、 黒成分紋様画像 B IM (図 7 (C) ) とに分離することにより、 紋様の複雑さの 程度を低減することができるようになされている。  In this way, the image separation unit 12 separates the white component pattern image WIM (Fig. 7 (B)) and the black component pattern image BIM (Fig. 7 (C)) to reduce the complexity of the pattern. The degree has been reduced.
この結果、 画像分離部 1 2は、 複雑さの程度が大きいことに起因する紋様パタ ーン抽出部 1 4での紋様パターン (特徴量) の抽出精度の低下,を回避させること ができるようになり、 ひいては照合部 1 6での照合処理の照合結果における信頼 性を向上させることができるようになされている。  As a result, the image separation unit 12 can prevent the pattern pattern extraction unit 14 from deteriorating the accuracy of pattern pattern (feature) extraction due to the large degree of complexity. In other words, the reliability of the matching result of the matching process in the matching unit 16 can be improved.
かかる構成に加えてこの画像分離部 1 2は、 低域成分紋様画像 I M 2 (図 7 ( A) ) に対する白成分紋様画像 WIM (図 7 (B) ) 及び黒成分紋様画像 B IM (図 7 (C) ) の面積比がそれぞれ例えば 20 [%] 'となるように白閾値及び黒 閾値を調整するようになされている。 、 In addition to this configuration, the image separation unit 12 further includes a white component pattern image WIM (FIG. 7 (B)) and a black component pattern image BIM (FIG. 7) for the low-frequency component pattern image IM2 (FIG. 7 (A)). (C) The white threshold and the black are set so that the area ratio of The threshold is adjusted. ,
具体的に画像分離部 1 2は、 低域成分紋様画像 I M 2における輝度値を画素ご とに順次検出して白成分紋様画像 W I M (図 7 (B) ) 及び黒成分紋様画像 B I M (図 7 (C) ) を抽出したとき、 当該検出結果に基づいて、 図 8に示すように 、 低域成分紋様画像 I M 2における画素ごとの輝度値の分布を輝度ヒストグラム として生成する。  Specifically, the image separation unit 12 sequentially detects the luminance value of the low-frequency component pattern image IM2 for each pixel, and detects the white component pattern image WIM (FIG. 7B) and the black component pattern image BIM (FIG. 7). When (C)) is extracted, a distribution of luminance values for each pixel in the low-frequency component pattern image IM2 is generated as a luminance histogram based on the detection result, as shown in FIG.
そして画像分離部 1 2は、 この輝度ヒストグラムに基づいて、 このとき抽出し た白成分紋様画像 WIM (黒成分紋様画像 B IM) における白画素 (黒画素) の 画素数が、 低域成分紋様画像 IM2 (図 7 (A) ) における全画素の 20 [%] (図 8において破線部分) となっているか否かを判断する。  Then, based on the luminance histogram, the image separation unit 12 determines the number of white pixels (black pixels) in the white component pattern image WIM (black component pattern image BIM) extracted at this time as a low-frequency component pattern image. It is determined whether or not 20% of all pixels in IM2 (FIG. 7A) (broken line in FIG. 8).
ここで画像分離部 1 2は、 この判断結果として白画素 (黒画素) の画素数が全 画素の 20 [%] となっていなかった場合には白閾値 (黒閾値) を変動し、 当該 変動した白閾値 (黒閾値) に基づいて白成分紋様画像 WIM (黒成分紋様画像 B IM) を再度抽出する。  If the number of white pixels (black pixels) is not 20% of all pixels as a result of this determination, the image separation unit 12 changes the white threshold (black threshold). The white component pattern image WIM (black component pattern image BIM) is extracted again based on the obtained white threshold value (black threshold value).
このようにして画像分離部 1 2は、 白画素及び黒画素の画素数が低域成分紋様 画像 IM2 (図 7 (A) ) における全画素の 20 [%] となるように白成分紋様 画像 WI M (黒成分紋様画像 B IM) を抽出し、 これを白成分紋様画像データ D 1 2 (黒成分紋様画像データ D 1 3) として領域区割部 1 3に送出するようにな されている。  In this manner, the image separation unit 12 sets the white component pattern image WI such that the number of white pixels and black pixels is 20% of all pixels in the low-frequency component pattern image IM2 (FIG. 7 (A)). M (black component pattern image BIM) is extracted and sent to the area dividing unit 13 as white component pattern image data D 12 (black component pattern image data D 13).
これにより画像分離部 1 2は、 低域成分紋様画像 I M 2 (図 7 (A) ) の全画 素数に基づいて相対的に白成分紋様画像 WIM (図 7 (B) ) 及び黒成分紋様画 像 B IM (図 7 (C) ) を分離することができるため、 例えば経年変化等により 印画紙 (低域成分紋様画像 I M 2 ) の色調が変化した場合であっても、 当該色調 の変化分を除去することができるようになされている。  As a result, the image separation unit 12 relatively outputs the white component pattern image WIM (FIG. 7 (B)) and the black component pattern image based on the total number of pixels of the low-frequency component pattern image IM2 (FIG. 7 (A)). Since the image BIM (Fig. 7 (C)) can be separated, even if the color tone of the photographic paper (low-frequency component pattern image IM2) changes due to, for example, aging, the change in the color tone Has been made so that it can be removed.
この結果、 この画像分離部 1 2は、 かかる色調の変化に起因する紋様パターン 抽出部 1 4での紋様パターン (特徴量) の抽出精度の低下を回避させることがで きるようになり、 ひいては照合部 1 6での照合処理の照合結果における信頼性を 向上させることができるようになされている。 As a result, the image separation unit 12 can prevent the pattern pattern extraction unit 14 from deteriorating the extraction accuracy of the pattern pattern (feature amount) due to such a change in the color tone. The reliability of the matching result of the matching process in Part 16 It has been made so that it can be improved.
領域区割処理 Area division processing
領域区割部 1 3は、 図 7に示したように、 白成分紋様画像 WIM (図 7 (B) ) に有する紋様を、 隣接する白画素の集合を単位とする領域 (以下、 これを白ダ マと呼ぶ) に区割りすると共に、 黒成分紋様画像 B IM (図 7 (C) ) に有する 紋様を、 隣接する黒画素の集合を単位とする領域 (以下、 これを黒ダマと呼ぶ) に区割りする。  As shown in FIG. 7, the area dividing unit 13 is configured to store a pattern included in the white component pattern image WIM (FIG. 7B) in units of a set of adjacent white pixels (hereinafter, referred to as white). In addition, the pattern in the black component pattern image BIM (Fig. 7 (C)) is divided into areas (hereinafter referred to as black lumps) in units of a set of adjacent black pixels. Divide.
具体的に領域区割部 1 3は、 画像分離部 1.2から供給される白成分紋様画像デ ータ D 1 2の白成分紋様画像 WIM (図 7 (B) ) から全ての白画素を検出した 後、 図 9 (A) に示すように、 任意の注目画素 APに隣接する上下左右方向の 4 画素及ぴ斜め方向の 4画素の計 8画素 (以下、 これを 8近傍画率と呼ぶ) の白画 素を順次連結していく。  Specifically, the area dividing unit 13 detects all white pixels from the white component pattern image WIM (FIG. 7B) of the white component pattern image data D12 supplied from the image separation unit 1.2. Then, as shown in Fig. 9 (A), a total of 8 pixels (4 pixels in the vertical and horizontal directions and 4 pixels in the diagonal direction) adjacent to the arbitrary target pixel AP (hereinafter, referred to as 8 neighborhood ratios) White pixels are connected sequentially.
そして領域区割部 1 3は、 例えば図 9 (B) に示すように、 8近傍画素に白画 素が検出されなくなった時点で、 これまで連結した白画素群に識別情報を対応付 けて白ダマ WDい WD2……、 及び WDnを形成する。 Then, as shown in FIG. 9 (B), for example, as shown in FIG. 9 (B), when no white pixels are detected in the eight neighboring pixels, the area dividing unit 13 associates the identification information with the white pixel group connected so far. Form white WD WD 2 ……, and WD n .
また領域区割部 1 3は、 画像分離部 1 2から供給される黒成分紋様画像データ D 1 3の黒成分紋様画像 B I M (図 7 (C) ) についても白成分紋様画像 W I M (図 7 (B) ) と同様にして複数の黒ダマ BD (BD1〜BDn) を形成するよ うになされている。 In addition, the area dividing unit 13 also generates a white component pattern image WIM (FIG. 7 (C)) for the black component pattern image BIM (FIG. 7 (C)) of the black component pattern image data D13 supplied from the image separation unit 12. In the same manner as in B))), a plurality of black lumps BD (BD 1 to BD n ) are formed.
このようにして領域区割部 1 3は、 白成分紋様画像 WIM (図 7 (B) ) に有 する紋様を複数の白ダマ WD (WD WDJ に区割りすると共に、 黒成分紋 様画像 B I M (図 7 (C) ) に有する紋様を複数の黒ダマ B D (BDi B Dn ) に区割りすることにより、 当該紋様を細分化することができるようになされて レヽる。  In this way, the area dividing section 13 divides the pattern in the white component pattern image WIM (FIG. 7 (B)) into a plurality of white WDs (WD WDJ), and also sets the black component pattern image BIM (FIG. 7 (C)), the pattern can be subdivided by dividing the pattern into a plurality of black lumps BD (BDi B Dn).
この結果、 領域区割部 1 3は、 白成分紋様画像 WIM (図 7 (B) ) 及び黒成 分紋様画像 B I M (図 7 (C) ) に有する紋様を細かく分析することができるよ うになるため、 紋様パターン抽出部 14での紋様パターン (特徴量) の抽出精度 を向上させることができるようになり,、 ひいては照合部 16での照合処理の照合 結果における信頼性を向上させることができるようになされている。 As a result, the area dividing unit 13 can analyze the patterns in the white component pattern image WIM (FIG. 7 (B)) and the black component pattern image BIM (FIG. 7 (C)) in detail. Therefore, the pattern pattern (feature) extraction accuracy in the pattern pattern extraction unit 14 Thus, the reliability of the collation result of the collation processing in the collation unit 16 can be improved.
かかる構成に加えて領域区割部 1 3は、 例えば図 10 (A) に示すように、 白 成分紋様画像 WIM (図 7 (B) ) に有する紋様を複数の白ダマ WD (WD WDn) に区割りした後、 図 1 0 (B) に示すように、 当該各白ダマ WDから予 め規定された連結数以下となるダマ (以下、 これを小ダマと呼ぶ) を除去するよ うになされており、 当該除去した結果得られた白ダマ WD (WDt WDj を データ (以下、 これを白ダマデータと呼ぶ) D 14として紋様パターン抽出部 1 4に送出する。 In addition to this configuration, the area dividing unit 13 includes, as shown in FIG. 10 (A), for example, a pattern having a white component pattern image WIM (FIG. 7 (B)) having a plurality of white dummy WDs (WD WD n ). Then, as shown in Fig. 10 (B), from each of the white lumps WD, the lumps whose number of connections is less than a predetermined number (hereinafter referred to as small lumps) are removed. Then, the white dummy WD (WDt WDj) obtained as a result of the removal is sent to the pattern extracting unit 14 as data (hereinafter, referred to as white dummy data) D14.
また領域区割部 1 3は、 黒ダマ BD (BDi BDj についても白ダマ WD (WDi WDj と同様にして小ダマを除去し、 当該除去した結果得られた黒 ダマ BD (BDi BDn) をデータ (以下、 これを黒ダマデータと呼ぶ) D 1 5として紋様パターン抽出部 14に送出するようになされている。  In addition, the area dividing unit 13 removes small lumps in the same manner as white lumps WD (WDi WDj for black lumps BD (BDi BDj) and converts black lumps BD (BDi BDn) obtained as a result of the removal into data ( Hereinafter, this is referred to as black dama data.) The data is transmitted to the pattern pattern extraction unit 14 as D15.
これにより領域区割部 1 3は、 白成分紋様画像 WIM (図 7 (B) ) 及び黒成 分紋様画像 B IM (図 7 (C) ) に有する紋様の特徴部分のみを白ダマ WD及ぴ 黒ダマ BDとして抽出することができるため、 紋様パターン抽出部 14での紋様 パターン (特徴量) の抽出精度をより向上させることができるようになされてい る。  As a result, the area dividing unit 13 applies only the pattern feature portions of the white component pattern image WIM (FIG. 7 (B)) and the black component pattern image BIM (FIG. 7 (C)) to the white WD and WD. Since the pattern can be extracted as black lumps BD, the pattern pattern (characteristic amount) extraction accuracy in the pattern pattern extraction unit 14 can be further improved.
紋様パターン抽出処理 Pattern pattern extraction processing
紋様パターン抽出部 14は、 各白ダマ WD (WD1〜WDn) 及び各黒ダマ B D (BDi BDn) における形状の特徴量をそれぞれ算出するようにして、 紋 様パターンを抽出する。 Pattern level feature extraction unit 14, and the feature quantity of the shape of each white lumps WD (WD 1 ~WD n) and the black lumps BD (BDi BDn) to be calculated, to extract a crest-like pattern.
この場合、 紋様パターン抽出部 14においては、 白ダマ WD及ぴ黒ダマ BDそ れぞれの特徴量をそのまま算出するにはその形状が複雑であるため困難となるこ とから、 当該白ダマ WD及び黒ダマ B Dそれぞれを矩形に近似させる。 すなわち 紋様パターン抽出部 14は、 図 1 1に示すように、 1つ 1つのダマ (白ダマ WD 又は黒ダマ BD) における中心座標 (x c, y J 、 長辺 1、 短辺 w及び長辺 1 In this case, it is difficult for the pattern pattern extraction unit 14 to calculate the respective characteristic amounts of the white lumps WD and the black lumps BD as they are because the shapes thereof are complicated and thus it is difficult. And each of the black lumps BD is approximated to a rectangle. That is, as shown in FIG. 11, the pattern pattern extracting unit 14 determines the center coordinates (x c , y J, long side 1, short side w, and long side) of each of the lumps (white lumps WD or black lumps BD). 1
8 と軸とのなす角度 Θ (以下、 これを矩形情報値と呼ぶ) を特徴量として算出する ようになされている。 8 The angle Θ between the axis and the axis (hereinafter referred to as the rectangle information value) is calculated as a feature value.
具体的に紋様パターン抽出部 14は、 領域区割部 1 3から供給される白ダマデ ータ D 1 4の白ダマ WD (WDi WDj ごとに個々の特徴量を算出するよう になされており、 当該白ダマ WDを構成する画素の輝度値を I (x, y) とする と、 次式  Specifically, the pattern pattern extraction unit 14 is configured to calculate individual feature amounts for each of the white damage WDs (WDi WDj) of the white damage data D 14 supplied from the area dividing unit 13. If the luminance value of the pixels that make up the white WD is defined as I (x, y),
xpyq I (x,y) (1)
Figure imgf000021_0001
によって定義される画像モーメント Mp qに従って、 1次画像モーメント M00、 2次画像モーメント M1 0、 M0 1及ぴ 3次画像モーメント M20、 M。2、 MHを 算出する。
x p y q I (x, y) (1)
Figure imgf000021_0001
According to the image moment M pq defined by the primary image moment M 00, 2-order image moments M 1 0, M 0 1及Pi tertiary image moments M 20, M. 2. Calculate MH.
そして紋様パターン抽出部 14は、 これら 1次、 2次及ぴ 3次画像モーメント M0。、 M10、 M。い M2。、 M。2、 Mnを用いて、 中心座標 (x c, y c) を、 次式 Then, the pattern pattern extraction unit 14 calculates these primary, secondary and tertiary image moments M 0 . , M 10 , M. There M 2. , M. 2. Using Mn, the center coordinates (x c , y c ) are
X c = X c =
Moo  Moo
(2) Mo 1 (2) Mo 1
Figure imgf000021_0002
こ従って算出し、 また長辺 1及ぴ短辺 wを、 次式 1 = Λ 6(a+c+V bH(a-c)r)
Figure imgf000021_0002
Therefore, the long side 1 and the short side w are calculated as follows: 1 = Λ 6 (a + c + V bH (ac) r )
(3) (3)
6(a+c- " Ka- cj^) 6 (a + c- "Ka- cj ^)
に従って算出し、 さらに角度 θを、 次式 The angle θ is calculated as follows:
Θ = tan一 1 b Θ = tan one 1 b
(4) a - c 但し、
Figure imgf000022_0001
に従って算出する。
(4) a-c where
Figure imgf000022_0001
Calculated according to
このようにして紋様パターン抽出部 1 4は、 白ダマ WD (WD WDJ ご との特徴量 (矩形情報値) をそれぞれ算出する。  In this way, the pattern pattern extraction unit 14 calculates the feature amount (rectangle information value) for each white WD (WD WDJ).
また紋様パターン抽出部 1 4は、 領域区割部 1 3から供給される黒ダマデータ 01 5の黒ダマ80 (BD1〜BDn) についても白ダマ WD (WDt〜WD ) と同様に、 上述の (1) 式〜 (4) 式を用いて当該黒ダマ BDごとの特徴量 (矩 形情報値) をそれぞれ算出するようになされている。 In addition, the pattern pattern extraction unit 14 also performs the above-mentioned processing for the black lumps 80 (BD 1 to BD n ) of the black lumps data 01 5 supplied from the area dividing unit 13, similarly to the white lumps WD (WD t to WD). The features (rectangular information values) for each of the black lumps BD are calculated using equations (1) to (4).
かくして算出された白ダマ WD (WD1〜WDn) 及び黒ダマ BD (BD1〜B D J それぞれの特徴量 (以下、 これを紋様特徴量と呼ぶ) は、 領域紋様画像 I M l (図 6 (A) ) に有する紋様の特徴的な形状を表した値であるため、 当該領 域紋様画像 I M lに含まれている紋様パターンの抽出結果そのものを意味するこ ととなる。 The white lump WD (WD 1 to WD n ) and the black lump BD (BD 1 to B The feature amount of each DJ (hereinafter, referred to as pattern feature amount) is a value representing the characteristic shape of the pattern included in the area pattern image IMl (FIG. 6 (A)). This means the pattern pattern extraction result itself contained in the image IMl.
そして紋様パターン抽出部 1 4は、 コード印画モード.である場合には、 かかる 紋様特徴量を認証用紋様パターンのデータ (以下、 これを認証用紋様パターンデ ータと呼ぶ) D 1 6 (図 5 ) として 2次元コード変換部 1 5に送出し、 これに対 して検証モードである場合には、 当該紋様特徴量を比較用紋様パターンのデータ (以下、 これを比較用紋様パターンデータと呼ぶ) D 2 6 (図 5 ) として照合部 1 6に送出するようになされている。  When the pattern printing mode is the code printing mode, the pattern pattern extracting unit 14 uses the pattern feature data for authentication pattern data (hereinafter, referred to as authentication pattern pattern data) D 16 (FIG. 5) to the two-dimensional code conversion unit 15, and in the case of the verification mode, the pattern feature amount is compared with the pattern pattern data for comparison (hereinafter, referred to as comparison pattern pattern data). ) Is sent to the collating unit 16 as D 26 (FIG. 5).
このように紋様パターン抽出部 1 4は、 各白ダマ WD及び各黒ダマ B Dのそれ ぞれの矩形情報値からなる紋様特徴量を算出するようにして、 指定領域 A R (図 2 (A) ) に有する紋様パターン (認証用紋様パターン又は比較用紋様パターン ) を抽出することができるようになされている。  As described above, the pattern pattern extraction unit 14 calculates the pattern feature amount composed of the rectangular information values of each of the white lumps WD and the black lumps BD, so that the designated area AR (FIG. 2 (A)) It is possible to extract a pattern pattern (authentication pattern pattern or comparison pattern pattern) included in the above.
2次元コード変換処理 2D code conversion processing
2次元コード変換部 1 5は、 認証用紋様パターン (紋様特徴量) を認証用紋様 コード B C (図 2 (A) ) としてオリジナル印画紙 O Pに記憶させる。  The two-dimensional code conversion unit 15 stores the authentication pattern pattern (pattern feature amount) as the authentication pattern code B C (FIG. 2A) on the original photographic paper OP.
具体的に 2次元コード変換部 1 5は、 供給される認証用紋様パターンデータ D 1 6の紋様特徴量 (各白ダマ WD及ぴ各黒ダマ B Dそれぞれの矩形情報値) の小 数点以下を切り捨て、 この結果得られた紋様特徴量に対して、 メモリに記憶され たコード文字列情報に基づく 2次元バーコ一ド変換処理を施すことにより認証用 紋様コードデータ D 2を生成し、 これを所定のタイミングでプリンタ部 5に送出 する。  Specifically, the two-dimensional code conversion unit 15 determines the pattern feature amount of the supplied authentication pattern pattern data D 16 (rectangular information value of each white WD WD and each black BD) to a decimal point or less. The pattern character amount obtained as a result is subjected to a two-dimensional barcode conversion process based on the code character string information stored in the memory to generate pattern code data D 2 for authentication, and It is sent to the printer unit 5 at the timing of.
この結果、 この認証用紋様コードデータ D 2は、 プリンタ部 5において、 印画 紙台にセッ トされた印画紙 (オリジナル印画紙 O P ) の所定位置に認証用紋様コ ード B C (図 2 (A) ) として印画され、 当該オリジナル印画紙 O P (図 2 (A ) ) に認証用パターンが記録されることとなる。 なお、 1つの白ダマ又は黒ダマ BD、における矩形情報値 (中心座標 (x c, y c) 、 長辺 1、 短辺 w及び角度 0) が取り得るデータ範囲として、 図 1 2 (A) に示すデータ範囲.を想定した場合、 当該 1つの白ダマ又は黒ダマ B Dにおける矩 形情報値のデータサイズは、 実験結果より、 およそ 9 [b y t e] (72 [b i t] ) となった。 As a result, the authentication pattern code data D2 is stored in the printer unit 5 at a predetermined position on the photographic paper (original photographic paper OP) set on the photographic paper board, as shown in FIG. )), And the authentication pattern is recorded on the original photographic paper OP (Fig. 2 (A)). Incidentally, 1 Tsunoshiro lumps or black lumps BD rectangle information values in, (the center coordinates (x c, yc), the long side 1, the short side w and the angle 0) may take data range, in FIG. 1 2 (A) Assuming the data range shown in the figure, the data size of the rectangular information value in the single white or black dummy BD was about 9 [bytes] (72 [bit]) from the experimental results.
そして、 上述の低域周波数成分抽出処理、 画像分離処理、 領域区割処理及ぴ紋 様パターン抽出処理により冗長なデータが削減された結果得られた紋様特徴量 ( 各白ダマ WD及ぴ各黒ダマ BDそれぞれの矩形情報値) のデータサイズは、 図 1 2 (B) に示す実験結果からも明らかなように、 平均で 43 5 [b y t e] 、 最 大で 504 [b y t e] となった。 '  The pattern feature amount (each white WD and each black WD) obtained as a result of reducing redundant data by the above-described low frequency component extraction processing, image separation processing, area division processing, and pattern pattern extraction processing. As can be seen from the experimental results shown in Fig. 12 (B), the data size of the rectangular information value of each dummy BD was 435 [bytes] on average and 504 [bytes] at maximum. '
また既存の 2次元バーコードは、 図 1 3からも明らかなように、 およそ 1〜3 [Kb y t e] のバイナリデータを 2次元バーコ一ド変換することができる。 従 つて、 2次元コード変換部 1 5は、 既存の 2次元コードを適用した場合であって も、 上述の低域周波数成分抽出処理、 画像分離処理、 領域区割処理及び紋様パタ ーン抽出処理により冗長なデータを削減しているため、 認証用紋様パターンデー タ D 1 6を認証用紋様コードデータ D 2に適切に変換することができるようにな されている。  Also, as can be seen from Fig. 13, existing two-dimensional barcodes can convert two to three [Kbyte] binary data into two-dimensional barcodes. Therefore, even when the existing two-dimensional code is applied, the two-dimensional code conversion unit 15 performs the above-described low frequency component extraction processing, image separation processing, area division processing, and pattern pattern extraction processing. Thus, since redundant data is reduced, the authentication pattern pattern data D 16 can be appropriately converted into the authentication pattern code data D 2.
照合処理 Matching process
照合部 1 6は、 図 2 (B) に示したように、 コード付印画紙 XP c (図 2 (B ) ) から抽出された比較用紋様パターンと、 認証用紋様コード BC (図 2 (B) ) に記憶されたオリジナル印画紙 OPの認証用紋様パターンとを照合する。  As shown in FIG. 2 (B), the matching unit 16 compares the comparative pattern pattern extracted from the coded paper XPc (FIG. 2 (B)) with the authentication pattern code BC (FIG. 2 (B)). ) The original photographic paper OP stored in) is compared with the authentication pattern pattern.
実際上、 照合部 1 6は、 紋様パターン抽出部 14から供給される比較用紋檫パ ターンデータ D 26の紋様特徴量 (矩形情報値) によって表される白ダマ WD及 ぴ黒ダマ BD (以下、 これを比較用ダマと呼ぶ) それぞれを、 スキャナ部 4から 与えられる認証用紋様コードデータ D 2の紋様特徴量 (矩形情報値) によって表 される白ダマ WD及び黒ダマ BD (以下、 これを認証用ダマと呼ぶ) と順次照合 する。 ここで照合部 1 6による具体的な照合処理を図 1 4を用いて説明するが、 説明 の便宜上、 ここではある 1つの認証用ダマと、 比較用ダマとの照合処理について 説明する。 In practice, the matching unit 16 is configured to use the white WD WD and the black black BD (hereinafter referred to as black WD) represented by the pattern feature (rectangular information value) of the comparison pattern デ ー タ pattern data D 26 supplied from the pattern pattern extraction unit 14. , And these are referred to as comparison lumps.) Each of the white lumps WD and the black lumps BD (hereinafter, referred to as lumps) represented by the pattern feature value (rectangular information value) of the authentication pattern code data D2 given from the scanner section 4. (Referred to as authentication lumps). Here, a specific matching process by the matching unit 16 will be described with reference to FIG. 14. For convenience of explanation, a matching process between one authentication dummy and a comparison dummy will be described here.
この図 1 4は、 矩形情報値 (中心座標 (x c, y J 、 長辺 1、 短辺 w及び長 辺 1 と軸とのなす角度 Θ ) によって表される矩形の位置関係を示したものであり 、 R ま認証用ダマの矩形 (破線) 、 S ま認証用ダマの長辺 1及び短辺 wによ つて表される面積、 g rは認証用ダマの中心座標 (x c, y c ) によって表される 中心、 Rは比較用ダマの矩形 (実線) 、 Sは比較用ダマの長辺 1及び短辺 wによ つて表される面積、 gは比較用ダマの中心座標 (X 一 c , y ' J によって表さ れる中心をそれぞれ示したものである。 ·' ' また dは、 次式 ,
Figure imgf000025_0001
Figure 14 shows the positional relationship of the rectangle represented by the rectangle information values (center coordinates ( xc , yJ, long side 1, short side w, and angle の between the long side 1 and the axis)). in and, R or rectangular authentication lumps (dashed line), S or O connexion area represented the long side 1 and the short side w of the authentication lump, g r is the center coordinates of the authentication lumps (x c, y c ), R is the rectangle of the comparison dummy (solid line), S is the area represented by the long side 1 and short side w of the comparison dummy, and g is the center coordinate of the comparison dummy (X c and y 'show the centers represented by J. ·''and d is
Figure imgf000025_0001
に従って算出される認証用ダマ及び比較用ダマの中心 g い g間における距離 ( 以下、 これを中心間距離と呼ぶ) を示し、 Θ は、 認証用ダマにおける長辺 1 と 軸とのなす角度 6と比較用ダマにおける長辺 1 と軸とのなす角度 Θとの差、 即ち 矩形 R r及び矩形 R間における傾きの差 (以下、 これを矩形間傾き差と呼ぶ) を 示し、 図中の楕円は、 比較用ダマを示したものである。 Indicates the distance between the centers g and g of the authentication lumps and comparison lumps calculated in accordance with the following formula (hereinafter referred to as the center-to-center distance), and Θ is the angle between the long side 1 and the axis of the authentication lumps 6 And the difference between the angle Θ between the long side 1 and the axis in the comparison dummy, that is, the difference in the inclination between the rectangle R r and the rectangle R (hereinafter referred to as the inclination difference between the rectangles). Indicates a comparison dummy.
この図 1 4において、 照合部 1 6は、 認証用ダマ及び比較用ダマ双方の矩形情 報値に基づいて、 認証用ダマの中心 g rが比較用ダマの矩形 R内に存在し、 かつ 比較用ダマの中心 gが認証用ダマの矩形 R r内に存在するか否かを判断する。 そして照合部 1 6は、 双方の中心 g r、 gが互いの矩形 R、 R r内に存在する 場合には、 中心間距離 d、 矩形間傾き差 Θ '及び認証 ダマの面積 S rと比較用 ダマの面積 Sとの差 (以下、 これをダマ面積差と呼ぶ) がそれぞれ所定の閾値以 下であるか否かを順次判断する。 、 In FIG 1 4, the matching unit 1 6, based on the authentication lumps and rectangular information value of the comparison lumps both central g r of the authentication lumps are present in the rectangle R of the comparative lumps, and comparison center g of use lumps determines whether present within the rectangle R r of the authentication lumps. Then, if the centers g r and g of both sides are within the rectangles R and R r of each other, the matching unit 16 compares the distance d between the centers, the inclination difference 差 ′ between the rectangles, and the area S r of the authentication dummy. The difference from the area of the lump S (hereinafter referred to as the lump area difference) is equal to or less than a predetermined threshold. It is sequentially determined whether it is below. ,
ここで照合部 1 6は、 いずれも閾値以下であった場合には、 認証用ダマと比較 用ダマとは同一のダマであると判断し、 これに対していずれか 1つでも閾値以上 であった場合には、 認証用ダマと比較用ダマとは同一のダマではないと判断する ようになされている。  Here, the collation unit 16 determines that the authentication lumps and the comparison lumps are the same lumps if all of them are equal to or less than the threshold value. In such a case, it is determined that the authentication dummy and the comparison dummy are not the same dummy.
伹し、 図 1 4との対応部分に同一符号を付した図 1 5に示すように、 認証用ダ マ及び比較用ダマ双方の矩形 R f、 Rがともに正方形に近い場合、 矩形間傾き差 Θ が略 9 0度となるため、 同一のダマであるにも係わらず異なるダマであると 判断されるといった事態が起こり得る。  However, as shown in FIG. 15 in which the same reference numerals are given to the corresponding parts in FIG. 14, when the rectangles R f and R of both the authentication dummy and the comparison dummy are close to square, the inclination difference between the rectangles Since Θ is approximately 90 degrees, it is possible that the same lump is judged to be a different lump.
従って、 照合部 1 6は、 かかる誤判断を防止する対処策として、 認証用ダマの 長辺 1 τと短辺 w rとの比及び比較用ダマの長辺 1 と短辺 wとの比がともに 「 1 」 に近い場合には、 矩形間傾き差 0 r— Θ (即ち、 図 1 4における 6 ' ) が閾値 以上であっても、 ダマ面積差が閾値以下であれば、 認証用ダマと比較用ダマとが 同一のダマであると判断するようになされている。 Accordingly, the matching unit 1 6, as a countermeasure to prevent such erroneous determination, the ratio of the long side 1 and the short side w of the ratio of the long side 1 tau and short w r of the authentication lumps and comparative lumps If both are close to “1”, even if the inter-rectangle difference 0 r — Θ (that is, 6 ′ in FIG. 14) is equal to or greater than the threshold, if the difference It is determined that the comparison dummy is the same as the dummy.
このようにして照合^ 1 6は、 コード付印画紙 X P c (図 2 ( B ) ) から抽出 された比較用紋様パターン (紋様特徴量 (矩形情報値) によって表される各比較 用ダマ) と、 認証用紋様コード B C (図 2 ( B ) ) に記憶されたオリジナル印画 紙 O Pの認証用紋様パターン (紋様特徴量 (矩形情報値) によって表される各認 証用ダマ) とを照合するようになされている。  In this way, the matching ^ 16 is made up of a comparison pattern pattern (each comparison dummy represented by a pattern feature (rectangular information value)) extracted from the coded paper XPc (FIG. 2 (B)). The original photographic paper OP stored in the authentication pattern code BC (Fig. 2 (B)) is compared with the authentication pattern pattern (each authentication dummy represented by the pattern feature (rectangular information value)). It has been made.
そして照合部 1 6は、 この照合結果として所定の合致率よりも高い合致率が得 られた場合には、 比較用紋様画像に対応するコード付印画紙 X P cが正当なオリ ジナル印画紙〇 Pであると判断し、 このとき複製許可コマンド C O M (図 5 ) を 生成してスキャナ部 4 (図 4 ) に送出する。  If the matching result is higher than a predetermined matching rate as a result of the matching, the matching unit 16 determines that the coded paper XPc corresponding to the comparative pattern image is a valid original photographic paper 〇 P At this time, a copy permission command COM (FIG. 5) is generated and sent to the scanner unit 4 (FIG. 4).
この結果、 スキャナ部 4では反射モードが実行され、 このとき原稿台に載置さ れたオリジナル印画紙 O P (図 2 (A) ) の印画内容が印画内容画像データ D 4 としてプリンタ部 5に送出され、 かくしてプリンタ部 5においてオリジナル印画 紙 O P (図 2 ( A) ) の印画内容が用紙に複製されることとなる。 ここで、 コード付印画紙 X P c (図、 2 ( B ) ) が正当なオリジナル印画紙 O P (図 2 (A) ) であるにも係わらず、 当該コード付印画紙 X P cに基づく比較用 ダマの合致率が {氐くなるといつた事態を想定し得る。 As a result, the reflection mode is executed in the scanner unit 4, and the print content of the original photographic paper OP (FIG. 2 (A)) placed on the platen at this time is sent to the printer unit 5 as print content image data D4. Thus, the printing content of the original printing paper OP (FIG. 2 (A)) is copied on the printing paper in the printer unit 5. Here, despite the fact that the coded paper XP c (FIG. 2 (B)) is a legitimate original photographic paper OP (FIG. 2 (A)), a comparative damper based on the coded paper XP c (FIG. 2 (A)). It can be assumed that the match rate of {} becomes {氐}.
これは、 オリジナル印画紙 Ο Ρ (図 2 (Α) ) に認証用コード B C (図 2 ( Β ) ) を 印画したときに比して、 スキャナ部 4の原稿台に載置したオリジナル印画紙 Ο Ρの位置 や固体撮像素子に発生するノイズ等の変化あるいはオリジナル印画紙 Ο Ρの経年変化 ( 以下、 これらの変化を撮像状態時変化と呼ぶ) によって、 認証用ダマに同一となるはず の比較用ダマが異なる状態で区割りされてしまうからである。  This is because the original photographic paper に Ρ (Fig. 2 (Α)) is printed with the authentication code BC (Fig. 2 (Β)). Due to changes in the position of や or noise generated in the solid-state image sensor, or aging of the original photographic paper Ο ((these changes are referred to as changes in the imaging state). This is because the lumps are divided in different states.
かかる代表的な区割例として、 例えば図 1 6に示すように、 コード印画モード 時に 1つの認証用ダマとして区割りされたものが、 検証モード時には互いに異な る 2つの比較用ダマとして区割りされてしまう場合と、 この場合とは逆に、 コー ド印画モード時に区割りされていた 2つの認証用ダマが、 検証モード時には 1つ の比較用ダマとして区割りされてしまう場合とがある。 これらの場合には、 認証 用ダマに対応するはずの比較用ダマの形状 (矩形情報値) が異なり、 この結果、 比較用ダマの合致率が低くなるといつた事態を引き起こすこととなる。  As a typical example of such division, for example, as shown in Fig. 16, one divided as one authentication dummy in the code printing mode is divided as two different comparison dummy in the verification mode. In contrast to this case, there are cases where two authentication lumps separated in the code printing mode are separated as one comparison lumbar in the verification mode. In these cases, the shape (rectangular information value) of the comparison dummy that should correspond to the authentication dummy differs, and as a result, a situation occurs when the matching rate of the comparison dummy decreases.
そこで照合部 1 6は、 かかる事態の対処策として、 上述の照合処理結果として 所定の合致率よりも低い合致率が得られた場合に、 当該合致しなかった比較用ダ マごとに結合照合処理及び分離照合処理を順次実行する。  Therefore, as a countermeasure against such a situation, when a matching rate lower than a predetermined matching rate is obtained as a result of the above-described matching processing, the matching unit 16 performs the joining matching processing for each of the comparison dummy that does not match. And the separation and collation processing are sequentially performed.
この結合照合処理では、 隣接する比較用ダマ同士が結合され、 当該結合された ダマ (以下、 これを比較用結合ダマと呼ぶ) と対応部分の認証用ダマとが照合さ れ、 一方、 分離照合処理では、 比較用ダマが分離され、 当該分離された複数のダ マ (以下、 これを比較用分離ダマと呼ぶ) と対応部分の認証用ダマとが照合され る。  In this combination matching process, adjacent comparison lumps are combined with each other, and the combined lumps (hereinafter, referred to as comparison combination lumps) are matched with the corresponding authentication lumps. In the process, the comparison lumps are separated, and the separated lumps (hereinafter, referred to as comparison separation lumps) are compared with the corresponding authentication lumps.
これら結合照合処理及び分離照合処理のうち、 まず、 結合照合処理を図 1 7を 用いて具体的に説明するが、 説明の便宜上、 ここでは隣り合う 2つの比較用ダマ 同士を結合した比較用結合ダマと、 認証用ダマとの結合照合処理について説明す る。 この図 1 7は、 図 1 4の場合と同鐵に矩形情報値 (中心座標 (x c, y J 、 長辺 1、 短辺 w及び長辺 1 と軸とのなす角度 0 ) によって表される矩形の位置関 係を示したものであり、 Ri、 R 2は比較用ダマの矩形 (破線で示す) 、 g l、 g 2は比較用ダマの中心座標 (x c, y c) によって表される中心、 RM (Rr) は 比較用結合ダマ (認証用ダマ) の矩形 (実線で示す) 、 g fは認証用ダマの中心 座標 (xc, y J によって表される中心をそれぞれ示したものである。 Of these join matching processing and separation matching processing, the join matching processing will first be specifically described with reference to FIG. 17, but for convenience of explanation, here, a comparison join is performed by joining two adjacent comparison lumps together. A description will be given of the process of combining and matching the lumbar and the authentication lumbar. FIG 1 7 is represented by the case and the rectangle information values DoTetsu in FIG 4 (the center coordinates (x c, y J, long side 1, the angle 0 of the short side w and the long side 1 and the shaft) It is those that shows a rectangular position relationship, Ri, R 2 is (shown in phantom) rectangular comparative lumps, gl, g 2 is represented by the center coordinates of the comparison lumps (x c, y c) R M (R r ) is the rectangle (shown by a solid line) of the comparison lumps (authentication lumps), and g f is the center coordinates (x c , y J) of the lumps for authentication. It is a thing.
また Gは、 次式  G is given by
Figure imgf000028_0001
Figure imgf000028_0001
(6) n  (6) n
∑ l iWi y c i
Figure imgf000028_0002
但し、 i = (l〜n)
∑ l iWi y ci
Figure imgf000028_0002
Where i = (l ~ n)
に従って算出される比較用結合ダマの重心 (xe、 y G) を示し、 dは (5) 式 に従って算出される比較用結合ダマの重心及び認証用ダマの中心間における中心 間距離を示し、 図中の楕円は、 分離していた比較用ダマと、 これらを結合した比 較用結合ダマとを示したものである。 Represents the center of gravity (x e , y G ) of the comparison joint lumps calculated according to the following equation, and d represents the center-to-center distance between the center of gravity of the comparison joint lumps and the center of the authentication lumps calculated according to Eq. The ellipses in the figure show the separated lumps for comparison and the combined lumps for comparison obtained by combining them.
この図 1 7において、 照合部 1 6は、 結合しょうとする比較用ダマそれぞれの 中心 g 、 g 2が認証用ダマの矩形 Rr (即ち、 結合された比較用結合ダマの矩形 RM) 内に存¾するか否かを判断し、 当該矩形 Rr内に中心 gい g 2が存在する 場合には、 これら比較用ダマを結合結果となる比較用結合ダマにおける重心 G ( G, y G) を求め、 この重心 Gと認証用ダマの中心 g rとの間における中心間距 離 dを求める。 In FIG. 17, the matching unit 16 determines that the centers g and g 2 of the comparison lumps to be combined are within the rectangle R r of the authentication lumps (that is, the rectangle R M of the combined comparison lumps). Is determined, and if the center g or g 2 exists in the rectangle R r , the center of gravity G (G, y G ) is obtained between centers distance between the center of gravity G and the center g r of the authentication lumps Find d.
そして照合部 1 6は、 この中心間距離 dが所定の閾値以下であった場合には、 分離していた比較用ダマの結合結果である比較用結合ダマと、 認証用ダマとが同 一のダマであると判断する。  Then, if the center-to-center distance d is equal to or smaller than a predetermined threshold, the matching unit 16 determines that the comparison combining dummy which is the combining result of the separated comparison dummy and the authentication dummy are the same. We judge that it is lumps.
このようにして照合部 1 6は、 照合処理により合致しなかった比較用ダマ同士 を結合し、 当該結合された比較用結合ダマを再度認証用ダマと照合するようにな されている。  In this way, the collation unit 16 combines the comparison lumps that did not match by the collation processing, and collates the combined comparison lumps again with the authentication lumps.
次に、 分離照合処理を図 1 8を用いて具体的に説明するが、 説明の便宜上、 こ こでは 2つの比較用分離ダマからなる比較用ダマと、 認証用ダマとの分離照合処 理について説明する。  Next, the separation / matching process will be described in detail with reference to FIG. 18.For convenience of explanation, here, the separation / matching process between the comparison dummy consisting of two comparison separators and the authentication dummy is described. explain.
この図 1 8は、 図 1 4の場合と同様に矩形情報値 (中心座標 (x e, y J 、 長辺 1、 短辺 w及び長辺 1 と軸とのなす角度 Θ) .によって表される矩形の位置関 係を示したものであり、 Rは比較用ダマの矩形 (破線で示す) 、 gは比較用ダマ の中心座標 (x c, y c) によって表される中心、 Rsい RS 2 (Rr l、 Rr 2) は比較用分離ダマ (認証用ダマ) の矩形 (実線で示す) 、 g f l、 は認証用 ダマの中心座標 (x c, y c) によって表される中心をそれぞれ示したものであ る。 This FIG. 18 is represented by rectangular information values (center coordinates (x e , y J, long side 1, short side w, and angle 長 between the long side 1 and the axis Θ) as in FIG. that is limited to showing a rectangular position relationship, R represents (shown in phantom) rectangular comparative lumps, the center g is represented by the center coordinates of the comparison lumps (x c, y c), R s physician R S 2 (R rl , R r 2 ) is the rectangle (shown by a solid line) of the comparison dummy (authentication dummy), and g fl is represented by the center coordinates (x c , y c ) of the authentication dummy. The center is shown respectively.
また Gは、 (6) 式に従って算出される比較用分離ダマの重心 G (xG, y G ) を示し、 dは (5) 式に従って算出される比較用分離ダマの重心 G及び比較用 ダマの中心 g間における中心間距離を示し、 図中の楕円は、 結合していた比較用 ダマと、 これらを分離した比較用分離ダマとを示したものである。 G represents the center of gravity G (x G , y G ) of the comparative separation ball calculated according to equation (6), and d represents the center of gravity G of the comparison separation ball calculated according to equation (5). The center-to-center distance between the centers g is shown, and the ellipses in the figure show the combined lumps for comparison and the separated lumps for comparison separated from each other.
この図 1 8において、 照合部 1 6は、 認証用ダマの中心 g rい g r 2が分離前 の比較用ダマの矩形 R内に存在するか否かを判断し、 当該矩形 R内に中心 g r , 、 g r 2が存在する場合には、 比較用ダマの分離結果となる比較用分離ダマにお ける重心 G (,xG, y G) を求め、 この重心 Gと比較用ダマの中心 gとの間にお ける中心間距離 dを求める。 In FIG. 18, the matching unit 16 determines whether or not the center g r or gr 2 of the authentication lump exists in the rectangle R of the comparison lump before separation, and If g r , and g r 2 exist, the center of gravity G (, x G , y G ) of the comparison separation dummy which is the separation result of the comparison dummy is obtained, and the center of gravity G and the comparison dummy Find the distance d between the centers and the center g.
そして照合部 1 6は、 この中心間距離 dが所定の閾値以下であった場合には、 結合していた比較用ダマを分離してなる 2つの比較用分離ダマと、 認証用ダマと が同一のダマであると判断するようになされている。 Then, when the distance d between centers is equal to or smaller than a predetermined threshold, the matching unit 16 It is determined that the two comparison separation lumps obtained by separating the combined comparison lumps and the authentication lumps are the same lumps.
このようにして照合部 1 6は、 照合処理により合致しなかった比較用ダマを分 離し、 当該分離された比較用分離ダマを再度認証用ダマと照合するようになされ ている。  In this way, the collation unit 16 separates the comparison lumps that did not match by the collation processing, and collates the separated comparison lumps again with the authentication lumps.
このように照合部 1 6は、 互いに隣り合うダマ同士を結合又は分離するように してダマを補正した後に再度照合することにより、 撮像状態時変化による影響を 排除することができるため、 照合結果の信頼性を格段に向上させることができる ようになされている。  As described above, the collation unit 16 can eliminate the influence of the change in the imaging state by correcting the lumps so as to combine or separate the lumps adjacent to each other and then collating again. It is designed to significantly improve the reliability of
なお、 図 1 '9に実験結果を示す。 この図 1 9では、 結合照合処理及び分離照合 処理を実行しなかった場合 ( 「処理 1」 ) 、 結合照合処理のみを実行した場合 ( ' 「処理 2」 ) 、 結合照合処理及び分離照合処理をそれぞれ実行した場合 ( 「処理 3」 ) における結果を白ダマと黒ダマとに分けてそれぞれ 1 0回行ったものであ る。  Figure 1'9 shows the experimental results. In FIG. 19, when the join matching process and the separate matching process are not executed (“process 1”), when only the join matching process is executed (“process 2”), the join matching process and the separate matching process are performed. In each case (“Process 3”), the result was divided into white lumps and black lumps, and was performed 10 times.
ごの図 1 9からも明らかなように、 結合照合処理及び分離照合処理をそれぞれ 実行することにより照合結果の信頼性を格段に向上させることができることが分 かる。  As is clear from FIG. 19, it can be seen that the reliability of the matching result can be significantly improved by executing the combining matching process and the separating matching process, respectively.
第 2の処理形態 Second processing mode
次に、 この制御部 2における第 2の処理形態について説明する。  Next, a second processing mode in the control unit 2 will be described.
制御部 2における第 2の処理形態の処理内容を機能的に分類すると、 図 5との 対応部分に同一符号を付した図 2 0に示すように、 低域周波数成分抽出部 1 1、 画像分離部 1 2、 領域区割部 1 3及び 2次元コード変換部 1 5の各処理内容は上 述の第 1の処理形態と同一であるが、 紋様パターン抽出部 1 1 4と照合部 1 1 6 との処理内容が第 1の処理形態とは異なる。  When the processing contents of the second processing mode in the control unit 2 are functionally classified, as shown in FIG. 20 in which the same reference numerals are assigned to corresponding parts to FIG. The processing contents of the unit 12, the area dividing unit 13 and the two-dimensional code converting unit 15 are the same as those in the first processing mode described above, but the pattern pattern extracting unit 1 14 and the matching unit 1 16 Is different from the first processing mode.
以下、 紋様パターン抽出部 1 1 4による紋様パターン抽出処理及び照合部 1 1 6による照合処理を詳細に説明する。  Hereinafter, the pattern pattern extracting process by the pattern pattern extracting unit 114 and the matching process by the matching unit 116 will be described in detail.
紋様パターン抽出部 1 1 4は、 各白ダマ WD (WD W D n ) 及び各黒ダマ B D (BDi BDn) それぞれを楕 R形状に近似させる点で、 当該白ダマ WD 及ぴ各黒ダマ BDを矩形状に近似させた紋様パターン抽出部 1 14とは相違する 実際上、 紋様パターン抽出部 1 14は、 図 2 1に示すように、 1つ 1つのダマ (白ダマ WD及び各黒ダマ BD) における中心座標 (x c, y c) 、 長径 r d a、 短径 r d b及び長径 r d aと水平軸とのなす角度 Φ (以下、 これらを楕円情報値 と呼ぶ) を特徴量として算出するようになされている。 The pattern pattern extraction unit 1 1 4 is configured to output each white dummy WD (WD WD n) and each black dummy WD BD (BDi BDn) is different from the pattern pattern extraction unit 114 in which each white ball WD and each black ball BD are approximated in a rectangular shape in terms of approximating each ellipse R shape. As shown in FIG. 21, the center coordinates (x c , y c ), the major axis rd a , the minor axis rd b, and the major axis rd a of each of the lumps (white lumps WD and black lumps BD) are shown in FIG. The angle Φ (hereinafter, referred to as ellipse information value) between the horizontal axis and the horizontal axis is calculated as a feature value.
具体的に紋様パターン抽出部 1 14は、 領域区割部 1 3から供給される白ダマ データ D 14の白ダマ WD (WDi WDj ごとに個々の特徴量を算出するよ うになされており、 当該白ダマ WDを構成する画素の輝度値を I ( X , y) とす ると、 次式 (7)  More specifically, the pattern pattern extraction unit 114 calculates the individual feature amount for each white WD WD (WDi WDj) of the white dash data D 14 supplied from the area dividing unit 13. Assuming that the luminance value of the pixels composing the dam WD is I (X, y), the following equation (7)
M^ = 〉 } ^ I [x, y) -. (7) M ^ =〉} ^ I [x, y)-. (7)
によって定義される画像モーメント MAp qに従って、 1次画像モーメント MA。 The primary image moment MA according to the image moment MA pq defined by
0、 2次画像モーメント MA10、 MA01及び 3次画像モーメント MA2。、 MA。 0, the secondary image moments MA 10, MA 01 and tertiary image moments MA 2. , MA.
2、 MA„を算出する。 2. Calculate MA „.
そして紋様パターン抽出部 1 14は、 これら 1次、 2次及ぴ 3次画像モーメン ト MAQ。、 MA10、 MAQい MA2。、 MA。2、 MA^を用いて、 中心座標 ( c) y c) を、 次式 (8) The pattern level feature extraction unit 1 14, these primary, 2 Tsugi及Pi tertiary image moments MA Q. , MA 10 , MA Q or MA 2 . , MA. 2. Using MA ^, the center coordinate (c ) yc) is calculated by the following equation (8)
Figure imgf000031_0001
Figure imgf000032_0001
に従って算出し、 また長径 r da及ぴ短径 r dbを、 次式 (9)
Figure imgf000031_0001
Figure imgf000032_0001
Calculated according, also the major axis rd a及Pi minor rd b, the following equation (9)
Figure imgf000032_0002
Figure imgf000032_0002
Figure imgf000032_0003
Figure imgf000032_0003
に従って算出し、 さらに角度 Φを、 次式 (10) The angle Φ is calculated according to the following equation (10)
Figure imgf000032_0004
Figure imgf000032_0004
a-c  a-c
但し a =Where a =
Figure imgf000032_0005
Figure imgf000033_0001
Figure imgf000032_0005
Figure imgf000033_0001
Figure imgf000033_0002
Figure imgf000033_0002
に従って算出する。 Calculated according to
このようにして紋様パターン抽出部 1 14は、 白ダマ WD (WD WDJ ごとの特徴量 (楕円情報値) をそれぞれ算出する。 :':  In this way, the pattern pattern extraction unit 114 calculates the feature amount (elliptical information value) for each white WD WD (WD WDJ.: ':
また紋様パターン抽出部 1 14は、 領域区割部 1 3から供給,される黒ダマデ一 タ D 15の黒ダマ BD (BD1〜BDn) についても白ダマ WD (WD WDn ) と同様に、 上述の (7) 式〜 (10) 式を用いて当該黒ダマ BDごとの特徴量 (楕円情報値) をそれぞれ算出するようになされている。 In addition, the pattern pattern extraction unit 114 also applies the black dummy BD (BD 1 to BD n ) of the black dummy data D 15 supplied from the area dividing unit 13 similarly to the white dummy WD (WD WDn). The feature amounts (elliptical information values) for each of the black lumps BD are calculated using the above-described equations (7) to (10).
かくして算出された白ダマ WD (WD WDJ 及ぴ黒ダマ BD (BDi B D J それぞれの特徵量 (以下、 これを紋様特徴量と呼ぶ) は、 領域紋様画像 I Ml (図 6 (A) ) に有する紋様の特徴的な形状を表した値であるため、 当該領 域紋様画像 I Mlに含まれている紋様パターンの抽出結果そのものを意味するこ ととなる。  The characteristic amount (hereinafter, referred to as a pattern characteristic amount) of the white dummy WD (WD WDJ and black black BD (BDi BDJ)) thus calculated is a pattern included in the area pattern image I Ml (FIG. 6 (A)). Since the value represents the characteristic shape of the pattern image, it means the pattern pattern extraction result itself included in the area pattern image I Ml.
そして紋様パターン抽出部 1 14は、 コード印画モードである場合には、 かか る紋様特徴量を認証用紋様パターンのデータ (以下、 これを認証用紋様パターン データと呼ぶ) D 16 (図 20) として 2次元コード変換部 15に送出し、 これ に対して検証モードである場合には、 当該紋様特徴量を比較用紋様パターンのデ ータ (以下、 これを比較用紋様パターンデータと呼ぶ) D 26 (図 20) として 照合部 1 16に送出するようになされている。  Then, when the mode is the code printing mode, the pattern pattern extracting unit 114 uses the pattern feature data for authentication pattern data (hereinafter referred to as authentication pattern pattern data) D 16 (FIG. 20). Is transmitted to the two-dimensional code conversion unit 15, and in the case of the verification mode, the pattern feature amount is used as data of a comparison pattern pattern (hereinafter, referred to as comparison pattern pattern data). 26 (FIG. 20) is sent to the matching unit 116.
このように紋様パターン抽出部 114は、 各白ダマ WD及ぴ各黒ダマ BDのそ れぞれの楕円情報値からなる紋様特徴量を算出するようにして、 指定領域 AR ( 図 2 (A) ) に有する紋様パターン (認証用紋様パターン又は比較用紋様パター ン) を抽出することができるようになされている。 As described above, the pattern pattern extraction unit 114 calculates the pattern feature amount composed of the elliptical information values of each of the white lumps WD and the black lumps BD, so that the designated area AR ( The pattern pattern (authentication pattern pattern or comparison pattern pattern) shown in FIG. 2 (A) can be extracted.
なお、 1つの白ダマ WD又は黒ダマ BDにおける楕円情報値 (中心座標 (x c , y J 、 長径で da、 短径 r db及び長径 r d aと水平軸とのなす角度 Φ ) が取 り得るデータ範囲としては、 図 12 (Α) に示したデータ範囲を想定した場合、 当該 1つの白ダマ W D又は黒ダマ B Dにおける楕円情報値のデータサイズは、 図Incidentally, 1 Tsunoshiro lumps ellipse information values in WD or black lumps BD (the center coordinates (x c, y J, major diameter at d a, the angle between the shorter diameter rd b and diameter rd a horizontal axis [Phi) Ri preparative is Assuming the data range shown in Fig. 12 (Α) as the data range to be obtained, the data size of the elliptical information value in the one white WD
12 (Α) に示した対応する値と同等となり、 また、 紋様特徴量 (各白ダマ WD 及び黒ダマ BDそれぞれの楕円情報値) のデータサイズも、 図 12 (Β) に示し た値と同等となる。 12 (Α), and the data size of the pattern feature (each ellipse information value for each white WD and black BD) is also the same as the value shown in Fig. 12 (Β). It becomes.
照合処理 Matching process
照合部 1 1 6は、 紋様パターン抽出部 1 14から供給される比較用紋様パター ンデータ D 26の紋様特徴量 (楕円情報値) によって表される比較用ダマ (白ダ マ WD及び黒ダマ BD) それぞれを、 スキャナ部 4から与えられる認証用紋様コ ードデータ D 2の紋様特徴量 (楕円情報値) によって表される認証用ダマ (白ダ マ WD及び黒ダマ BD) と順次照合する。  The collating unit 1 16 performs comparison lumps (white lumps WD and black lumps BD) represented by pattern features (elliptical information values) of the comparison pattern pattern data D 26 supplied from the pattern pattern extraction section 114. Each of them is sequentially collated with authentication lumps (white lumps WD and black lumps BD) represented by pattern features (elliptical information values) of the authentication pattern code data D2 given from the scanner section 4.
ここで照合部 1 1 6による具体的な照合処理を図 22を用いて説明するが、 説 明の便宜上、 ここではある 1つの認証用ダマと、 比較用ダマとの照合処理につい て説明する。  Here, a specific matching process by the matching unit 116 will be described with reference to FIG. 22. For convenience of explanation, a matching process between one authentication dummy and a comparison dummy will be described.
この図 22は、 楕円情報値 (中心座標 (xc, y J 、 長径 da、 短径 r db 及び長径 r d aと水平軸とのなす角度 Φ) によって表される楕円形状の位置関係 を示したものであり、 Er dは認証用ダマの楕円 (破線) 、 S r dは認証用ダマの 長径 r da及ぴ短径 r d bによって表される面積、 g r dは認証用ダマの中心座標 (xc, y c) によって表される中心、 Eは比較用ダマの楕円 (実線) 、 Sは比 較用ダマの長径 r d a及び短径 r d bによって表される面積、 gは比較用ダマの 中心座標 (x c , y ' J によって表される中心をそれぞれ示したものである また d 1は、 次式 (1 1) FIG 22 shows the ellipse information values (center coordinates (x c, y J, diameter d a, the positional relationship of the elliptical shape represented by the angle [Phi) with minor rd b and diameter rd a horizontal axis are as hereinbefore, E rd is the authentication lumps ellipse (broken line), S rd is the area represented by the major axis rd a及Pi minor rd b of the authentication lump, g rd the center coordinates of the authentication lumps (x c, the center represented by y c), E is an ellipse of the comparative lumps (solid line), S is the area represented by the major axis rd a and the minor axis rd b ratio較用lumps, g is the center of the comparative lumps Coordinates (xc, y 'indicate the center represented by J. Also, d1 is given by the following equation (1 1)
Figure imgf000035_0001
Figure imgf000035_0001
に従って算出される認証用ダマ及び比較用ダマの中心 g r d、 g間における距離Between the centers g rd and g of the authentication and comparison lumps calculated according to
(以下、 これを中心間距離と呼ぶ) を示し、 Φ ,は、 認証用ダマにおける長径 r d aと水平軸とのなす角度 Φと比較用ダマにおける長径 r d aと水平軸とのなす 角度 Φとの差、 即ち楕 l¾ E r d及び楕円 E間における傾きの差 (以下、 これを楕 円間傾き差と呼ぶ) を示し、 図中の三角形は、 比較用ダマを示したものである。 (Hereinafter referred to as the center-to-center distance), where Φ is the angle Φ between the major axis rd a of the authentication dummy and the horizontal axis, and the angle Φ between the major axis rd a of the comparative dummy and the horizontal axis is Φ. difference, i.e. the difference of the slope between the oval l¾ E rd and ellipse E (hereinafter referred to as slope difference between elliptic) shows the triangle in the figure shows a comparison lumps.
この図 2 2において、 照合部 1 1 6は、 認証用ダマ及ぴ比較用ダマ双方の楕円 情報値に基づいて、 認証用ダマの中心 g r dが比較用ダマの楕円 E内に存在し、 かつ比較用ダマの中心 gが認証用ダマの楕円 E r d内に存在するか否かを判断す る。 In FIG. 22, the matching unit 1 16 determines that the center g rd of the authentication dummy exists within the ellipse E of the comparison dummy, based on the ellipse information values of both the authentication dummy and the comparison dummy, and center g of the comparative lumps you determine whether present in the ellipse E rd of the authentication lumps.
そして照合部 1 1 6は、 双方の中心 g r d、 gが互いの楕円 E、 E r d内に存在 する場合には、 中心間距離 d、 楕円間傾き差 Φ '及び認証用ダマの面積 と 比較用ダマの面積 Sとの差 (以下、 これをダマ面積差と呼ぶ) がそれぞれ所定の 閾値以下であるか否かを順次判断する。 Then, when both centers g rd , g are within the ellipses E, E rd of each other, the matching unit 1 16 compares the center distance d, the elliptic slope difference Φ ′, and the area of the authentication dummy. It is sequentially determined whether or not the difference from the area S of the litter (hereinafter, referred to as the lump area difference) is equal to or less than a predetermined threshold.
ここで照合部 1 1 6は、 いずれも閾値以下であった場合には、 認証用ダマと比 較用ダマとは同一のダマであると判断し、 これに対していずれか 1つでも閾値以 上であつた場合には、 認証用ダマと比較用ダマとは同一のダマではないと判断す るようになされている。  Here, the collation unit 116 determines that the authentication dummy and the comparison dummy are the same if any of the thresholds are equal to or less than the threshold. In the case of the above, it is determined that the authentication dummy and the comparison dummy are not the same dummy.
但し、 図 2 2との対応部分に同一符号を付した図 2 3に示すように、 認証用ダ マ及ぴ比較用ダマ双方の楕円 E r d、 Eがともに真円に近い場合、 楕円間傾き差 Φ 'が略 9 0度となるため、 同一のダマであるにも係わらず異なるダマであると 判断されるといった事態が起こり得る。 However, if the ellipses E rd and E of both the authentication dummy and the comparison dummy are close to perfect circles as shown in FIG. Since the difference Φ 'is approximately 90 degrees, it is possible that the same lumps are judged to be different lumps even though they are the same lumps.
従って、 照合部 1 1 6は、 かかる誤判断を防止する対処策として、 認証用ダマ の長径 r d aと短径 r d bとの比及ぴ比較用ダマの長径 r d aと短径 r d bとの比 がともに 「1」 に近い場合には、 楕円間傾き差 r d— Φ (即ち、 図 2 3におけ る Φ ' ) が閾値以上であっても、 ダマ面積差が閾値以下であれば、 認証用ダマと 比較用ダマとが同一のダマであると判断するようになされている。 Therefore, the collating unit 1 16 proposes an authentication dummy as a countermeasure to prevent such misjudgment. If the ratio of the major axis rd a and minor axis rd b of Hi及Pi comparative lumps with major axis rd a and minor axis rd b of close to both "1", the ellipse between slope difference rd - [Phi (i.e., Even if Φ ′) in FIG. 23 is greater than or equal to the threshold, if the difference in the lumps area is less than or equal to the threshold, the authentication lumps and the comparison lumps are determined to be the same lumps.
このよ にして照合部 1 1 6は、 コード付印画紙 X P c (図 2 ( B ) ) から抽 出された比較用紋様パターン (紋様特徴量 (楕円情報値) によって表される各比 較用ダマ) と、 認証用紋様コード B C (図 2 ( B ) ) に記憶されたオリジナル印 画紙 O Pの認証用紋様パターン (紋様特徴量 (楕円情報値) によって表される各 認証用ダマ) とを照合するようになされている。  In this way, the matching unit 1 16 converts each comparison pattern represented by the pattern pattern (pattern feature (elliptical information value) extracted from the coded paper XPc (FIG. 2 (B)). ) And the authentication pattern of the original photographic paper OP stored in the authentication pattern code BC (Fig. 2 (B)) (each authentication domma represented by the pattern feature (elliptical information value)). Matching is done.
そして照合部 1 1 6は、 この照合結果として所定の合致率よりも高い合致率が 得られた場合には、 比較用紋様画像に対応するコード付印画紙 X P cが正当なォ リジナル印画紙 O Pであると判断し、 このとき複製許可コマンド C O M (図 5 ) を生成してスキャナ部 4 (図 4 ) に送出する。  If the matching result is higher than a predetermined matching rate as a result of the matching, the matching unit 1 16 converts the coded paper XP c corresponding to the comparative pattern image into a valid original photographic paper OP. At this time, a copy permission command COM (FIG. 5) is generated and sent to the scanner unit 4 (FIG. 4).
この結果、 スキャナ部 4では反射モードが実行され、 このとき原稿台に载置さ れたオリジナル印画紙〇P (図 2 (A) ) の印画内容が印画内容画像データ D 4 としてプリンタ部 5に送出され、 かく してプリンタ部 5においてオリジナル印画 紙 O P (図 2 (A) ) の印画内容が用紙に複製されることとなる。  As a result, the reflection mode is executed in the scanner unit 4, and the print content of the original photographic paper P (FIG. 2 (A)) placed on the platen at this time is sent to the printer unit 5 as print content image data D4. The print content of the original photographic paper OP (FIG. 2 (A)) is copied onto the paper in the printer unit 5 in this way.
ここで、 撮像状態時変化によって、 例えば図 2 4に示すように、 コード印画モ ード時に 1つの認証用ダマとして区割りされたものが、 検証モード時には互いに 異なる 2つの比較用ダマとして区割りされてしまう場合と、 この場合とは逆に、 コード印画モード時に区割りされていた 2つの認証用ダマが、 検証モード時には 1つの比較用ダマとして区割りされてしまう場合とがある。 これらの場合には、 認証用ダマに対応するはずの比較用ダマの形状 (楕円情報値) が異なり、 この結 果、 比較用ダマの合致率が低くなるといつた事態を引き起こすこととなる。 そこで照合部 1 1 6は、 かかる事態の対処策として、 上述の照合処理結果とし て所定の合致率よりも低い合致率が得られた場合に、 当該合致しなかった比較用 ダマごとに結合照合処理及び分離照合処理を順次実行するようになされている。 この結合照合処理では、 隣接する比較用ダマ同士が結合され、 当該結合された ダマ (以下、 これを比較用結合ダマと呼ぶ) と対応部分の認証用ダマとが照合さ れ、 一方、 分離鹿合処理では、 比較用ダマが分離され、 当該分離された複数のダ マ (以下、 これを比較用分離ダマと呼ぶ) と対応部分の認証用ダマとが照合され る。 Here, due to changes in the imaging state, for example, as shown in Fig. 24, what is divided as one authentication dummy in the code printing mode is divided as two different comparison dummy in the verification mode. In the opposite case, the two authentication lumps separated in the code printing mode may be separated as one comparison lumbar in the verification mode. In these cases, the shape (ellipse information value) of the comparison dummy that should correspond to the authentication dummy differs, and as a result, a situation occurs when the matching ratio of the comparison dummy decreases. Therefore, as a countermeasure against such a situation, when the matching rate lower than a predetermined matching rate is obtained as a result of the above-described matching processing, the matching unit 116 may perform the combined matching for each non-matching comparison dummy. The processing and the separation / collation processing are sequentially performed. In this combination matching process, adjacent comparison lumps are combined with each other, and the combined lumps (hereinafter, referred to as comparison combination lumps) are collated with the corresponding authentication lumps. In the merging process, the comparison lumps are separated, and the separated lumps (hereinafter, referred to as comparison separation lumps) are compared with the corresponding authentication lumps.
これら結合照合処理及び分離照合処理のうち、 まず、 結合照合処理を図 25を 用いて具体的に説明するが、 説明の便宜上、 ここでは隣り合う 2つの比較用ダマ 同士を結合した比較用結合ダマと、 認証用ダマとの結合照合処理にっレ、て説 す る。  Of the join matching process and the separation match process, the join matching process will be specifically described first with reference to FIG. 25. For convenience of explanation, here, a comparison join damper obtained by joining two adjacent comparison damas together. And the matching verification process with the authentication dummy.
この図 2 5は、 図 22の場合と同様に楕円情報値 (中心座標 (x c, y c) 、 長径 r d a、 短径 r db及び長径 r d aと水平軸とのなす角度 Φ ) によって表され る楕円の位置関係を示したものであり、 Ε2は比較用ダマの楕円 (破線で 示す) 、 gい g 2は比較用ダマの中心座標 (xc, y c) によって表される中心 、 EMA (E.r d) は比較用結合ダマ (認証用ダマ) の楕円 (実線で示す) 、 g r d は認証用ダマの中心座標 (x c, y ,) によって表される中心をそれぞれ示した ものである。 Table FIG. 2. 5, as in the case ellipse information values of FIG. 22 by (the center coordinates (x c, y c), the major axis rd a, the angle Φ between the minor diameter rd b and diameter rd a horizontal axis) and shows the positional relationship of an ellipse which Ru is, the center E 2 is represented by the ellipses of the comparative lumps (shown in phantom), g had g 2 are the center coordinates of the comparison lumps (x c, y c) , E MA (E. rd ) is the ellipse (shown by a solid line) of the combined lumps for authentication (authentication lumps), and g rd is the center represented by the center coordinates (x c , y,) of the lumps for authentication. It is a thing.
また Gは、 次式 ( 1 2)  G is given by the following equation (1 2)
^ =^ =
Figure imgf000037_0001
Figure imgf000037_0001
2
Figure imgf000037_0002
2
Figure imgf000037_0002
t^ r-datrd^i 但し ( 1 ~n) に従って算出される比較用結合ダマの重心 G (xG、 y G) を示し、 d lは (1 1) 式と同様にして算出される比較用結合ダマの重心 G及び認証用ダマの中心 g f d間における中心間距離を示し、 図中の矩形は、 分離していた比較用ダマと、 これらを結合した比較用結合ダマとを示したものである。 t ^ r-datrd ^ i where (1 to n) Indicates the center of gravity G (x G , y G ) of the comparison joint lumps calculated according to the following equation, and dl is the center of gravity G of the comparison joint lumps calculated in the same manner as in equation (11) and the center g fd of the authentication lumps. The center-to-center distance between them is shown, and the rectangles in the figure show the separated lumps for comparison and the combined lumps for comparison obtained by combining them.
この図 25において、 照合部 1 1 6は、 結合しょうとする比較用ダマそれぞれ の中心 g 2が認証用ダマの楕円 Er d (即ち、 結合された比較用結合ダマの 楕円 EMA) 内に存在するか否かを判断し、 当該楕円 E r d内に中心 gい'' g 2が存 在する場合には、 これら比較用ダマの結合結果となる比較用結合ダマにおける重 心 G (xG、 y G) を求め、 この重心 Gと認証用ダマの中心 g r dとの間における 中心間距離 dを求める。 In FIG. 25, the matching unit 1 16 is such that the center g 2 of each of the comparison lumps to be combined is present in the ellipse E rd of the authentication lumps (that is, the ellipse E MA of the combined comparison lumps E MA ). And if the center `` g 2 '' exists in the ellipse E rd , the center of gravity G (x G , y G ), and the distance d between the center of gravity G and the center g rd of the authentication ball is obtained.
そして照合部 1 1 6は、 この中心間距離' dが所定の閾値以下であった場合には 、 比較用結合ダマと、 認証用ダマとが同一のダマであると判断する。  Then, when the center distance 'd is equal to or smaller than the predetermined threshold value, the matching unit 1 16 determines that the comparison combining dummy and the authentication dummy are the same dummy.
このようにして照合部 1 1 6は、 照合処理により合致しなかった比較用ダマ同 士を結合し、 当該結合された比較用結合ダマを再度認証用ダマと照合するように なされている。  In this way, the matching unit 1 16 combines the comparison lumps that did not match by the matching process, and again compares the combined comparison lumps with the authentication lumps.
次に、 分離照合処理を図 26を用いて具体的に説明するが、 説明の便宜上、 こ こでは 2つの比較用分離ダマからなる比較用ダマと、 認証用ダマとの分離照合処 理について説明する。  Next, the separation / matching process will be described in detail with reference to FIG. 26.For convenience of explanation, here, the separation / matching process between the comparison dummy consisting of two comparison dummy and the authentication dummy will be described. I do.
この図 26は、 図 2 2の場合と同様に楕円情報値 (中心座標 (x c, y c) 、 長径で d a、 短径 r db及び長径 r d aと水平軸とのなす角度 Φ) によって表され る楕円の位置関係を示したものであり、 Εは比較用ダマの楕円 (破線で示す) 、 gは比較用ダマの中心座標 (xc, y c) によって表される中心、 Esい ES 2 ( Er dい Er d 2) は比較用分離ダマ (認証用ダマ) の楕円 (実線で示す) 、 g r d い g r d2は認.証用ダマの中心座標 (X c , y c) によって表される中心をそれぞ れ示したものである。 FIG. 26 is an ellipse information values as in the case of FIG. 2 2 (the center coordinates (x c, y c), the major axis at d a, the angle Φ between the minor diameter rd b and diameter rd a horizontal axis) by Shows the positional relationship of the ellipse represented, Ε represents the ellipse of the comparative dummy (shown by a broken line), g represents the center represented by the central coordinates (x c , y c ) of the comparative dummy, and E s E S 2 (E rd E rd 2 ) is the ellipse (indicated by the solid line) of the separation dummy for authentication (authentication dummy), and g rd is g r d2 is the center coordinate of the authentication dummy (X c, y c ) shows the center represented by each.
また Gは、 (1 2) 式と同様にして算出される比較用分離ダマの重心 G (x. \ y G) を示し、 d lは (1 1 ) 式と同様にして算出される比較用分離ダマの重 心 G及び比較用ダマの中心 g間における中心間距離を示し、 図中の矩形は、 結合 していた比較用 マと、 これらを分離した比較用分離ダマとを示したものである この図 2 6において、 照合部 1 1 6は、 認証用ダマの中心 g r dい g r d 2が分 離前の比較用ダマの楕円 E内に存在するか否かを判断し、 当該楕円 E内に中心 g r d l、 g r d 2が存在する場合には、 比較用ダマの分離結果となる比較用分離ダマ における重心 G ( x G , y G) を求め、 この重心 Gと比較用ダマの中心 gとの間 における中心間距離 dを求める。 G is the center of gravity G (x. \ y G ), and dl indicates the center-to-center distance between the center of gravity G of the comparison separation lumps and the center g of the comparison lumps calculated in the same manner as in the equation (11). In FIG. 26, the collating unit 1 16 shows the center g rd or g rd 2 of the authentication lumps. It is determined whether or not the ellipse E of the comparison dummy before separation exists, and if the center gr dl , g rd 2 exists in the ellipse E, the separation for comparison is a separation result of the dummy for comparison. The center of gravity G (x G , y G ) at Dama is determined, and the center distance d between the center of gravity G and the center g of the comparison dummy is determined.
そして照合部 1 1 6は、 この中心間距離 d 1が所定の閾値以下であった場合に は、 比較用分離ダマと、 認証用ダマとが同一のダマであると判断するようになさ れている。  Then, when the center distance d1 is equal to or smaller than a predetermined threshold, the matching unit 1 16 determines that the comparison separation dummy and the authentication dummy are the same dummy. I have.
このようにして照合部 1 1 6は、 照合処理により合致しなかった比較用ダマを 分離し、 当該分離された比較用分離ダマを再度認証用ダマと照合するようになさ れている。  In this way, the collating unit 1 16 separates the comparison lumps that did not match by the collation processing, and collates the separated comparison lumps again with the authentication lumps.
このように照合部 1 1 6は、 互いに隣り合うダマ同士を結合及び又は分離する ようにしてダマを補正した後に再度照合することにより、 撮像状態時変化による 影響を排除することができるため、 照合結果の信頼性を格段に向上させることが できるようになされている。  As described above, the collation unit 116 corrects the lumps by combining and / or separating the lumps adjacent to each other and then performs the collation again, thereby eliminating the influence of the change in the imaging state. It is designed to significantly improve the reliability of the results.
第 3の処理形態  Third processing mode
次に、 この制御部 2における第 3の処理形態について説明する。  Next, a third processing mode in the control unit 2 will be described.
制御部 2における第 3の処理形態の処理内容を機能的に分類すると、 図 5との 対応部分に同一符号を付した図 2 7に示すように、 低域周波数成分抽出部 1 1、 画像分離部 1 2、 領域区割部 1 3及び 2次元コード変換部 1 5の各処理内容は上 述の第 1の処理形態と同一であるが、 紋様パターン抽出部 2 1 4と照合部 2 1 6 との処理内容が第 1の処理形態とは異なる。  When the processing contents of the third processing mode in the control unit 2 are functionally classified, as shown in FIG. 27 in which the same reference numerals are given to the corresponding parts in FIG. 5, the low frequency component extraction unit 11 The processing contents of the section 12, the area dividing section 13 and the two-dimensional code converting section 15 are the same as those in the first processing mode described above, but the pattern pattern extracting section 2 14 and the matching section 2 16 Is different from the first processing mode.
以下、 紋様パターン抽出部 2 1 4による紋様パターン抽出処理及び照合部 2 1 6による照合処理を詳細に説明する。 ■ Hereinafter, the pattern pattern extraction processing by the pattern pattern extraction unit 2 14 and the matching unit 2 1 The collation processing by 6 will be described in detail. ■
紋様パターン抽出部 2 1 4は、 各白ダマ WD (WDi WDj 及び各黒ダマ BD (BDi BDj それぞれを円形状に近似させる点で、 当該白ダマ WD及 ぴ各黒ダマ BDを矩形状に近似させた紋様パターン抽出部 14とは相違する。 実際上、 紋様パターン抽出部 2 14は、 領域区割部 1 3から供給される白ダマ データ D 1 4の白ダマ WD (WD ごとに (7) 式に従って 1次画像 モーメント MA00及び 2次画像モーメント MA10、 MA 01を算出する。 The pattern pattern extraction unit 2 14 approximates each white ball WD (WDi WDj and each black ball BD (BDi BDj) to a circular shape, and approximates the white ball WD and each black ball BD to a rectangular shape. This is different from the pattern pattern extraction unit 14. In practice, the pattern pattern extraction unit 2 14 uses the white defect WD of the white defect data D 14 supplied from the area dividing unit 13 (Equation (7) for each WD) calculating the primary image moment MA 00 and secondary image moments MA 10, MA 01 according to.
そして紋様パターン抽出部 214は、 図 28に示すように、 各白ダマ WDの中 心座標 (x c, y.c) 'を、 対応する 1次及び 2次画像モーメント MA0。、 MA10 、 MA01を用いて (9) 式に従って算出すると共に半径 r dを次式 (1 3) Then, as shown in FIG. 28, the pattern pattern extraction unit 214 converts the center coordinates (x c , y. C ) ′ of each white ball WD ′ into the corresponding primary and secondary image moments MA 0 . , MA 10 , and MA 01 are calculated according to equation (9), and the radius rd is calculated by the following equation (1 3)
Figure imgf000040_0001
に従って算出するようにして、 1つ 1つのダマ (白ダマ WD又は黒ダマ B D) に おける中心座標 (x c, y J 及び半径 r d (以下、 これらを円情報値と呼ぶ) を特徴量として算出する。
Figure imgf000040_0001
Be calculated according to the center coordinates of definitive one single lumps (white lumps WD or black lumps BD) (x c, y J and radius rd (hereinafter, calculated as a feature amount of these is called the circle information values) I do.
また紋様パターン抽出部 2' 14は、 領域区割部 1 3から供給される黒ダマデー タ D 1 5の黒ダマ BD (BD BDj についても白ダマ WD (WD1〜WDn ) と同様に、 上述の (1 1) 式、 (1 2) 式及び (1 3) 式に従って、 当該黒ダ マ BDごとの円情報値 (中心座標 (x c, y c) 及び半径 r d) を算出するよう になされている。 The pattern level feature extraction unit 2 '14, like the region separate portions 1 3 Black supplied from Damade data D 1 5 black lumps BD (BD White also BDj lumps WD (WD 1 ~WD n), above (1 1), adapted to calculate the following (1 2) and (1 3), the circle information values for each said black da Ma BD (the center coordinates (x c, y c) and the radius rd) ing.
この後、 紋様パターン抽出部 2 14は、 これら白ダマ WDごとの円情報値 (中 心座標 (x c, y J 及び半径 r d) からなる紋様特徴量と、 黒ダマ BDごとの 円情報値からなる紋様特徴量とを、 コード印画モードである場合には認証用紋様 パターンデータ D 1 6 (図 2 7) として 2次元コード変換部 1 5に送出し、 これ に対して検証モードである場合には比較用紋様パターンデータ D 26 (図 2 7) として照合部 2 1 6に送出するようになされている。 Thereafter, pattern level feature extraction unit 2 14, and A pattern feature quantity consisting of the circle information values of each of these white lumps WD (middle center coordinates (x c, y J and radius rd), the circle information values for each black lumps BD Is transmitted to the two-dimensional code conversion unit 15 as authentication pattern data D 16 (FIG. 27) in the code printing mode. In the verification mode, the pattern data is sent to the matching unit 216 as comparison pattern data D 26 (FIG. 27).
このように紋様パターン抽出部 2 14は、 矩形情報値を算出する紋様パターン 抽出部 14 (図 5) 又は楕円情報値を算出する紋様パターン抽出部 1 14 (図 2 0) に比して、 算出項目として第 3次画像モーメント MA2。、 MA。2、 MAl t 、 長径 r d a (又は短径 r db) 及び長径 r d aと水平軸とのなす角度 Φを省くこ とができる分、 紋様パターンデータ D 1 6、 D 26を生成するまでの処理負荷を 格段に低減することができるようになされている。 As described above, the pattern pattern extracting unit 214 calculates the pattern pattern in comparison with the pattern pattern extracting unit 14 (FIG. 5) for calculating the rectangular information value or the pattern pattern extracting unit 114 (FIG. 20) for calculating the elliptical information value. The third image moment MA 2 as an item. , MA. 2, MA lt, processing up to generating the major axis rd a (or minor axis rd b) and major axis rd a and amount that the angle Φ between the horizontal axis can and Habukuko, pattern level feature data D 1 6, D 26 The load can be significantly reduced.
また、 1つの白ダマ WD又は黒ダマ BDにおける円情報値 (中心座標 (x c, y c) 及ぴ半径 r d) が取り得るデータ範囲として、 図 2 9に示す実験結果から も明らかなように、 図 1 2 (A) と同じデータ範囲を想定した場合、 当該 1つの 白ダマ WD又は黒ダマ BDにおける円情報値のデータサイズは、 矩形情報値 (楕 円情報値) のデータサイズ (図 1 2 (A) ) に比して、 およそ 24 [b i t] も 少なくすることができた。 In addition, as a data range that the circle information value (center coordinates (x c , y c ) and radius rd) can take in one white ball WD or black ball BD, as is clear from the experimental results shown in Fig. 29, Assuming the same data range as in Fig. 12 (A), the data size of the circle information value in the one white WD or WD is the data size of the rectangular information value (elliptical information value) (Fig. 1 2 (A)), it was able to reduce about 24 [bit].
これにより紋様パターン抽出部 2 14は、 図 1 2 (B) に示したダマ (白ダマ 及び黒ダマ) 数を参照しても分かるように、 紋様パターンデータ D 1 6、 D 26 のデータ量を格段に抑えることができるようになされている。  As a result, the pattern pattern extracting unit 214 determines the data amount of the pattern pattern data D 16 and D 26 as can be seen by referring to the number of lumps (white lumps and black lumps) shown in FIG. It has been made so that it can be significantly reduced.
従って紋様パターン抽出部 2 14は、 紋様パターンデータ D 1 6に基づく 2次 元バーコ一 KB Cのオリジナル印画紙 O Pへの印画をより早く行わせることがで きるようになるため、 当該印画するまでの待ち時間をより短縮させることができ るようになされている。 また紋様パターン抽出部 214は、 紋様パターンデータ D 1 6及ぴ D 26の照合もより早く行わせることができるようになるため、 当該 照合時の待ち時間を短縮させてより早くオリジナル印画紙に印画された印画内容 を複製させることができるようになされている。  Therefore, the pattern pattern extraction unit 224 can print the two-dimensional barco KB C based on the pattern pattern data D 16 onto the original photographic paper OP more quickly. It has been made possible to further reduce the waiting time. In addition, the pattern pattern extraction unit 214 can perform the pattern pattern data D 16 and D 26 more quickly, so that the waiting time at the time of the pattern matching can be shortened and printing on the original photographic paper can be performed earlier. The printed content can be reproduced.
照合処理 . Matching process.
照合部 2 1 6は、 紋様パターン抽出部 2 14から供給される比較用紋様パター ンデータ D 26の紋様特徴量 (円情報値) によって表される白ダマ WD及び黒ダ マ BD (比較用ダマ) それぞれを、 スキャナ部 4から与えられる認証用紋様コー ドデータ D 2の紋様特徴量 (円情報値) によって表される白ダマ WD及ぴ黒ダマ BD (認証用ダマ) と順次照合する。 The collating unit 2 16 includes a white dummy WD and a black dummy WD represented by the pattern feature amount (circle information value) of the comparative pattern pattern data D 26 supplied from the pattern pattern extraction unit 214. Each of the BD (comparison lumps) and the white lumps WD and the black lumps BD (authentication lumps) represented by the pattern feature (circle information value) of the authentication pattern code data D 2 given from the scanner unit 4. Collate sequentially.
ここで照合部 2 1 6による具体的な照合処理を説明するが、 ここでは図 22を 用いて説明した場合と同様に、 ある 1つの認証用ダマと、 比較用ダマとの照合処 理について図 30を用いて説明する。  Here, a specific matching process by the matching unit 2 16 will be described. Here, as in the case described with reference to FIG. 22, the matching process between a certain authentication dummy and a comparison dummy is illustrated. This will be described using 30.
この図 30は、 円情報値 (中心座標 (x c, y c) 、 半径 r d) によって表さ れる円形状の位置関係を示したものであり、 は認証用ダマの円 (破線) 、 S r dは認証用ダマの半径 r dに基づいて表される面積、 g r dは認証用ダマの中 心座標 (x c, y c) によって表される中心、 Cは比較用ダマの円 (実線) 、 S は比較用ダマの半径 r dに基づいて表される面積、 gは比較用ダマの中心座標 ( X c, y J によって表される中心をそれぞれ示したものである。 FIG. 30 is a circle information values (center coordinates (x c, y c), the radius rd) and shows the circular positional relationship represented by the circle of authentication lumps (dashed line), S rd Is the area represented based on the radius rd of the authentication lumps , g rd is the center represented by the center coordinates (x c , y c ) of the authentication lumps, C is the circle of the comparison lumps (solid line), S Is the area expressed based on the radius rd of the comparison dummy, and g is the center represented by the center coordinates ( Xc , yJ) of the comparison dummy.
また d 2は (1 1) 式と同様にして算出される認証用ダマ及び比較用ダマの中 心間距離を示し、 図中の三角形は、 比較用ダマを示したものである。  Also, d2 indicates the distance between the centers of the authentication lumps and the comparison lumps calculated in the same manner as in Equation (11), and the triangle in the figure indicates the comparison lumps.
この図 30において、 照合部 2 1 6は、 認証用ダマ及び比較用ダマ双方の円情 報値に基づいて、 認証用ダマの中心 g r dが比較用ダマの円 C内に存在し、 かつ 比較用ダマの中心 gが認証用ダマの円 C r d内に存在するか否かを判断する。 In FIG. 30, the collation unit 2 16 determines that the center g rd of the authentication dummy exists in the circle C of the comparison dummy, based on the circle information values of both the authentication dummy and the comparison dummy. It is determined whether or not the center g of the luggage is within the circle C rd of the luggage for authentication.
そして照合部 2 1 6は、 双方の中心 g r d、 gが互いの楕円 C、 Cr d内に存在 する場合には、 中心間距離 d及び認証用ダマの面積 S ^と比較用ダマの面積 S とのダマ面積差がそれぞれ所定の閾値以下であるか否かを順次判断する。 Then, when both centers g rd , g are within the ellipses C, C rd of each other, the matching unit 2 16 determines the distance d between the centers, the area S ^ of the authentication dummy, and the area S ^ of the comparison dummy. Then, it is sequentially determined whether or not the difference in the lump area is smaller than a predetermined threshold value.
ここで照合部 2 1 6は、 いずれも閾値以下であった場合には、 認証用ダマと比 較用ダマとは同一のダマであると判断し、 これに対していずれか 1つでも閾値以 上であった場合には、 認証用ダマと比較用ダマとは同一のダマではないと判断す るようになされている。  Here, the collation unit 2 16 determines that the authentication lumps and the comparison lumps are the same lumps if all of them are equal to or less than the threshold value. In the case above, it is determined that the authentication dummy and the comparison dummy are not the same dummy.
なお、 照合部 2 1 6は、 中心座標 (x c, y c) 及び半径 r dのみに基づいて 照合処理を行っているため、 図 23について上述したような誤判断を防止するた めの処理を行うことなくダマ同士 (認証用ダマと比較用ダマ) の同一性の有無を 判断することができ、 これにより照合処理の負荷及び誤判断率を低減することが できるようになされている。 Note that the matching unit 216 performs the matching process based only on the center coordinates (x c , y c ) and the radius rd, so that the process for preventing the erroneous determination described above with reference to FIG. 23 is performed. Without identification, the identity of lumps (authentication lumps and comparison lumps) This makes it possible to make a judgment, thereby reducing the load of the collation processing and the erroneous judgment rate.
このようにして照合部 2 1 6は、 コード付印画紙 XP c (図 2 (B) ) から抽 出された比較用紋様パターン (紋様特徴量 (円情報値) によって表される各比較 用ダマ) と、 認証用紋様コード BC (図 2 (B) ) に記憶されたオリジナル印画 紙 OPの認証用紋様パターン (紋様特徴量 (円情報値) によって表される各認証 用ダマ) とを照合するようになされている。  In this manner, the collating unit 2 16 generates the comparison pattern (a pattern feature value (circle information value)) extracted from the coded paper XPc (FIG. 2 (B)). ) And the authentication pattern pattern (each authentication dummy represented by the pattern feature (circle information value)) of the original photographic paper OP stored in the authentication pattern code BC (Fig. 2 (B)). It has been done.
そして照合部 2 1 6は、 この照合結果として所定の合致率よりも高い合致率が 得られた場合には、 比較用紋様画像に対応するコード付印画紙 X P cが正当なォ リジナル印画紙 OPであると判断し、 このとき複製許可コマンド COMを生成し てスキャナ部 4 (図 4) に送出する。  If the matching result is higher than the predetermined matching rate as a result of the matching, the matching unit 2 16 determines that the coded paper XP c corresponding to the comparison pattern image is a valid original photographic paper OP. At this time, it generates the copy permission command COM and sends it to the scanner unit 4 (Fig. 4).
この結果、 スキャナ部 4では反射モードが実行され、 このとき原稿台に載置さ れたオリジナル印画紙 OP (図 2 (A) ) の印画内容が印画内容画像データ D 4 としてプリンタ部 5に送出され、 かくしてプリンタ部 5においてオリジナル印画 紙 OP (図 2 (A) ) の印画内容が用紙に複製される。  As a result, the reflection mode is executed in the scanner unit 4, and the print content of the original photographic paper OP (FIG. 2 (A)) placed on the platen at this time is sent to the printer unit 5 as print content image data D4. Thus, the printing content of the original printing paper OP (FIG. 2 (A)) is copied on the printing paper in the printer unit 5.
これに対して照合部 2 1 6は、 撮像状態時変化等により、 照合処理結果として 所定の合致率よりも低い合致率が得られた場合には、 第 1又は第 2の処理形態に おいて上述した場合と同様に、 当該合致しなかった比較用ダマごとに結合照合処 理及び分離照合処理を順次実行するようになされている。  On the other hand, when the matching rate lower than the predetermined matching rate is obtained as the matching processing result due to a change in the imaging state or the like, the matching unit 216 performs the first or second processing. As in the case described above, the joining matching process and the separating matching process are sequentially executed for each of the comparison lumps that do not match.
かかる結合照合処理及び分離照合処理のうち、 まず、 結合照合処理について説 明するが、 ここでは図 25を用いて説明した場合と同様に、 隣り合う 2つの比較 用ダマ同士を結合した比較用結合ダマと、 認証用ダマとの結合照合処理について 図 3 1を用いて説明する。  Among the join matching processing and the separation matching processing, the join matching processing will be described first. Here, as in the case described with reference to FIG. 25, a comparison join in which two adjacent comparison lumps are joined together. The collation matching process between the lumbar and the authentication lumbar is described with reference to FIG.
この図 3 1は、 図 3 0の場合と同様に円情報値 (中心座標 (x c, y c) 、 半 径 r d) によって表される円形状の位置関係を示したものであり、 C1 C2は 比較用ダマの円 (破線で示す) 、 g i、 g 2は比較用ダマの中心座標 (x c, y c ) によって表される中心、 CMA (Cr d) は比較用結合ダマ (認証用ダマ) の円 (実線で示す) 、 g r dは認証用ダマの中心座標 (x c, y J によって表される 中心をそれぞれ示したものである。 The 3 1 is shows the circular positional relationship represented by as in the case circle information values of FIG. 3 0 (the center coordinates (x c, y c), the radius rd), C 1 C 2 is the circle of the comparison dummy (indicated by a dashed line), gi and g 2 are the center represented by the center coordinates (x c , y c ) of the comparison dummy, and C MA (C rd ) is the joint dummy of the comparison ( Circle for authentication (Indicated by the solid line), g rd is an illustration of the center coordinates of the authentication lumps (x c, the center represented by y J respectively.
また Gは、 (1 2) 式と同様にして算出される比較用結合ダマの重心 G (xG 、 y G) を示し、 d 2は (1 1) 式と同様にして算出される比較用結合ダマの重 心 G及ぴ認証用ダマの中心 g r d間における中心間距離を示し、 図中の矩形は、 分離していた比較用ダマと、 これらを結合した比較用結合ダマとを示したもので あ 。 G indicates the center of gravity G (x G , y G ) of the comparison joint lumps calculated in the same manner as in equation (1 2), and d 2 indicates the comparison center calculated in the same manner as in equation (1 1). The center of gravity G of the combined lumps and the center distance between the centers g rd of the authentication lumps are shown, and the rectangle in the figure indicates the separated lumps for comparison and the combined lumps for comparison obtained by combining them. Thing.
この図 3 1において、 照合部 2 1 6は、 結合しょうとする比較用ダマそれぞれ の中心 gい g 2が認証用ダマの円 Cr d (即ち、 結合された比較用結合ダマの円 CMA) 内に存在するか否かを判断し、 当該円 Cr d内に中心 g l、 g 2が存在する 場合には、 これら比較用ダマの結合結果となる比較用結合ダマにおける重心 G ( xG、 y G) を求め、 この重心 Gと認証用ダマの中心 g r dとの間における中心間 距離 d 2を求める。 In FIG. 31, the matching unit 2 16 is configured such that the center g or g 2 of each of the comparison lumps to be combined is the circle C rd of the authentication lumps (that is, the circle C MA of the combined comparison lumps C MA ). And if the centers gl and g 2 exist in the circle C rd , the center of gravity G (x G , y G ) and the center distance d 2 between the center of gravity G and the center g rd of the authentication ball.
そして照合部 2 1 6は、 この中心間距離 dが所定の閾値以下であった場合には 、 比較用結合ダマと、 認証用ダマとが同一のダマであると判断する。  Then, when the center distance d is equal to or less than the predetermined threshold, the collating unit 2 16 determines that the comparison combining dummy and the authentication dummy are the same dummy.
このようにして照合部 2 1 6は、 照合処理により合致しなかった比較用ダマ同 士を結合し、 当該結合された比較用結合ダマを再度認証用ダマと照合するように なされている。  In this way, the collating unit 216 combines the comparison lumps that did not match by the collation processing, and compares the combined comparison lumps again with the authentication lumps.
次に、 分離照合処理を説明するが、 ここでは図 26を用いて説明した場合と同 様に、 2つの比較用分離ダマからなる比較用ダマと、 認証用ダマとの分離照合処 理について図 3 2を用いて説明する。  Next, the separation / matching process will be described. Here, as in the case described with reference to FIG. 26, the separation / matching process between the comparison dummy composed of two comparison dummy lumps and the authentication dummy is illustrated. This will be described using 32.
この図 3 2は、 円情報値 (中心座標 (x c, y c) 、 半径 r d) によって表さ れる円形状の位置関係を示したものであり、 Gは比較用ダマの円 (破線で示す) 、 gは比較用ダマの中心座標 (x c, y J によって表される中心、 CS 1、 CS 2 (Cr dい Cr.d 2) は比較用分離ダマ (認証用ダマ) の円 (実線で示す) 、 g r d い g r d 2は認証用ダマの中心座標 (xc, y J によって表される中心をそれぞ れ示したものである。 また Gは、 (1 2 ) 式と同様にして算出される比較用分離ダマの重心 G ( x G 、 y G) を示し、 d 2は (1 1 ) 式と同様にして算出される比較用分離ダマの重 心 G及び比較用ダマの中心 g間における中心間距離を示し、 図中の矩形は、 結合 していた比較用ダマと、 これらを分離した比較用分離ダマとを示したものである この図 3 2において、 照合部 2 1 6は、 認証用ダマの中心 g r dい g r d 2が分 離前の比較用ダマの楕円 C内に存在するか否かを判断し、 当該楕円 C内に中心 g r d l , g r d 2が存在する場合には、 比較用ダマめ分離結果となる比較用分離ダマ における重心 G ( x G、 y G) を求め、 この重心 Gと比較用ダマの中心 gとの間 における中心間距離 dを求める。 This 3 2, circle information values (center coordinates (x c, y c), the radius rd) and shows the circular positional relationship represented by, G is indicated by a circle (dashed comparative lumps ), G is the center coordinate of the comparison dummy (x c , y J), and C S 1 and C S 2 (C rd or C r . D 2 ) are the comparison isolation dummy (authentication dummy). Circles (indicated by solid lines ) and g rd and g rd 2 indicate the center coordinates (x c , y J) of the authentication lumps, respectively. The G is (1 2) and the comparative separating lumps which are calculated in the same manner the center of gravity G (x G, y G) indicates, d 2 is for comparison is calculated in the same manner as (1 1) The center-to-center distance between the center of gravity G of the separation lumps and the center g of the comparison lumps is shown.The rectangle in the figure shows the comparison lumps that were combined and the comparison lumps that separated them. In this FIG. 32, the matching unit 2 16 determines whether or not the center g rd or g rd 2 of the authentication dummy exists within the ellipse C of the comparison dummy before separation, and determines the ellipse C If the centers g rdl , g rd 2 exist in, find the center of gravity G (x G , y G ) in the comparison separator that is the result of the comparison separator separation, and calculate this center of gravity G and the center of the comparison dummy. Find the distance d between centers with respect to g.
そして照合部 2 1 6は、 この中心間距離 d 2が所定の閾値以下であった場合に は、 比較用分離ダマと、 認証用ダマとが同一のダマであると判断するようになさ れている。  Then, when the center-to-center distance d2 is equal to or smaller than a predetermined threshold, the matching unit 2 16 determines that the comparison separation dummy and the authentication dummy are the same dummy. I have.
このようにして照合部 2 1 6は、 照合処理により合致しなかった比較用ダマを 分離し、 当該分離された比較用分離ダマを再度認証用ダマと照合するようになさ れている。  In this way, the matching unit 2 16 separates the comparison lumps that did not match by the matching process, and again collates the separated comparison lumps with the authentication lumps.
このように照合部 2 1 6は、 互いに隣り合うダマ同士を結合及び又は分離する ようにしてダマを補正した後に再度照合することにより、 撮像状態時変化による 影響を排除することができるため、 照合結果の信頼性を格段に向上させることが できるようになされている。  In this way, the collation unit 211 can correct the lumps by combining and / or separating the adjacent lumps and then collate again, thereby eliminating the influence of the change in the imaging state. It is designed to significantly improve the reliability of the results.
第 4の処理形態 ' 次に、 この制御部 2における第 4の処理形態について説明する。 Fourth Processing Mode ”Next, a fourth processing mode in the control unit 2 will be described.
制御部 2における第 4の処理形態の処理内容を機能的に分類すると、 図 5との 対応部分に同一符号を付した図 3 3に示すように、 低域周波数成分抽出部 1 1、 画像分離部 1 2及び 2次元コード変換部 1 5の各処理内容は上述の第 1の処理形 態と同一であるが、 領域区割部 3 1 3、 紋様パターン抽出部 3 1 4と照合部 3 1 6との処理内容が第 1の処理形態とは異なる。 以下、 領域区割部 3 1 3による領域区割処理、 紋様パターン抽出部 3 14によ る紋様パターン抽出処理及び照合部 3 1 6による照合処理を詳細に説明する。 領域区割処理 When the processing contents of the fourth processing mode in the control unit 2 are functionally classified, as shown in FIG. 33 in which the same reference numerals are given to the corresponding parts in FIG. 5, the low frequency component extraction unit 11 and the image separation The processing contents of the unit 12 and the two-dimensional code conversion unit 15 are the same as those in the first processing mode described above, but the area dividing unit 3 13, the pattern pattern extracting unit 3 1 4, and the matching unit 3 1 6 is different from the first processing mode. Hereinafter, the area dividing process by the area dividing unit 3 13, the pattern pattern extracting process by the pattern pattern extracting unit 314, and the matching process by the matching unit 3 16 will be described in detail. Area division processing
領域区割部 3 1 3は、 コード印画モード時及び検証モード時ともに、 画像分離 '部 1 2から供給される白成分紋様画像データ D 1 2を白ダマデータ D 14として 生成し、 当該画像分離部 1 2から供給される黒成分紋様画像データ D 1 3を黒ダ マ'データ D 1 5として生成する点で、 領域区割部 1 3と同一の処理内容である。 しかしこの領域区割部 3 1 3では、 かかる白ダマデータ D 14及び黒ダマデー タ D 1 5の送出先が領域区割部 1 3とは相違している。 すなわち、 領域区割部 1 3は、 コード印画モード時及び検証モード時ともに白ダマデータ D 14及び黒ダ マデータ D 1 5をそのまま紋様パターン抽出部 1 4に送出していたのに対し、 こ の領域区割部 3 1 3は、 コード印画モード時には紋様パターン抽出部 3 14に送 出し、 検証モード時には照合部 3 1 6に送出するようになされている。  The area division unit 3 13 generates the white component pattern image data D 12 supplied from the image separation unit 12 as white lumped data D 14 in both the code printing mode and the verification mode. The processing content is the same as that of the area dividing unit 13 in that the black component pattern image data D 13 supplied from 12 is generated as black dummy 'data D 15. However, the destination of the white dama data D14 and the black dama data D15 in the area dividing section 3 13 is different from that of the area dividing section 13. In other words, the area dividing unit 13 sends the white lumped data D14 and the black lumped data D15 to the pattern pattern extracting unit 14 as they are in both the code printing mode and the verification mode. The division section 3 13 is sent to the pattern pattern extraction section 314 in the code printing mode, and is sent to the matching section 3 16 in the verification mode.
紋様パターン抽出処理 Pattern pattern extraction processing
紋様パターン抽出部 3 1 4は、 各白ダマ WD (WD WDJ 及び各黒ダマ BD (BDi BDj それぞれの形状自体に近似させる点で、 当該白ダマ WD 及び各黒ダマ BDを矩形状に近似させた紋様パターン抽出部 14とは相違する。 実際上、 紋様パターン抽出部 3 1 4は、 各白ダマ WD (WDi WDn) 及び 各黒ダマ BD (BD1〜BDn) それぞれについて、 当該ダマの外周上における 点 (以下、 これをダマ外周点と呼ぶ) に基づいてベジエ曲線 (b e z i e r c u r v e) を生成するための制御点列を決定し、 これら制御点列を紋様パターン として抽出する。 The pattern pattern extraction unit 3 1 4 approximates the white lumps WD and the black lumps BD to a rectangular shape in that the white lumps WD (WD WDJ and the black lumps BD (BDi BDj) approximate the respective shapes themselves. differs from the pattern level feature extraction unit 14. in practice, pattern level feature extraction section 3 1 4, for each of white lumps WD (WDi WDn) and each black lumps BD (BD 1 ~BD n), on the outer circumference of the lump The control point sequence for generating a Bezier curve is determined based on the points in (hereinafter referred to as the lumbar outer peripheral points), and these control point sequences are extracted as a pattern pattern.
具体的に紋様パターン抽出部 314は、 領域区割部 3 1 3から供給される白ダ マデータ D 1 4の白ダマ WD (WD1〜WDn) 及び黒ダマデータ D 1 5の黒ダ マ BD (BD.i BDj における面積 (以下、 これをダマ総合面積と呼ぶ) を 画素数に基づいて算出し、 予め内部メモリに保持されたダマ総合面積 (画素数) と正方格子の格子サイズ及びベジエ曲線の次数との対応テ一ブルを参照して、 こ のとき検出した画素数に対応する格子サイズ及びベジエ曲線の次数に切り替える そして紋様パターン抽出部 3 14は、 このとき切り替えた格子サイズの正方格 子で白ダマデータ D 14の指定領域 AR及び黒ダマデータ D 1 5の指定領域 AR をそれぞれ区切ると共に、 このとき切り替えた n次のベジエ曲線を生成するため の 「n+ lj 個の制御点からなる制御点列を、 当該指定領域 AR内に有する白ダ マ WD及び黒ダマ B Dそれぞれについて決定する。 Specifically pattern level feature extraction unit 314, the area separate portions 3 1 3 Shiroda supplied from Madeta D 1 4 white lumps WD (WD 1 ~WD n) and black Damadeta D 1 5 black Da Ma BD ( The area of BD.i BDj (hereinafter referred to as the total area of lumps) is calculated based on the number of pixels, and the total area of lumps (number of pixels) stored in the internal memory in advance and the grid size of the square lattice and the Bezier curve are calculated. Refer to the table corresponding to the In this case, the pattern is switched to the grid size and the order of the Bezier curve corresponding to the number of pixels detected.The pattern pattern extraction unit 314 uses the square grid of the grid size switched at this time to specify the white AR data D 14 and the designated area AR and black dummy data. In addition to delimiting the designated area AR of D15, a white spot having a control point sequence consisting of n + lj control points in the designated area AR for generating the n-th order Bezier curve switched at this time. Determined for WD and Black Lama BD.
ここで、 かかる制御点列の決定手法を具体的に説明するが、 説明の便宜上、 こ こでは白ダマ WD について、 3次のベジエ曲線を生成するための 4個の制御点 からなる制御点列を決定する場合を図 34を用いて説明する。  Here, a method of determining such a control point sequence will be described in detail. For convenience of explanation, here, a control point sequence consisting of four control points for generating a third-order Bezier curve is used for the white ball WD. The case of determining is described with reference to FIG.
この図 34において、 紋様パターン抽出部 3 1 4は、 正方格子と、 白ダマ WD !の外周との交点 P 〜 P i 2を制御点として認識し、 例えば制御点 P 1を最初の 始点として、 隣接する 4個の制御点を制御点列 P 〜 P4〜P7、 Py Pi 。、 P10〜P12として順次選択する。 In FIG. 34, the pattern pattern extraction unit 3 1 4 is composed of a square lattice and white WD! Intersections P to P i 2 with the outer circumference of are recognized as control points. For example, the control point P 1 is used as the first starting point, and four adjacent control points are used as control point sequences P to P 4 to P 7 and Py Pi. , P 10 to P 12 are sequentially selected.
この場合、 紋様パターン抽出部 3 1 4は、 各制御点列 Ρ 〜Ρ4、 Ρ4〜Ρ 7、 Ρ7〜Ρ 10、 Ρ 10〜Ρ 12の終点 (制御点 Ρ4、 Ρ7、 Ρ 10) を次の制御点列の始 点 (制御点 Ρ4、 Ρ7、 Ρ 10) として選択するようになされており、 また最後の 制御点列 Ρ 10〜Ρ 12では 3個の制御点をそのまま制御点列として選択するよう になされている。 In this case, pattern level feature extraction section 3 1 4, each control points Ρ ~Ρ 4, Ρ 4 ~Ρ 7 , Ρ 7 ~Ρ 10, the end point of Ρ 1012 (control point [rho 4, [rho 7, [rho 10) the start point of the next control points (control points Ρ 4, Ρ 7, Ρ is made is in so selected as 10), also the last control points Ρ 10 ~Ρ 3 control points in 12 The control point sequence is selected as it is.
しかし、 これら制御点列 P i〜P 4、 P4〜P7、 P 7〜P 10、 P 10〜P12をそ のまま白ダマ WD iについての制御点列として決定した場合、 当該制御点列 P i 〜P 12から生成されるベジエ曲線は、 白ダマ の外周よりもそれぞれ内側又 は外側となるため、 実際の白ダマ とは極端に異なるダマとして得られてし まうことになる。 However, when these control point sequences P i to P 4 , P 4 to P 7 , P 7 to P 10 , and P 10 to P 12 are determined as they are as the control point sequence for the white ball WD i, the control points The Bezier curves generated from the columns P i to P 12 are inside or outside the outer periphery of the white lumps, respectively, and thus are obtained as extremely different lumps from the actual white lumps.
そこでこの実施の形態の場合、 紋様パターン抽出部 3 1 4は、 各制御点列 〜P4、 P4〜P7、 P 7〜P 10における始点及び終点間の制御点 (以下、 これを 中間制御点と呼ぶ) P2及び P3、 P5及び Pe、 P8及び P9と、 最後の制御点列 ?^〜?^及び最初の制御点列卩 〜 こぉける始点 (P 1 C)、 P i) 間の制御 点 (以下、 これも中間制御点と呼ぶ) P11及びP12とを白ダマWD1の外周ょ りも内側又は外側にずらすようになされている。 Therefore, in the case of this embodiment, the pattern pattern extraction unit 314 determines the control points between the start point and the end point in each of the control point sequences ~ P 4 , P 4 ~ P 7 , and P 7 ~ P 10 referred to as the control point) P 2 and P 3, P 5 and P e, and P 8 and P 9, last control points ? ^ ~? ^ And the control point sequence between the first control point sequence 卩 and the starting point (P 1 C ), P i) (hereinafter also referred to as the intermediate control point) P 11 and P 12 are the outer periphery of the white ball WD 1 They are also shifted inward or outward.
具体的に紋様パターン抽出部 3 14は、 中間制御点 P2及び P3を点対称の中 心とした場合に、 当該中間制御点 P2及び P3からの線分 Pi— P4に対する垂線 と線分 P ,— P 4との交点 Q 2及ぴ Q 3に対応する点 C 2及び C 3を検出し、 当該検 出した点 C 2及び C 3と制御点 P 及び P 4とを制御点列 Pi— Cs— C3_P4とし て決定する。 Specifically, when the intermediate control points P 2 and P 3 are set to the center of point symmetry, the pattern pattern extraction unit 314 determines the perpendicular to the line segment Pi—P 4 from the intermediate control points P 2 and P 3 and The points C 2 and C 3 corresponding to the intersection points Q 2 and Q 3 with the line segments P and P 4 are detected, and the detected points C 2 and C 3 and the control points P and P 4 are used as control points. determined as a column Pi- Cs- C 3 _P 4.
そして紋様パターン抽出部 314は、 他の中間制御点 P5及び P6、 P8及び P 9、 P i i及ぴ P x 2についても、 中間制御点 P 2及び P 3と同様にして点 C 5及び C 6、 c8及ぴ C9、 C„及び C12をそれぞれ検出し、 当該点 C5及び C6、 C8及び cg、 C„及び C12と、 対応する制御点 P4及び P 7、 ?7及び?10、 。及び PThen, the pattern pattern extraction unit 314 calculates the points C 5 for the other intermediate control points P 5 and P 6 , P 8 and P 9 , P ii and P x 2 in the same manner as the intermediate control points P 2 and P 3. And C 6 , c 8 and C 9 , C „and C 12 , respectively, and the corresponding points C 5 and C 6 , C 8 and c g , C„ and C 12 and the corresponding control points P 4 and P 7 ,? 7 and? 10 ,. And P
2とを制御点列 P 4_C 5— C6— p7、 p7— c8— c9— p10、 p 10-c t x - c12としてそれぞれ決定する。 ! 2 is determined as a control point sequence P 4 _C 5 — C 6 — p 7 , p 7 — c 8 — c 9 — p 10 , p 10 -c tx -c 12 .
このようにして紋様パターン抽出部 3 14は、 白ダマ WDェについての制御点 列 P i - C2— C3— P4、 P4_C5 - C6— P7、 P7— C8— C9—P 10、 P 10 一 c„一 c12をそれぞれ決定するようになされている。 In this manner, the pattern pattern extraction unit 314 controls the control point sequence P i -C 2 —C 3 —P 4 , P 4 _C 5 -C 6 —P 7 , P 7 —C 8 — C 9 -P 10, P 10 one c "one c 12 a is adapted to determine, respectively.
また紋様パターン抽出部 3 14は、 白ダマ WD 2〜WDn及び、 領域区割部 3 1 3から供給される黒ダマデータ D 1 5の各黒ダマ BD1〜BDn) についても 、 白ダマ WD!の場合と同様にして 3次のベジエ曲線を生成するための制御点列 をそれぞれ決定するようになされている。 The pattern level feature extraction unit 3 14, white lumps WD 2 ~WD n and also for each black lumps BD 1 ~BD n) of black Damadeta D 1 5 supplied from the area separate portions 3 1 3, white lumps WD ! The control point sequence for generating the third-order Bezier curve is determined in the same manner as in the case of.
そして紋様パターン抽出部 314は、 このようにして決定した白ダマ WD— (W D WDJ 及び黒ダマ BDi BDj それぞれの制御点列を、 認証用紋様パ ターンのデータ (以下、 これを認証用紋様パターンデータと呼ぶ) D 16 (図 5 ) として生成.し、 これを 2次元コード変換部 1 5に送出する。  Then, the pattern pattern extraction unit 314 converts the control point sequence of each of the white balls WD— (WD WDJ and the black balls BDi BDj) determined in this manner into authentication pattern data (hereinafter referred to as authentication pattern data). It is generated as D16 (Fig. 5) and sent to the two-dimensional code converter 15.
このように紋様パターン抽出部 314は、 選択した制御点列 ( P 〜 P 4、 P 4 〜P 7、 P 7〜P 10、 P 10〜P 12) のうち、 当該制御点列における中間制御点 ( P2及び P3、 P5及ぴ Pい P8及び P9、 及ぴ P12) を白ダマ の外周 よりも内側又は外側にずらすことにより、 実際の白ダマ WDェにより一層近似す るダマを生成するための制御点列 (P i— Cg— Cs— P4、 P4— C5— C6— P7 Thus pattern level feature extraction unit 314, the selected control point sequence (P ~ P 4, P 4 ~P 7, P 7 ~P 10, P 10 ~P 12) of the intermediate control points in the control point sequence ( By shifting P 2 and P 3 , P 5 and P or P 8 and P 9 , and P 12 ) inward or outward from the outer periphery of the white ball, the ball that approximates the actual white ball WD more closely. Control point sequence (P i— Cg— Cs— P 4 , P 4 — C 5 — C 6 — P 7
、 p 7— c8— c9— p 10、 p 10-c11-cl 2) を紋様パターンとして抽出する ことができるようになされている。 , P 7 — c 8 — c 9 — p 10 , p 10 -c 11 -c l 2 ) can be extracted as a pattern pattern.
なお、 制御点列を構成する 1つの制御点が取り得るデータ範囲として、 図 3 5 に示すデータ範囲を想定した場合、 n次のベジエ曲線を生成するための 「n+ l 」 個の制御点からなる制御点列を kとすると、 認証用紋様パターンデータ D 1 6 のデータサイズは、 実験結果より、 32 k (n+ 1) [b i t] となった。  In addition, assuming the data range shown in Fig. 35 as the data range that can be taken by one control point constituting the control point sequence, from the n + l control points for generating the nth-order Bezier curve Assuming that the control point sequence is k, the data size of the authentication pattern pattern data D 16 is 32 k (n + 1) [bit] from the experimental results.
また既存の 2次元バーコードは、 図 1 3'に示したように、 およそ 1〜3 [Kb y t e ] のバイナリデータを 2次元バーコ一ド変換することができる。 従って、 2次元コード変換部 1 5は、 図 1 3及ぴ図 35からも明らかなように、 既存の 2 次元コードを適用した場合であっても、 上述の紋様パターン抽出部 3 14から供 給される認証用紋様パターンデータ D 1 6の制御点列を認証用紋様コードデータ D 2として適切に変換することができることになる。  As shown in Fig. 13 ', existing two-dimensional barcodes can perform two-dimensional barcode conversion on approximately 1 to 3 [Kbyte] binary data. Therefore, as is apparent from FIGS. 13 and 35, the two-dimensional code conversion unit 15 supplies the two-dimensional code from the above-described pattern pattern extraction unit 314 even when the existing two-dimensional code is applied. The control point sequence of the authentication pattern pattern data D 16 can be appropriately converted as the authentication pattern code data D 2.
照合処理 Matching process
照合部 3 1 6は、 検 ΪΕモード時において、 スキャナ部 4でのコード付印画紙 X P c (図 2 (B) ) の指定領域 ARに印画された認証用紋様コード B Cの読取結 果 (認証用紋様コードデータ D 2) と、 このとき指定領域 A Rから読み取られた コード付紋様画像データ D 3に対する低域周波数成分抽出処理、 画像分離処理及 び領域区割処理の処理結果 (白ダマデータ D 14及ぴ黒ダマデータ D 1 5) とに 基づいて照合処理を実行する。  In the inspection mode, the verification unit 316 reads the authentication pattern code BC printed on the designated area AR of the coded paper XPc (FIG. 2 (B)) by the scanner unit 4 (authentication mode). The processing result of the low-frequency component extraction processing, image separation processing, and area division processing for the pattern image data D 2) and the pattern image data D 3 with code read from the designated area AR at this time (white lumped data D 14) The collation processing is performed based on the black and black lumps data D 15).
実際上、 照合部 3 1 6は、 供給される認証用紋様コードデータ D 2に対して逆 2次元コード変換処理を施すことにより認証用紋様パターンデータ D 1 6を復元 し、 当該認証用紋様パターンデータ D 1 6の制御点列に基づいて、 元の白ダマ W Dに相当する白ダマ (以下、 これを再構成白ダマと呼ぶ) 及び元の黒ダマ BDに 相当する黒ダマ (以下、 これを再構成黒ダマと呼ぶ) をそれぞれ生成する。 ここで、 かかる再構成白ダマ及び再構成黒ダマの再構成手法を具体的に説明す るが、 説明の便宜上、 ここでは図 34で説明した白ダマ に相当する再構成 白ダマを再構成する場合を説明する。 Actually, the collating unit 3 16 restores the authentication pattern pattern data D 16 by performing an inverse two-dimensional code conversion process on the supplied authentication pattern code data D 2, and Based on the control point sequence of the data D 16, white lumps corresponding to the original white lumps WD (hereinafter referred to as reconstructed white lumps) and black lumps corresponding to the original black lumps BD (hereinafter referred to as Reconstructed black lumps). Here, a method for reconstructing the reconstructed white lumps and the reconstructed black lumps will be specifically described. For convenience of description, here, the reconstructed white lumps corresponding to the white lumps described with reference to FIG. 34 are reconstructed. The case will be described.
図 36に示すように、 照合部 3 1 6は、 紋様パターン抽出^ 14により抽出さ れた白ダマ (図 3 6において破線で囲まれた斜線領域) についての制御点 列 P「 C2 - C3 - P4、 P4 - C5— C6— Pい P 7 - C8— C9— P 10、 P 10 — C i— C丄 2から対応するベジエ曲線 B c 1、 B e 2、 B e 3、 B c 4をそれ ぞれ生成する。 As shown in FIG. 36, the collation unit 3 16 generates a control point sequence P “C 2 -C” for the white lumps (hatched areas surrounded by broken lines in FIG. 36) extracted by the pattern pattern extraction ^ 14. 3 - P 4, P 4 - C 5 - C 6 - P have P 7 - C 8 - C 9 - P 10, P 10 - Bezier curve B c 1 corresponding from C i-C丄2, B e 2, B e 3 and B c 4 are generated respectively.
そして照合部 3 1 6は、 図 3 7に示すようにベジエ曲線 B c 1、 B c 2、 B e 3、 B c 4によって囲まれる領域を、 所定の単一輝度値で塗りつぶすことにより 再構成白ダマを生成する。  Then, as shown in FIG. 37, the matching unit 316 reconstructs the area surrounded by the Bezier curves Bc1, Bc2, Be3, and Bc4 by filling the area with a predetermined single luminance value. Generate white lumps.
このようにして照合部 3 1 6は、 白ダマ に相当する再構成白ダマを生成 するようになされている。  In this way, the matching unit 316 generates reconstructed white lumps corresponding to white lumps.
なお、 n次のベジエ曲線は、 制御点を CPとし、 B e r n s t e i n関数を  Note that the Bezier curve of the nth order has the control point as CP and the Bernsteiin function as
B? (t) とすると、 次式 ( 14) B? (T), the following equation (14)
Π Π
R( = 》 , B " ) C ... ( 14)  R (= >>, B ") C ... (14)
により定義されものであり、 この (14) 式における B e r n s t e i n関数
Figure imgf000050_0001
は、 次式 (1 5)
And the Bernstein function in this equation (14)
Figure imgf000050_0001
Is the following equation (15)
f{ l-t)"-1 f {lt) " -1
(n-iy.il 但し、 0≤ ^1 (15) により定義される。  (n-iy.il where 0≤ ^ 1 (15)
また、 照合部 3 1 6は、 白ダマ WD1の場合と同様にして、 認証用紋様コード データ D 2における白ダマ WD 2〜WDnについての制御点列に基づいて、 当該 白ダマ W D 2〜 W D nに相当する再構成白ダマを生成すると共に、 当該認証用紋 様コードデータ D 2における黒ダマ B D (BDi BDn) についての制御点列 に基づいて、 当該黒ダマ BDに相当する再構成黒ダマを生成するようになされて レ、る。 Further, the matching unit 3 1 6, as in the case of white lumps WD 1, based on the control points of the white lumps WD 2 ~WD n in authentication A pattern code data D 2, the white lumps WD 2 ~ In addition to generating a reconstructed white lump corresponding to WD n , based on the control point sequence for the black lump BD (BDi BDn) in the authentication pattern code data D2, the reconstructed black lump corresponding to the black lump BD is generated. It is made to generate lumps.
そして照合部 3 1 6は、 このようにして生成した再構成白ダマと、 このとき領 域区割部 3 1 3から供給される白ダマデータ D 24の白ダマ WD (WDi〜WD n) との間及ぴ再構成黒ダマと、 このとき領域区割部 3 1 3から供給される黒ダ マデータ D 2 5の黒ダマ B D (BDi BDj との間における位相限定相関値 Cp。。を、 当該再構成白ダマ及び再構成黒ダマの画素を RD ( X , y ) 、 当該白 ダマ WD及ぴ黒ダマ B Dの画素を D (x, y ) 、 2次元フーリエ変換を F、 2次 元逆フーリエ変換を F 1とすると、 次式 (1 6) Then, the matching unit 3 1 6, having such a reconstruction white lumps were produced in, and this time realm separate portions 3 1 of 3 white Damadeta D 24 supplied from the white lumps WD (WDi~WD n) The phase-only correlation value C p between the extended reconstructed black lumps and the black lumps BD (BDi BDj) of the black lumps data D 25 supplied from the area dividing section 3 13 at this time is represented by The pixels of the reconstructed white lumps and reconstructed black lumps are RD (X, y), the pixels of the relevant white lumps WD and black lumps BD are D (x, y), the two-dimensional Fourier transform is F, and the two-dimensional inverse Fourier When the converted F 1, the following equation (1 6)
Figure imgf000051_0001
Figure imgf000051_0001
(16) に従って算出する。 (16) Calculated according to
ここで、 照合部 3 1 6は、 所定の閾値以下の位相限定相関値 C p。。が得られた 場合には、 このときスキャナ部 4の載置台に載置されたコード付印画紙 X P c ( 図 2 ) が複製されたものであると判断し、 このとき複製を禁止する旨とをスキヤ ナ部 4の表示部 (図示せず) を介して通知する。 Here, the matching unit 316 calculates the phase-only correlation value C p equal to or less than a predetermined threshold. . Is obtained, it is determined that the coded paper XPc (FIG. 2) placed on the mounting table of the scanner unit 4 at this time is a copy, and that the copy is prohibited at this time. Is notified via the display unit (not shown) of the scanner unit 4.
これに対して照合部 3 1 6は、 所定の閾値よりも高い位相限定相関値 C pcが 得られた場合には、 このときスキャナ部 4の載置台に載置されたコード付印画紙 X P c (図 2 ) が正当なオリジナル印画紙 O Pであると判断し、 このとき複製許 可コマンド C OMを生成してスキャナ部 4 (図 4 ) に送出する。 On the other hand, the matching unit 316 generates a phase-only correlation value C p higher than a predetermined threshold. If c is obtained, it is determined that the coded paper XPc (Fig. 2) placed on the mounting table of the scanner unit 4 at this time is a valid original photographic paper OP, and copying is permitted at this time. The command CAM is generated and sent to the scanner unit 4 (FIG. 4).
この結果、 スキャナ部 4では反射モードが実行され、 このとき原稿台に載置さ れたコード付印画紙 X P c (オリジナル印画紙 O P ) の印画内容が印画内容画像 データ D 4としてプリンタ部 5に送出され、 この結果、 プリンタ部 5においてォ リジナル印画紙 O P (図 2 ( A) ) の印画内容が用紙に複製されることとなる。 なお、 照合部 3 1 6においては、 図 3 8からも分かるように、 位相限定相関で はその相関がある場合 (図 3 8 (A) ) には鋭いピークとして現れる特徴がある ため、 このとき算出した位相限定相関結果を表示部 (図示せず) を介して通知し ておくようになされている。 これにより照合部 3 1 6は、 位相限定相関結果の度 合い (正当性の有無の度合い) を視覚的に分かり易く把握させることができるよ うになされている。  As a result, the reflection mode is executed in the scanner unit 4, and the printing content of the coded paper XPc (original photographic paper OP) placed on the platen at this time is transferred to the printer unit 5 as printing content image data D4. As a result, the print content of the original photographic paper OP (FIG. 2A) is duplicated on the paper in the printer unit 5. As can be seen from Fig. 38, the matching unit 316 has a feature that appears as a sharp peak in the case of the phase-only correlation (Fig. 38 (A)) when the correlation is present (Fig. 38 (A)). The calculated phase-only correlation result is notified via a display unit (not shown). As a result, the matching unit 316 can visually and easily understand the degree of the phase-only correlation result (the degree of validity).
以上の第 4の処理形態では、 白ダマ WD及び黒ダマ B Dそれぞれの外周に近似 するベジエ曲線を生成するための複数の制御点を紋様パターンとして抽出し、 こ の紋様パターンを認証情報として当該オリジナル印画紙 O Pに記憶しておく。 そ してコード付印画紙 X P cに印画された印画内容を複製する場合に、 当該コード 付印画紙 X P cに記憶された紋様パターンに基づいて白ダマ WD及ぴ黒ダマ B D に相当する再構成白ダマ及び再構成黒ダマを生成し、 当該再構成白ダマ及び再構 成黒ダマを用いてオリジナル印画紙〇 Pであるか否かの正当性を検証する。 従ってこの第 4の処理形態では、 低域成分紋様画像 I M2に有する紋様を構成 する白ダマ WD及ぴ黒ダマ B Dそれぞれの外周に近似する複数の制御点を紋様パ ターンとして抽出するため、 上述の第 1〜第 3の処理形態に比して、 当該制御点 から生成される再構成白ダマ及び再構成黒ダマからなる紋様を、 元の低域成分紋 様画像 IM2 (図 6 (B) ) に有する紋様とほぼ同一の紋様として格段に精度良 く再現することができ、 この結果、 正当性の検証精度を向上させることができる さらにこの第 4の処理形態では、 白ダマ WD及び黒ダマ BDそれぞれの外周に 近 する複数の制御点として、 単に外周上だけの点ではなく、 外周上の点 (図 3 4において Pい P4、 P7、 P 10) とその外周から外側又は内側に所定距離だ け离隹れた点 (図 34にぉぃてじ2、 C3、 C5、 C6、 C8、 C9、 C い C12) とを紋様パターンとして抽出する。 In the above-described fourth processing mode, a plurality of control points for generating a Bezier curve approximating the outer periphery of each of the white lumps WD and the black lumps BD are extracted as a pattern pattern, and this pattern pattern is used as authentication information as the original information. Store it on photographic paper OP. Then, when copying the print content printed on the coded paper XPc, the reconstruction corresponding to the white WD and the black BD based on the pattern stored in the coded paper XPc. The white lumps and the reconstructed black lumps are generated, and the validity of the original photographic paper 〇P is verified using the reconstructed white lumps and the reconstructed black lumps. Accordingly, in the fourth processing mode, a plurality of control points that are close to the outer periphery of each of the white lumps WD and the black lumps BD constituting the pattern included in the low-frequency component pattern image I M2 are extracted as a pattern. Compared to the first to third processing modes, the pattern consisting of the reconstructed white lumps and the reconstructed black lumps generated from the control points is converted to the original low-frequency component pattern image IM2 (Fig. 6 (B) ) Can be remarkably accurately reproduced as a pattern substantially the same as the pattern possessed in the above. As a result, the verification accuracy of the validity can be improved. as a plurality of control points near the BD respective periphery rather than simply in terms of just on the periphery, (P have P 4 in FIG. 3 4, P 7, P 10 ) the points on the periphery and the outside or inside from the outer periphery Flip Te Oi a predetermined distance s only离隹the point (Fig. 34 2, C 3, C 5 , C 6 , C 8 , C 9 , C and C 12 ) are extracted as a pattern pattern.
このため、 これら制御点から生成される再構成白ダマ及び再構成黒ダマからな る紋様を、 元の低域成分紋様画像 IM2 (図 6 (B) ) に有する紋様とほぼ同一 の紋様として一段と精度良く再現することができ、 この結果、 正当性の検証精度 をより向上させることができる。  Therefore, the pattern consisting of the reconstructed white lumps and the reconstructed black lumps generated from these control points is furthermore regarded as a pattern almost identical to the pattern contained in the original low-frequency component pattern image IM2 (FIG. 6 (B)). It can be reproduced with high accuracy, and as a result, the accuracy of validity verification can be further improved.
さらに第 4の処理形態では、 白ダマ WD及び黒ダマ BDそれぞれの外周に近似 する複数の制御点として、 当該白ダマ WD及ぴ黒ダマ BDのダマ総合面積に対応 する数の点を紋様パターンとして抽出する。  Further, in the fourth processing mode, as a plurality of control points approximating the outer periphery of each of the white lumps WD and the black lumps BD, the number of points corresponding to the total lumps of the white lumps WD and the black lumps BD is defined as a pattern. Extract.
従ってこの第 4の処理形態では、 オリジナル印画紙 OPに記憶する紋様パター ンをほぼ一定のデータサイズとして得ることができるため、 紋様の区割り結果 ( 白ダ'マ WD及ぴ黒ダマ BDの総合面積) にかかわらず、 適切に紋様パターンをォ リジナル印画紙 O Pに記憶させることができる。  Therefore, in the fourth processing mode, since the pattern pattern stored in the original photographic paper OP can be obtained as a substantially constant data size, the pattern division result (the total area of the white black WD and black black BD) Regardless of), the pattern can be appropriately stored in the original photographic paper OP.
なお、 この第 4の処理形態においては、 区割された各領域それぞれについて、 当該領域の輪郭上の点に基づいて輪郭に近似する曲線を生成するための複数の点 を決定し、 これら点を紋様情報として抽出する抽出手段として、 白ダマ WD及ぴ 黒ダマ B Dのダマ総合面積に応じて格子サイズ及ぴベジエ曲線の次数に切り替え 、 当該切り替えた格子サイズの正方格子と交わる白ダマ WD及び黒ダマ B Dの外 周上の点に基づいてベジエ曲線を生成するための制御点列を紋様情報として抽出 するようにした場合について述べたが、 白ダマ WD及ぴ黒ダマ B Dのうち最大の ダマ面積に応じて切り替えるようにしても良く、 また格子サイズ及び又はベジエ 曲線の次数を固定値として設定しておくようにしても良い。 In this fourth processing mode, for each of the divided areas, a plurality of points for generating a curve approximating the contour are determined based on the points on the contour of the area, and these points are determined. As extraction means to extract as pattern information, switch to grid size and order of Bezier curve according to total area of white WD and black black BD The case where the control point sequence for generating the Bezier curve based on the points on the outer periphery of the white grid WD and the black grid BD that intersect with the square grid of the switched grid size is extracted as pattern information has been described. However, the switching may be performed according to the largest lump area of the white lump WD and the black lump BD, and the lattice size and / or the order of the Bezier curve may be set as a fixed value.
また正方格子と交わる点を白ダマ WD及び黒ダマ B Dの外周上の点としたが、 例えば、 白ダマ WD及び黒ダマ B Dの外周上におけるある基準点を決定し、 当該 基準^;を中心とした円と交わる点を白ダマ WD及ぴ黒ダマ B Dの外周上の点とし 、 さらにこの点を中心とした円と交わる点を次の白ダマ WD及び黒ダマ B Dの外 周上の点としていくようにしても良い。 このときの円の直径又は半径を、 白ダマ W D及び黒ダマ B Dのダマ総合面 等に応じて切り替えるようにしても良い。 また白ダマ W D及び黒ダマ B Dの外周上の点に基づいてベジエ曲線を生成する ための制御点列を抽出するようにしたが、 当該白ダマ WD及ぴ黒ダマ B Dの輪郭 上の点に基づいてベジエ曲線を生成するための制御点列を抽出するようにしても 良い。 このようにすれば、 図 3 9に示すように、 ドーナツ状の白ダマ WD (又は 黒ダマ B D ) として区割りされる場合であっても、 図 3 4で上述した手法と同様 の手法により当該ダマの形状を忠実に再現し得る制御点列を抽出することができ る。 なお、 外周から外側又は内側に所定距離だけ離れた点 (図 3 4において C 2 、 C 3、 C 5、 C 6、 C 8、 C 9、 C l l C 1 2 ) を抽出する手法としては、 図 3 4 で上述した手法に限らず、 この他種々の手法により当該点を抽出することができ る。 In addition, the point that intersects with the square lattice is a point on the outer periphery of the white dummy WD and the black dummy BD.For example, a reference point on the outer periphery of the white dummy WD and the black dummy BD is determined, and the reference ^; The point at which the circle intersects with the circle is defined as a point on the outer circumference of the white tama WD and black tama BD, and the point of intersection with the circle centered on this point is defined as the point on the outer circumference of the next white tama WD and black tama BD You may do it. At this time, the diameter or radius of the circle may be switched according to the total surface of the white balls WD and the black balls BD. In addition, a control point sequence for generating a Bezier curve is extracted based on points on the outer periphery of the white lumps WD and the black lumps BD, but based on the points on the contours of the white lumps WD and the black lumps BD. Alternatively, a control point sequence for generating a Bezier curve may be extracted. In this way, as shown in FIG. 39, even if the donut is divided as a white dough WD (or a black dough BD), the dough is obtained by the same method as described above with reference to FIG. It is possible to extract a control point sequence that can faithfully reproduce the shape of. In addition, as a method of extracting a point (C 2 , C 3 , C 5 , C 6 , C 8 , C 9 , C ll C 1 2 in FIG. 34 ) that is a predetermined distance outward or inward from the outer periphery, The point can be extracted by not only the method described above with reference to FIG. 34 but also various other methods.
またベジエ曲線を生成するための制御点列を紋様情報として抽出するようにし たが、 有理ベジエ曲線、 Bスプライン曲線又は有理 Bスプライン曲線等のこの他 種々の曲線を生成するための制御点列を紋様情報として抽出するようにしても良 い。 この場合、 上述の第 4の処理形態と同様の効果を得ることができる。  In addition, a control point sequence for generating a Bezier curve is extracted as pattern information, but a control point sequence for generating other various curves such as a rational Bezier curve, a B-spline curve, or a rational B-spline curve is used. It may be extracted as pattern information. In this case, the same effect as in the above-described fourth processing mode can be obtained.
さらに第 4の処理形態においては、 記憶手段により記憶された紋様情報に基づ いて、 印画紙の正当性を検証する検証手段として、 制御点列に基づいてベジエ曲 線を生成し、 当該べジェ曲線によって囲まれる領域を所定の単一輝度値で塗りつ ぶすことにより再構成白ダマ及び再構成黒ダマを生成し、 当該再構成白ダマ及ぴ 再構成黒ダマを対応するダマとの位相限定相関を算出するようにして検証した場 合について述べたが、 制御点列に基づいて有理ベジエ曲線、 Bスプライン曲線又 は有理 Bスプライン曲線等のこの他種々の曲線を生成するようにしても良く、 ま た位相限定相関以外の手法により検証するようにしても良い。 この場合、 上述の 第 4の処理形態と同様の効果を得ることができる。 Further, in the fourth processing mode, as a verification means for verifying the validity of the photographic paper based on the pattern information stored by the storage means, a Bezier music based on a control point sequence is used. A line is generated, and a region surrounded by the Bezier curve is painted with a predetermined single luminance value to generate a reconstructed white ball and a reconstructed black ball, and the reconstructed white ball and the reconstructed black ball are generated. Was described by calculating the phase-only correlation with the corresponding lumps, but various other curves such as a rational Bezier curve, a B-spline curve, or a rational B-spline curve were used based on the control point sequence. May be generated, or verification may be performed by a method other than the phase-only correlation. In this case, the same effect as in the above-described fourth processing mode can be obtained.
認証処理手順 Authentication procedure
ここで制御部 2は、 上述の第 1〜第 4の処理形態を、 図 40に示す認証処理手 順 RTに従って実行する。  Here, the control unit 2 executes the above-described first to fourth processing modes in accordance with the authentication processing procedure RT shown in FIG.
すなわち、 制御部 2は、 この不正複製防止装置 1の主電源が投入されると、 こ の認証処理手順 RTをステップ S P 0において開始し、 続くステップ S P 1にお いて、 認証用紋様コード BC (図 2 (A) ) を印画させる印画指令又は複製指令 を待ち受ける。  That is, when the main power of the unauthorized duplication prevention device 1 is turned on, the control unit 2 starts this authentication processing procedure RT in step SP0, and in the following step SP1, the authentication pattern code BC ( Wait for a print command or a copy command to print Figure 2 (A)).
そして制御部 2は、 このステップ S P 1において、 操作部 (図示せず) から印 画指令を受けた場合、 続くステップ S P 2において、 スキャナ部 4を制御してォ リジナル紋様画像データ D 1を取得した後、 次のステップ S P 3において、 当該 オリジナル紋様画像データ D 1に対して低域周波数成分抽出処理を施すようにし て低域成分紋様画像 IM 2 (図 7 (A) ) を表す低域紋様画像データ D 1 1を生 成し、 続くステップ S P 4において、 低域紋様画像データ D 1 1に対して画像分 離処理を施すようにして白成分紋様画像 WIM (図 7 (B) ) を表すを表す白成 分紋様画像データ D 1 2と、 黒成分紋様画像 B IM (図 7 (C) ) を表す黒成分 紋様画像データ D 1 3とを生成する。  When receiving a print command from an operation unit (not shown) in step SP1, the control unit 2 controls the scanner unit 4 to acquire the original pattern image data D1 in the following step SP2. After that, in the next step SP3, the low-frequency component extraction processing is performed on the original pattern image data D1 to obtain a low-frequency pattern representing the low-frequency component pattern image IM2 (FIG. 7 (A)). The image data D 11 is generated, and in the following step SP 4, the white component pattern image WIM (FIG. 7B) is represented by performing image separation processing on the low-frequency pattern image data D 11. , And black component pattern image data D13 representing a black component pattern image BIM (FIG. 7 (C)).
続いて制御部 2は、 ステップ S P 5において、 白成分紋様画像データ D 1 2及 び黒成分紋様画像データ D 1 3に対して領域区割処理を施すようにして、 複数の 白ダマ WD (WDi WDj を表す白ダマデータ D 14及ぴ複数の黒ダマ BD (BD BDJ を表す黒ダマデータ D 1 5を生成し、 続くステップ S P 6に おいて、 当該白ダマデータ D 1 4に基づく各白ダマ WDと、 黒ダマデータ D 1 5 に基づく各黒ダマ B Dとの面積をそれぞれ算出する。 Subsequently, in step SP5, the control unit 2 performs an area segmentation process on the white component pattern image data D12 and the black component pattern image data D13, so that a plurality of white dummy WDs (WDi Generate white lumps data D14 representing WDj and a plurality of black lumps BD (black lumps data D15 representing BD BDJ are generated. Here, the areas of the white lumps WD based on the white lumps data D 14 and the black lumps BD based on the black lumps data D 15 are calculated.
また芾 []御部 2は、 続くズテツプ S P 7において、 紋様パターン抽出処理の処理 内容を切り換える切換基準として予め設定された閾値に基づいて、 各白ダマ WD 及び各黒ダマ B Dそれぞれに対して、 第 1 (又は第 2 ) の処理形態における紋様 パターン抽出処理、 第 3の処理形態における紋様パターン抽出処理又は第 4の処 理形態における紋様パターン抽出処理のいずれかを順次施すようにして、 認証用 紋様パターンデータ D 1 6を生成する。  In step SP7, based on a threshold value set in advance as a switching criterion for switching the processing content of the pattern pattern extraction process, the [2] By sequentially performing one of the pattern pattern extraction processing in the first (or second) processing mode, the pattern pattern extraction processing in the third processing mode, and the pattern pattern extraction processing in the fourth processing mode, the authentication The pattern pattern data D 16 is generated.
実際上、 かかる閾値は、 第 1の閾値 (以下、 これを低度閾値と呼ぶ) と、 当該 第 1の閾値よりも大きい第 2の閾値 (以下、 これを中度閾値と呼ぶ) 'と、 当該第 2の閾値よりも大きい第 3の閾値 (以下、 これを高度閾値と呼ぶ) として設定さ れており、 制御部 2は、 処理対象のダマの面積が低度閾値未満及び低度閾値以上 中度閾値未満の第 1の範囲にある場合には、 第 3の処理形態における紋様パター ン抽出処理を施すようにして、 円情報値を紋様パターンとして表すデータを生成 する。  In practice, such thresholds include a first threshold (hereinafter, referred to as a low threshold), a second threshold (hereinafter, referred to as a medium threshold) larger than the first threshold, ' The third threshold larger than the second threshold (hereinafter, referred to as an altitude threshold) is set, and the control unit 2 determines that the area of the lumps to be processed is smaller than the lower threshold and equal to or larger than the lower threshold. If it is within the first range less than the medium threshold, the pattern pattern extraction processing in the third processing mode is performed to generate data representing the circle information value as a pattern pattern.
また制御部 2は、 処理対象のダマの面積が中度閾値以上高度閾値未満の第 2の 範囲にある場合には、 第 1又は第 2の処理形態のうち予め設定されたいずれか一 方の処理形態における紋様パターン抽出処理を施すようにして、 矩形情報値 (楕 円情報値) を紋様パターンとして表すデータを生成する一方、 当該処理対象のダ マの面積が高度閾値以上の第 3の範囲にある場合には、 第 4の処理形態における 紋様パターン抽出処理を施すようにして、 ベジエ曲線を生成するための制御点列 を紋様 、°ターンとして表すデータを生成する。 このようにして各白ダマ WD及び 各黒ダマ B Dの 1つ 1つについて生成されたこれらデータが認証用紋様パターン データ D 1 6として得られることになる。  Further, when the area of the lumps to be processed is in the second range that is equal to or more than the medium threshold value and less than the altitude threshold value, the control unit 2 selects one of the first or second processing modes. By performing pattern pattern extraction processing in the processing mode to generate data representing a rectangular information value (elliptical information value) as a pattern pattern, a third range in which the area of the target to be processed is equal to or greater than the altitude threshold value In this case, the pattern pattern extraction process in the fourth processing mode is performed to generate data representing a control point sequence for generating a Bezier curve as a pattern and a turn. The data generated for each of the white balls WD and the black balls BD in this manner is obtained as the authentication pattern data D 16.
この後、 制御部 2は、 次のステップ S P 8において、 認証用紋様パターンデー タ D 1 6に対して 2次元コード変換処理を施すようにして認証用紋様コードデー タ D 2を生成し、 続くステップ S P 9において、 プリンタ 5を制御してこの認証 用紋様コードデータ D 2に基づく認証用紋様コード B Cを印画紙に記憶させ、 ス テツプ S P 1に戻る。 Thereafter, in the next step SP 8, the control unit 2 generates authentication pattern code data D 2 by performing a two-dimensional code conversion process on the authentication pattern pattern data D 16, and then continues In step SP9, printer 5 is controlled to The authentication pattern code BC based on the pattern code data D2 is stored in the photographic paper, and the process returns to step SP1.
一方、 制御部 2は、 ステップ S P 1において、 操作部 (図示せず) から複製指 令を受けた場合、 続くステップ S P 1 0において、 スキャナ部 4を制御してコー ド付紋様画像データ D 3を取得した後、 次のステップ S P 1 1において、 当該コ 一ド付紋様画像データ D 3に対して、 オリジナル紋様画像データ D 1の場合と同 様の画像処理を施す。  On the other hand, when receiving a duplication command from an operation unit (not shown) in step SP1, the control unit 2 controls the scanner unit 4 in the following step SP10 to control the code-added pattern image data D3. Then, in the next step SP 11, the same image processing as that of the original pattern image data D 1 is performed on the code-added pattern image data D 3.
実際上、 制御部 2は、 コード付紋様画像データ D 3に対して、 上述のステップ S P 3からステップ S P 5までの低域周波数成分抽出処理、 画像分離処理及び領 域区割処理を順次施した後、 当該ステップ S P 6と同様に、 当該領域区割処理結 果として得られる白ダマデータ D 1 4及び黒ダマデータ D 1 5に基づく各白ダマ WD及び各黒ダマ B Dの面積を個々に算出する。 このとき制御部 2は、 当該ダマ の面積が第 1及ぴ第 2の範囲にある場合にのみ、 上述のステップ S P 7と同様に 、 予め設定された第 1又は第 2の処理形態における紋様パターン抽出処理を施す ようにして、 比較用紋様パターンデータ D 2 6を生成する。 このようにして、 第 1及び第 2の範囲にあったダマについて生成された比較用紋様パターンデータ D 2 6と、 第 3の範囲にあったダマについて生成された白ダマデータ D 1 4及び黒 ダマデータ D 1 5とが印画紙に記憶された認証用紋様コード B Cとの比較対象と して得られることになる。  In practice, the control unit 2 sequentially performs the low-frequency component extraction processing, the image separation processing, and the area division processing from step SP3 to step SP5 on the code-added pattern image data D3. Thereafter, similarly to the step SP6, the areas of the white lumps WD and the black lumps BD based on the white lumps data D14 and the black lumps data D15 obtained as a result of the area division processing are individually calculated. At this time, only when the area of the lumps is within the first and second ranges, the control unit 2 executes the pattern pattern in the preset first or second processing mode in the same manner as in step SP7 described above. By performing an extraction process, comparative pattern data D 26 is generated. Thus, the comparative pattern pattern data D 26 generated for the lumps in the first and second ranges, the white lumbar data D 14 and the black lumbar data generated for the lumps in the third range. D15 is obtained as a comparison object with the authentication pattern code BC stored on the photographic paper.
この後、 制御部 2は、 次のステップ S P 1 2において、 スキャナ部 4を制御し て、 印画紙に記憶させられた認証用紋様コード B Cに基づく認証用紋様コ一ドデ ータ D 2を取得し、 続くステップ S P 1 3において、 認証用紋様コードデータ D 2 と、 対応する白ダマデータ D 1 4、 黒ダマデータ D 1 5及び比較用紋様パター ンデータ D 2 6とを照合し、 続くステップ S P 1 4において、 当該照合結果に応 じてプリンタ .5を制御して印画紙の印画内容を複製させ、 ステップ S P 1に戻る このようにして制御部 2は、 上述の第 1〜第 4の処理形態を実行することがで きるようになされている。 この場合、 制御部 2は、 紋様のうち重要な特徴となる 大きいダマほど詳細な紋様パターンとして抽出するしているため、 当該紋様にお いて特に特徴的なダマを強調して抽出しつつ、 それ以外のダマについては抽出時 間を短縮することができる。 なお、 紋様のうち中程度のダマとして規定されるダ マを詳細な紋様パターンとして抽出しても良く、 この場合には紋様におけるダマ の特徴を平均的に抽出しつつ、 より抽出時間を短縮することができる。 Thereafter, in the next step SP12, the control section 2 controls the scanner section 4 to store the authentication pattern code data D2 based on the authentication pattern code BC stored on the photographic paper. In the following step SP 13, the authentication pattern code data D 2 is compared with the corresponding white dummy data D 14, black dummy data D 15 and comparative pattern pattern data D 26, and the following step SP 1 In step 4, the control unit 2 controls the printer .5 in accordance with the collation result to duplicate the print content of the photographic paper, and returns to step SP1.Thus, the control unit 2 executes the above-described first to fourth processing modes. Can be run It is made to be able to. In this case, since the control unit 2 extracts a large pattern which is an important feature of the pattern as a detailed pattern, the control unit 2 emphasizes and extracts a particularly characteristic pattern in the pattern while extracting it. Extraction time can be shortened for other lumps. In addition, a pattern defined as a medium pattern in the pattern may be extracted as a detailed pattern. In this case, the extraction time is further reduced while extracting the characteristics of the pattern in the pattern on average. be able to.
第 2の実施の形態による制御部の処理 Control unit processing according to the second embodiment
次に、 第 2の実施の形態による制御部 2の処理について説明する。  Next, processing of the control unit 2 according to the second embodiment will be described.
上述の第 1の実施の形態では、 紋様画像をダマとして細分化し、 当該ダマ個々 の特徴量を紋様パターンとして抽出していたのに対し、 この第 2の実施の形態で は、 紋様画像を細分化せずに、 当該紋様画像を全体的に捉えて紋様パターンを抽 出する点で相違する。  In the above-described first embodiment, the pattern image is subdivided as lumps, and the feature amount of each lumbar is extracted as a pattern. On the other hand, in the second embodiment, the pattern image is subdivided. The difference is that the pattern image is extracted as a whole by capturing the pattern image without conversion.
この第 2の実施の形態による制御部 2の処理内容を機能的に分類すると、 図 4 1に示すように、 紋様画像から低域周波数成分の紋様画像 (以下、 これを低域紋 様画像と呼ぶ) を抽出する低域周波数成分抽出部 4 1 1と、 当該低域紋様画像に 有する紋様パターンを抽出する紋様パターン抽出部 4 1 2と、 当該紋様パターン を 2次元バーコード変換する 2次元コード変換部 4 1 3と、 当該紋様パターンか ら低域紋様画像を再構成する画像再構成部 4 1 4と、 当該再構成された低域紋様 画像 (以下、 これを再構成低域紋様画像と呼ぶ) を用いてコード付印画紙 X P c (図 2 ( B ) ) の正当性を検証する照合部 4 1 5とに分けることができる。 この場合、 制御部 2は、 コード印画モード時には、 スキャナ部 4から与えられ るオリジナ /レ紋様画像データ D 1に対して低域周波数成分抽出部 4 1 1、 紋様パ ターン抽出部 4 1 2及ぴ 2次元コード変換部 4 1 3を順次介して各種処理を施し 、 この結果得られる紋様コードデータ D 2をプリンタ部 5に送出する。  Functionally classifying the processing content of the control unit 2 according to the second embodiment, as shown in FIG. 41, a pattern image of a low-frequency component (hereinafter, referred to as a low-frequency pattern image) is obtained from the pattern image. ), A low-frequency component extraction unit 411 for extracting the pattern, a pattern pattern extraction unit 412 for extracting the pattern in the low-frequency pattern image, and a two-dimensional code for converting the pattern into a two-dimensional barcode. A conversion section 4 13, an image reconstruction section 4 14 for reconstructing a low-frequency pattern image from the pattern pattern, and a reconstructed low-frequency pattern image (hereinafter referred to as a reconstructed low-frequency pattern image ) Can be divided into a collating unit 4 15 which verifies the validity of the coded paper XPc (FIG. 2 (B)). In this case, in the code printing mode, the control unit 2 applies the low-frequency component extraction unit 411, the pattern pattern extraction unit 4 1 2, and the low-frequency component extraction unit 411 to the original / regular pattern image data D 1 given from the scanner unit 4.各種 Various processes are sequentially performed via the two-dimensional code conversion unit 4 13, and the resulting pattern code data D 2 is sent to the printer unit 5.
また制御眘 [5 2は、 検証モード時には、 スキャナ部 4から与えられるコード付紋 様画像データ D 3に対する低域周波数成分抽出部 4 1 1での低域周波数成分抽出 処理結果と、 スキャナ部 4から与えられる紋様コードデータ D 2に対する画像再 構成部 4 1 4での画像再構成結果とに基づく照合処理を照合部 4 1 5において行 うようになされている。 Further, in the control mode [5 2], in the verification mode, the low-frequency component extraction processing result of the low-frequency component extraction section 4 11 for the code-added pattern image data D 3 given from the scanner section 4 and the scanner section 4 Image data for pattern code data D 2 given from A matching process based on the image reconstruction result in the configuration unit 414 is performed in the matching unit 415.
以下、 低域周波数成分抽出部 4 1 1による低域周波数成分抽出処理、 紋様バタ ーン抽出部 4 1 2による紋様パターン抽出処理、 2次元コ一ド変換部 4 1 3によ る 2次元コード変換処理、 画像再構成部 4 1 4による画像再構成処理及び照合部 4 1 5による照合処理を詳細に説明する。  Hereinafter, low-frequency component extraction processing by the low-frequency component extraction unit 4 11, pattern pattern extraction processing by the pattern pattern extraction unit 4 12, and two-dimensional code by the two-dimensional code conversion unit 4 13 The conversion process, the image reconstruction process by the image reconstruction unit 414, and the matching process by the matching unit 415 will be described in detail.
低域周波数成分抽出処理 Low frequency component extraction processing
この低域周波数成分抽出部 4 1 1は、 オリジナル印画紙 O P (図 2 (A) ) 又 はコード付印画紙 X P c (図 2 ( B ) ) の紋様画像から指定領域 A R (図 2 ) の 領域紋様画像 I M l (図 6 ( A) ) を取得し、 この領域紋様画像 I M lから、 上 述の低域周波数成分抽出部 1 1と同様にして低域成分紋様画像 I M 2 (図 6 ( B ) ) を抽出する。  The low-frequency component extraction unit 411 converts the specified area AR (Fig. 2) from the pattern image of the original photographic paper OP (Fig. 2 (A)) or the coded paper XPc (Fig. 2 (B)). The region pattern image IMl (Fig. 6 (A)) is acquired, and from this region pattern image IMl, the low-frequency component pattern image IM2 (Fig. B))) is extracted.
そして低域周波数成分抽出部 4 1 1は、 コード印画モードである場合にはこの とき生成した低域紋様画像データ D 4 1 1を紋様パターン抽出部 4 1 2に送出し 、 これに対して検証モードである.場合にはこのとき生成した低域紋様画像データ D 4 1 1を照、合部 4 1 5に送出する。  Then, in the code printing mode, the low-frequency component extraction unit 411 sends the low-frequency pattern image data D 4 11 generated at this time to the pattern pattern extraction unit 4 12 and verifies it. In this case, the low-frequency pattern image data D 4 11 generated at this time is illuminated and transmitted to the joining section 4 15.
このようにして低域周波数成分抽出部 4 1 1は、 低域成分紋様画像 I M 2を抽 出することにより、 例えばスキャナ部 4での固体撮像素子のノイズ等、 一般に画 像の高周波成分に含まれる各種ノイズ成分を除去することができるようになされ ている。  By extracting the low-frequency component pattern image IM2 in this manner, the low-frequency component extraction unit 411 generally includes the high-frequency components of the image, such as the noise of the solid-state image sensor in the scanner unit 4. Various noise components can be removed.
この結果、 低域周波数成分抽出部 4 1 1は、 各種ノイズ成分に起因する紋様パ ターン抽出き 15 4 1 2での紋様パターンの抽出精度の低下を回避させることができ るようになり、 ひいては照合部 4 1 5での照合処理結果における信頼性を向上さ せることができるようになされている。  As a result, the low-frequency component extraction section 4 11 1 can avoid a decrease in pattern pattern extraction accuracy due to the pattern pattern extraction 15 15 12 caused by various noise components. The reliability of the collation processing result in the collation unit 4 15 can be improved.
紋様パターン抽出処理 Pattern pattern extraction processing
この紋様/ ターン抽出部 4 1 2は、 例えば図 4 2に示すように、 低域成分紋様 画像 I M 2の輝度値で作られる曲面上において最低輝度値でなる画素 (以下、 こ れを極小点と呼ぶ) P S (P S i P S n) と、 当該曲面上において最高輝度値 でなる画素 (以下、 これを極大点と呼ぶ) P L (P Li P Ln) とを検出する と共に、 当該低域成分紋様画像 IM2における輝度値の平均 (以下、 これを輝度 平均と呼ぶ) を算出する。 For example, as shown in FIG. 42, the pattern / turn extraction unit 412 includes a pixel having the lowest luminance value on a curved surface formed by the luminance value of the low-frequency component pattern image IM2 (hereinafter, referred to as a pixel). This is referred to as a local minimum point) PS (PS i PS n) and a pixel having the highest luminance value on the surface (hereinafter referred to as a local maximum point) PL (P Li P Ln) are detected. The average of the luminance values in the low-frequency component pattern image IM2 (hereinafter referred to as the luminance average) is calculated.
この図 42からも明らかなように、 極小点 P S (図 42中の黒丸) は、 所定の 低輝度値以下でなる画素 (以下、 これを白画素と呼ぶ) のうち、 互いに隣接する 白画素の集合を単位とする領域の略中心に存在し、 また極大点 PL (図 42中の 黒三角) は、 所定の高輝度値以下でなる画素 (以下、 これを黒画素と呼ぶ) のう ち、 互いに隣接する黒画素の集合を単位とする領域の略中心に存在しており、 こ れら極小点 P S及び極大点 P Lが低域成分紋様画像 I M 2に有する紋様の特徴的 な点を表していることが分かる。  As is evident from FIG. 42, the minimum point PS (the black circle in FIG. 42) is a pixel having a predetermined low luminance value or less (hereinafter, referred to as a white pixel) among the white pixels adjacent to each other. The pixel is located at the approximate center of the region in units of a set, and the maximum point PL (black triangle in FIG. 42) is a pixel having a predetermined high luminance value or less (hereinafter, referred to as a black pixel). It is present at the approximate center of the area in units of a set of black pixels adjacent to each other, and these minimum points PS and maximum points PL represent the characteristic points of the pattern included in the low-frequency component pattern image IM2. I understand that there is.
従って、 これら極小点 P S及ぴ極大点 P Lの検出結果は、 領域紋様画像 I M 1 (図 6 (A) ) における紋様パターン (即ち、 領域紋様画像 I Mlに含まれてい る紋様の特徴パターン) を意味することとなる。  Therefore, the detection results of the minimum point PS and the maximum point PL are based on the pattern pattern in the area pattern image IM1 (FIG. 6A) (that is, the characteristic pattern of the pattern included in the area pattern image I Ml). Would mean.
実際上、 紋様パターン抽出部 4 1 2は、 例えば図 43に示すように、 低域周波 数成分抽出部 4 1 1から供給される低域紋様画像データ D 4 1 1に基づく低域成 分紋様画像 IM2の横方向を X軸、 縦方向を y軸、 輝度値を z軸としてそれぞれ 認識する。 なおこの図 43は、 低域成分紋様画像 I M 2の輝度値により形成され る空間状態を示したものであり、 図 4 3 (A) は正面の空間状態、 図 43 (B) は側面の空間状態、 図 43 (C) は斜面の空間状態をそれぞれ示している。  In practice, as shown in FIG. 43, for example, the pattern pattern extracting section 4 12 is a low-frequency component pattern based on the low-frequency pattern image data D 4 11 supplied from the low-frequency component extracting section 4 11. Recognize the horizontal direction of the image IM2 as the X axis, the vertical direction as the y axis, and the luminance value as the z axis. Fig. 43 shows the spatial state formed by the luminance values of the low-frequency component pattern image IM2. Fig. 43 (A) shows the spatial state of the front, and Fig. 43 (B) shows the spatial state of the side. State, Figure 43 (C) shows the spatial state of the slope.
そして紋様パターン抽出部 4 1 2は、 かかる認識結果に基づいて、 低域成分紋 様画像 I M 2における極小点 P S及び極大点 PLを検出すると共に輝度平均を算 出し、 これら極小点 P S及び極大点 P Lにおける位置、 輝度値と、 輝度平均とを データ (以下、 これを紋様パターンデータと呼ぶ) D 4 1 2として 2次元コード 変換部 4 1 3に送出するようになされている。  Then, based on the recognition result, the pattern pattern extracting unit 4 12 detects the minimum point PS and the maximum point PL in the low-frequency component pattern image IM2, calculates the average luminance, and calculates the minimum point PS and the maximum point. The position in the PL, the luminance value, and the luminance average are transmitted as data (hereinafter, referred to as pattern pattern data) D 4 12 to the two-dimensional code converter 4 13.
このようにして紋様パターン抽出部 4 1 2は、 簡易な計算により紋様の特徴を 紋様パターンとして抽出することができるようになされている。 ' なお、 1つの極小 ^; P S又は極大点 P Lにおける位置 (x p, y p (但し、 P = 1、 2、 ……、 n) ) 及び輝度値が取り得るデータ範囲として、 図 44に示す データ範囲を想 した場合、 当該 1つの極小点 P S又は極大点 P Lのデータサイ ズは、 実験結果より、 およそ 40 [b i t ] となった。 従って、 紋様パターン抽 出部 41 2は、 紋様の特徴を小データサイズでなる紋様パターンデータ D 4 1 2 として生成すること力 できるようになされている。 In this way, the pattern pattern extraction unit 4 12 can extract the feature of the pattern as a pattern by a simple calculation. ' Note that the position (x p , y p (where P = 1, 2, ..., n)) at one local minimum ^; PS or local maximum PL and the data range that the luminance value can take are shown in Fig. 44. When considering the range, the data size of the one minimum point PS or maximum point PL was approximately 40 [bit] from the experimental results. Therefore, the pattern pattern extraction unit 412 is capable of generating a pattern feature as pattern data D 4 12 having a small data size.
2次元コード変換処理 2D code conversion processing
2次元コード変換咅 4 1 3は、 紋様パターンを紋様コード B C (図 2 (A) ) としてオリジナル印画紙 OPに記憶させる。  The two-dimensional code conversion 咅 4 13 stores the pattern in the original photographic paper OP as a pattern code B C (FIG. 2A).
具体的に 2次元コード変換部 4 1 3は、 供給される紋様パターンデータ D 41 2の小数点以下を切り捨て、 当該切り捨てた紋様パタ一ンデータ D 41 2に対し て、 情報記憶メモリに予め記憶されたコード文字列情報に基づく 2次元バーコ一 ド変換処理を施すことにより紋様コードデータ D 2を生成し、 これを所定のタイ ミングでプリンタ部 5に送出する。  Specifically, the two-dimensional code conversion section 4 13 cuts off the decimal part of the supplied pattern pattern data D 41 2, and stores the cut-off pattern pattern data D 41 2 in the information storage memory in advance. The pattern code data D 2 is generated by performing a two-dimensional bar code conversion process based on the code character string information, and is transmitted to the printer unit 5 at a predetermined timing.
この結果、 この紋様コードデータ D 2は、 プリンタ部 5において、 印画紙台に セットされた印画紙 (オリジナル印画紙 O P) の所定位置に紋様コー KB C (図 As a result, the pattern code data D2 is stored in the printer unit 5 at a predetermined position on the photographic paper (original photographic paper OP) set on the photographic paper table.
2 (A) ) として印画され、 当該オリジナル印画紙〇P (図 2 (A) ) に認証用 パターンが記録されることとなる。 2 (A)), and the authentication pattern is recorded on the original photographic paper No. P (Fig. 2 (A)).
なお、 既存の 2次元バーコードは、 図 1 3からも明らかなように、 およそ 1〜 Note that the existing two-dimensional barcode has a size of about 1 to
3 [Kb y t e] の イナリデータを 2次元バーコード変換することができる。 従って、 2次元コード変換部 4 1 3は、 既存の 2次元コードを適用した場合であ つても、 図 44に示した実験結果からも明らかなように、 紋様パターンデータ D 4 1 2を適切に紋様コードデータ D 2として変換することができるようになされ ている。 3 [Kb y t e] Inary data can be converted to 2D barcode. Therefore, even when the existing two-dimensional code is applied, the two-dimensional code conversion unit 4 13 properly converts the pattern pattern data D 4 12 as is clear from the experimental results shown in FIG. It can be converted as pattern code data D2.
画像再構成処理 Image reconstruction processing
画像再構成部 414は、 図 4 5 (A) に示す指定領域 ARにおける極小点 P S (P S丄〜卩 S n) 及び極大点 P L (P Li P Ln) から、 図 4 5 (B) に示す 再構成低域紋様画像 R IMを生成する。 The image reconstructing unit 414 obtains the minimum point PS (PS 丄 to uru S n ) and the maximum point PL (P Li P Ln) in the designated area AR shown in FIG. A reconstructed low-frequency pattern image RIM is generated.
実際上、 画像再構成部 4 1 4は、 供給される紋様コードデータ D 2の極小点 P S (P S i P Sj 及ぴ極大点 P L (Ρ Ι^〜Ρ Ι^η) と、 情報記憶メモリに予 め記憶された領域位置情報に基づいて、 図 45 (A) に示したように、 指定領域 AR (図 2) 、 極小点 P S (P S 1〜P Sn) 及び極大点 P L (Ρ Ι^〜Ρ 1^η) それぞれの位置関係を認識する。 Actually, the image reconstructing unit 4 1 4 stores the minimum point PS (PS i P Sj and the maximum point PL (Ρ Ι ^ ~ Ρ Ι ^ η ) of the supplied pattern code data D 2 in the information storage memory. Based on the previously stored area position information, as shown in FIG. 45 (A), the designated area AR (FIG. 2), the minimum point PS (PS 1 to PS n ), and the maximum point PL (Ρ Ι ^ 〜 Ρ 1 ^ η ) Recognize each positional relationship.
この状態において画像再構成部 4 14は、 認識した極小点 P S及び極大点 P L を基準点としてボロノィ分割処理を実行する。 すなわち画像再構成部 4 14は、 図 46に示すように、 基準点 (図 45における黒丸及び黒三角) を除く指定領域 AR (図 2) の全ての画素を、 当該画素から最も近い距離に存在する基準点に属 するものとしてそれぞれ分割することにより複数の小領域を生成する。  In this state, the image reconstruction unit 414 executes the Voronoi division process using the recognized minimum point P S and maximum point P L as reference points. That is, as shown in FIG. 46, the image reconstructing unit 414 sets all pixels in the specified area AR (FIG. 2) except for the reference point (the black circle and the black triangle in FIG. 45) at the closest distance from the pixel. Then, a plurality of small areas are generated by dividing each of them as belonging to a reference point to be processed.
そして画像再構成部 4 1 4は、 紋様コードデータ D 2の輝度情報 (極小点 P S 及び極大点 P Lの輝度値と輝度平均) に基づいて、 ボロノィ分割処理により生成 した指定領域 A R (図 2) の各小領域における輝度状態をそれぞれ決定すること により再構成低域紋様画像 R IM (図 45 (B) ) を再構築した後、 この再構成 低域紋様画像 R IMをデータ (以下、 これを再構成低域紋様画像データと呼ぶ) D 414として照合部 4 1 5に送出するようになされている。  Then, the image reconstruction unit 4 14 generates the designated area AR (FIG. 2) generated by the Voronoi division process based on the luminance information (the luminance value and the luminance average of the minimum point PS and the maximum point PL) of the pattern code data D 2. After reconstructing the reconstructed low-frequency pattern image RIM (FIG. 45 (B)) by determining the luminance state in each of the small regions of FIG. It is sent as reconstructed low-frequency pattern image data) D 414 to the matching unit 415.
ここで、 これら小領域における輝度状態の決定手法について具体的に説明する が、 ここでは説明の便宜上、 ある 1つの小領域における輝度状態の決定手法につ いて図 47を用いて説明する。  Here, the method of determining the luminance state in these small areas will be specifically described. Here, for convenience of description, the method of determining the luminance state in a certain small area will be described with reference to FIG.
図 47 (A) において、 画像再構成部 4 14は、 処理対象の小領域 (以下、 こ れを対象小領域と呼ぶ) ARSのうち、 当該対象小領城 SARに隣接する小領域 (以下、 これを隣接小領域と呼ぶ) NARとの境界線 BDLと、 当該対象小領域 SAR内に有する基準点 (即ち、 極小点 P S i〜P S n及び極大点 P L i〜P Ln (図 42) のうちのいずれか 1つの点) Pとによって形成される三角形 (図 47 においてハッチングで示す) における輝度状態を、 当該境界線 BDL及び基準点 P双方の輝度値を用いて順次決定する。 実際上、 画像再構成部 41 4は、 図 47 (B) 及び (C) にも示すように、 境 界線 B D Lを構成している対象小領域 S A R内の基準点 P及ぴ隣接小領域 N A R 内の基準点 P一双方がともに極小点 P S又は極大点 P Lである場合には、 当該基 準点 P、 P 'の輝度値と、 紋様コードデータ D 2の輝度平均との平均を境界線 B DL 1の輝度値 mとして算出する。 In FIG. 47 (A), the image reconstruction unit 414 includes a small area (hereinafter, referred to as a target small area) adjacent to the target territory castle SAR in a small area to be processed (hereinafter, referred to as a target small area). This is called an adjacent small region) and border BDL with NAR, a reference point having the the target small area SAR (i.e., minimum point PS i~PS n and maximum point PL i~PL n (FIG. 42) of The luminance state of a triangle (indicated by hatching in FIG. 47) formed by P and P is sequentially determined using the luminance values of both the boundary line BDL and the reference point P. In practice, as shown in FIGS. 47 (B) and (C), the image reconstruction unit 414 forms the reference point P and the adjacent small area NAR in the target small area SAR constituting the boundary line BDL. If both of the reference points P are the minimum point PS or the maximum point PL, the average of the luminance values of the reference points P and P ′ and the average luminance of the pattern code data D 2 is defined as the boundary line B DL Calculated as 1 luminance value m.
これに対して画像再構成部 4 14は、 対象小領域 SAR内の基準点 P及び隣接 小領域 NAR内の基準点 P "が互いに異なる場合には、 当該基準点 P、 P 'の輝 度値の平均を境界線 BDL 1の輝度値 mとして算出する。  On the other hand, when the reference point P in the target small area SAR and the reference point P "in the adjacent small area NAR are different from each other, the image reconstruction unit 414 determines the brightness values of the reference points P and P ′. Is calculated as the luminance value m of the boundary line BDL1.
そして画像再構成部 414は、 算出した境界線 BDL 1の輝度値 mを用いて、 決定対象の画素 (以下、 これを対象画素と呼ぶ) を Xとし、 当該対象画素 Xと基 準点 Pとの距離を d 5とし、 当該基準点 Pの輝度値を Vp e e kとすると、 次式 ( 1 7) Then, the image reconstructing unit 414 uses the calculated luminance value m of the boundary line BDL 1 to designate a pixel to be determined (hereinafter, referred to as a target pixel) as X, the target pixel X and the reference point P Let d5 be the distance of the reference point and Vpeek be the luminance value of the reference point P, and the following equation (17)
V (X) = Npeak 一 Vpeak ~ ΤΠ ) ' d 2 (17) の指数関数により、 基準点 P及び線分 P Xの延長線と境界線 B D L 1との交点 Q 間における距離 PQを 「1」 として正規化するようにして、 対象画素 Xの輝度値 V (x)を決定する。 The exponential function V (X) = Npeak one Vpeak ~ ΤΠ) 'd 2 ( 17), the distance PQ between an intersection Q between the extended line and the boundary line BDL 1 reference point P and the line segment PX as "1" The luminance value V (x) of the target pixel X is determined by normalization.
このようにして画像再構成部 4 14は、 ハッチングで示す三角形内における各 画素それぞれを (1 7) 式の指数関数に従って決定するようになされている。 これにより画像再構成部 4 14は、 図 4 7 (B) 及び (C) からも明らかなよ うに、 基準点 Pから境界線 B D L 1までの各画素の輝度値がなだらかとなるよう に当該輝度値を決定することができ、 ひいては紋様画像を精度よく再現すること ができることになる。  In this way, the image reconstruction unit 414 determines each pixel in the triangle indicated by hatching in accordance with the exponential function of Expression (17). As a result, as is clear from FIGS. 47 (B) and (C), the image reconstructing unit 414 sets the luminance so that the luminance value of each pixel from the reference point P to the boundary line BDL 1 becomes gentle. The value can be determined, and the pattern image can be accurately reproduced.
なお、 図 47 (B) 及ぴ (C) は、 境界線 BD L 1の輝度値 mが 「1 1 0」 で あると共に、 基準点 Pが極/ J、点 P Sい P S 2、 ……、 又は P Snであり、 かつ隣 接小領域 NAR内の基準点 P が極大点 P L,、 P L2、 ……、 又は P Lnである 場合を示しており、 このとき (1) 式に基づく基準点 P、 間の輝度状態を平 面的に示したものが図 4 7 (B) で、 立体的に示したものが図 47 (C) である 一方、 画像再構成部 4 14は、 境界線 B D L 2〜 4と基準点 Pとによつて形成 される三角形における輝度状態についても、 境界線 BD L 1と基準点 Pとによつ て形成される三角形と同様にしてそれぞれ決定するようになされている。 47 (B) and 47 (C) show that the luminance value m of the boundary line BD L1 is “1 110”, the reference point P is pole / J, the point PS is PS 2 ,. Or PS n , and the reference point P in the adjacent small area NAR is the maximum point PL, PL 2 ,…, or PL n In this case, Fig. 47 (B) shows the luminance state between the reference point P based on Eq. (1) in a plan view, and Fig. 47 (C) shows the luminance state in a three-dimensional manner. On the other hand, the image reconstruction unit 414 also calculates the brightness state of the triangle formed by the boundary lines BDL2 to BDL4 and the reference point P by using the boundary line BDL1 and the reference point P. Each of them is determined in the same manner as the triangle formed.
ここで、 かかる画像再構成処理は、 図 4 8に示す画像処理手順 RTに従って行 われる。  Here, such image reconstruction processing is performed according to the image processing procedure RT shown in FIG.
すなわち画像再構成き 4 14は、 スキャナ部 4 (図 4) から紋様コードデータ D 2が供給されると、 この画像処理手順 RTをステップ S P 20において開始し 、 ステップ S P '2 1に進んで、 当該紋様コードデータ D 2の極小点 P S (P S! 〜P S N) 、 極大点 P L (P L P LJ 及び指定領域 A R (図 2) それぞれの 位置関係を認識し、 続くステップ S P 22に進んで、 ボロノィ分割処理を実行し て指定領域 AR内を分割することにより複数の小領域を生成する。 That is, when the pattern code data D 2 is supplied from the scanner unit 4 (FIG. 4), the image reconstruction unit 414 starts this image processing procedure RT in step SP 20, and proceeds to step SP ′ 21, Recognize the positional relationship between the minimum point PS (PS! To PS N ) and the maximum point PL (PLP LJ and the designated area AR (FIG. 2) of the pattern code data D 2, proceed to the next step SP 22, and perform Voronoi division Executes the process and divides the specified area AR to generate multiple small areas.
そして画像再構成部 4 1 4は、 続くステップ S P 23に進んで、 生成した各小 領域の境界線 BDL (図 47) の輝度値 mを全て算出した後、 ステップ S P 24 に進んで、 対象小領域 SAR内の輝度状態 (各画素の輝度値) を (1 7) 式の指 数関数に従って順次決定し、 続くステップ S P 2 5に進んで、 指定領域 AR内に おける全ての小領域について輝度状態を決定したか否かを判定する。  Then, the image reconstruction unit 4 14 proceeds to the subsequent step SP 23, calculates all the luminance values m of the generated boundary line BDL (FIG. 47) of each small area, and then proceeds to step SP 24 to The luminance state (luminance value of each pixel) in the area SAR is sequentially determined according to the exponential function of Equation (17), and the process proceeds to step SP25, where the luminance state of all the small areas in the specified area AR is determined. Is determined.
ここで画像再構成部 4 14は、 否定結果が得られた場合には、 ステップ S P 2 4に戻つて残りの一の小領域を対象小領域 S A Rとして上述の処理を繰り返す。 これに対して画像再構成部 4 14は、 肯定結果が得られた場合には、 このとき得 られた再構成低域紋様画像 R IMを次の処理対象として認識し、 当該再構成低域 紋様画像 R I Mを再構成低域紋様画像データ D 4 14として照合部 4 1 5に送出 した後、 ステップ S P 2 6に移ってこの画像処理手順 RTを終了する。  Here, if a negative result is obtained, the image reconstructing unit 414 returns to step SP24 and repeats the above processing with the remaining one small area as the target small area SAR. On the other hand, if a positive result is obtained, the image reconstruction unit 414 recognizes the reconstructed low-frequency pattern image RIM obtained at this time as the next processing target, and After transmitting the image RIM as the reconstructed low-frequency pattern image data D 414 to the matching unit 4 15, the process proceeds to step SP 26 to end the image processing procedure RT.
このようにして画像再構成部 4 14は、 画像再構成処理を実行することにより 、 低域成分紋様画像 I M 2 (図 42 ) と、 当該低域成分紋様画像 I M 2に相当す る再構成低域紋様画像 R I M (図 4 5 ( B ) ) とを視覚的に比較する図 4 9から も明らかなように、 当該低域成分紋様画像 I M 2から抽出された紋様パターン ( 極小点 P S及び極大点 P L ) から再構成低域紋様画像 R I Mを精度よく再現する ことができるようになされている。 ' The image reconstructing unit 414 executes the image reconstructing process in this manner, and corresponds to the low-frequency component pattern image IM2 (FIG. 42) and the low-frequency component pattern image IM2. As can be seen from FIG. 49 comparing the reconstructed low-pass pattern image RIM (FIG. 45 (B)) with the reconstructed low-pass pattern image RIM (see FIG. Reconstructed low-frequency pattern image RIM can be accurately reproduced from PS and local maximum point PL). '
照合処理 Matching process
照合部 4 1 5は、 図 4 9に示したように、 再構成低域紋様画像 R I Mと、 この ときコード付印画紙 X P c (図 2 ( B ) ) から抽出された低域成分紋様画像 I M 2とを照合する。  As shown in FIG. 49, the matching unit 4 15 generates the reconstructed low-frequency pattern image RIM and the low-frequency component pattern image IM extracted from the coded paper XPc (FIG. 2 (B)) at this time. Compare with 2.
実際上、 照合部 4 1 5は、 画像再構成部 4 1 4から供給される再構成低域紋様 画像データ D 4 1 4と、 このときスキャナ部 4から低域周波数成分抽出部 4 1 1 を介して供給される低域成分紋様画像データ D 4 1 1とに対して所定の相互相関 処理を施し、 当該再構成低域紋様画像 R I M及ぴ低域成分紋様画像 I M 2 (図 4 9 ) の合致率を算出する。  In practice, the matching unit 4 15 includes the reconstructed low-frequency pattern image data D 4 14 supplied from the image reconstruction unit 4 14 and the low-frequency component extraction unit 4 11 1 from the scanner unit 4 at this time. A predetermined cross-correlation process is applied to the low-frequency component pattern image data D 411 supplied via the Calculate the match rate.
そして照合部 4 1 5は、 所定の閾値以下の合致率が得られた場合には、 このと きスキャナ部 4の載置台に載置されたコード付印画紙 X P c (図 2 ) が複製され たものであると判断し、 このとき複製を禁止する旨をスキャナ部 4の表示部 (図 示せず) を介して通知する。  When a matching rate equal to or less than the predetermined threshold value is obtained, the collating unit 415 copies the coded paper XPc (FIG. 2) placed on the mounting table of the scanner unit 4 at this time. It is determined that the copying is prohibited, and at this time, the fact that copying is prohibited is notified via the display unit (not shown) of the scanner unit 4.
これに対して照合部 4 1 5は、 所定の閾値よりも高い合致率が得られた場合に は、 このときスキャナ部 4の載置台に載置されたコード付印画紙 X P c (図 2 ) が正当なオリジナル印画紙 O Pであると判断し、 こめとき複製許可コマンド C〇 M (図 5 ) を生成してスキャナ部 4 (図 4 ) に送出する。  On the other hand, if a matching rate higher than a predetermined threshold is obtained, the collating unit 4 15 sets the code-added photographic paper XPc placed on the mounting table of the scanner unit 4 at this time (FIG. 2). Is a valid original photographic paper OP, and generates a copy permission command C〇 M (FIG. 5) and sends it to the scanner unit 4 (FIG. 4).
この場合、 スキャナ部 4では反射モードが実行され、 このとき原稿台に載置さ れたコ一ド付印画紙 X P c (オリジナル印画紙 O P ) の印画内容が印画内容画像 データ D 4としてプリンタ部 5に送出され、 この結果、 プリンタ部 5においてォ リジナル印画紙〇P (図 2 (A) ) の印画内容が用紙に複製されることとなる。 このようにして照合部 4 1 5は照合処理を実行し、 当該照合結果として所定の 閾値よりも高い合致率が得られた場合にのみオリジナル印画紙 O P (図 2 (A) ) に印画された印画内容の複製を許可することができるようになされている。 このようにこの第 2の実施の形態による制御部 2は、 紋様画像を細分化せずに 、 当該紋様画像を全体的に捉えて紋様パターンを抽出することにより、 第 1の実 施の形態の場合に比して、 格段に処理負荷を低減することができる。 In this case, the scanner unit 4 executes the reflection mode, and the printing content of the photographic paper XPc (original photographic paper OP) placed on the platen at this time is set as the printing content image data D4 in the printer unit. The print content of the original photographic paper #P (FIG. 2A) is copied onto the paper in the printer unit 5 as a result. In this way, the matching unit 4 15 executes the matching process, and only when the matching result is higher than a predetermined threshold as the matching result, the original photographic paper OP (FIG. 2 (A) ) Can be permitted to be reproduced. As described above, the control unit 2 according to the second embodiment captures the entire pattern image and extracts the pattern pattern without subdividing the pattern image, thereby obtaining the pattern of the first embodiment. The processing load can be remarkably reduced as compared with the case.
本実施の形態による動作及び効果 Operation and effect according to the present embodiment
以上の構成において、 この不正複製装置 1は、 オリジナル印画紙〇P (図 2 ( A) ) に有する紋様画像から紋様パターン (紋様特徴量) を抽出し、 この紋様パ ターンを認証対象の情報として当該オリジナル印画紙 O Pに記憶しておく。  In the above configuration, the unauthorized duplication apparatus 1 extracts a pattern (pattern feature) from the pattern image included in the original photographic paper 〇P (FIG. 2 (A)), and uses this pattern as authentication target information. It is stored in the original photographic paper OP.
そして不正複製装置 1は、 コード付印画紙 X P cに印画された印画内容を複製 する場合には、 当該コード付印画紙 X P cに記憶された紋様パターンに基づいて 、 オリジナル印画紙 O Pであるか否かの正当性を検証する。  Then, when the improper copying apparatus 1 duplicates the print content printed on the coded paper XPc, the unauthorized copying apparatus 1 determines whether the original photographic paper OP is based on the pattern stored in the coded paper XPc. Verify the validity of no.
従って、 この不正複製装置 1では、 印画紙自体に有している紋様パターンによ りオリジナルの有無を識別することができるため、 特殊紙等を用いることなく簡 易に不正複製を防止することができる。  Therefore, in the unauthorized duplication device 1, since the presence or absence of the original can be identified by the pattern pattern of the photographic paper itself, the unauthorized duplication can be easily prevented without using special paper or the like. it can.
このため、 オリジナル印画紙 O Pの所有者は、 複製印画紙に対する不正複製を 配慮することなくオリジナノレ印画紙 O Pを複製することができる。  For this reason, the owner of the original photographic paper OP can copy the original photographic paper OP without considering illegal duplication of the duplicate photographic paper.
以上の構成によれば、 オリジナル印画紙に有する紋様画像から抽出した紋様パ ターン (紋様特徴量) を当該オリジナル印画紙に記憶しておき、 コード付印画紙 X P cの印画内容の複製時に当該印画紙 X P cに記憶された紋様パターンに基づ いて、 オリジナル印画紙 O Pであるか否かの正当性を検 SEするようにしたことに より、 印画紙自体に有して Vヽる紋様パターンによりオリジナルの有無を識別する ことができるため、 特殊紙等を用いることなく簡易に不正複製を防止することが でき、 かくして、 簡易に印面内容を保護することができる。  According to the above configuration, a pattern pattern (pattern feature amount) extracted from a pattern image included in the original photographic paper is stored in the original photographic paper, and the photographic print is copied when the print content of the coded paper XPc is copied. By checking the validity of the original photographic paper OP based on the pattern pattern stored in the paper XP c, the photographic paper itself has a V pattern Since the presence or absence of the original can be identified, unauthorized duplication can be easily prevented without using special paper or the like, and thus the contents of the stamp surface can be easily protected.
他の実施の形態 Other embodiments
上述の実施の形態においては、 印画紙に有する紋様に基づレ、て紋様情報を取得 する取得手段として、 撮像手段 (スキャナ部 4 ) により紋様を撮像し、 当該撮像 された紋様画像から紋様パターンを抽出するようにした場合について述べたが、 本発明はこれに限らず、 例えば紋様を薬品により顕在化した後に電気泳動により 紋様に関する情報を取得するようにしても良い。 In the above-described embodiment, a pattern is imaged by an imaging unit (scanner unit 4) as an acquiring unit for acquiring edge pattern information based on the pattern of the photographic paper, and the pattern pattern is obtained from the imaged pattern image. Has been described, but The present invention is not limited to this. For example, information about the pattern may be obtained by electrophoresis after the pattern is made visible by a chemical.
また上述の実施の形態においては、 印画紙に有する紋様を撮像する撮像手段と して、 透過モード、 反射モード及びコード読取モードを実行するスキャナ部 4を 適用するようにした場合について述べたが、 本発明はこれに限らず、 要は、 印画 紙に光を照射してその投影光を固体撮像素子を介して紋様画像の信号を生成する この他種々の撮像手段を適用することができる。  Further, in the above-described embodiment, a case has been described in which the scanner unit 4 that executes the transmission mode, the reflection mode, and the code reading mode is applied as an imaging unit that captures an image of a pattern included in photographic paper. The present invention is not limited to this. In other words, the present invention can be applied to various other imaging units that irradiate light on photographic paper and generate a pattern image signal from the projection light via a solid-state imaging device.
さらに上述の実施の形態においては、 紋様画像の特徴を抽出する抽出手段とし て、 低域周波数成分処理、 画像分離処理、 領域区割処理及び紋様パターン抽出処 理を適宜施すか (第 1の実施の形態) 、 あるいは低域周波数成分処理及び紋様パ ターン抽出処理を順次施す (第 2の実施の形態) ようにして様パターンを抽出す るようにした場合について述べたが、 本発明はこれに限らず、 これら処理全てを 施す必要もなく、 これら処理以外の処理を加えるあるいは変更するようにしても 良い。  Further, in the above-described embodiment, whether the low-frequency component processing, the image separation processing, the area segmentation processing, and the pattern pattern extraction processing are appropriately performed as extraction means for extracting the features of the pattern image (first embodiment) Embodiment 2) Alternatively, the case where a pattern is extracted by sequentially performing low-frequency component processing and pattern pattern extraction processing (second embodiment) has been described. It is not necessary to perform all of these processes, and processes other than these processes may be added or changed.
例えば、 第 1の実施の形態にあっては、 低域周波数成分処理又は画像分離処理 を実行せずに領域区割処理及ぴ紋様パターン抽出処理を実行するようにしたり、 これとは逆に、 低域周波数成分処理及ぴ画像分離処理のみを実行し、 この結果得 られた白成分紋様画像 W I M (図 7 ( B ) ) 及び黒成分紋様画像 B I M (図 7 ( C ) ) を紋様情報と して抽出するようにしたり、 あるいは、 低域周波数成分処理 のみを実行し、 この結果得られた低域成分紋様画像 I M 2 (図 7 (A) ) を紋様 情報として抽出することができる。 また例えば、 撮像手段 (スキャナ部 4 ) によ り撮像された紋様画像を例えば縦横 5 X 5の画像領域に区割りし、 当該抽出した 各領域のうちの 1つの領域を紋様情報として抽出するようにしたり、 あるいは当 該抽出した各領域のうちの 1つの領域に有する紋様を領域区割部 1 3での領域区 割処理と同様にして区割りした後に特徴量を抽出するようにしても良い。  For example, in the first embodiment, the region division processing and the pattern pattern extraction processing are executed without executing the low frequency component processing or the image separation processing, and conversely, Only low-frequency component processing and image separation processing are performed, and the resulting white component pattern image WIM (Fig. 7 (B)) and black component pattern image BIM (Fig. 7 (C)) are used as pattern information. The low-frequency component pattern image IM2 (FIG. 7 (A)) obtained as a result can be extracted as pattern information. Further, for example, the pattern image picked up by the image pickup means (scanner section 4) is divided into, for example, a 5 × 5 image area, and one of the extracted areas is extracted as pattern information. Alternatively, the feature amount may be extracted after the pattern included in one of the extracted regions is divided in the same manner as the region dividing process in the region dividing unit 13.
また第 1の実施の形態にあっては、 ダマの面積に応じて、 当該ダマに対する紋 様パターンの抽出処理内容を切り換えるようにしたが、 例えば紋様画像の複雑度 に応じて切り換えるようにしても良い。 なお、 複雑度は、 例えばエッジの画素量 等、 様々な対象を採用することができる。 一方、 第 2の実施の形態あっては、 例 えば低域周波数成分処理を省略することができる。 Further, in the first embodiment, the content of the pattern pattern extraction processing for the lumps is switched according to the area of the lumps. May be switched in accordance with. As the complexity, various targets such as the pixel amount of the edge can be adopted. On the other hand, in the second embodiment, for example, the low frequency component processing can be omitted.
また紋様画像の特徴として、 第 1の実施の形態では、 ダマの形状を矩形、 楕円 、 円の形状に近似させた値 (矩形'隋報値、 楕円情報値、 円情報値 (特徴童) ) を 抽出するようにしたが、 これら以外の形状に近似させた値を抽出するようにして も良い。 さらに紋様画像の特徴を抽出する場所として、 指定領域 A R (図 2 ) か ら抽出するようにしたが、 複数の指定領域から抽出するようにしても良く、 又は 紋様画像全体から抽出するようにしても良い。  Also, as a feature of the pattern image, in the first embodiment, a value obtained by approximating the shape of the lumps to the shape of a rectangle, an ellipse, or a circle (rectangle value, ellipse information value, circle information value (characteristic child)) Is extracted, but a value approximated to a shape other than these may be extracted. In addition, the feature of the pattern image is extracted from the specified area AR (Fig. 2), but it may be extracted from multiple specified areas, or it may be extracted from the entire pattern image. Is also good.
一方、 第 2の実施の形態では、 極小点 P S (図 4 2·) 、 極大点 P L (図 4 2 ) 及び輝度平均を抽出するようにしたが、 当該極小点 P Sのみを抽出する、 若しく は極大点 P Lのみを抽出するある 、は極小点 P S及び極大点 P Lのみを抽出する ようにしても良く、 あるいはこの他種々の輝度値でなる所定の画素を極小点 P S 、 極大点 P Lとして抽出するようにしても良い。 さらに紋様画像の特徴を抽出す る場所として、 指定領域 A R (図 2 ) から抽出するようにしたが、 複数の指定領 域から抽出するようにしても良く、 又は紋様画像全体から抽出するようにしても 良い。  On the other hand, in the second embodiment, the minimum point PS (FIG. 42), the maximum point PL (FIG. 42) and the luminance average are extracted, but only the minimum point PS is extracted. May extract only the maximum point PL, or may extract only the minimum point PS and the maximum point PL, or may extract predetermined pixels having various luminance values as the minimum point PS and the maximum point PL. You may do it. In addition, the feature of the pattern image is extracted from the designated area AR (Fig. 2), but may be extracted from a plurality of designated areas, or may be extracted from the entire pattern image. You may.
また第 1の実施の形態における画像分離処理として、 白画素及び黒画素の画素 数が低域成分紋様画像 I M 2 (図 7 (A) ) における全画素の 2 0 [%] となる ように白成分紋様画像 W I M (黒成分紋様画像 B I M) を分離するようにしたが 、 これに代えて、 例えば図 5 0 (A) に示すように、 輝度ヒストグラムにおける 輝度範囲の中心の輝度値を決定し、 当該決定した輝度値から一定の輝度値以下 ( 以上) の画素を白成分紋様画像 W I M (黒成分紋様画像 B I M) として分離する ようにしても良い。 この場合、 中 、の輝度値は、 例えば最も画素の多い輝度値と したり、 図 5 0 ( B ) に示すように、 輝度ヒストグラムを任意の度数 (画素数) 上におけるヒストグラム曲線との 2点間における中心の輝度値としたりすること ができる。 またこの画像分離処理として図 50 (C) に示すように、 低域成分紋様画像 I M2 (図 7 (A) ) における全画素の輝度値の平均輝度値を求め、 当該求めた平 均輝度値から一定の輝度値以下 (以上) の画素を白成分紋様画像 WI M (黒成分 紋様画像 B IM) として分離するようにしても良い。 In the image separation processing according to the first embodiment, white pixels and black pixels are set so that the number of white pixels and black pixels is 20% of all pixels in the low-frequency component pattern image IM2 (FIG. 7A). The component pattern image WIM (black component pattern image BIM) is separated. Alternatively, for example, as shown in FIG. 50 (A), the luminance value at the center of the luminance range in the luminance histogram is determined. Pixels having a brightness value equal to or less than a certain brightness value (or more) from the determined brightness value may be separated as a white component pattern image WIM (black component pattern image BIM). In this case, the middle and middle brightness values are, for example, the brightness value with the largest number of pixels, and the brightness histogram is represented by a histogram curve at an arbitrary frequency (number of pixels) as shown in FIG. 50 (B). Or the luminance value at the center between the two. As shown in FIG. 50 (C), the average luminance value of the luminance values of all the pixels in the low-frequency component pattern image I M2 (FIG. 7 (A)) is calculated as this image separation processing, and the calculated average luminance value is calculated. , Pixels having a luminance value equal to or less than a certain luminance value (or more) may be separated as a white component pattern image WIM (black component pattern image BIM).
このように要は、 分離前の紋様画像 (低域成分紋様画像 I M 2 ) に対して相対 的な面積比となるように低輝度成分及び高輝度成分の画像 (白成分紋様画像 WI M及び黒成分紋様画像 B IM) に分離すれば、 上述の実施の形態と同様の効果を 得ることができる。  In this way, the point is that the images of the low luminance component and the high luminance component (white component pattern image WIM and black component image) have a relative area ratio to the pattern image before separation (low-frequency component pattern image IM2). If the image is separated into the component pattern images BIM), the same effect as in the above-described embodiment can be obtained.
また第 2の実施の形態における再構成処理として、 紋様パターンの極小点 P S (図 42) 及び極大点 P L (図 42) を基準点としてボロノィ分割により指定領 域 ARを分割することにより複数の小領域を生成し (図 46) 、 当該基準点の輝 度値を用いて、 互いに隣接する領域内の基準点 P、 P ' (図 47 (C) ) 間にお ける輝度状態がなだらかとなるように各小領域の輝度状態をそれぞれ決定するこ とにより再構築するようにした場合について述べたが、 本発明はこれに限らず、 この他種々の分割手法により複数の小領域を生成するようにしても良く、 当該小 領域の輝度状態を種々の手法により決定するようにしても良い。  In addition, as reconstruction processing in the second embodiment, a plurality of small areas are divided by dividing the designated area AR by Voronoi division using the minimum point PS (FIG. 42) and the maximum point PL (FIG. 42) of the pattern as reference points. An area is generated (Fig. 46), and the brightness state between the reference points P and P '(Fig. 47 (C)) in adjacent areas is smoothed using the brightness value of the reference point. In the above, the case where reconstruction is performed by determining the brightness state of each small area has been described. However, the present invention is not limited to this, and a plurality of small areas may be generated by other various division methods. Alternatively, the luminance state of the small area may be determined by various methods.
例えば、 ボロノィ分割に代えて、 極小点 P S (図 42) 及び極大点 P L (図 4 2) の位置状態と、 分割結果とを対応付けたテーブルにより指定領域 ARを分割 することができる。  For example, instead of Voronoi division, the designated area AR can be divided by a table in which the position states of the minimum point P S (FIG. 42) and the maximum point P L (FIG. 42) are associated with the division results.
また互いに隣接する領域内の基準点 P、 P ' (図 4 7 (C) ) 間における輝度 状態がなだらかとなるように各小領域の輝度状態を、 (1) 式の指数関数に従つ て決定するようにしたが、 これに代えて、 線形関数に従って決定したり、 あるい は基準点 P、 P '間の距離とその間の輝度状態を対応付けたテーブルに従って決 定することができる。  In addition, the brightness state of each small area is changed according to the exponential function of equation (1) so that the brightness state between reference points P and P '(Fig. 47 (C)) in the areas adjacent to each other becomes gentle. Instead of this, it can be determined according to a linear function, or can be determined according to a table in which the distance between the reference points P and P ′ and the luminance state therebetween are associated.
またこの場合、 かかる各小镇域の輝度状態を (1 7) 式の指数関数に従って決 定する前に、 低域周波数成分画像 I M2の輝度平均を必要に応じて用いて互いに 隣接する小領域の境界線 BD (図 4 7) の輝度値を算出するようにしたが、 当該 輝度平均を用いなくとも上述の実施の形態とほぼ同様の効果を得ることができる さらに上述の実施の形態においては、 紋様情報を印画紙に記憶する記憶手段と して、 紋様パターン (紋様特徴量) を認証用コード (2次元バーコード) B C ( 図 2 (A) ) として印画紙 (オリジナル印画紙〇P ) に印画するようにした場合 について述べたが、 本発明はこれに限らず、 例えば紋様パターンに応じた穴や点 字を印画紙に設けるようにしても良く、 又は紋様パターン (紋様特徴量) を直接 印画紙に記述するようにしても良く、 要は、 上述の取得手段により取得されたこ の他種々の紋様情報を記憶することができる。 Also, in this case, before determining the luminance state of each of the small regions according to the exponential function of the expression (17), the luminance average of the low-frequency component image I M2 is used as necessary, and the small regions adjacent to each other are used. The brightness value of the boundary line BD (Fig. 47) was calculated. Almost the same effects as in the above embodiment can be obtained without using the luminance average. Further, in the above embodiment, as the storage means for storing the pattern information on the photographic paper, a pattern pattern (a pattern feature amount) is used. ) Is printed on photographic paper (original photographic paper 〇P) as an authentication code (two-dimensional barcode) BC (Fig. 2 (A)). However, the present invention is not limited to this. Holes and Braille corresponding to the pattern may be provided on the photographic paper, or the pattern (pattern feature) may be directly described on the photographic paper. Various other pattern information can be stored.
さらに上述の実施の形態においては、 記憶手段により記憶された紋様情報に基 づいて、 印画紙の正当性を検証する検証手段として、 紋様パターンを図 1 4〜図 1 8、 又は図 2 2〜図 2 6、 図 3 0〜図 3 2について上述した手法により照合す るようにして検証した場合について述べたが、 本発明はこれに限らず、 要は、 上 述の取得手段により取得する紋様情報に応じた照合手法を採用することができる  Furthermore, in the above-described embodiment, a pattern pattern is used as a verification means for verifying the validity of a photographic paper based on the pattern information stored by the storage means, as shown in FIG. 14 to FIG. 18 or FIG. Although the case where the verification is performed by using the method described above with reference to FIGS. 26 and 30 to FIG. 32 has been described, the present invention is not limited to this. In short, the pattern obtained by the above-described obtaining means is used. A collation method according to the information can be adopted
さらに上述の実施の形態においては、 不正複製防止装置として図 4に示した構 成を適用するようにした場合について述べたが、 本発明はこれに限らず、 この他 種々の構成を適用することができる。 Furthermore, in the above-described embodiment, a case has been described where the configuration shown in FIG. 4 is applied as an unauthorized duplication prevention device. However, the present invention is not limited to this, and various other configurations may be applied. Can be.
この場合、 図 5で示した各種処理又はその一部の処理を制御部に対して実行さ せるプログラムを、 例えばコピー機等の紙を取り扱う既存の装置あるいは新規に 製造された装置にィンストールするようにしても良い。 産業上の利用可能性  In this case, a program that causes the control unit to execute the various processes shown in FIG. 5 or a part of the processes may be installed in an existing apparatus that handles paper such as a copy machine or a newly manufactured apparatus. You may do it. Industrial applicability
本発明は、 紙を例えば貨幣等の商品交換媒体、 証明書等の内容証明媒体又は個 人の著作物等.の情報記憶媒体などの各種媒体として使用する場合に利用可能であ る。  INDUSTRIAL APPLICABILITY The present invention can be used when paper is used as various media such as a commodity exchange medium such as money, a content proof medium such as a certificate, or an information storage medium such as a personal work.

Claims

1 . 印画紙に印画された印画内容の不正複製を防止する不正複製防止装置におい て、 1. In an unauthorized duplication prevention device that prevents unauthorized duplication of the print content printed on photographic paper,
上記印画紙に有する紋様に基づいて紋様情報を取得する取得手段と、 上記取得手段により取得された上記紋様情報を上記印画紙に記憶する記憶手段 と、 一 =m 上記記憶手段により記憶された上記紋様情報に基づいて、 上記印画紙の正当性 を検証する検証手段と  Acquisition means for acquiring pattern information based on the pattern possessed by the photographic paper; storage means for storing the pattern information acquired by the acquisition means on the photographic paper; Verification means for verifying the validity of the photographic paper based on the pattern information;
を具えることを特徴とする不正複製防止装置。 囲  A device for preventing unauthorized duplication, comprising: Enclosure
2 . 上記取得手段は、  2. The above acquisition means
上記紋様を撮像する撮像手段と、  Imaging means for imaging the pattern;
上記撮像手段により撮像された結果得られる紋様画像から上記紋様情報を抽出 する抽出手段と  Extracting means for extracting the pattern information from the pattern image obtained as a result of the imaging by the imaging means;
を具え、  With
上記抽出手段は、  The extraction means,
上記紋様画像の低域周波数成分から上記紋様情報を抽出する  Extracting the pattern information from the low frequency components of the pattern image
ことを特徴とする請求の範囲第 1項に記載の不正複製防止装置。  2. The unauthorized duplication prevention device according to claim 1, wherein:
3 . 上記取得手段は、 3. The above acquisition means
上記紋様を撮像する撮像手段と、  Imaging means for imaging the pattern;
上記撮像手段により撮像された結果得られる紋様画像から上記紋様情報を抽出 する抽出手段と  Extracting means for extracting the pattern information from the pattern image obtained as a result of the imaging by the imaging means;
を具え、 .  With.
上記抽出手段は、  The extraction means,
上記紋様画像を低輝度成分及び高輝度成分に分離し、 当該分離した上記低輝度 成分及び上記高輝度成分からそれぞれ上記紋様情報を抽出する Separating the pattern image into a low-luminance component and a high-luminance component; Extracting the pattern information from the component and the high-brightness component, respectively
ことを特徴とする請求の範囲第 1項に記載の不正複製防止装置。  2. The unauthorized duplication prevention device according to claim 1, wherein:
4 . 上記抽出手段は、 4. The above extraction means,
上記紋様画像に対して相対的な面積比となるように上記紋様画像を上記低輝度 成分及び上記高輝度成分を分離する  The pattern image is separated into the low-luminance component and the high-luminance component so as to have a relative area ratio with respect to the pattern image.
ことを特徴とする請求の範囲第 3項に記載の不正複製防止装置。  4. The unauthorized duplication prevention device according to claim 3, wherein:
5 . 上記取得手段は、 5. The above acquisition means
上記紋様を撮像する撮像手段と、  Imaging means for imaging the pattern;
上記撮像手段により撮像された結果得られる紋様画像から上記紋様情報を抽出 する抽出手段と  Extracting means for extracting the pattern information from the pattern image obtained as a result of the imaging by the imaging means;
を具え、  With
上記抽出手段は、  The extraction means,
上記紋様画像を複数の領域に区害 ijりし、 当該区割りした各上記領域からそれぞ れ上記紋様情報を抽出する  The pattern image is divided into a plurality of areas, and the pattern information is extracted from each of the divided areas.
ことを特徴とする請求の範囲第 1項に記載の不正複製防止装置。  2. The unauthorized duplication prevention device according to claim 1, wherein:
6 . '上記取得手段は、 6. '
上記紋様を撮像する撮像手段と、  Imaging means for imaging the pattern;
上記撮像手段により撮像された結果得られる紋様画像から上記紋様情報を抽出 する抽出手段と  Extracting means for extracting the pattern information from the pattern image obtained as a result of the imaging by the imaging means;
を具え、  With
上記抽出手段は、  The extraction means,
上記紋様画像における紋様を複数の領域に区割りし、 当該区割りした各上記領 域それぞれの特徴量を上記紋様のパターン情報として抽出する  The pattern in the pattern image is divided into a plurality of areas, and the characteristic amount of each of the divided areas is extracted as pattern information of the pattern.
ことを特徴とする請求の範囲第 1項に記載の不正複製防止装置。 2. The unauthorized duplication prevention device according to claim 1, wherein:
7 . 上記検証手段は、 7. The above verification means
必要に応じて上記紋様情報を補正し、 当該補正した上記紋様情報に基づいて、 上記印画紙の正当性を検証する  Correcting the pattern information as necessary, and verifying the validity of the photographic paper based on the corrected pattern information
ことを特徴とする請求の範囲第 1項に記載の不正複製防止装置。  2. The unauthorized duplication prevention device according to claim 1, wherein:
8 . 上記取得手段は、 8. The above acquisition means
上記紋様を撮像する撮像手段と、  Imaging means for imaging the pattern;
上記撮像手段により撮像された結果得られる紋様画像から上記紋様情報を抽出 する抽出手段と  Extracting means for extracting the pattern information from the pattern image obtained as a result of the imaging by the imaging means;
を具え、  With
上記抽出手段は、  The extraction means,
上記紋様画像における紋様を複数の領域に区割りし、 当該区割りした各上記領 域それぞれの特徴量を上記紋様のパターン情報として抽出し、  The pattern in the pattern image is divided into a plurality of areas, and the characteristic amount of each of the divided areas is extracted as pattern information of the pattern.
上記検証手段は、  The above verification means,
必要に応じて上記紋様のパタ一ン情報を補正し、 当該補正した上記紋様のパタ ーン情報に基づいて、 上記印画紙の正当性を検証する  If necessary, correct the pattern information of the pattern, and verify the validity of the photographic paper based on the corrected pattern information of the pattern.
ことを特徴とする請求の範囲第 1項に記載の不正複製防止装置。  2. The unauthorized duplication prevention device according to claim 1, wherein:
9 . 印画紙に印画された印画内容の不正複製を防止する不正複製防止方法におい て、 9. In an unauthorized duplication prevention method to prevent unauthorized duplication of the print content printed on photographic paper,
上記印画紙に有する紋様に基づいて紋様情報を取得する第 1のステップと、 取得した上記紋様情報を上記印画紙に記憶する第 2のステップと、  A first step of acquiring pattern information based on a pattern of the photographic paper; a second step of storing the acquired pattern information on the photographic paper;
記憶した上記紋様情報に基づいて、 上記印画紙の正当性を検証する第 3のステ ップと  A third step of verifying the validity of the photographic paper based on the stored pattern information;
を具えることを特徴とする不正複製防止方法。 A method for preventing unauthorized duplication, comprising:
1 0 . 制御装置に対して、 1 0. For the control unit,
所定の印画内容が印画された印画紙に有する紋様の撮像結果として得られた画 像情報から上記紋様に基づく紋様情報を抽出する第 1の処理と、  A first process of extracting pattern information based on the pattern from image information obtained as an imaging result of a pattern on a photographic paper on which predetermined print content is printed;
抽出した上記紋様情報を上記印画紙に記憶させるようにする第 2の処理と、 上記紙に記憶された上記紋様情報に基づいて、 上記印画紙の正当性を検証する 第 3の処理と  A second process for storing the extracted pattern information on the photographic paper, and a third process for verifying the validity of the photographic paper based on the pattern information stored on the paper.
を実行させるプログラム。  A program that executes
1 1 . 印画紙に印画された印画内容の不正複製を防止する不正複製防止装置にお いて、 1 1. In an unauthorized duplication prevention device that prevents unauthorized duplication of the print content printed on photographic paper,
上記印画紙に有する紋様を撮像する撮像手段と、  Imaging means for imaging the pattern of the photographic paper;
上記撮像手段により撮像された結果得ら; Hる紋様画像における紋様を所定単位 の領域に区割りし、 区割した各上記領域をそれぞれ所定の形状に表した紋様情報 として抽出する抽出手段と、  Extraction means for obtaining a result obtained by the imaging means; dividing the pattern in the pattern image into regions of a predetermined unit, and extracting each of the divided regions as pattern information representing a predetermined shape;
上記抽出手段により抽出された上記紋様情報を上記印画紙に記憶する記憶手段 と、  Storage means for storing the pattern information extracted by the extraction means on the photographic paper;
上記記憶手段により記憶された上記紋様情報に基づいて、 上記印画紙の正当性 を検証する検証手段と ·  Verification means for verifying the validity of the photographic paper based on the pattern information stored by the storage means;
を具えることを特徴とする不正複製防止装置。  A device for preventing unauthorized duplication, comprising:
1 2 . 上記抽出手段は、 1 2. The extraction means
各上記領域をそれぞれ円形状に表した紋様情報として抽出する  Extract each of the above areas as pattern information expressed in a circular shape
ことを特徴とする請求の範囲第 1 1項に記載の不正複製防止装置。  11. The unauthorized duplication prevention device according to claim 11, wherein
1 3 . 上記抽出手段は、 1 3. The extraction means
各上記領域を、 当該領域の大きさに応じて異なる上記形状に表した紋様情報と して抽出する ことを特徴とする請求の範囲第 1 1項に記載の不正複製防止装置 , Each of the above areas is extracted as pattern information expressed in the above shape that differs depending on the size of the area. An unauthorized duplication prevention device according to claim 11, characterized in that:
1 4 . 印画紙に印画された印画内容の不正複製を防止する不正複製防止方法にお レ、て、 1 4. Illegal duplication prevention method to prevent illegal duplication of prints printed on photographic paper.
上記印画紙に有する紋様を撮像する第 1のステップと、  A first step of imaging the pattern of the photographic paper;
撮像した結果得られる紋様画像における紋様を複欽の領域に区割りし、 区割し た各上記領域をそれぞれ所定の形状に表した紋様情報として抽出する第 2のステ ップと、  A second step of dividing the pattern in the pattern image obtained as a result of the imaging into a plurality of regions, and extracting each of the divided regions as pattern information representing a predetermined shape,
抽出した上記紋様情報を上記印画紙に記憶する第 3のステップと、  A third step of storing the extracted pattern information on the photographic paper;
記憶した上記紋様情報に基づいて、 上記印画紙の正当性を検証する第 4のステ ップと  A fourth step of verifying the validity of the photographic paper based on the stored pattern information;
を具えることを特徴とする不正複製防止方法。  A method for preventing unauthorized duplication, comprising:
1 5 . 制御装置に対して、 1 5. For the control unit,
所定の印画内容が印画された印画紙に有する紋様の撮像結果として得られた紋 様画像の紋様を複数の領域に区割する第 1の処理と、  A first process of dividing a pattern of a pattern image obtained as an imaging result of a pattern on a photographic paper on which predetermined print content is printed into a plurality of areas;
区割した各上記領域をそれぞれ所定の形状に表した紋様情報として抽出する第 Each of the divided areas is extracted as pattern information expressed in a predetermined shape.
2の処理と、 , 2, and
抽出した上記紋様情報を上記印画紙に記憶させるよ うにする第 3の処理と、 上記紙に記憶された上記紋様情報に基づいて、 上記印画紙の正当性を検証する 第 4の処理と  A third process for storing the extracted pattern information on the photographic paper, and a fourth process for verifying the validity of the photographic paper based on the pattern information stored on the paper.
を実行させるプログラム。  A program that executes
1 6 . 印画紙に印画された印画内容の不正複製を防止する不正複製防止装置にお いて、 . 1 6. In an unauthorized duplication prevention device that prevents unauthorized duplication of the print content printed on photographic paper,
上記印画紙に有する紋様を撮像する撮像手段と、  Imaging means for imaging the pattern of the photographic paper;
上記撮像手段により撮像された結果得られる紋様画像の特徴を抽出する抽出手 段と、 An extracting means for extracting a feature of a pattern image obtained as a result of being captured by the image capturing means Steps and
上記抽出手段により抽出された上記特徴を上記印画紙に記憶する記憶手段と、 上記記憶手段により記憶された上記特徴に基づいて上記紋様画像を再構成し、 再構成した上記紋様画像に基づいて上記印画紙の正当†生を検証する検証手段と を具えることを特徴とする不正複製防止装置。  A storage unit for storing the features extracted by the extraction unit on the photographic paper; reconstructing the pattern image based on the features stored by the storage unit; and reconstructing the pattern image based on the reconstructed pattern image. A device for preventing unauthorized duplication, comprising: verification means for verifying the legitimate reproduction of photographic paper.
1 7 . 上記抽出手段は、 1 7. The above extraction means
上記紋様画像のうち所定の輝度値でなる画素を上記特徴として抽出し、 上記検証手段は、  A pixel having a predetermined luminance value in the pattern image is extracted as the feature, and the verification unit includes:
上記画素を基準として所定の輝度状態からなる複数の領域を生成することによ り上記紋様画像を再構成する  The pattern image is reconstructed by generating a plurality of regions having a predetermined luminance state based on the pixels.
ことを特徴とする請求の範囲第 1 6項に記載の不正複製防止装置。  17. The unauthorized duplication prevention device according to claim 16, wherein:
1 8 . 上記抽出手段は、 1 8. The extraction means
上記紋様画像における低周波成分の画像うち、 所定の輝度値でなる画素を上記 特徴として抽出する  A pixel having a predetermined luminance value is extracted as the feature from the low frequency component image in the pattern image.
ことを特徴とする請求の範囲第 1 7項に記載の不正複製防止装置。  18. The unauthorized duplication prevention device according to claim 17, wherein:
1 9 . 上記検証手段は、 1 9. The above verification means
上記画素を含む領域をポロノィ分割して複数の小領域を生成し、 これら小領域 における輝度状態を上記画素の輝度値を用いて決定することにより上記紋様画像 を再構成する  A plurality of small regions are generated by dividing the region including the pixels by Poronoi, and the luminance state in these small regions is determined using the luminance values of the pixels, thereby reconstructing the pattern image.
ことを特徴とする請求の範囲第 1 7項に記載の不正複製防止装置。  18. The unauthorized duplication prevention device according to claim 17, wherein:
2 0 . 上記検証手段は、 20. The above verification means
上記画素を基準点として複数の領域を生成し、 当該基準点の輝度値を用いて、 互いに隣接する上記領域内の上記基準点間における輝度状態がなだらかとなるよ うに当該基準点の輝度値を用いて各上記領域の輝度状態を決定する ことを特徴とする請求の範囲第 1 7項に記載の不正複製防止装置。 A plurality of regions are generated using the pixel as a reference point, and the brightness state between the reference points in the adjacent regions becomes gentle using the brightness value of the reference point. 18. The unauthorized duplication prevention apparatus according to claim 17, wherein the luminance state of each of the regions is determined using the luminance value of the reference point.
2 1 . 印画紙に印画された印画内容の不正複製を防止する不正複製防止方法にお いて、 2 1. In the method of preventing unauthorized duplication of the print content printed on photographic paper,
上記印画紙に有する紋様を撮像する第 1のステップと、  A first step of imaging the pattern of the photographic paper;
撮像した結果得られる紋様画像の特徴を抽出する第 2のステップと、 抽出した上記特徴を上記印画紙に記憶する第 3のステップと、 · 記憶した上記特徴に基づいて上記紋様画像を再構成し、 再構成した上記紋様画 像に基^いて上記印画紙の正当性を検証する第 4のステップと .  A second step of extracting features of the pattern image obtained as a result of the imaging, a third step of storing the extracted features on the photographic paper, and reconstructing the pattern image based on the stored features. A fourth step of validating the photographic paper based on the reconstructed pattern image; and
を具えることを特徴とする不正複製防止方法。  A method for preventing unauthorized duplication, comprising:
2 2 . 上記第 1のステップでは、 2 2. In the first step above,
上記紋様画像のうち所定の輝度値でなる画素を上記特徴として抽出し、 上記第 4のステップでは、  A pixel having a predetermined luminance value in the pattern image is extracted as the feature, and in the fourth step,
上記画素を基準として所定の輝度状態からなる複数の領域を生成することによ り上記紋様画像を再構成する  The pattern image is reconstructed by generating a plurality of regions having a predetermined luminance state based on the pixels.
ことを特徴とする請求の範囲第 2 1項に記載の不正複製防止方法。  The method for preventing unauthorized duplication according to claim 21, wherein
2 3 . 上記第 1のステップでは、 2 3. In the first step above,
上記紋様画像における低周波成分の画像うち、 所定の輝度値でなる画素を上記 特徴として抽出する  A pixel having a predetermined luminance value is extracted as the feature from the low frequency component image in the pattern image.
ことを特徴とする請求の範囲第 2 2項に記載の不正複製防止方法。  The method for preventing unauthorized duplication according to claim 22, wherein
2 4 . 上記第 4のステップでは、 2 4. In the fourth step above,
上記画素を含む領域をボロノィ分割して複数の小領域を生成し、 これら小領域 における輝度状態を上記画素の輝度値を用いて決定することにより上記紋様画像 を再構成する The pattern image is obtained by Voronoi-dividing the area including the pixel to generate a plurality of small areas, and determining the luminance state in these small areas using the luminance value of the pixel. Reconfigure
ことを特徴とする請求の範囲第 2 2項に記載の不正複製方止方法。  23. The method for preventing illegal duplication according to claim 22, wherein
2 5 . 上記第 4のステップでは、 2 5. In the fourth step above,
上記画素を基準点として複数の領域を生成し、 当該基準 、の輝度値を用いて、 互いに隣接する上記領域内の上記基準点間における輝度状態がなだらかとなるよ うに当該基準点の輝度値を用いて各上記領域の輝度状態を ¾:定する  A plurality of regions are generated using the pixel as a reference point, and the luminance value of the reference point is set using the luminance value of the reference so that the luminance state between the reference points in the adjacent regions becomes gentle.輝 度: Determine the brightness state of each of the above areas using
ことを特徴とする請求の範囲第 2 2項に記載の不正複製方止方法。  23. The method for preventing illegal duplication according to claim 22, wherein
2 6 . 制御装置に対して、 2 6. For the control unit,
所定の印画内容が印画された印画紙に有する紋様の撮像洁果として得られた紋 様画像の特徴を抽出する第 1の処理と、  A first process of extracting features of a pattern image obtained as an imaging result of a pattern included in photographic paper on which predetermined print content is printed;
抽出した上記特徴を上記印画紙に記憶させるようにする第 2の処理と、 上記印画紙に記憶された上記特徴に基づいて上記紋様画像を再構成する第 3'の 処理と、 ■  A second process for storing the extracted features on the photographic paper, a third process for reconstructing the pattern image based on the features stored on the photographic paper,
再構成した上記紋様画像に基づいて上記印画紙の正当性を検証する第 4の処理 と  A fourth process for verifying the validity of the photographic paper based on the reconstructed pattern image;
を実行させるプログラム。  A program that executes
2 7 . 印画紙に印画された印画内容の不正複製を防止する不正複製防止装置にお いて、 2 7. In an unauthorized duplication prevention device that prevents unauthorized duplication of the print content printed on photographic paper,
上記印画紙に有する紋様を所定単位の領域に区割りする [2:割手段と、 上記区割手段により区割された各上記領域それぞれにつ V、て、 当該領域の輪郭 上の点に基づいて上記輪郭に近似する曲線を生成するための複数の点を決定し、 これら点を紋様情報として抽出する抽出手段と、  The pattern included in the photographic paper is divided into regions of a predetermined unit. [2: Dividing means, and for each of the regions divided by the dividing means, based on a point on the contour of the region. Extracting means for determining a plurality of points for generating a curve approximating the contour and extracting these points as pattern information;
上記抽出手段により抽出された上記紋様情報を上記印画紙に記憶する記憶手段 と、 上記記憶手段により記憶された上記紋様情報から各上記領域を再構築し、 当該 再構築した各上記領域を用いて上記印画紙の正当性を検証する検証手段と を具えることを特徴とする不正複製防止装置。 Storage means for storing the pattern information extracted by the extraction means on the photographic paper; Verification means for reconstructing each of the areas from the pattern information stored by the storage means and verifying the validity of the photographic paper using the reconstructed areas. Anti-duplication device.
2 8 . 上記抽出手段は、 2 8. The extraction means
上記輪郭上における点と、 上記輪郭から外側又は内側に所定距離だけ離れた点 とを上記複数の点として決定する  A point on the outline and a point separated from the outline by a predetermined distance outward or inward are determined as the plurality of points.
ことを特徴とする請求の範囲第 2 7項に記載の不正複製防止装置。  28. The unauthorized duplication prevention device according to claim 27, wherein:
2 9 . 上記抽出手段は、 2 9. The extraction means
各上記領域の面積に対応する数の点を上記輪郭上の点として選択し、 当該選択 した上記輪郭上の点に基づいて上記輪郭に近似する曲線を生成するための複数の 点を決定する  A number of points corresponding to the area of each of the regions is selected as points on the contour, and a plurality of points for generating a curve approximating the contour are determined based on the selected points on the contour.
ことを特徴とする請求の範囲第 2 7項に記載の不正複製防止装置。  28. The unauthorized duplication prevention device according to claim 27, wherein:
3 0 . 印画紙に印画された印画内容の不正複製を防止する不正複製防止方法にお いて、 30. In the illegal duplication prevention method for preventing illegal duplication of the print content printed on photographic paper,
上記印画紙に有する紋様を所定単位の領域に区割する第 1のステップと、 区割した各上記領域それぞれについて、 当該領域の輪郭上の点に基づいて上記 輪郭に近似する曲線を生成するための複数の点を決定し、 これら点を紋様情報と して抽出する第 2のステップと、  A first step of dividing the pattern of the photographic paper into regions of a predetermined unit, and for each of the divided regions, generating a curve that approximates the contour based on points on the contour of the region. A second step of determining a plurality of points and extracting these points as pattern information;
上記抽出手段により抽出された上記紋様情報を上記印画紙に記憶する第 3のス テツプと、  A third step of storing the pattern information extracted by the extracting means on the photographic paper;
上記記憶手段により記憶された上記紋様情報から各上記領域を再構築し、 当該 再構築した各上記領域を用いて上記印画紙の正当性を検証する第 4のステップと を具えることを特徴とする不正複製防止方法。 A fourth step of reconstructing each of the areas from the pattern information stored by the storage means, and verifying the validity of the photographic paper using each of the reconstructed areas. To prevent unauthorized duplication.
3 1 . 上記第 2のステップでは、 3 1. In the second step above,
上記輪郭上における点と、 上記輪郭から外側又は内側に所定距離だけ離れた点 とを上記複数の点として決定する  A point on the outline and a point separated from the outline by a predetermined distance outward or inward are determined as the plurality of points.
ことを特徴とする請求の範囲第 3 0項に記載の不正複製防止方法。  The method for preventing unauthorized duplication according to claim 30, wherein:
3 2 . 上記第 2のステップでは、 3 2. In the second step above,
各上記領域の面積に対応する数の点を上記輪郭上の点として選択し、 当該選択 した上記輪郭上の点に基づレ、て上記輪郭に近似する曲線を生成するための複数の 点を決定する  A number of points corresponding to the area of each of the regions are selected as points on the contour, and a plurality of points for generating a curve approximating the contour based on the selected points on the contour are selected. decide
ことを特徴とする請求の範囲第 3 0項に記載の不正複製防止方法。  The method for preventing unauthorized duplication according to claim 30, wherein:
3 3 . 制御装置に対して、 3 3. For the control unit,
所定の印画内容が印画された印画紙に有する紋様の撮像結果として得られた紋 様画像における紋様を所定単位の領域に区割りする第 1の処理と、  A first process of dividing a pattern in a pattern image obtained as an imaging result of a pattern included in a photographic paper on which a predetermined print content is printed into a predetermined unit area;
区割した各上記領域それぞれについて、 当該領域の輪郭上の点に基づいて上記 輪郭に近似する曲線を生成するための複数の点を決定し、 これら点を紋様情報と して抽出する第 2の処理と、  For each of the divided regions, a plurality of points for generating a curve that approximates the outline is determined based on points on the outline of the region, and these points are extracted as pattern information. Processing,
決定した上記点を紋様情報として上記印画紙に記憶する第 3の処理と、 上記印画紙に記憶された上記紋様情報から各上記領域を再構築し、 当該再構築 した各上記領域を用いて上記印画紙の正当性を検証する第 4の処理と  A third process of storing the determined points as pattern information on the photographic paper; reconstructing each of the areas from the pattern information stored on the photographic paper; and A fourth process for verifying the correctness of photographic paper
を実行させるプログラム。  A program that executes
PCT/JP2005/001176 2004-01-22 2005-01-21 Unauthorized copy preventing device and method thereof, and program WO2005071939A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/586,359 US7856143B2 (en) 2004-01-22 2005-01-21 Unauthorized copy preventing device and method thereof, and program
JP2005517331A JP4461389B2 (en) 2004-01-22 2005-01-21 Unauthorized copy prevention apparatus, method and program
CN200580002880.5A CN1910900B (en) 2004-01-22 2005-01-21 Unauthorized copy preventing device and method thereof, and program
EP05704229A EP1708477A4 (en) 2004-01-22 2005-01-21 Unauthorized copy preventing device and method thereof, and program

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2004-14494 2004-01-22
JP2004014494 2004-01-22
JP2004-41992 2004-02-18
JP2004041992 2004-02-18
JP2004-55498 2004-02-27
JP2004055498 2004-02-27
JP2004067856 2004-03-10
JP2004-67856 2004-03-10

Publications (1)

Publication Number Publication Date
WO2005071939A1 true WO2005071939A1 (en) 2005-08-04

Family

ID=34812176

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001176 WO2005071939A1 (en) 2004-01-22 2005-01-21 Unauthorized copy preventing device and method thereof, and program

Country Status (6)

Country Link
US (1) US7856143B2 (en)
EP (1) EP1708477A4 (en)
JP (1) JP4461389B2 (en)
CN (1) CN1910900B (en)
TW (1) TWI292136B (en)
WO (1) WO2005071939A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508378A (en) * 2005-09-08 2009-02-26 インジェニア・ホールディングス・(ユー・ケイ)・リミテッド copy
WO2013018616A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Verification method, tag creating apparatus, verification apparatus, tag, and program

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7162035B1 (en) 2000-05-24 2007-01-09 Tracer Detection Technology Corp. Authentication method and system
JP4530763B2 (en) * 2004-08-23 2010-08-25 富士機械製造株式会社 Part data creation method and part data creation apparatus
JP4212586B2 (en) * 2005-11-25 2009-01-21 シャープ株式会社 Image reading apparatus, image forming apparatus, image processing system, and image reading method
JP4720815B2 (en) * 2007-11-07 2011-07-13 富士ゼロックス株式会社 Image forming system, image forming apparatus, image forming program, and pattern information collating apparatus
US7995196B1 (en) 2008-04-23 2011-08-09 Tracer Detection Technology Corp. Authentication method and system
EP2433244A4 (en) * 2009-05-21 2012-11-14 Hewlett Packard Development Co Imaging a print aberration
US9749607B2 (en) 2009-07-16 2017-08-29 Digimarc Corporation Coordinated illumination and image signal capture for enhanced signal detection
JP5854802B2 (en) * 2011-12-01 2016-02-09 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
CN105069893B (en) * 2015-08-17 2017-09-29 深圳怡化电脑股份有限公司 A kind of method and device for detecting bank note
TWI601406B (en) * 2016-07-06 2017-10-01 虹光精密工業股份有限公司 Image processing device, copy apparatus and method generating generation-count information
US11062108B2 (en) 2017-11-07 2021-07-13 Digimarc Corporation Generating and reading optical codes with variable density to adapt for visual quality and reliability
US10896307B2 (en) 2017-11-07 2021-01-19 Digimarc Corporation Generating and reading optical codes with variable density to adapt for visual quality and reliability
US10872392B2 (en) 2017-11-07 2020-12-22 Digimarc Corporation Generating artistic designs encoded with robust, machine-readable data
US20190213705A1 (en) 2017-12-08 2019-07-11 Digimarc Corporation Artwork generated to convey digital messages, and methods/apparatuses for generating such artwork
US10748232B2 (en) 2018-06-08 2020-08-18 Digimarc Corporation Generating signal bearing art using stipple, voronoi and delaunay methods and reading same
CN109151423B (en) * 2018-10-31 2021-03-30 歌尔光学科技有限公司 Projector, projector discrimination method, projector discrimination device, information adding method, and storage medium
CN110802957B (en) * 2019-10-11 2021-11-02 杭州珐珞斯科技有限公司 Printing quantity control method and system for printing equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309157A (en) * 2000-04-26 2001-11-02 Ntt Data Corp Document authentication method, system, document generator, document authentication device and recording medium
JP2001319257A (en) * 2000-05-12 2001-11-16 Printing Bureau Ministry Of Finance Printed matter authenticating device
JP2003044257A (en) * 2001-08-02 2003-02-14 Dainippon Printing Co Ltd Printed matter, printing system and reader
JP2003319170A (en) * 2002-02-01 2003-11-07 Markany Inc Apparatus and method for producing document to prevent its forgery or alteration, and apparatus and method for authenticating document

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020170966A1 (en) * 1995-07-27 2002-11-21 Hannigan Brett T. Identification document including embedded data
US6650761B1 (en) * 1999-05-19 2003-11-18 Digimarc Corporation Watermarked business cards and methods
US5974150A (en) * 1997-09-30 1999-10-26 Tracer Detection Technology Corp. System and method for authentication of goods
AU2001240968A1 (en) * 2000-03-14 2001-09-24 Dexrad (Pty) Ltd Generating a non-reproducible printed image
US7028188B1 (en) 2000-10-30 2006-04-11 Hewlett-Packard Development Company, L.P. Document authentication using the physical characteristics of underlying physical media
JP2003168084A (en) * 2001-11-30 2003-06-13 Sanyo Electric Co Ltd Personal identification system and method himself/ herself
JP2003168071A (en) * 2001-11-30 2003-06-13 Sanyo Electric Co Ltd Method for reading two-dimensional bar code
US7054461B2 (en) * 2002-02-15 2006-05-30 Pitney Bowes Inc. Authenticating printed objects using digital watermarks associated with multidimensional quality metrics
US20030210803A1 (en) 2002-03-29 2003-11-13 Canon Kabushiki Kaisha Image processing apparatus and method
JP4265180B2 (en) 2002-09-09 2009-05-20 富士ゼロックス株式会社 Paper identification verification device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309157A (en) * 2000-04-26 2001-11-02 Ntt Data Corp Document authentication method, system, document generator, document authentication device and recording medium
JP2001319257A (en) * 2000-05-12 2001-11-16 Printing Bureau Ministry Of Finance Printed matter authenticating device
JP2003044257A (en) * 2001-08-02 2003-02-14 Dainippon Printing Co Ltd Printed matter, printing system and reader
JP2003319170A (en) * 2002-02-01 2003-11-07 Markany Inc Apparatus and method for producing document to prevent its forgery or alteration, and apparatus and method for authenticating document

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1708477A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009508378A (en) * 2005-09-08 2009-02-26 インジェニア・ホールディングス・(ユー・ケイ)・リミテッド copy
WO2013018616A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Verification method, tag creating apparatus, verification apparatus, tag, and program

Also Published As

Publication number Publication date
EP1708477A1 (en) 2006-10-04
EP1708477A4 (en) 2008-04-09
CN1910900B (en) 2011-05-25
CN1910900A (en) 2007-02-07
JPWO2005071939A1 (en) 2007-09-06
US20070160401A1 (en) 2007-07-12
TW200539069A (en) 2005-12-01
TWI292136B (en) 2008-01-01
US7856143B2 (en) 2010-12-21
JP4461389B2 (en) 2010-05-12

Similar Documents

Publication Publication Date Title
WO2005071939A1 (en) Unauthorized copy preventing device and method thereof, and program
KR20200032206A (en) Face recognition unlocking method and device, device, medium
JP2000333005A (en) Pattern detection method, pattern detection device and recording medium
KR20200118842A (en) Identity authentication method and device, electronic device and storage medium
JP2011507101A (en) Identification and verification of unknown documents by eigenimage processing
US20070041628A1 (en) Detection of document security marks using run profiles
US20100239128A1 (en) Registering device, checking device, program, and data structure
CN109840875A (en) A kind of anti-counterfei waterprint generation method, device, electronic equipment and storage medium
CN106169064A (en) The image-recognizing method of a kind of reality enhancing system and system
JP2004112223A (en) Id card, id card generating apparatus, and id card reader
JP7101258B2 (en) 2D barcode generation method, authentication method, server, and 2D barcode
Ferrara et al. On the impact of alterations on face photo recognition accuracy
JP2000163595A (en) Mark detecting method and device
JP2006338330A (en) Device and method for identifying slip of paper
US7961941B2 (en) Color form dropout using dynamic geometric solid thresholding
US20190102617A1 (en) System and method of training a classifier for determining the category of a document
CN111611994B (en) Image extraction method, device, electronic equipment and storage medium
KR20210024877A (en) Method and apparatus for determining liveness
CN115391751A (en) Infringement determination method
JPH08287259A (en) Fingerprint identifying method
JP2006338548A (en) Printing paper sheet management system, printing paper sheet registration device, method, and program, printing paper sheet discrimination device, method and program
CN112597810A (en) Identity document authentication method and system
JP2020184735A (en) Verification method
US11872832B2 (en) Texture-based authentication of digital identity documents
JP4446185B2 (en) Information generating apparatus and method, and program

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005517331

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005704229

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007160401

Country of ref document: US

Ref document number: 10586359

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580002880.5

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2005704229

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10586359

Country of ref document: US