WO2006059681A1 - 改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法 - Google Patents

改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法 Download PDF

Info

Publication number
WO2006059681A1
WO2006059681A1 PCT/JP2005/022080 JP2005022080W WO2006059681A1 WO 2006059681 A1 WO2006059681 A1 WO 2006059681A1 JP 2005022080 W JP2005022080 W JP 2005022080W WO 2006059681 A1 WO2006059681 A1 WO 2006059681A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
determination
area
information
block
Prior art date
Application number
PCT/JP2005/022080
Other languages
English (en)
French (fr)
Inventor
Masahiko Suzaki
Original Assignee
Oki Electric Industry Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co., Ltd. filed Critical Oki Electric Industry Co., Ltd.
Publication of WO2006059681A1 publication Critical patent/WO2006059681A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32154Transform domain methods

Definitions

  • Tamper detection device watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image input method
  • the present invention relates to detection of falsification of an image such as a document image.
  • the print data is printed on the print medium by applying the above-mentioned "digital watermark" technology
  • the electronic permeability corresponding to the print data is printed together with the print data.
  • alterations in the printed matter such as alteration of characters printed on the printed matter from the electronic permeability information printed on the printed matter (for example, see Patent Document 1).
  • the determination of whether or not the force has been tampered with is made by comparing the printed results with those printed with digital watermarks.
  • Patent Document 1 JP 2000-232573 A
  • the present invention has been made in view of the above problems, and an object of the present invention is to automatically embed watermark information, generate an output image, and transmit permeability information in which the output image force is also embedded.
  • New and improved falsification detection device, watermarked image output device, watermarked image input device, watermarked image output method, and watermarked image that can automatically detect falsification of the output image It is to provide an image input method.
  • an alteration detection device inputs an image and determines whether or not the force of the input image is falsified. It strongly responds to a specific shape with respect to one or more determination areas 1 or 2
  • a first image feature extraction unit that calculates an output value by applying at least one type of feature extraction filter among at least one type of feature extraction filter; a first image that divides each determination region of the image by a determination block of a predetermined size
  • a region division processing unit a first image feature evaluation unit that calculates an evaluation value of each determination block for each feature extraction filter based on the calculated output value; image size information, position information of the determination region in the image, At least one piece of information about the size of the judgment area, the position information of each judgment block, the size information of each judgment block, or the evaluation value of each judgment block is transparently embedded in the image as an output image.
  • At least the generated transparency information embedding unit; the translucency embedded in the output image f The permeation information extracting unit for extracting the blueprint; and at least processing the output image to generate a comparative image of approximately the same size as the image Based on at least the position information of the judgment area, the size information of the judgment area, the position information of each judgment block, and the size information of each judgment block included in the extracted watermark
  • a second image feature extraction unit that calculates a comparison output value by applying a feature extraction filter to the determination region in the comparison image
  • a second region division processing unit that divides each determination region of the comparison image by the determination block
  • a second image feature evaluation unit that calculates a comparison evaluation value of the determination block for each feature extraction filter applied to each determination region based on the calculated comparison output value; and included in the watermark information Be And acquire the evaluation value of each decision block that put the image, comparing the image with the evaluation value of each decision block of the image If the difference between each decision block and the comparative evaluation value is calculated for each feature detection filter, and at least
  • the tamper detection device uses the feature extraction filter that reacts strongly to a specific shape to detect the reaction status of the image for the target region (determination region) for determining the presence or absence of tampering.
  • the filtering process is executed, and as a result, the output value is obtained.
  • the decision area is divided into decision blocks, and the evaluation value is calculated for each decision block based on the output value.
  • the evaluation value for each judgment block becomes the judgment criterion (master) for tampering, and is embedded in the output image as permeability information.
  • the output image After output as an output image, at the stage of detecting whether or not the output image has been tampered with, the output image is processed to the same size as the image, and the evaluation value is calculated from the output image in the same way as the processing for the image.
  • the evaluation value is calculated from the output image in the same way as the processing for the image.
  • the image generator can correct distortions and smudges in the output image by performing predetermined processing such as reduction Z enlargement on the output image and improve the accuracy of tamper detection.
  • the output image may be composed of a printed matter printed on a printing medium such as paper, or image data in which a watermark is embedded in the image.
  • a printing medium such as paper
  • the profitable configuration has a wide range of targets for judging whether or not tampering has occurred and can improve versatility.
  • a watermarked information output device inputs an image and outputs the input image. Judgment of whether or not the force has been tampered with in the image area Reacts strongly to a specific shape with respect to one or more judgment areas At least one type of feature extraction filter is applied among one or more kinds of feature extraction filters.
  • An image feature extraction unit that calculates an output value; an area division processing unit that divides each determination region of the image by a determination block of a predetermined size; and each determination block for each feature extraction filter based on the calculated output value
  • An image feature evaluation unit that calculates an evaluation value of the image; size information of the image, position information of the determination area in the image, size information of the determination area, position information of each determination block, size information of each determination block, or each determination block It is characterized by having a permeability information embedding part that generates at least one of the evaluation values and embeds it in the image as information.
  • the watermarked image output device uses the feature extraction filter that reacts strongly to a specific shape to determine the image response status for the target region (determination region) for determining whether or not tampering has occurred.
  • the filtering process to be detected is executed, the output value is obtained, the judgment area is further divided into judgment block units, and the evaluation value is calculated for each judgment block based on the output value.
  • the evaluation value for each judgment block is embedded in the output image as a transparent blueprint. An evaluation value that can be easily determined if the image of the judgment area, which is the target area for which tampering is to be detected, is filtered by a feature extraction filter, for example, if it has been tampered with such as a hash value.
  • the evaluation value may be configured to be an average value of one or more of the output values existing in the determination block, and the evaluation value is set for each feature extraction filter. Of the output values larger than the constant value, the average value of one or more output values existing in the determination block may be configured (for example, the first embodiment).
  • the determination region set in the image may be configured such that a feature extraction filter is applied to all regions in the determination region (for example, the first embodiment).
  • the determined determination area may be configured to be rearranged so as to cover only the area where characters exist in the determination area (for example, the second embodiment).
  • the feature extraction filter may be configured to be a filter that strongly reacts to a straight line inclined in a specific direction of an image.
  • a watermarked image input device includes, in the image, size information of the image, position information of one or more determination areas for determining whether or not the image area of the image has been tampered with, and the size of the determination area. At least one piece of information, position information of one or more decision blocks configured in the decision region by dividing the decision region, size information of each decision block, or evaluation value of each decision block is transparent.
  • a transparent information extraction unit that extracts information from the output image generated by embedding as force information; and processing at least the output image to generate a comparative image of approximately the same size as the image
  • An image generation unit at least the position information of the determination area, the size information of the determination area, the position information of each determination block, or the size information of each determination block included in the extracted permeability information Based on both, an image for which the comparison output value is calculated by applying at least one feature extraction filter of one or more feature extraction filters that reacts strongly to a specific shape to the judgment region in the comparison image.
  • a feature extraction unit an area division processing unit that divides each determination region of the comparison image by a determination block; and a comparative evaluation of the determination block for each feature extraction filter applied to each determination region based on the calculated comparison output value
  • An image feature evaluation unit for calculating a value; obtaining an evaluation value of each determination block in the image included in the permeability information, and an evaluation value of each determination block of the image and a comparison evaluation value of each determination block of the comparison image; For each feature detection filter, and if at least one of the one or more difference values calculated for each feature detection filter is greater than a predetermined value, The determination area of the corresponding comparison image is provided with a tampering determination unit that determines that tampering has occurred.
  • the watermarked image input device detects whether or not the output image along the printed material or the digital document image has been tampered with, and the output image is made the same size as the image. After processing, the output image power is calculated in the same way as the processing for the image, and compared and contrasted by the difference value between the comparative evaluation value in the output image and the evaluation value in the image. Can be determined.
  • the watermarked image input device can automatically detect tampering and automatically determine whether tampering has occurred without relying on human eyes. In addition, tamper detection accuracy is improved and processing time is reduced compared to human tamper detection.
  • the falsification determination unit acquires the evaluation value of each determination block in the image included in the permeability information, and calculates the difference between the evaluation value of each determination block of the image and the comparison evaluation value of each determination block of the comparative image. If the value calculated for each feature detection filter and the linear combination of the difference values for each feature detection filter is greater than the predetermined value, it is determined that the judgment area of the comparison image corresponding to the comparison evaluation value has been tampered with. May be configured to do so.
  • the evaluation value may be configured to be an average value of one or more output values existing in the determination block, and the evaluation value is determined from a predetermined value set for each feature extraction filter. Of the large output values, the average value of one or more output values existing in the judgment block may be used.
  • a watermarked image output method inputs an image, and determines whether or not the tampered force is detected in the image area of the input image.
  • Image feature extraction processing that calculates an output value by applying at least one feature extraction filter of two or more types of feature extraction filters; and region division processing that divides each determination region of an image by a determination block of a predetermined size; ; Image feature evaluation processing that calculates the evaluation value of each decision block for each feature extraction filter based on the calculated output value; Image size information, decision region position information in the image, decision region size information , Position information of each decision block, size information of each decision block, or evaluation value of each decision block is transparently embedded in the image as information, and the output image is Characterized in that it comprises a watermark information embedding process of forming.
  • a watermarked image input method includes an image with a size of the image. 1 or 2 to determine whether or not the image area of the image has been tampered with.
  • Position information of one or more determination areas, size information of the determination area, and the determination area is configured by dividing the determination area 1 or From the output image generated by embedding at least one of the position information of each decision block, the size information of each decision block, or the evaluation value of each decision block.
  • Watermark information extraction processing for extracting watermark information; image generation processing for processing at least an output image and generating a comparative image having substantially the same size as the image; and position of at least a determination region included in the extracted transparency information Information based on at least one of the information, the size information of the judgment area, the position information of each judgment block, or the size information of each judgment block.
  • Image feature extraction processing that calculates a comparison output value by applying at least one feature extraction filter of one or more types of feature extraction filters that reacts strongly to a specific shape; and a determination block for each determination region of the comparison image
  • An image feature evaluation process for calculating a comparison evaluation value of a determination block for each feature extraction filter applied to each determination region based on the calculated comparison output value; Obtain the evaluation value of each judgment block in the image included in the watermark.
  • the present invention it is possible to automatically determine the presence or absence of tampering with the device alone without detecting the presence or absence of tampering with human eyes.
  • the device detects tampering rather than human tampering detection, the tamper detection accuracy is improved and the tamper detection processing time is shortened.
  • FIG. 1 is a block diagram showing a schematic configuration of a permeability image output unit.
  • FIG. 2 is a block diagram showing a schematic configuration of an image input unit.
  • FIG. 3 is an explanatory diagram showing an example of a schematic configuration of an original image related to the present embodiment.
  • FIG. 4 is an explanatory diagram showing an example of a schematic configuration of a feature extraction filter used for image feature extraction.
  • FIG. 5 is an explanatory diagram showing an example of a schematic configuration of a feature extraction filter used for image feature extraction.
  • FIG. 6 is an explanatory diagram showing an example of a schematic configuration of a feature extraction filter used for image feature extraction.
  • FIG. 7 is an explanatory diagram showing an example of a schematic configuration of a feature extraction filter used for image feature extraction.
  • FIG. 8 is an explanatory diagram showing an example of an outline of filtering processing when filter A is selected as a feature extraction filter.
  • FIG. 9 is an explanatory diagram showing an example of a schematic result of filtering processing by a filter A
  • FIG. 10 is an explanatory diagram showing an example of a schematic result of the filtering process by the filter B.
  • FIG. 11 is an explanatory diagram showing a schematic configuration of a falsification determination area when the falsification determination area is divided into determination block units.
  • FIG. 12 is an explanatory diagram showing an example of a schematic configuration of an original image when there are a plurality of alteration determination areas.
  • FIG. 13 is an explanatory diagram showing an example of a schematic configuration of each falsification determination region shown in FIG. [14]
  • FIG. 14 is an explanatory diagram showing an example of a schematic configuration of a falsification determination area divided by determination blocks.
  • FIG. 17 is an explanatory diagram showing an example of a schematic configuration of an evaluation value table related to the first embodiment.
  • FIG. 18 is an explanatory diagram showing an example of a schematic configuration of an evaluation value table related to the first embodiment.
  • FIG. 19 is a flowchart showing an example of a schematic flow of processing of a permeability information synthesizing unit.
  • FIG. 20 is an explanatory diagram showing an example of a watermark signal.
  • FIG. 21 is a cross-sectional view of the change in pixel value in FIG. 20 (1) as viewed from the direction of arctan (lZ3).
  • FIG. 22 An explanatory diagram showing an example of a watermark signal. (3) shows unit C, (4) shows unit D, and (5) shows unit E.
  • FIG. 23 (1) is an explanatory diagram showing a case where unit E is defined as a background unit and arranged as a background of the original image 11 without gaps.
  • Fig. 23 (2) shows an example of embedding unit A in the background image of Fig. 23 (1)
  • Fig. 23 (3) embeds unit B in the background image of Fig. 23 (1). Show an example! / Speak.
  • FIG. 24 is an explanatory diagram showing an example of a symbol embedding method in an original image.
  • FIG. 25 is a flowchart showing a method for embedding permeability information in an original image.
  • Permeability This is an explanatory diagram showing a method of embedding information in the original image.
  • FIG. 28 is an explanatory view showing a part of FIG. 27 in an enlarged manner.
  • FIG. 29 is a flowchart showing an example of a schematic flow of processing of the permeable information extracting unit 22.
  • FIG. 30 is an explanatory diagram of a signal detection filtering step (step S310) in the first embodiment.
  • FIG. 31 is an explanatory diagram of a signal position search step (step S320) in the first embodiment.
  • FIG. 35 is an explanatory diagram showing an example of a data code restoration method.
  • FIG. 37 is a flowchart of the image deforming unit 23.
  • FIG. 38 is an explanatory diagram showing an example of a detected signal unit position.
  • FIG. 39 is an explanatory diagram showing an example of detecting an approximate line.
  • FIG. 40 is an explanatory diagram showing an example of a result of performing linear approximation.
  • FIG. 41 is an explanatory diagram showing tilt correction.
  • FIG. 42 is an explanatory diagram showing position correction.
  • FIG. 43 is an explanatory diagram showing an example of the intersection of straight lines.
  • FIG. 44 is an explanatory diagram showing a correspondence example between positions of an input image and a corrected image.
  • FIG. 45 is an explanatory diagram showing an example of a method for associating an input image with a corrected image.
  • FIG. 46 is an explanatory diagram showing an example of an outline of falsification determination processing by the falsification determination unit 27.
  • FIG. 47 is an explanatory diagram showing an example of an outline of falsification determination processing by the falsification determination unit 27.
  • FIG. 48 is an explanatory diagram showing an example of an outline of falsification determination processing by the falsification determination unit 27.
  • FIG. 49 is an explanatory diagram showing an example of an outline of falsification determination processing by the falsification determination unit 27.
  • FIG. 50 is a block diagram showing an example of a schematic configuration of a watermark image output unit 1010 that works on the second embodiment.
  • FIG. 51 is a block diagram showing an example of a schematic configuration of a watermark image input unit 1020 according to the second embodiment.
  • FIG. 52 is an explanatory diagram showing an example of an outline of an extraction process for extracting a character region that is effective in the second embodiment.
  • FIG. 53 is an explanatory diagram showing an example of an outline of a dividing process for dividing the character area according to the second embodiment.
  • FIG. 1 is a block diagram showing a schematic configuration of the permeable image output unit 10 that can be applied to the first embodiment.
  • a transparent image output unit (watermarked image output device) 10 receives an original image (image) 11 and outputs a watermarked output image 16.
  • the original image (image) 11 is image data composed of a plurality of pixels.
  • the image data includes, for example, at least characters, figures, symbols, symbols, or any combination thereof. Therefore, it is possible to exemplify the case where the image data includes only characters such as novels, or the case where the image data also includes a still image such as a newspaper.
  • the figure in this specification may generically refer to a character, a figure, a symbol, a symbol, or any combination thereof included in the image data in a broad sense.
  • the output image 16 is image data in which permeability information is embedded in the original image 11.
  • the output image 16 may be a printed matter printed on a print medium such as paper by a printing means such as a printer.
  • the image feature extraction unit 12 uses the feature extraction filter to output an output value indicating the image feature in the alteration determination region (or the determination region) for determining whether or not the original image 11 is falsified. calculate. Tampering is the loss of the integrity of the output image 16, that is, the output image 16 cannot be maintained in an accurate and complete state. Therefore, for example, if the output image 16 has any modification even if it is not a fraudulent purpose, it is considered to be tampering. The calculation of the output value using the feature extraction filter will be explained later.
  • the region division processing unit 13 divides the falsification determination region calculated by the image feature extraction unit 12 into a determination block having a predetermined size for each falsification determination region.
  • the determination block will be described later.
  • the image feature data conversion unit (first image feature evaluation unit) 14 calculates the evaluation value of each feature extraction filter based on the calculated output value for each determination block divided by the region division processing unit 13. To do. The calculation of the evaluation value will be described later.
  • the watermark information synthesis unit (transmissible information embedding unit) 15 transparently displays information including at least the evaluation value of each determination block of each feature extraction filter calculated by the image feature data conversion unit 14. It is embedded in the original image 11 as information, and an output image 16 is generated.
  • the transparency information embedded in the output image 16 can be exemplified by the case where the output image 16 is printed or the like, or the case where the output image 16 is displayed on the surface of the printed material as a background pattern.
  • FIG. 2 is a block diagram showing a schematic configuration of the transparency image input unit 20 that is useful in the first embodiment.
  • Permeability Image input unit (watermarked image input device) 20 is provided in the falsification detection device, and determines whether or not the output image 16 or any part of the printed material on which the output image 16 is printed has been tampered with.
  • the tampering detection device that works in the first embodiment includes the above-described transparent image output unit 10 and the eyelid or transparent image input unit 20.
  • the transparent image input unit 20 prints the watermarked image on which the output image 16 is printed. Tampering detection is performed from the input image 21 captured in the computer by an input device (not shown) such as a scanner. Note that the watermark image input unit 20 that is useful in the first embodiment will be described in the case where falsification detection is performed from the input image 21 obtained by printing the output image 16 generated by the transparent image output unit 10. This can be implemented even when tampering detection is performed on the output image 16 without printing the output image 16. In that case, input image 21 is identical to output image 16.
  • the input image 21 is an image obtained by printing an output image 16 or a printed matter obtained by printing the output image 16 with an input device such as a scanner.
  • the transparent information extracting unit 22 extracts transparent information 28 from the input image 21.
  • the details of the watermark information 28 extraction process and the transparent watermark 28 will be described in detail later.
  • the image transformation unit (image generation unit) 23 corrects the input image 21 and generates a corrected image 29.
  • the corrected image 29 after correction is an image having approximately the same size as the original image 11, and the corrected image 29 is compared with the comparative original image (comparison image) generated based on the watermark information 28. The tampering is detected with the details described later.
  • the image feature extraction unit 24 identifies a falsification determination region in the corrected image 29 based on information about the falsification determination region included in the permeability information 28, and uses a feature extraction filter for the falsification determination region. A comparative output value indicating the image feature is calculated. Note that the above comparison output value is a value that serves as a criterion for determining whether or not the force has been altered by calculating a difference value from the output value included in the permeability information 28.
  • the region segmentation processing unit 25 uses the comparison output value of the falsification determination region for which the feature is calculated by the image feature extraction unit 24, and the size of the determination block included in the permeability information 28, the position of the determination block, and the like. Divide into one or more decision blocks based on information about.
  • the image feature data conversion unit (second image feature evaluation unit) 26 is based on the comparison output value calculated for each judgment block divided by the region division processing unit 25, and compares the evaluation value of each feature extraction filter. Calculate Note that the calculation of the comparative evaluation value is substantially the same as the calculation of the evaluation value of the image feature data conversion unit 14, and details will be described later.
  • the alteration determination unit 27 compares the evaluation value of each feature extraction filter included in the transparency information 28 extracted from the input image 21 and the comparison evaluation value of each feature extraction filter calculated by the image feature data conversion unit 26. And whether or not tampering has occurred is determined based on a predetermined criterion. Above The determination of the presence or absence of bumps will be described in detail later.
  • FIG. 3 is an explanatory diagram showing an example of a schematic configuration of an original image related to the present embodiment.
  • the original image 11 used in the present embodiment is image data in which a watermark region 30 and a tampering determination region 32 exist.
  • the watermark area 30 is an area where transparent information is superimposed.
  • the transparent information is information for preventing copying / forgery, confidential information, and the like, and the transparent information is embedded in the watermark area 30. Note that the process of translucency and embedding information in the watermark area 30 will be described later.
  • the upper left coordinate (reference coordinate 31) of the watermark area 30 is a reference coordinate indicating the area of the watermark area 30.
  • the reference coordinate 31 is, for example, (0, 0) as shown in the figure, but is not limited to an example that works.
  • the tampering judgment area 32 is an area for judging whether or not the force has been tampered with.
  • the coordinate 33 of the start point of this tampering judgment area is (Ax, Ay), the width 34 of the tampering judgment area is Aw, and the tampering judgment area.
  • the height 35 is Ah.
  • FIGS. 4 to 7 are explanatory diagrams showing an example of a schematic configuration of a feature extraction filter used for image feature extraction.
  • the feature extraction filter 40 having one or more patterns shown in FIGS. 4 to 7 is designed to react strongly to a specific figure in the original image 11! Speak.
  • the feature extraction filter 40a (filter A) shown in Fig. 4 has a black bar in the vertical direction at the center of the feature extraction filter 40a, and gray bars with higher brightness than black on both sides. However, there are several bars whose brightness gradually increases as they move away from the black bars, and these bars represent the light and shade.
  • the feature extraction filter 40a reacts strongly to a figure corresponding to a plurality of bars representing light and shade, that is, a straight line extending in the vertical direction among the images of the original image 11. In addition, it reacts even when the shape of the straight line extending in the vertical direction is slightly bent.
  • the feature extraction filter 40b (filter B) shown in FIG.
  • the feature extraction filter 40c (filter C) shown in Fig. 6 has a black bar connecting the upper right and lower left vertices, for example, as shown in the figure. There are a number of bars, and there are several bars whose brightness gradually increases as the distance from the black bar increases.
  • the feature extraction filter 40c responds strongly to a figure corresponding to a plurality of bars representing light and shade, that is, a straight line extending diagonally right upward in the image of the original image 11. A reaction occurs even when the shape of the straight line extending diagonally upward to the right is slightly bent.
  • the angle of the plurality of bars representing the shading configured in the feature extraction filter 40c that is effective in the first embodiment is an example in which a black bar passes through the upper right and lower left vertices of the filter C.
  • the angle of a plurality of bars representing light and shade can be implemented at any angle such as 30 degrees, 45 degrees, or 70 degrees.
  • the feature extraction filter 40d (filter D) shown in FIG. 7 has, for example, black bars connecting the upper left and lower right vertices as shown in the figure, and both sides have higher brightness than the black. There are gray bars, and there are several bars whose brightness gradually increases as they move away from the black bars, and these bars represent the light and shade.
  • the feature extraction filter 40d (filter D) reacts strongly to a figure corresponding to a plurality of bars representing shading, that is, a straight line extending obliquely downward to the right in the image of the original image 11. In addition, it reacts even when the shape of the straight line extending diagonally downward to the right is slightly bent.
  • the angle of the plurality of bars representing the shading configured in the feature extraction filter 40d which is effective in the first embodiment, is an example in which a black bar passes through the upper left and lower right vertices of the filter D.
  • the present invention is not limited to a powerful example.
  • One angle can be implemented at any angle, such as 30 degrees, 45 degrees, or 70 degrees.
  • the feature extraction filters 40a to 40d may include a plurality of circular bars representing the above-mentioned shading, and may be filters that react strongly to circular figures.
  • the feature extraction filters 40a to 40d that are useful for the first embodiment may be, for example, a wavelet filter, a Gabor filter, or a template image used for image recognition.
  • the image feature extraction unit 12 selects a feature extraction filter 40 for extracting image features from one or more types of filters (feature extraction filters 40a to 40d). After selection, a process (filtering process) for detecting the reaction status via the feature extraction filter 40 is performed on the alteration determination region 32 of the original image 11. The resulting output value is recorded in a recording means such as a memory.
  • FIG. 8 is an explanatory diagram showing an example of an outline of the filtering process when filter A (feature extraction filter 40a) is selected as a feature extraction filter. Note that the filtering process shown in FIG. 8 describes the filtering process in the case of filter A. However, the filtering process in the case of other feature extraction filter 40 is not limited to the powerful example, and the filtering process shown in FIG. It is the same.
  • the upper left corner force of the falsification determination area 32 for determining whether or not the falsified force is detected in the image area of the original image 11 is also rasterized line by line on the falsification determination area 32 one by one.
  • the convolution integral between filter A and the image is calculated while scanning in the direction (arrow direction shown in Fig. 8).
  • By a powerful calculation it is possible to detect a graphic that strongly responds to a horizontal straight line that is the same as or similar to the multiple bars representing the shading configured in filter A described above.
  • the above-mentioned figure is a general term for a character, figure, symbol, symbol, or any combination thereof included in the above image data in a broad sense.
  • the ⁇ unit is the feature extraction filter 40 as one block, and the feature extraction filter 40 is scanned in blocks in the raster direction.
  • FIG. 9 is an explanatory diagram showing an example of a schematic result of the filtering process by filter A.
  • the black region 90 is a region that reacts strongly to the filter A.
  • the black region 90 is determined to be a black region 90 by the image feature extraction unit 12 when the output value obtained from the calculation result is equal to or greater than a predetermined threshold t.
  • a predetermined threshold t it can be said that the image (figure) in the falsification determination area 32 determined by the filter A as the black area 90 approximates a straight line extending in the extremely vertical direction.
  • a gray area 91 having a higher brightness than the black area 90 shown in FIG. When the output value obtained as a result of the above calculation is greater than or equal to the threshold t and less than the threshold t, the gray color area 91 is
  • the image (figure) of the corresponding block which is determined to be the gray area 91 by the filter A, is not close to a straight line as much as the black area 90, but is close to a straight line in the middle of the object! #2.
  • the white region 92 having the highest brightness shown in FIG. 9 is a region that does not react to the filter A.
  • the output value obtained from the calculation result is less than the threshold value t.
  • the image feature extraction unit 12 determines that the area is the white area 92. That is, it can be said that the image (figure) of the corresponding block, which is determined to be the white area 92 by the filter A, does not approximate a straight line extending in the vertical direction.
  • FIG. 10 is an explanatory diagram showing an example of a schematic result of the filtering process by filter B.
  • the black region 100 is a region that reacts strongly to the filter B.
  • the black area 100 is displayed when the output value obtained as a result of the calculation is greater than or equal to a predetermined threshold t.
  • the feature extraction unit 12 determines that the area is the black area 100. That is, the image (figure) in the tampering determination area 32 that is determined to be the black area 100 by the filter B is horizontally aligned. It is very close to the straight line that stretches.
  • the gray color region 101 is displayed by the image feature extraction unit 12 when the output value obtained from the calculation result is equal to or greater than the threshold value t and less than the threshold value t.
  • the region is a gray color region 101.
  • the figure of the block (block) determined by filter B to be in the gray area 101 approximates a straight line extending in the horizontal direction to a medium level V, although it is very close to a straight line! / That! /
  • the white region 102 having the highest brightness shown in FIG. 10 is a region that does not react to the filter B.
  • the output value obtained by the calculation result is less than the threshold value t.
  • the image feature extraction unit 12 determines that the region is a white region 102.
  • the image (figure) of the corresponding block which is determined to be the white area 102 by the filter B, is not approximated by a straight line extending in the horizontal direction.
  • the result of the filtering process shown in FIGS. 9 and 10 is image data, which is converted into image data based on the output value obtained by scanning the filter 40. is there.
  • the output value obtained as a result of the filtering process is a real number, but it is not limited to this example.
  • the tampering determination area 32 in the original image 11 may be subjected to the filtering process without changing the enlargement / reduction process,
  • the filtering process may be performed after the image has been reduced or enlarged at a predetermined magnification.
  • the output value can be fine-tuned by filtering after the enlarging process.
  • the black pixel area can be reduced, so that the processing speed can be improved, or if the output image is a printed product, stains etc. on the printing surface can be detected. Since it can be reduced and made inconspicuous, tamper detection accuracy can be easily increased.
  • the filtering process is performed after the alteration determination area 32 is reduced or enlarged, the result of the filtering process is also the reduced or enlarged image size.
  • the alteration determination area 32 is not enlarged or reduced.
  • the variables related to the area are enlarged or reduced at the same magnification. The same processing as described below can be performed.
  • the region division processing unit 13 divides the alteration determination region 32 into a plurality of blocks in units of blocks of a predetermined size.
  • the plurality of divided blocks are determination blocks, and are determination processing unit blocks for determining whether or not the determination block has been tampered with.
  • FIG. 11 is an explanatory diagram showing a schematic configuration of the falsification determination area 32 when the falsification determination area 32 is divided into determination block units.
  • the falsification determination area 32 includes a plurality of determination blocks (Block (0), B lock (l),..., Block (Bn-1)).
  • a block ID is assigned to each judgment block, for example, 0, 1, 2, “ ⁇ 11 1,” or the like.
  • the determination block at the upper left corner of the falsification determination area 32 is the determination block Block (0), and the block ID is “0”.
  • the block on the right is the decision block Block (1) and the block ID is “1”.
  • the determination block at the upper right end of the falsification determination area 32 is the determination block Block (n), and the block ID is “n”. Since the judgment block at the left end of the next line (second line) is Block (n + 1), the block ID is "n + 1". Note that the block ID allocation method is not limited to a strong example as long as the determination block configured in the falsification determination area 32 can be identified based on the block ID.
  • FIG. 12 the original image 11 A case where there are a plurality of alteration determination areas 32 existing in FIG. 12 is an explanatory diagram showing an example of a schematic configuration of the original image 11 when there are a plurality of falsification determination areas 32, and FIG. 13 is an outline of each falsification determination area 32 shown in FIG. It is explanatory drawing which shows an example of a typical structure.
  • the original image 11 has a plurality of tampering determination areas 32 in the watermark area 30.
  • (32a, 32b, 32c) are allocated.
  • a method for assigning the alteration determination area 32 to the original image 11 for example, a method in which the user designates an area that needs to be judged whether or not it has been tampered with as an alteration determination area, or on the alteration detection device side, For example, a method for detecting a predetermined keyword by character recognition and automatically setting a falsification determination area for the area including the keyword can be exemplified.
  • each of the alteration determination areas 32 includes a plurality of determination block blocks as shown in FIG.
  • the block IDs of the determination block blocks configured in the falsification determination area 32a are “0” to “M ⁇ 1”.
  • the block IDs of the judgment blocks Block configured in the falsification judgment area 32b shown in Fig. 13 (b) are "M” to "N-1”.
  • the block IDs shown in Fig. 13 (c) Is from "N” to "L-1”.
  • the block ID is uniquely assigned without being duplicated in the judgment blocks in each tampering judgment area 32.
  • the size of the determination block Block which is a unit for dividing the alteration determination area 32 into a plurality of blocks, may be, for example, a fixed value or NXM (N and M are natural numbers) in the alteration determination area 32.
  • the size may be determined dynamically so that the size can be divided into two.
  • the sizes of the determination block blocks in the falsification determination areas 32 may all be the same. Instead, the size of each determination block Block divided for each falsification determination area 32 may be changed according to the importance of the falsification determination area 32 set in the original image 11.
  • the size of the determination block Block may be one pixel, and can be implemented even in the case of a determination block Block having any number of pixels. In the case of a decision block block with a size of ⁇ pixels, it is possible to perform more precise tampering detection, but the tampering detection device is more burdensome.
  • FIG. 11 or FIG. 13 and the like the description has been given by taking as an example a case where an interval of a predetermined distance is provided between each of the determination blocks B1 ock that are involved in the first embodiment. It is not limited to such an example.
  • each judgment block block is seamless without a gap, or as shown in Fig. 14, for example, each judgment block block (0) and judgment block Block (1) overlap each other. It can be implemented even in the case of overlapping parts.
  • FIG. 14 is an explanatory diagram showing an example of a schematic configuration of the falsification determination area divided by the determination block.
  • FIG. 15 is an explanatory diagram showing an example of an outline of the image feature data conversion process.
  • the image feature data conversion unit 14 is calculated via the feature extraction filter 40 described above. Based on the output value, image feature data for each feature extraction filter 40 is calculated for each judgment block Block configured in the falsification judgment area 32.
  • the image feature data conversion unit 14 converts the feature extraction filter 40a (filter A) into an image based on the output value calculated by the image feature extraction unit 12. ) Is overlaid with the falsification judgment area 32 (Fig. 9) that consists of judgment block Block.
  • the image feature data conversion unit 14 divides the result of the filtering process as shown in FIG. 9 visually into a falsification feature region 32 and a decision block Biock as shown in FIG.
  • the tampering determination area 32 is synthesized in a superimposed manner.
  • the image feature data conversion unit 14 calculates an evaluation value for evaluating the image feature of the determination block Block for each determination block Block based on the output value in the determination block Block area.
  • the filter in decision block Bloc k (n) is used for description.
  • X be Bw (X, n). Therefore, for example, the evaluation value for filter A in decision block Block (1) is Bw (A, 1). Note that “X” is “A” to “D” as shown in FIGS. 4 to 7, and n is “0” to “Bn-1” as shown in FIG. It is not limited to.
  • an evaluation value (Bw (A, 0)) by the filter A of the determination block Block (0) is calculated in the area of the determination block Block (0).
  • the average value of the output values obtained as a result of filtering by filter A is used as the evaluation value.
  • the evaluation value (Bw (B, 0)) by filter B in decision block Block (0) is the average value of the output values obtained from the filtering processing result by filter B in the region of decision block Block (0).
  • (A, 1)) includes at least a black area 90, a gray area 91a, a gray area 91b, and a white area 92 in the area of the determination block Block (1).
  • the output values corresponding to the regions are totaled, and the average value of the total is obtained by the image feature data conversion unit 14 and calculated as an evaluation value.
  • FIG. 16 is an explanatory diagram showing an example of the outline of the image feature data conversion process.
  • the image feature data conversion process shown in FIG. 16 will be described only with respect to the differences from the image feature data conversion process shown in FIG. 15, and the other details will be omitted because they are almost the same.
  • the image feature data conversion unit 14 is divided into a falsification feature region 32 obtained by imaging the filtering processing result as shown in FIG. 10 and a determination block Block as shown in FIG.
  • the tampering judgment area 32 is synthesized in a superimposed manner.
  • the evaluation value of filter B in the decision block Block (n) shown in FIG. 16 is Bw (B, n) as described above. Also, as shown in FIG. 16, for example, the evaluation value (Bw (B, n)) of the decision block Block (n) is at least a black region 10 in the region of the decision block Block (n).
  • the output values corresponding to (02) are totaled, and the average value of the total is obtained by the image feature data conversion unit 14 and calculated as the evaluation value.
  • the image feature data conversion unit 14 obtains the evaluation value of each determination block Block when the filter A and the filter B are used as the feature extraction filter, the image feature data conversion unit 14 An evaluation value table storing evaluation values is generated.
  • FIG. 17 is an explanatory diagram showing an example of a schematic configuration of an evaluation value table used in the first embodiment.
  • an evaluation value table 170 is generated by the image feature data conversion unit 14 as shown in FIG.
  • the evaluation value table 170 includes a block number n that uniquely indicates a judgment block Block, an evaluation value of each judgment block Block in the case of filter A, and each judgment in the case of filter B. It consists of evaluation value of block Block.
  • a block number is specified in the tampering determination area 32. Then, the evaluation value of each decision block Block by each feature extraction filter 40 (filter A, filter B) can be referred to or acquired.
  • the evaluation value table 170 shown in Fig. 17 is described by taking an example in which the evaluation value power of each determination block Block of filter A and filter B is also configured, but is not limited to such an example.
  • the evaluation value table 170 is an evaluation of each decision block block of one or more feature extraction filters 40, such as when the evaluation value of each decision block block of filter A, filter B, and filter C is also configured. As long as value is also configured, it is not limited to this example.
  • FIG. 18 is an explanatory diagram showing an example of a schematic configuration of an evaluation value table that is useful for the first embodiment.
  • the evaluation value table 170 shown in FIG. 18 is different from the evaluation value table 170 shown in FIG. 17 in that the feature extraction filter 40 configured in the evaluation value table 170 shown in FIG.
  • the feature extraction filter 40 configured in the evaluation value table 170 shown in FIG. 18 has four types of filters A to D, and thus differs in the type of the feature extraction filter 40. Since the points other than the above are substantially the same, the detailed description is omitted.
  • the evaluation value table 170 shown in Fig. 18 will be described by taking an example in which the evaluation value power of each judgment block Block of filter A to filter B is configured, but is not limited to such an example.
  • the evaluation value of each determination block Block of one or more types of feature extraction filters 40 is also configured, such as when the evaluation value of each determination block Bloc k of filter A to filter F is configured. Then, it is not limited to such an example!
  • each determination block Block that is relevant to the first embodiment has been described as an example in the case where it is obtained by the average value of the output values included in the determination block B1 ock area
  • the evaluation value of each decision block Block is set to a predetermined threshold value Vx for the output value obtained as a result of the filtering process by filter X (X is the type of filter). It is also possible to pick up only the output values that are larger than Vx in the area of the decision block Block and use the average of those picked up output values as the evaluation value.
  • Vx is a falsification of the filtering processing result by filter X. For example, an average value in the entire determination area 32.
  • the permeability information compositing unit 15 embeds the alteration detection data DATA, which is used when judging whether or not the force has been altered, into the original image 11 as a transparency by a processing method that will be described in detail later. It is assumed that the falsification detection data DATA is the following data.
  • Tampering detection data DATAO Header information such as size and data size of original image 11
  • Tampering detection data DATA1 Area information of tampering judgment area 32 (position coordinates, etc.)
  • Tampering detection data DATA2 Evaluation value table 170 (Image features) (List of evaluation values obtained by data conversion unit 14)
  • Falsification detection data DATA3 Position information and size information of each judgment block Block
  • the evaluation value table 170 of the falsification detection data DATA2 is directly transmitted from the evaluation value table 170 shown in FIG. 17 or FIG. May be embedded in the original image 11 or may be embedded after quantizing each feature extraction filter 40 with a predetermined value.
  • the position and size of each determination block block in the falsification determination area 32 are common in advance. If the same calculation method is used, the position and size of the judgment block Block can be recalculated on the permeability image input unit 20 side based on the position or size of the falsification judgment area 32. DATA3 can be omitted. Therefore, the amount of data in the falsification detection data DATA itself is reduced, and the efficiency of processing such as embedding as a watermark can be improved.
  • FIG. 19 is a flow chart showing an example of a schematic flow of processing of the permeable information composition unit 15.
  • step S101 falsification detection data DATA is converted into an N-element code (step S101).
  • the data may be encoded as it is, or the data may be encoded. A code obtained by encrypting the data may be encoded.
  • a watermark signal is assigned to each symbol of the codeword (step S102).
  • the transmitted signal represents a wave having an arbitrary wavelength and direction by the arrangement of dots (black pixels). The watermark signal will be further described later.
  • a signal unit corresponding to the bit string of the encoded data is arranged on the original image 11 (step S103).
  • FIG. 20 is an explanatory diagram showing an example of a watermark signal.
  • the size of these signals when they are printed on paper depends on the resolution of the transparent image. For example, the transparent image is 600 dpi (dot per inch).
  • a rectangle having a width and height of Sw and Sh is referred to as a "signal unit" as one signal unit.
  • the distance between dots is dense in the direction of arctan (3) (arctan is the inverse function of tan) with respect to the horizontal axis, and the wave propagation direction is arctan (–1Z3).
  • This signal cut is hereinafter referred to as unit A.
  • the distance between the dots is dense in the arctan (–3) direction with respect to the horizontal axis, and the wave propagation direction is arctan (lZ3).
  • this signal unit is referred to as unit B.
  • FIG. 21 is a cross-sectional view of the change in the pixel value in FIG. 20 (1), in which the directional force of arctan (lZ3) is also seen.
  • the portion where the dots are arranged becomes the antinode of the minimum value of the wave (the point where the amplitude is maximum), and the portion of the dots becomes the antinode of the maximum value of the wave.
  • symbol 0 is assigned to the watermark signal expressed by unit A
  • symbol 1 is assigned to the watermark signal expressed by unit B. These are also called symbol cuts.
  • Fig. 22 (4) the distance between the dots is dense in the arctan (–1Z3) direction with respect to the horizontal axis, and the wave propagation direction is arctan (3).
  • this signal unit is referred to as unit D.
  • the distance between the dots is dense in the direction of arctan (l) with respect to the horizontal axis, and the propagation direction of the wave is arctan (–1).
  • the distance between dots is dense in the direction of arctan (1) with respect to the horizontal axis, and the wave propagation direction can be considered to be arctan (1).
  • this signal unit is referred to as unit E.
  • step S102 shown in Fig. 19 if the falsification detection data DATA is encoded with a quaternary code, for example, codeword symbol 0 is assigned to unit A and symbol 1 is assigned to unit B. It is also possible to assign symbol 2 to unit C and symbol 3 to unit D.
  • unit E is defined as a background unit (signal unit to which no symbol is assigned), and this is arranged without gaps as the background of original image 11, and symbol unit ( If you embed unit A, unit B) in the original image 11, embed Swap the background unit (unit E) and the symbol unit (unit A, unit B) at the position.
  • FIG. 23 (1) is an explanatory diagram showing a case where unit E is defined as a background unit and arranged as a background of the original image 11 without gaps.
  • Fig. 23 (2) shows an example of unit A embedded in the background image of Fig. 23 (1)
  • Fig. 23 (3) shows unit B embedded in the background image of Fig. 23 (1).
  • An example is shown.
  • a method for setting the background unit as the background of the original image 11 will be described.
  • only the symbol unit may be arranged as the background of the original image 11.
  • FIG. 24 is an explanatory diagram showing an example of a symbol embedding method in the original image 11.
  • a case where a bit string “0101” is embedded will be described as an example.
  • the same symbol unit is repeatedly embedded. This is to prevent the character unit in the document from being detected when a signal is detected when it overlaps the embedded symbol unit.
  • the number of symbol unit repetitions and the pattern of arrangement (hereinafter referred to as the unit pattern). Is optional.
  • the number of repetitions is set to 4 (4 symbol units exist in one unit pattern) as shown in Fig. 24 (1), or as shown in Fig. 24 (2).
  • the number of repetitions can be set to 2 (two symbol units exist in one unit pattern), or the number of repetitions is set to 1 (only one symbol unit exists in one unit pattern) As well as more.
  • Fig. 24 (1) and (2) gives the power to which one symbol unit is given a symbol. As shown in Fig. 24 (3), a symbol is given to the arrangement pattern of symbol units. It's okay.
  • the number of bits of information that can be embedded in one page depends on the size of the signal unit, the size of the unit pattern, and the size of the original image.
  • the number of signals embedded in the horizontal and vertical directions of the original image may be detected as a known signal, or the input device power may be calculated back from the size of the input image and the size of the signal unit. good.
  • the number of bits that can be embedded in one page is called the “number of embedded bits”.
  • the number of embedded bits is Pw X Ph.
  • FIG. 25 is a flowchart showing a method for embedding the falsification detection data DATA in the original image 11.
  • the same information is repeatedly embedded in one sheet (one page) of the original image 11 when converted as printed matter.
  • the embedded information is extracted even if the embedded information disappears due to the entire unit pattern being filled when the original image 11 and the falsification detection data DATA are superimposed. This is to make it possible.
  • the alteration detection data DATA is converted into an N-element code (step S201). This is the same as step S101 in FIG.
  • the encoded data is referred to as a data code
  • the data code represented by a combination of cut patterns is referred to as a data code unit Du.
  • the code length data of the data code is inserted into the first row of the unit pattern matrix.
  • the code length of the data code may be fixed and the code length data may not be embedded.
  • the number Dn of embedding data code units is calculated by the following equation, where the data code length is Cn.
  • the unit pattern matrix has a Dn number of data code units and a queue corresponding to the first Rn bits of the data code. Embedded pattern. However, the Rn bit in the remainder is not necessarily embedded. It's okay.
  • the unit pattern matrix size is 9 X 11 (11 rows and 9 columns), and the data code length is 12 (in the figure, 0 to L 1 numbers are assigned to each data code). Represents a codeword).
  • code length data is embedded in the first row of the unit pattern matrix (step S203).
  • the code length is represented by 9-bit data and is embedded only once. However, if the unit pattern matrix width Pw is sufficiently large, the code length is the same as the data code. Data can be embedded repeatedly.
  • data code units are repeatedly embedded in the second and subsequent rows of the unit pattern matrix (step S204). As shown in Fig. 26, the MSB (most significant bit) or LSB (least significant bit) of the data code is embedded in the row direction. In the example in Fig. 26, the data code unit is embedded 7 times and the first 6 bits of the data code are embedded.
  • the data can be embedded so that it is continuous in the row direction V, or it can be embedded so as to be continuous in the column direction!
  • the transparent information composition unit 15 superimposes the original image 11 and the falsification detection data DATA.
  • the value of each pixel in the watermarked document image is calculated by ANDing the corresponding pixel values of the original image 11 and the falsification detection data DATA. That is, if either the original image 11 or the falsification detection data DATA is 0 (black), the pixel value of the watermarked original image is 0 (black), otherwise 1 (white).
  • FIG. 27 is an explanatory diagram showing an example of a watermarked document image.
  • Fig. 28 is an explanatory diagram showing a part of Fig. 27 on an enlarged scale.
  • the unit pattern shown in Fig. 24 (1) is used.
  • the watermarked original image 11 (output image 16) is output, for example, by an interface (not shown) of the transparent information combining unit 15.
  • the output image 16 is distributed after being printed on a print medium such as paper.
  • the input image 21 is a watermarked printed document of the output image 16 that has been imaged by an input device such as a scanner.
  • the present invention is not limited to this example, and the output image 16 is not printed. Even if the digital data is intact! /.
  • the filter A, the filter B, the filter C, and the filter D are used as the feature extraction filter 40. It is assumed that what kind of filter is used as the feature extraction filter 40 is known between the transparent image output unit 10 and the transparent image input unit 20.
  • the watermark information extraction unit 22 extracts and restores the falsification detection data DATA embedded in the original image 11 by a processing method that will be described in detail later.
  • the permeability information 28 (tamper detection data DATA) output from the information extraction unit 22 is, as described above, the alteration detection data DATAO, the alteration detection data DATA1, the alteration detection data DATA2, and the alteration detection data.
  • the data is DATA3.
  • the alteration detection data DATA3 can be omitted as described above.
  • FIG. 29 is a flowchart showing an example of a schematic flow of processing of the permeability information extracting unit 22
  • an original image with a watermark is input to a memory or the like of a computer by an input device 31 such as a scanner (step S301).
  • This image is referred to as an input image.
  • the input image is a multi-valued image and will be described as a 256-level gray image below.
  • the input image is not limited to a powerful example and may be a full-color image.
  • the resolution of the input image (the resolution when reading with an input device such as a scanner (not shown)) may be different from the watermarked original image created by the watermark image output unit 10. In the following description, it is assumed that the resolution is the same as that of the transparent image created by the image output unit 10. Also explained is the case where one unit pattern consists of one symbol unit. [0155] Signal Detection Filtering Process (Step S310)>
  • step S310 the entire input image 21 is filtered, and the filter output value is calculated and the filter output value is compared.
  • the filter output value is calculated by convolution between the filter and the image in all pixels of the input image 21 using a filter called Gabor filter shown below.
  • gw and gh are filter sizes, which are the same size as the signal unit embedded in the information embedding device 10 above.
  • the filter output value at an arbitrary position in the input image is calculated by convolution between the filter and the image.
  • a Gabor filter there are a real filter and an imaginary filter (an imaginary filter is a filter whose phase is shifted by half a wavelength from the real filter), and the mean square value of these filters is used as the filter output value.
  • the filter output value F (A, X, y) is calculated by the following formula.
  • the number of filters is two. However, even when the number of filters is larger than that, the maximum value of the plurality of filter output values and the signals corresponding to the filters at that time are similarly used. Remember the unit number.
  • step S320 the position of the signal unit is determined using the filter output value matrix obtained in step S310. Specifically, if the size of the signal unit is ShXSw, the signal with the grid points in the vertical direction is Sh, the horizontal interval is Sw, and the number of grid points is Nh X Nw. Create a location search template ( Figure 31). The size of the template created in this way should be the optimum value for searching for the signal unit position for the forces Nh and Nw for Th (Sh * Nh) XTw (Sw * Nw)!
  • the filter output value matrix is divided for each template size. Furthermore, in each divided area, the template grid points are moved while the template is moved pixel by pixel on the filter output value matrix within the range that does not overlap the signal units in the adjacent areas (horizontal direction SwZ2, vertical direction ShZ2,).
  • the sum V of the filter output value matrix values F (x, y) above is obtained using the following formula (Fig. 31), and the lattice point of the template with the largest sum is taken as the position of the signal unit in that region.
  • V (x, y) YF (x + Sw * u, y + Sh * v)
  • the filter output value is obtained for all pixels in step S310.
  • filtering it is also possible to perform filtering only on pixels at a certain interval. For example, when filtering is performed every two pixels, the interval between the grid points in the above signal position search template may be set to 1Z2.
  • step S330 the signal unit is determined to be A or B by referring to the value of the filter type matrix at the signal unit position determined in step S320 (signal unit number corresponding to the filter).
  • the determination result of the determined signal unit is stored as a symbol matrix as described above.
  • step S320 the filtering process is performed on the entire image regardless of whether the signal unit is embedded, so it is necessary to determine in which part the signal unit is embedded. Therefore, in step S340, the signal boundary is found by searching for the pattern determined when embedding the signal unit in advance from the symbol matrix.
  • the number of signal units A is counted in the horizontal direction of the symbol matrix determined in step S330, and the signal unit A is counted vertically from the center.
  • the position with the largest number of signal units A is defined as the upper end Z lower end of the signal boundary.
  • the signal unit A in the symbol matrix is expressed as “black” (or “0” in terms of value). Therefore, by counting the number of black pixels in the symbol matrix, the number of signal units A is calculated. Counting can be performed, and the upper end Z lower end of the signal boundary can be obtained from the frequency distribution. The left end and the right end can also be obtained in the same way, except for the direction in which the number of units A is counted.
  • the signal boundary is not limited to the above method, and it is only necessary to preliminarily determine the patterns that can be searched for the symbol matrix force on the embedding side and the detection side.
  • step S305 the partial information corresponding to the inside of the signal boundary in the symbol matrix is also replaced with the original information. Restore.
  • the unit pattern matrix is equivalent to the symbol matrix.
  • FIG. 33 is an explanatory diagram showing an example of information restoration.
  • the steps of information restoration are as follows.
  • 34 to 36 are explanatory diagrams showing an example of a data code restoration method.
  • the restoration method is basically the reverse process of FIG.
  • the code length data part of the first row force of the unit pattern matrix is extracted to obtain the code length of the embedded data code (step S401).
  • step S402 based on the size of the unit pattern matrix and the code length of the data code obtained in step S401, the number Dn of data code units embedded and the remainder Rn are calculated (step S402).
  • the data code unit is extracted from the second and subsequent rows of the unit pattern matrix by the reverse method of step S203 (step S403).
  • step S404 the embedded data code is reconstructed by performing bit certainty calculation on the data code unit extracted in step S403 (step S404).
  • the bit confidence calculation is described below.
  • Du (l, l) to Du (12, 1) are the duplication code units from which the second row and first column force of the unit pattern matrix is first extracted, and Du (l, 2) to Du (12, 2),. The remainder is Du (l, 8) to Du (6, 8).
  • the value of each symbol of the data code is determined by taking a majority vote for each element of each data code unit. Is to decide. As a result, for example, even if signal detection cannot be performed correctly from any unit in any data coding unit due to overlap with the character area or dirt on the paper, it will eventually be The data code can be correctly restored.
  • the first bit of the data code is that the signal detection result of Du (l, 1), Du (l, 2), ..., Du (l, 8) is 1. When there are many, it is determined as 1, and when there are more 0, it is determined as 0.
  • the second bit of the data code is determined by a majority decision based on the signal detection results of Du (2, 1), Du (2, 2), Du (2, 8), and the 12th bit of the data code is Du (12, 1), Du (12, 2), ..., Du (12, 7) (Du (12, 8) does not exist, so it is up to Du (12, 7)) Judgment by majority vote.
  • the position of the signal unit can be obtained using the signal position search template so that the sum of the filter output values is maximized. Even when the image expands or contracts due to paper distortion, the position of the signal unit can be detected correctly, and the falsification detection data DATA can be detected accurately from the watermarked original image (input image 21).
  • the image transformation unit 23 corrects the distortion of the input image 21 by a method such as an image correction process, which will be described in detail later, and uses the reference coordinates 31 of the original image 11 shown in FIG. A binarized corrected image 29 equal to is created.
  • FIG. 37 is a flowchart of the image transformation unit 23. The following explanation is based on this flowchart.
  • FIG. 38 shows the signal unit position detected in the first embodiment on the input image (original image 11 with watermark) 21.
  • U (l, y) to U (Wu, y) are signal units in the same row (reference numeral 710 in FIG. 38), and U (x, l) to U (x, Hu) are signal units in the same column ( The symbol is 720) in Fig. 38.
  • U (l, y) to U (Wu, y) and U (x, l) to U (x, Hu) are not actually arranged on the same straight line, and are slightly shifted vertically and horizontally. Yes.
  • the input image is filtered every N pixels vertically and horizontally (N is a natural number). This filtering is performed in the same manner as the signal position search step (step S320)> in the first embodiment.
  • P is a value obtained by simply multiplying the coordinate value of each signal unit in the signal output value matrix N times vertically and horizontally.
  • Figure 39 shows an example of line-like linear approximation.
  • the positions of signal units U (l, y) to U (Wu, y) in the same row are approximated by a straight line Lh (y).
  • the approximate line is such that the sum of the distances between the position of each signal unit and the line Lh (y) is the smallest.
  • Such a straight line can be obtained by a general method such as a least square method or principal component analysis.
  • the linear approximation in the row direction is performed for all rows, the rows, and similarly the linear approximation in the column direction for all columns!
  • Fig. 40 shows an example of the result of linear approximation in the row direction and the column direction.
  • Lh (y) is a straight line approximating U (l, y) to U (Wu, y) (symbol 810 in Fig. 40), and Lv (x) is U (x, l) to U (x, Hu) Is a straight line (reference numeral 820 in Fig. 40).
  • step S620 The straight line approximated in step S620 does not have the same slope or position when viewed individually, for example, because the detected signal units are misaligned to some extent. Therefore, in step S630, equalization is performed by correcting the inclination and position of each straight line.
  • FIG. 41 shows an example of correcting the slope of the approximate straight line Lh (y) in the row direction.
  • Figure 41 (a) is before correction
  • Fig. 41 (b) is after correction.
  • Lh (y) slope is corrected to be the average of the slopes of straight lines near Lh (y).
  • ⁇ Th (y + Nh) is an arbitrary natural number.
  • Fig. 41 shows an example when Nh is 1, and Fig. 41 (b) is corrected by the average value of the slope of the straight line of Lh (y) force Lh (y-1) to Lh (y + 1).
  • Nh 1
  • Fig. 41 (b) is corrected by the average value of the slope of the straight line of Lh (y) force Lh (y-1) to Lh (y + 1).
  • FIG. 42 shows an example of correcting the position of the approximate straight line Lh (y) in the row direction.
  • Figure 42 (a) is before correction
  • Fig. 42 (b) is after correction.
  • Q (y) is Q (y)
  • Q (y) is Lh (y It is corrected so that it becomes the average of the straight line positions in the vicinity of).
  • Q (y) AVERAGE ( And
  • Mh is an arbitrary natural number. If y—Mh 1 or y + Mh> Hu, no change is made.
  • Fig. 42 shows an example when Mh is set to 1.
  • Fig. 42 (b) is corrected by the midpoint (average) of the Lh (y) force SLh (y-1) and Lh (y + 1) straight line positions. An example is shown. This process can be omitted.
  • Figure 43 shows an example of calculating the intersection of the approximate straight lines Lh (l) to Lh (Hu) in the row direction and the approximate straight lines Lv (l) to Lv (Wu) in the column direction.
  • the intersection point is calculated by a general mathematical method.
  • the intersection calculated here is the corrected signal unit position.
  • the intersection of the approximate straight line Lh (y) in the row direction and the approximate straight line Lv (x) in the column direction is defined as the corrected position (Rx (x, y), Ry) of the signal unit U (x, y). (x, y)).
  • the corrected position of signal unit U (l, 1) is the intersection of Lh (l) and Lv (l)
  • a corrected image is created from the input image with reference to the signal unit position calculated in step S640.
  • the resolution when printing the watermarked original image output by the transparent image output unit 10 is Dout
  • the resolution when the input image 21 input to the watermark image input unit 20 is acquired is Din
  • the size of the corrected image 29 is the same as that of the input image 21. Let's say.
  • Fig. 44 shows an example of the correspondence between these coordinates.
  • Fig. 44 (a) shows the input image 1310 (input image 21)
  • Fig. 44 (b) shows the corrected image 1320 (corrected image 29). The relationship between (Xm, Ym) and (Xi, Yi) is explained using this figure.
  • U (x, y) (coordinate values are (Rx (x, y), Ry (x, y)), 1330), U (x + 1, y) in the input image 1 310 in FIG. ) (13 40), U (x, y + 1)
  • the distance between (1350) and (Xi, Yi) is Dl, D2, D3, respectively, and the ratio of D1 to D3 Dl: D2: D3 is El : E2: E3 is equal! /
  • the pixel value Vm of (Xm, Ym) is obtained from the pixel value Vi of the coordinates (Xi, Yi) on the input image 1310.
  • Fig. 45 shows a specific calculation method of such (Xi, Yi).
  • the symbol 14 30 in Fig. 45 (a) is the point where (Xm, Ym) is projected onto the straight line connecting U (x, y) and U (x + 1, y).
  • Fx Xm— Sx (x, y) It is.
  • the pixel value of the point (Xi, Yi) on the input image is set to the pixel value of the arbitrary point (Xm, Ym) on the corrected image 1420 in Fig. 45 (b).
  • (Xi, Yi) is generally a real value
  • the pixel value at the coordinates closest to (Xi, Yi) on the input image is used, or the pixel values of the four neighboring pixels and their distance
  • the pixel value is calculated from the ratio.
  • the image captured from the printed material is corrected from the image captured from the printed material in order to correct the image captured from the printed document based on the position information of the signal embedded at the time of printing. Can be restored without distortion or expansion / contraction, so that the position between these images can be matched with high accuracy, and high-performance alteration detection can be performed.
  • the image feature extracting unit 24 displays the image features for the corrected image 29 and determines whether or not tampering has occurred. Output the comparison output value. Note that the method of outputting the comparison output value is substantially the same as that described in the image feature extraction unit 12, and therefore detailed description thereof is omitted.
  • the region division processing unit 25 and the image feature data conversion unit 26 are similar to the region division processing unit 13 and the image feature data conversion unit 14. The detailed description is omitted because it is substantially the same as described.
  • the comparative evaluation value output from the image feature data converting unit 26 is the image feature data of each determination block Block for the corrected image 29.
  • the evaluation value by the filter X of the decision block Block (n) is Bw (X, n) ( X is A, B, C, or D, and n is 0 to: Bn—1).
  • Bd the comparative value calculated by the image feature data conversion unit 26 and output to the tampering determination unit 27.
  • Df Df (X, n)
  • the falsification determination unit 27 calculates the absolute value difference (Df (X, n)) between the evaluation value of each determination block Block and the comparative evaluation value. If Df (X, n) satisfies any of the following “Criteria 1” to “Criteria 4”, it is considered that the position corresponding to the block (n) of input image 21 has been tampered with.
  • criterion 1 indicates that the difference between the absolute value of the evaluation value in filter A and the comparative evaluation value is greater, and criterion 2 above indicates that the evaluation value in filter B and the comparative evaluation a
  • the difference between the absolute value and the value is greater than T.
  • the difference between the absolute value of the evaluation value and the comparative evaluation value is greater than ⁇ .
  • FIGS. 46 to 49 are explanatory diagrams showing an example of an outline of the falsification determination process by the falsification determination unit 27.
  • FIG. 46 to 49 the character “X” existing in the image area 190-1 in the alteration determination area 32 of the original image 11 is displayed in the image area 190-2 in the alteration determination area 32 of the input image 21.
  • FIG. 10 is a diagram for explaining tampering determination processing when the character is rewritten as “L”.
  • the image area 190b-1 is the result of filtering by the filter B for the image area 190-1
  • the image area 190c-1 is the result of the filtering process by the filter C for the image area 190-1.
  • the image area 190d-1 shows the result of filtering by the filter D! /
  • the letter “X” is mainly composed of a straight line in the upper right direction and a straight line in the upper left direction, as shown in image area 190a-1 and image area 190b-1 in Fig. 46, Therefore, the response to the straight line in the horizontal and vertical directions is weak, and the response to the straight line in the oblique direction is strong, as shown in image areas 190c-1 and 190d-1.
  • FIG. 47 is an explanatory diagram showing an example of a schematic configuration when the image region 190-1 including the “X” character is divided into a plurality of determination block Blocks.
  • the evaluation values (Bw (C, M), Bw (C, N + l)) of the decision block Block (M) and decision block Block (N + 1) in the image area 190c-1 Evaluation value (Bw (D, M + 1), Bw (D, N) of judgment block Block (M + 1), judgment block Block (N), and judgment block Block (N + 1) in image area 190d-1 , Bw (D, N + 1)) are particularly large values, and other evaluation values are small values.
  • FIG. 48 shows the above filter A to filter for the same position (image area 190-2) as the character "X" contained in the image area 190-1 of the alteration determination area 32.
  • An example of the result of filtering by D is shown. It is assumed that “X” is replaced with “L” in the input image 21 by some action.
  • the image area 190a-2 shows the result of filtering with the filter A in the image area 190-2
  • the image area 190b-2 shows the result of filtering with the filter B in the image area 190-2
  • Image area 190c-2 shows the result of filtering process by filter C in image area 190-2
  • image area 190d-2 shows the result of filtering process by filter D in image area 190-2.
  • FIG. 49 is an explanatory diagram showing an example of a schematic configuration when the image region 190-2 including the character “L” is divided into a plurality of determination block Blocks. As shown in Fig.
  • the falsification determination unit 27 performs a determination process of whether or not the falsified force is based on, for example, the evaluation value and the comparison evaluation value of each determination block Block shown in Figs.
  • the falsification determination unit 27 uses the evaluation value of the judgment block Block in the falsification judgment area 32 of the original image 11 shown in Fig. 47 as shown in Fig. 49 corresponding to the judgment block Block of the original image 11.
  • the absolute value Df (C, M) which is the difference between the pair of evaluation values (Bw (C, M) and Bd (C, M)) when it is larger than the comparative evaluation value of the decision block Block in image 21, or Bw ( Since the absolute value Df (C, N + 1) of the difference between C, N + 1) and Bd (C, N + 1) exceeds the threshold Tc, the decision block Block (M), decision block Block (N + It can be determined that the position corresponding to l) has been tampered with.
  • the falsification determination unit 27 evaluates the case where the evaluation value of the determination block Block of the original image 11 shown in Fig. 47 is smaller than the comparison evaluation value of the determination block Block of the input image 21, for example.
  • the value 'comparative evaluation value pair (Bw (A, M + 1), Bd (A, M + 1)) is the difference between the absolute value Df (A, M + 1) and the evaluation value' comparison evaluation value pair (Bw Since the absolute value Df (A, N + 1), etc. of the difference between (A, N + 1) and Bd (A, N + 1)) exceeds the threshold Ta, the decision block Block (M + 1) and decision block It can be determined that tampering has occurred at a position corresponding to Block (N + 1).
  • criteria 5 may be added to the above-mentioned criteria consisting of criteria 1 to criteria 4, or only "decision criteria 5" shown below can be used. It can be implemented even with the following criteria.
  • the above criterion 5 is a criterion for a simple sum of Df (A, n) to Df (D, n).
  • Df (X, n) may be obtained from the following expression from the determination block Block ( ⁇ + ⁇ ) included in the neighborhood region of the determination block Block (n).
  • Df (X, n) MAX ⁇
  • MAX ⁇ is the maximum value of
  • the transparency image output unit 10 or the transparency image input unit 20 can automatically determine whether or not the printed document has been tampered with.
  • the falsification detection device that works in the second embodiment aims to reduce the amount of data by, for example, transparently using only the character area feature data in the document image as information. .
  • the differences from the falsification detection device that works in the first embodiment will be explained in detail, and the other points will be substantially explained. Are omitted because they are the same.
  • FIG. 50 is a block diagram showing an example of a schematic configuration of the watermark image output unit 1010 according to the second embodiment.
  • the transparent image output unit 1010 and the first realization which are the same as those of the second embodiment are used.
  • the difference between the transparent image output unit 10 and the transparent image output unit 1010 according to the second embodiment is that a character region extraction unit 1017 is further added to the transparent image output unit 1010 according to the second embodiment.
  • the character region extraction unit 1017 extracts a character region from the original image 1011.
  • the original image 1011 in the second embodiment is a document image created by a document creation tool or the like.
  • the area division processing unit 1013 divides the character area extracted by the character area extraction unit 1017 into blocks of an arbitrary size. When the character area is divided, the character area consists of multiple decision block blocks.
  • FIG. 24 is a block diagram showing an example of a schematic configuration of a watermark image input unit that can be applied to the second embodiment.
  • the transparent image input 1020 that is effective in the second embodiment is substantially the same as the configuration of each part of the transparent image input unit 20 that is effective in the first embodiment.
  • the detailed description is omitted.
  • the tampering detection device that works in the second embodiment includes the above-described transparent image output unit 1010 and Z or transparent image input unit 1020.
  • Fig. 52 is an explanatory diagram showing an example of an outline of the extraction process that extracts the character area that works well in the second embodiment
  • Fig. 53 divides the character area that is used in the second embodiment. It is explanatory drawing which shows an example of the outline of a division
  • the character area extraction unit 1017 identifies the character area 1251 for the falsification determination area 32 in the image area of the original image 1011, and extracts the character area 1251 from the falsification determination area 32.
  • character area extraction unit 1017 extracts the character area 1251, as shown in Fig. 52, only the portion of the alteration determination area 32 that is a character is recognized, and the character area 1251 (1251a, 1 251b, 1251c ).
  • character area 1 is character area 1251a.
  • Character area 2 is character area 1251b
  • character area 3 is character area 1251c, but is not limited to this example.
  • the character area 1251 shown in Fig. 52 is described as an example in which horizontally written characters are included.
  • the character area 1251 is not limited to a powerful example. , Even when vertical writing is included. In the above case, subsequent processing can be executed in the same way as in horizontal writing by rotating the characters contained in the character area 1251 by 90 degrees.
  • the character area extraction processing of the character area extraction unit 1017 will be described.
  • the character area extraction unit 1017 performs dilation processing on an area consisting of black pixels (black pixel area) in the alteration determination area 32. Execute.
  • the expansion process is performed by a commonly used image process.
  • the character region extraction unit 1017 performs labeling on the character region on which the expansion processing has been performed, and obtains a character region consisting of a minimum rectangle surrounding each character such as one character or two characters.
  • Labeling is a so-called black pixel grouping process in which a set of continuously collected black pixels is defined as one group. By labeling the above, it is possible to extract a character area with a minimum rectangular force of one or two characters.
  • the reason why the character region extraction unit 1017 performs the expansion process is to improve the efficiency of the labeling process, and the processing time of the labeling process can be shortened by the powerful expansion process.
  • the character region extraction unit 1017 grasps the position of the character region having the minimum rectangular force that has been labeled, and combines the character regions composed of the minimum rectangles on the left and right of the character region. As a result, the character area extraction unit 1017 can extract a character area 1251 including a plurality of characters. As a result of the above combining process, the character area 1251 may contain only one character.
  • the character area extraction unit 1017 according to the second embodiment when extracting the character area 1251, is an example in which the alteration determination area 32 does not exist in particular, such as a straight line other than characters.
  • the examples are not limited to powerful examples. For example, horizontal or vertical shorelines Even if there is a falsification judgment area 32, it can be implemented. In the above case, the character area is extracted after removing the shoreline existing in the document image 11 including the alteration determination area 32.
  • the filtering process for outputting the output value by the image feature extraction unit 1012, as in the case of the image feature extraction unit 12 that works in the first embodiment,
  • the filtering process may be executed, or the filtering process may be executed only for the character region 1251 extracted by the character region extraction unit 1017 for the purpose of shortening the processing time.
  • the region division processing unit 1013 executes the division processing for each determination block Block on the character region 1251 extracted by the character region extraction unit 1017. Therefore, there are one or more decision blocks Block in the character area 1251.
  • the character area 1251 is divided into two parts at the top and bottom, and further divided into n parts in the horizontal direction. Therefore, the height of the judgment block Block is a value obtained by dividing the character area 1251 into two in the vertical direction, and differs for each character area 1251.
  • the width of the decision block block is a fixed value determined in advance, but is not limited to a powerful example.
  • the width of the decision block block is dynamically set to a value obtained by dividing the character area 1251 into N parts in the horizontal direction. The width may be changed to, or the width and height may be fixed values determined in advance.
  • the image feature digitizing unit (first image feature evaluating unit) 1014 executes filtering processing and generates an output value.
  • the processing of the image feature data conversion unit 1014 that works in the second embodiment is substantially the same as the image feature data conversion unit 14 that works in the first embodiment. Omitted.
  • the transparent detection f blue report composition unit 1015 further includes the falsification detection data DATA4 shown below. Included in falsification detection data DATA.
  • DATA4 Position information and size information of the character area
  • the falsification detection data DATA includes the falsification detection data DATA. Add more DATA5.
  • DATA5 Location information and size information to identify the shoreline area (where the shoreline is drawn)
  • the watermark image input unit 1020 that works according to the second embodiment has substantially the same configuration as the permeability image input unit 20 according to the first embodiment, and thus detailed description thereof is omitted.
  • the image deformation unit 1023 if the tampering information 1028 (falsification detection data DATA) includes the falsification detection data DATA5 (straight line area information), the image deformation unit 1023 Only the shoreline region is removed from the region.
  • the image transformation unit 1023 searches for a place where black pixels exist continuously while scanning in the horizontal direction or the vertical direction of the image area. . If the black pixels are detected continuously for a predetermined value or more, the area where the black pixels are present is determined to be a shoreline area. Further, the image transformation unit 1023 removes the above-described lane region by changing the black pixel to a white pixel.
  • the area division processing unit 1025 acquires the falsification detection data DATA4 and the falsification detection data. Recalculate the position and size of the decision block based on the character area information indicated by DATA4.
  • the input image 21 in which the transparent blueprint is embedded is printed on a printed matter such as paper, and the printed document is tampered with an image incorporating the interface power of a scanner or the like.
  • the determination has been described as an example, but the present invention is not limited to an example that is powerful. For example, this can be done even when the input image 21 is not printed and tampering is judged as it is.
  • the present invention can be applied to a falsification detection device, a watermarked image input device, a watermarked image output device, and a search information providing system capable of detecting falsification of a document image or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

【課題】 透かし情報を自動的に埋め込み,出力画像を生成し,その出力画像から透かし情報を抽出し,出力画像の改ざんを自動的に検出可能な改ざん検出装置等を提供する。 【解決手段】 改ざん検出装置は,原画像の判定領域32に対して特定の形状に強く反応する特徴抽出フィルタ40を施して出力値を計算し;各判定領域を判定ブロックで分割し;出力値を基に各判定ブロックの評価値を算出し;透かし情報28として判定領域の位置情報又は各判定ブロックの評価値等を原画像に埋め込み出力画像を生成し;透かし情報を抽出し;比較原画像を生成し;判定領域の位置情報等を基に比較原画像における判定領域に対し特徴抽出フィルタを施して比較出力値を計算し;判定ブロック単位に比較原画像の判定領域を分割し;比較評価値を算出し;原画像の各判定ブロックの評価値と比較原画像の各判定ブロックの比較評価値との差分から比較原画像の判定領域に改ざんがあると判定する。

Description

明 細 書
改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置, 透かし入り画像出力方法,および透かし入り画像入力方法
技術分野
[0001] 本発明は,文書画像などの画像の改ざん検出に関する。
背景技術
[0002] コピー用紙などの印刷媒体に印字データを印刷し,印刷物を生成すると,その印刷 物に印刷されたテキストや画像などを見ることによって,印刷物に印刷された内容を 把握することができる。
[0003] 一方,画像や文書データなどのディジタルデータにコピー'偽造防止のための情報 や機密情報を目視できな ヽ形式で埋め込む「電子透かし」が存在して ヽる。その「電 子透かし」を文書データ等に埋め込むことで,偽造等の不正行為を未然に防ぐため の技術が存在する。
[0004] 上記「電子透かし」の技術を応用して,上記印刷媒体に印字データを印刷する際に ,上記印字データの他に,上記印字データに対応した電子透力 を一緒に印刷する と,その印刷物を人の目で見ただけで,印刷物に印刷してある電子透力 情報から, 印刷物に印字された文字が改変される等の印刷物の改ざんを発見できる(例えば, 特許文献 1参照)。なお,改ざんされている力否かの判定は印刷結果と電子透かしで 印字されてものを比較することによって行われて 、る。
[0005] 特許文献 1:特開 2000— 232573号公報
発明の開示
発明が解決しょうとする課題
[0006] し力しながら,印刷物に改ざんされた力否かを判定するために,電子透かしから取り 出した印字内容と,印刷物に印刷されている印字内容とを目視によって比較する必 要があった。
[0007] したがって,以下(1)及び(2)に示すような問題があった。 (1)目視による判定であ るため大量の印刷物の改ざんの有無を短時間で処理することは困難であった。 (2) 印字内容を 1文字ずつ読み比べる必要があるため,人為的なミスによって改ざんの 見逃しが起こる可能性があった。
[0008] 本発明は,上記問題点に鑑みてなされたものであり,本発明の目的は,透かし情報 を自動的に埋め込み,出力画像を生成し,その出力画像力も埋め込まれた透力 情 報を抽出し,出力画像の改ざんを自動的に検出することが可能な,新規かつ改良さ れた改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし 入り画像出力方法,および透かし入り画像入力方法を提供することである。
課題を解決するための手段
[0009] 上記課題を解決するため,本発明の第 1の観点によれば,改ざん検出装置が提供 される。上記改ざん検出装置は,画像を入力し,その入力画像の画像領域のうち改 ざんされた力否かを判定する 1又は 2以上の判定領域に対して特定の形状に強く反 応する 1又は 2種以上の特徴抽出フィルタのうち少なくとも一種の特徴抽出フィルタを 施して出力値を計算する第 1の画像特徴抽出部と;画像の各判定領域を所定の大き さの判定ブロックで分割する第 1の領域分割処理部と;算出された出力値に基づき, 特徴抽出フィルタごとに各判定ブロックの評価値を算出する第 1の画像特徴評価部と ;画像のサイズ情報,画像における判定領域の位置情報,判定領域のサイズ情報, 各判定ブロックの位置情報,各判定ブロックのサイズ情報,または各判定ブロックの 評価値のうち少なくとも一つの情報を透力し情報として画像に埋め込み,出力画像を 少なくとも生成する透力 情報埋め込み部と;出力画像に埋め込まれた透かレ f青報を 抽出する透力 情報抽出部と;少なくとも出力画像を加工し,画像と略同一サイズの 比較画像を生成する画像生成部と;抽出された透かレ f青報に含まれる少なくとも判定 領域の位置情報と,判定領域のサイズ情報と,各判定ブロックの位置情報と,各判定 ブロックのサイズ情報とに基づいて,比較画像における判定領域に対し,特徴抽出フ ィルタを施して比較出力値を計算する第 2の画像特徴抽出部と;比較画像の各判定 領域を判定ブロックで分割する第 2の領域分割処理部と;上記算出された比較出力 値に基づ 、て,各判定領域に施された特徴抽出フィルタごとに判定ブロックの比較 評価値を算出する第 2の画像特徴評価部と;上記透かし情報に含まれる画像におけ る各判定ブロックの評価値を取得し,該画像の各判定ブロックの評価値と比較画像 の各判定ブロックの比較評価値との差分を特徴検出フィルタごとに計算し,該特徴検 出フィルタごとに算出された 1又は 2以上の差分値のうち少なくとも一つが所定値より も大き 、場合,その比較評価値に対応する比較画像の判定領域には改ざんがあつ たと判定する改ざん判定部とを備えることを特徴としている。なお,出力画像から評価 値を計算する際に用いられる上記特徴抽出フィルタは,画像から評価値を計算する 際に用いられた特徴抽出フィルタと同一のものである。
[0010] 本発明によれば,改ざん検出装置は,特定の形状に強く反応する特徴抽出フィル タを用いて,改ざんの有無を判定する対象の領域 (判定領域)について画像の反応 状況を検出するフィルタリング処理を実行し,その結果,出力値が求まる。次に,今度 は判定領域を判定ブロック単位に分割し,その判定ブロックごとに,上記出力値に基 づ 、て評価値を計算する。当該判定ブロックごとの評価値が改ざんの判定基準 (マス タ)となり,透力 情報として出力画像に埋め込まれる。出力画像として出力後,出力 画像を不正に改ざんされたか否かを検出する段階で,出力画像を画像と同じサイズ に加工し,出力画像から評価値を画像における処理と同様に計算し,出力画像にお ける比較評価値と画像における評価値との差分値によって比較対照すれば,出力画 像の判定領域に改ざんの有無を判定することができる。力かる構成によれば,人の目 によらなくとも自動的に改ざんを検出し,改ざんの有無を自動的に判定することがで きる。さらに,人の目による改ざん検出よりも改ざん検出精度を向上させ,処理時間も 短縮化される。さらに,判定ブロックごとに改ざんの有無を判定するため,判定領域 内のどの位置が改ざんされたの力判定ブロックで把握することが可能であるため,利 用者は容易にその改ざんされた該当個所を確認することができる。なお,上記画像 生成部は,出力画像に縮小 Z拡大などの所定処理を施すことで,出力画像に生じる 歪みや汚れなどを補正し,改ざん検出の精度の向上化が図れる。
[0011] 上記出力画像は,紙などの印刷媒体に印刷された印刷物,または画像に透かレ f青 報が埋め込まれた画像データなどで構成してもよい。カゝかる構成により,改ざんの有 無を判定する対象範囲が広く,汎用性を向上させることができる。
[0012] 上記課題を解決するために,本発明の別の観点によれば,透かし入り情報出力装 置が提供される。上記透かし入り情報出力装置は,画像を入力し,その入力画像の 画像領域のうち改ざんされた力否かを判定する 1又は 2以上の判定領域に対して特 定の形状に強く反応する 1又は 2種以上の特徴抽出フィルタのうち少なくとも一種の 特徴抽出フィルタを施して出力値を計算する画像特徴抽出部と;画像の各判定領域 を所定の大きさの判定ブロックで分割する領域分割処理部と;算出された出力値に 基づき,特徴抽出フィルタごとに各判定ブロックの評価値を算出する画像特徴評価 部と;画像のサイズ情報,画像における判定領域の位置情報,判定領域のサイズ情 報,各判定ブロックの位置情報,各判定ブロックのサイズ情報,または各判定ブロック の評価値のうち少なくとも一つの情報を透力し情報として画像に埋め込み,出力画像 を生成する透力 情報埋め込み部とを備えることを特徴としている。
[0013] 本発明によれば,透かし入り画像出力装置は,特定の形状に強く反応する特徴抽 出フィルタを用いて,改ざんの有無を判定する対象の領域 (判定領域)について画像 の反応状況を検出するフィルタリング処理を実行し,出力値を求め,さらに判定領域 を判定ブロック単位に分割し,その判定ブロックごとに,上記出力値に基づいて評価 値を計算する。当該判定ブロックごとの評価値を透かレ f青報として出力画像に埋め込 む。カゝかる構成により,改ざんを検出したい対象領域である判定領域の画像を特徴 抽出フィルタによってフィルタリング処理することで,例えばハッシュ値等のような改ざ んされた場合,容易に判定可能な評価値を生成し,画像に埋め込み出力画像を生 成することができる。さらに,改ざん判定時に,上記出力画像から評価値を抽出すれ ば,それらの評価値と,被判定対象である出力画像から求めた比較評価値との差分 に基づき,効率的な改ざん判定処理を実現させることができる。
[0014] 上記評価値は,判定ブロック内に存在する 1又は 2以上の前記出力値の平均値で あるように構成してもよく,また上記評価値は,特徴抽出フィルタごとに設定された所 定値よりも大きい出力値のうち,判定ブロック内に存在する 1又は 2以上の出力値の 平均値であるように構成してもよい (例えば,第 1の実施形態)。
[0015] 上記画像に設定される判定領域は,該判定領域内の領域全てに対して特徴抽出 フィルタが施されるように構成してもよく(例えば,第 1の実施形態),画像に設定され た判定領域は,該判定領域内に文字が存在する領域のみを網羅するように再配置さ れるように構成してもよ ヽ(例えば,第 2の実施形態)。 [0016] 上記特徴抽出フィルタは,画像の特定の方向に傾く直線に強く反応するフィルタで あるように構成してもよい。
[0017] 上記課題を解決するために,本発明の別の観点によれば,透かし入り画像入力装 置が提供される。上記透かし入り画像入力装置は,画像に,上記画像のサイズ情報 ,上記画像の画像領域のうち改ざんされたカゝ否かを判定する 1又は 2以上の判定領 域の位置情報,判定領域のサイズ情報,判定領域を分割することで判定領域に構成 される 1又は 2以上の各判定ブロックの位置情報,各判定ブロックのサイズ情報,また は各判定ブロックの評価値のうち少なくとも一つの情報が透力し情報として埋め込ま れることで生成された出力画像から,透力し情報を抽出する透力し情報抽出部と;少 なくとも出力画像を加工し,画像と略同一サイズの比較画像を生成する画像生成部と ;抽出された透力し情報に含まれる少なくとも判定領域の位置情報,判定領域のサイ ズ情報,各判定ブロックの位置情報,または各判定ブロックのサイズ情報のうち少なく とも一つに基づいて,比較画像における判定領域に対し,特定の形状に強く反応す る 1又は 2種以上の特徴抽出フィルタのうち少なくとも一種の特徴抽出フィルタを施し て比較出力値を計算する画像特徴抽出部と;比較画像の各判定領域を判定ブロック で分割する領域分割処理部と;算出された比較出力値に基づいて,各判定領域に 施された特徴抽出フィルタごとに判定ブロックの比較評価値を算出する画像特徴評 価部と;透力し情報に含む画像における各判定ブロックの評価値を取得し,該画像の 各判定ブロックの評価値と比較画像の各判定ブロックの比較評価値との差分を特徴 検出フィルタごとに計算し,該特徴検出フィルタごとに算出された 1又は 2以上の差分 値のうち少なくとも一つが所定値よりも大きい場合,その比較評価値に対応する比較 画像の判定領域には改ざんがあつたと判定する改ざん判定部とを備えることを特徴と している。
[0018] 本発明によれば,透かし入り画像入力装置は,印刷物またはディジタル文書画像 等に沿うとする出力画像を不正に改ざんされたか否かを検出する段階で,出力画像 を画像と同じサイズに加工し,出力画像力も評価値を画像における処理と同様に計 算し,出力画像における比較評価値と画像における評価値との差分値によって比較 対照すれば,出力画像の判定領域に改ざんの有無を判定することができる。かかる 構成によれば,人間の目に頼らなくても透かし入り画像入力装置が自動的に改ざん を検出し,改ざんの有無を自動的に判定することができる。さらに,人による改ざん検 出よりも改ざん検出精度を向上させ,処理時間も短縮化される。さらに,判定ブロック ごとに改ざんの有無を判定するため,判定領域内のどの位置が改ざんされたの力判 定ブロックで把握することが可能であるため,利用者は容易にその改ざんされた該当 個所を確認することができる。
[0019] 上記改ざん判定部は,透力し情報に含む画像における各判定ブロックの評価値を 取得し,画像の各判定ブロックの評価値と比較画像の各判定ブロックの比較評価値 との差分を特徴検出フィルタごとに計算し,該特徴検出フィルタごとの差分値を線形 結合した値が,所定値よりも大きい場合,その比較評価値に対応する比較画像の判 定領域には改ざんがあつたと判定するように構成してもよ 、。
[0020] 上記評価値は,判定ブロック内に存在する 1又は 2以上の出力値の平均値であるよ うに構成してもよく,上記評価値は,特徴抽出フィルタごとに設定された所定値よりも 大きい前記出力値のうち,判定ブロック内に存在する 1又は 2以上の出力値の平均値 であるように構成してもよ 、。
[0021] 上記課題を解決するために,本発明の別の観点によれば,透かし入り画像出力方 法が提供される。上記透かし入り画像出力方法は,画像を入力し,その入力画像の 画像領域のうち改ざんされた力否かを判定する 1又は 2以上の判定領域に対して特 定の形状に強く反応する 1又は 2種以上の特徴抽出フィルタのうち少なくとも一種の 特徴抽出フィルタを施して出力値を計算する画像特徴抽出処理と;画像の各判定領 域を所定の大きさの判定ブロックで分割する領域分割処理と;上記算出された出力 値に基づき,特徴抽出フィルタごとに各判定ブロックの評価値を算出する画像特徴 評価処理と;画像のサイズ情報,画像における判定領域の位置情報,判定領域のサ ィズ情報,各判定ブロックの位置情報,各判定ブロックのサイズ情報,または各判定 ブロックの評価値のうち少なくとも一つの情報を透力し情報として画像に埋め込み, 出力画像を生成する透かし情報埋め込み処理とを含むことを特徴とする。
[0022] さらに,上記課題を解決するために,本発明の別の観点によれば,透かし入り画像 入力方法が提供される。上記透かし入り画像入力方法は,画像に,当該画像のサイ ズ情報,画像の画像領域のうち改ざんされたか否かを判定する 1又は 2以上の判定 領域の位置情報,判定領域のサイズ情報,判定領域を分割することで判定領域に構 成される 1又は 2以上の各判定ブロックの位置情報,各判定ブロックのサイズ情報,ま たは各判定ブロックの評価値のうち少なくとも一つの情報が透力し情報として埋め込 まれることで生成された出力画像から,透かし情報を抽出する透かし情報抽出処理と ;少なくとも出力画像を加工し,画像と略同一サイズの比較画像を生成する画像生成 処理と;抽出された透力し情報に含まれる少なくとも判定領域の位置情報,判定領域 のサイズ情報,各判定ブロックの位置情報,または各判定ブロックのサイズ情報のう ち少なくとも一つに基づいて,比較画像における判定領域に対し,特定の形状に強 く反応する 1又は 2種以上の特徴抽出フィルタのうち少なくとも一種の特徴抽出フィル タを施して比較出力値を計算する画像特徴抽出処理と;比較画像の各判定領域を 判定ブロックで分割する領域分割処理処理と;上記算出された比較出力値に基づ ヽ て,各判定領域に施された特徴抽出フィルタごとに判定ブロックの比較評価値を算 出する画像特徴評価処理と;透かレ f青報に含む画像における各判定ブロックの評価 値を取得し,該画像の各判定ブロックの評価値と比較画像の各判定ブロックの比較 評価値との差分を特徴検出フィルタごとに計算し,該特徴検出フィルタごとに算出さ れた 1又は 2以上の差分値のうち少なくとも一つが所定値よりも大きい場合,その比較 評価値に対応する比較画像の判定領域には改ざんがあつたと判定する改ざん判定 処理とを含むことを特徴として!/、る。
発明の効果
[0023] 以上説明したように,本発明によれば,人間の目で改ざんの有無を検出せずに,装 置単独で改ざんの有無を自動的に判定することができる。また,人間が改ざん検出 するよりも装置が改ざん検出した方が,改ざん検出の精度が向上し,改ざん検出処 理時間も短縮化される。
図面の簡単な説明
[0024] [図 1]透力 画像出力部の概略的な構成を示すブロック図である。
[図 2]透力 画像入力部の概略的な構成を示すブロック図である。
[図 3]本実施の形態にカゝかる原画像の概略的な構成の一例を示す説明図である。 [図 4]画像特徴抽出に用いる特徴抽出フィルタの概略的な構成の一例を示す説明図 である。
[図 5]画像特徴抽出に用いる特徴抽出フィルタの概略的な構成の一例を示す説明図 である。
[図 6]画像特徴抽出に用いる特徴抽出フィルタの概略的な構成の一例を示す説明図 である。
[図 7]画像特徴抽出に用いる特徴抽出フィルタの概略的な構成の一例を示す説明図 である。
[図 8]フィルタ Aを特徴抽出用フィルタとして選択した場合のフィルタリング処理の概 略の一例を示す説明図である。
[図 9]フィルタ Aによるフィルタリング処理の概略的な結果の一例を示す説明図である
[図 10]フィルタ Bによるフィルタリング処理の概略的な結果の一例を示す説明図であ る。
圆 11]改ざん判定領域を判定ブロック単位に分割した場合の改ざん判定領域の概略 的な構成を示す説明図である。
[図 12]改ざん判定領域が複数存在する場合の原画像の概略的な構成の一例を示す 説明図である。
圆 13]図 12に示す各改ざん判定領域の概略的な構成の一例を示す説明図である。 圆 14]判定ブロックで分割された改ざん判定領域の概略的な構成の一例を示す説明 図である。
圆 15]画像特徴データ化処理の概略の一例を示す説明図である。
圆 16]画像特徴データ化処理の概略の一例を示す説明図である。
圆 17]第 1の実施の形態にカゝかる評価値テーブルの概略的な構成の一例を示す説 明図である。
圆 18]第 1の実施の形態にカゝかる評価値テーブルの概略的な構成の一例を示す説 明図である。
[図 19]透力 情報合成部の処理の概略的な流れの一例を示すフローチャートである 圆 20]透かし信号の一例を示す説明図である。
[図 21]図 20 (1)の画素値の変化を arctan (lZ3)の方向から見た断面図である。
[図 22]透かし信号の一例を示す説明図であり, (3)はユニット Cを, (4)はユニット Dを , (5)はユニット Eを示している。
[図 23]図 23 (1)はユニット Eを背景ユニットと定義し,これを隙間なく並べて原画像 11 の背景とした場合を示す説明図である。図 23 (2)は図 23 (1)の背景画像の中にュ- ット Aを埋め込んだ一例を示し,図 23 (3)は図 23 (1)の背景画像の中にユニット Bを 埋め込んだ一例を示して!/ヽる。
[図 24]原画像へのシンボル埋め込み方法の一例を示す説明図である。
[図 25]透力し情報を原画像に埋め込む方法について示したフローチャートである。 圆 26]透力 情報を原画像に埋め込む方法について示した説明図である。
圆 27]透かし入り文書画像の一例を示す説明図である。
[図 28]図 27の一部を拡大して示した説明図である。
[図 29]透力し情報抽出部 22の処理の概略的な流れの一例を示すフローチャートで ある。
[図 30]第 1の実施の形態における信号検出フィルタリング工程 (ステップ S310)の説 明図である。
圆 31]第 1の実施の形態における信号位置探索工程 (ステップ S320)の説明図であ る。
圆 32]第 1の実施の形態における信号境界決定工程 (ステップ S340)の説明図であ る。
圆 33]情報復元の一例を示す説明図である。
圆 34]データ符号の復元方法の一例を示す説明図である。
圆 35]データ符号の復元方法の一例を示す説明図である。
圆 36]データ符号の復元方法の一例を示す説明図である。
[図 37]画像変形部 23のフローチャートである。
圆 38]検出された信号ユ ット位置の例を示す説明図である。 圆 39]近似直線の検出の例を示す説明図である。
圆 40]直線近似を行った結果の例を示す説明図である。
圆 41]傾きの補正を示す説明図である。
圆 42]位置の補正を示す説明図である。
圆 43]直線の交点の例を示す説明図である。
[図 44]入力画像と補正画像の位置の対応例を示す説明図である。
[図 45]入力画像と補正画像の対応付け方法の例を示す説明図である。
[図 46]改ざん判定部 27による改ざん判定処理の概略の一例を示す説明図である。
[図 47]改ざん判定部 27による改ざん判定処理の概略の一例を示す説明図である。
[図 48]改ざん判定部 27による改ざん判定処理の概略の一例を示す説明図である。
[図 49]改ざん判定部 27による改ざん判定処理の概略の一例を示す説明図である。
[図 50]第 2の実施の形態に力かる透かし画像出力部 1010の概略的な構成の一例を 示すブロック図である。
[図 51]第 2の実施の形態に力かる透かし画像入力部 1020の概略的な構成の一例を 示すブロック図である。
圆 52]第 2の実施の形態に力かる文字領域を抽出する抽出処理の概略の一例を示 す説明図である。
[図 53]第 2の実施の形態にかかる文字領域を分割する分割処理の概略の一例を示 す説明図である。
符号の説明
10 透かし画像出力部
11 原画像
12, 24 画像特徴抽出部
13, 25 領域分割処理部
14, 26 画像特徴データ化部
15 透かし 報合成部
16 出力画像
20 透かし画像入力部 21 入力画像
22 透力し情報抽出部
23 画像変形部
27 改ざん判定部
28 透かし 報
29 補正情報
32 改ざん判定領域
40 特徴抽出フィルタ
発明を実施するための最良の形態
[0026] 以下,本発明の好適な実施の形態について,添付図面を参照しながら詳細に説明 する。なお,以下の説明及び添付図面において,略同一の機能及び構成を有する 構成要素については,同一符号を付することにより,重複説明を省略する。
[0027] 以降の説明では文書は白黒 (背景が白,文字が黒)であることを前提に説明を行う 力 背景と文字の色が異なっていれば,どのような色の組み合わせについても実施 可能である。
[0028] (第 1の実施の形態について)
まず,図 1を参照しながら,第 1の実施の形態に力かる改ざん検出装置に備わる透 力し画像出力部 10について説明する。図 1は,第 1の実施の形態に力かる透力し画 像出力部 10の概略的な構成を示すブロック図である。
[0029] 図 1に示すように,透力 画像出力部 (透かし入り画像出力装置) 10は,原画像 (画 像) 11を入力として,透かし入りの出力画像 16を出力する。上記原画像 (画像) 11は ,複数の画素から構成される画像データである。
[0030] 上記画像データには,例えば,文字,図形,記号,もしくはシンボルまたはそれらの 任意な組合せが少なくとも含まれている。したがって,画像データは小説など文字だ けの場合,または新聞など静止画と文字力もなる場合を例示することができる。なお, 本明細書における図形は,広義の意味として,上記画像データに含まれる文字,図 形,記号,もしくはシンボルまたはそれらの任意な組合せを総称する場合もある。
[0031] 出力画像 16は,上記原画像 11に透力 情報が埋め込まれた画像データであるが ,力かる例に限定されず,例えば,出力画像 16は,プリンタ等の印刷手段によって紙 などの印刷媒体に印刷された印刷物の場合でもよい。
[0032] 画像特徴抽出部 12は,原画像 11の画像領域のうち改ざんの有無の判定をする改 ざん判定領域 (又は,判定領域)内において特徴抽出フィルタを用いて画像特徴を 示す出力値を計算する。なお,改ざんは,出力画像 16の完全性を失うことであり,つ まり出力画像 16を正確かつ完全な状態に維持できなくなることである。したがって, 例えば,出力画像 16に不正の目的でなくとも何らかの改変等があれば改ざんに該当 するものとする。また,上記特徴抽出フィルタを用いた出力値の計算については後程 説明する。
[0033] 領域分割処理部 13は,画像特徴抽出部 12で画像の特徴を計算した改ざん判定 領域について,各改ざん判定領域ごと所定の大きさの判定ブロックに分割する。なお ,上記判定ブロックについては,後程説明する。
[0034] 画像特徴データ化部 (第 1の画像特徴評価部) 14は,領域分割処理部 13で分割し た判定ブロックごとに上記計算した出力値に基づき,各特徴抽出フィルタの評価値を 計算する。なお,上記評価値の計算については,後程説明する。
[0035] 透かし情報合成部 (透力し情報埋め込み部) 15は,上記画像特徴データ化部 14に より計算された各特徴抽出フィルタの各判定ブロックの評価値を少なくとも含む情報 を透カゝし情報として原画像 11に埋め込み,出力画像 16を生成する。なお,出力画像 16に埋め込まれた透力 情報は,出力画像 16が印刷された印刷物などの場合,そ の印刷物の表面に地紋等のように表示される場合等を例示することができる。
[0036] 次に,図 2を参照しながら,第 1の実施の形態に力かる改ざん検出装置に備わる透 力 画像入力部 20について説明する。なお,図 2は,第 1の実施の形態に力かる透 力 画像入力部 20の概略的な構成を示すブロック図である。
[0037] 透力 画像入力部 (透かし入り画像入力装置) 20は,改ざん検出装置に備わり,出 力画像 16又は当該出力画像 16を印刷した印刷物の任意個所が改ざんされた力否 かを判定する。なお,第 1の実施の形態に力かる改ざん検出装置には上記透力し画 像出力部 10及び Ζ又は透力 画像入力部 20が備わる。
[0038] 図 2に示すように,透力し画像入力部 20は,出力画像 16を印刷した透かし入りの印 刷物をスキャナなどの入力デバイス(図示せず。 )により計算機に取り込んだ入力画 像 21から改ざん検出を行う。なお,第 1の実施の形態に力かる透かし画像入力部 20 は,透力 画像出力部 10で生成された出力画像 16を印刷した入力画像 21から改ざ ん検出を行う場合について説明するが,出力画像 16を印刷せずに出力画像 16をそ のまま改ざん検出を行う場合でも実施可能である。その場合は,入力画像 21は出力 画像 16と同一である。また,上記入力画像 21は,出力画像 16,または出力画像 16 を印刷した印刷物をスキャナ等の入力デバイスで画像ィ匕されたものである。
[0039] 透力し情報抽出部 22は,入力画像 21から透力し情報 28を抽出する。なお,透かし 情報 28の抽出処理および透かレ f青報 28の詳細については後程詳細に説明する。
[0040] 画像変形部(画像生成部) 23は入力画像 21の補正を行 ヽ,補正画像 29を生成す る。なお,補正後の補正画像 29は,原画像 11と略同一の大きさの画像であり,当該 補正画像 29と透かし情報 28に基づいて生成される比較原画像 (比較画像)とを対比 することで改ざんを検出するが,詳細については後述する。
[0041] 画像特徴抽出部 24は,透力し情報 28に含まれる改ざん判定領域に関する情報に 基づき,補正画像 29における改ざん判定領域を特定し,その改ざん判定領域に対し て特徴抽出フィルタを用いて画像特徴を示す比較出力値を計算する。なお,上記比 較出力値は,透力し情報 28に含まれる出力値との差分値を計算することで改ざんさ れた力否かを判定するための判定基準となる値である。
[0042] 領域分割処理部 25は,画像特徴抽出部 24で特徴を計算した改ざん判定領域の 比較出力値を,透力し情報 28に含まれた判定ブロックの大きさや,判定ブロックの位 置などに関する情報に基づいて 1又は 2以上の判定ブロックに分割する。
[0043] 画像特徴データ化部 (第 2の画像特徴評価部) 26は,領域分割処理部 25で分割し た判定ブロックごとに上記計算した比較出力値に基づき,各特徴抽出フィルタの比較 評価値を計算する。なお,上記比較評価値の計算については,上記画像特徴デー タ化部 14の評価値の計算と実質的に同一であり,詳細については後述する。
[0044] 改ざん判定部 27は,入力画像 21から抽出された透カゝし情報 28に含む各特徴抽出 フィルタの評価値と,画像特徴データ化部 26で計算した各特徴抽出フィルタの比較 評価値とを比較し,所定の判定基準に基づいて改ざんの有無の判定を行う。上記改 ざん有無の判定については,後程詳述する。
[0045] (原画像 11について)
次に,図 3を参照しながら,本実施の形態に力かる原画像 11について説明する。図 3は,本実施の形態にカゝかる原画像の概略的な構成の一例を示す説明図である。
[0046] 図 3に示すように,本実施の形態に力かる原画像 11には,透かし領域 30と,改ざん 判定領域 32とが存在する画像データである。透かし領域 30は,透カゝし情報が重畳さ れる領域である。透力し情報は,コピー ·偽造防止のための情報や機密情報等であり ,上記透力し情報が透かし領域 30に埋め込まれる。なお,透力し情報を透かし領域 3 0に埋め込む処理につ!、ては後述する。
[0047] また,透かし領域 30の左上の座標(基準座標 31)は,当該透かし領域 30の領域を 示す基準となる座標である。なお,基準座標 31は,図示の通り,例えば, (0, 0)であ るが,力かる例に限定されない。改ざん判定領域 32は改ざんされた力否かを判定す る対象となる領域であり,この改ざん判定領域の始点の座標 33を (Ax, Ay) ,改ざん 判定領域の幅 34を Aw,改ざん判定領域の高さ 35を Ahとする。
[0048] (特徴抽出フィルタについて)
次に,図 4〜図 7を参照しながら,特徴抽出フィルタについて説明する。図 4〜図 7 は,画像特徴抽出に用いる特徴抽出フィルタの概略的な構成の一例を示す説明図 である。
[0049] 図 4〜図 7に示す 1又は 2パターン以上の特徴抽出フィルタ 40は原画像 11のうちの 特定の図形に強く反応するように設計されて!ヽる。
[0050] 図 4に示す特徴抽出フィルタ 40a (フィルタ A)は,特徴抽出フィルタ 40a中心部に 垂直方向に黒とするバーが存在し,その両側に黒よりも明度が高いグレー色のバー が存在し,以降黒バーよりも遠ざかるにつれて徐々に明度等が高まるようなバーが複 数存在すし,それら複数のバーによって濃淡を表わしている。上記特徴抽出フィルタ 40aは,濃淡を表わす複数のバーに対応する図形,即ち原画像 11の画像のうち垂 直方向に伸びるような直線等に強く反応する。なお,垂直方向に伸びる直線の形状 が多少曲がった場合等でも反応する。
[0051] 次に,図 5に示す特徴抽出フィルタ 40b (フィルタ B)は,特徴抽出フィルタ 40b中心 部に水平方向に黒色のバーが存在し,その両側に黒よりも明度が高いグレー色のバ 一が存在し,以降黒バーよりも遠ざかるにつれて徐々に明度等が高まるようなバーが 複数存在し,それら複数のバーによって濃淡を表わしている。上記特徴抽出フィルタ
40bは,濃淡を表わす複数のバーに対応する図形,即ち原画像 11の画像のうち水 平方向に伸びるような直線等に強く反応する。なお,水平方向に伸びる直線の形状 が多少曲がった場合等でも反応する。
[0052] 次に,図 6に示す特徴抽出フィルタ 40c (フィルタ C)は,例えば図示のように右上及 び左下頂点を結ぶ黒色のバーが存在し,その両側に黒よりも明度が高いグレー色の バーが存在し,以降黒バーよりも遠ざかるにつれて徐々に明度等が高まるようなバー が複数存在し,それら複数のバーによって濃淡を表わしている。上記特徴抽出フィル タ 40cは,濃淡を表わす複数のバーに対応する図形,即ち原画像 11の画像のうち右 斜め上方向に伸びるような直線等に強く反応する。なお,右斜め上方向に伸びる直 線の形状が多少曲がった場合等でも反応する。
[0053] また,第 1の実施の形態に力かる特徴抽出フィルタ 40cに構成される濃淡を表わす 複数のバーの角度はフィルタ Cの右上及び左下頂点を黒バーが通過するような場合 を例に挙げて説明したが,力かる例に限定されず,例えば,濃淡を表わす複数のバ 一の角度は, 30度, 45度,または 70度などいかなる角度の場合でも実施可能である
[0054] 次に,図 7に示す特徴抽出フィルタ 40d (フィルタ D)は,例えば図示のように左上及 び右下頂点を結ぶ黒色のバーが存在し,その両側に当該黒よりも明度が高いグレー 色のバーが存在し,以降黒バーよりも遠ざかるにつれて徐々に明度等が高まるような バーが複数存在し,それら複数のバーによって濃淡を表わしている。上記特徴抽出 フィルタ 40d (フィルタ D)は,濃淡を表わす複数のバーに対応する図形,即ち原画像 11の画像のうち右斜め下方向に伸びるような直線等に強く反応する。なお,右斜め 下方向に伸びる直線の形状が多少曲がった場合等でも反応する。
[0055] また,第 1の実施の形態に力かる特徴抽出フィルタ 40dに構成される濃淡を表わす 複数のバーの角度はフィルタ Dの左上及び右下頂点を黒バーが通過するような場合 を例に挙げて説明したが,力かる例に限定されず,例えば,濃淡を表わす複数のバ 一の角度は, 30度, 45度,または 70度などいかなる角度の場合でも実施可能である
[0056] また,第 1の実施の形態に力かる特徴抽出フィルタ 40a〜40dでは,濃淡を表わす 複数のバーが直線の場合を例に挙げて説明したが,力かる例に限定されず,例えば ,特徴抽出フィルタ 40a〜40dには,上記濃淡を表わす複数の円形状のバーが存在 し, 円形状の図形に強く反応するフィルタ等の場合でも良い。
[0057] さらに,第 1の実施の形態に力かる特徴抽出フィルタ 40a〜40dは,例えば,ゥエー ブレットフィルタ,ガボールフィルタ,または画像認識の際に用いられるテンプレート 画像等の場合でもよい。
[0058] (画像特徴抽出部 12の動作について)
画像特徴抽出部 12は, 1又は 2種以上のフィルタ (特徴抽出フィルタ 40a〜40d)か ら画像特徴を抽出するための特徴抽出用フィルタ 40を選択する。選択後,原画像 11 の改ざん判定領域 32に対して特徴抽出フィルタ 40を介した反応状況を検出する処 理 (フィルタリング処理)を行う。その結果として得られた出力値はメモリ等の記録手段 に記録される。
[0059] 次に,図 8を参照しながら,画像特徴抽出部 12によるフィルタリング処理について 説明する。図 8は,フィルタ A (特徴抽出フィルタ 40a)を特徴抽出用フィルタとして選 択した場合のフィルタリング処理の概略の一例を示す説明図である。なお,図 8に示 すフィルタリング処理は,フィルタ Aの場合におけるフィルタリング処理を説明するが, 力かる例に限定されず,他の特徴抽出フィルタ 40の場合のフィルタリング処理も図 8 に示すフィルタリング処理と同様である。
[0060] 図 8に示すように,原画像 11の画像領域のうち改ざんされた力否かを判定するため の改ざん判定領域 32の左上隅力も順に,改ざん判定領域 32上を 1ラインずつラスタ 一方向(図 8に示す矢印の方向)に走査しながら,フィルタ Aと画像との畳み込み積分 を計算する。力かる計算によって,上記説明したフィルタ Aに構成された濃淡を表わ す複数のバーと同一又は類似する水平方向の直線に強く反応する図形を検出する ことができる。なお,上記図形は,広義の意味として,上記画像データに含まれる文 字,図形,記号,もしくはシンボルまたはそれらの任意な組合せを総称する。また,走 查単位は特徴抽出フィルタ 40を 1ブロックとして,当該特徴抽出フィルタ 40をラスター 方向にブロック単位に走査して 、く。
[0061] 次に,上記ラスター方向にフィルタ Aによるフィルタリング処理が実行されると,図 9 に示すような結果となる。なお,図 9は,フィルタ Aによるフィルタリング処理の概略的 な結果の一例を示す説明図である。
[0062] 図 9に示すように,黒色の領域 90は,フィルタ Aに強く反応した領域である。上記黒 色領域 90は,上記計算結果で得られた出力値が所定の閾値 t以上の場合,画像特 徴抽出部 12によって黒色領域 90であると判断される。即ち,フィルタ Aによって黒色 領域 90であると判断された改ざん判定領域 32の画像(図形)は,極めて垂直方向に 伸びる直線に近似しているといえる。
[0063] 次に,図 9に示す黒色領域 90よりも明度が高いグレー色の領域 91は,フィルタ Aに 中程度に反応した領域である。上記グレー色領域 91は,上記計算結果で得られた 出力値が閾値 t以上でかつ閾値 t未満である場合,画像特徴抽出部 12によってグ
2 1
レー色領域 91であると判断される。即ち,フィルタ Aによってグレー色領域 91である と判断された該当するブロックの画像(図形)は,黒色領域 90程に直線に近似してい な 、ものの中程度に直線に近!、と!/、える。
[0064] 次に,図 9に示す明度が最も高い白色領域 92は,フィルタ Aに反応しな力つた領域 である。上記白色領域 92は,上記計算結果で得られた出力値が閾値 t未満である
2
場合,画像特徴抽出部 12によって白色領域 92であると判断される。即ち,フィルタ A によって白色領域 92であると判断された該当ブロックの画像(図形)は,垂直方向に 伸びる直線には近似しないといえる。
[0065] 次に,改ざん判定領域 32においてラスター方向にフィルタ Bによるフィルタリング処 理が実行されると,図 10に示すような結果となる。なお,図 10は,フィルタ Bによるフィ ルタリング処理の概略的な結果の一例を示す説明図である。
[0066] 図 10に示すように,黒色領域 100は,フィルタ Bに強く反応した領域である。上記黒 色領域 100は,上記計算結果で得られた出力値が所定の閾値 t以上の場合,画像
3
特徴抽出部 12によって黒色領域 100であると判断される。即ち,フィルタ Bによって 黒色領域 100であると判断された改ざん判定領域 32の画像(図形)は,水平方向に 伸びる直線に極めて近 、と 、える。
[0067] 次に,図 10に示す黒色領域 100よりも明度が高いグレー色の領域 101は,フィルタ Bに中程度に反応した領域である。上記グレー色領域 101は,上記計算結果で得ら れた出力値が閾値 t以上でかつ閾値 t未満である場合,画像特徴抽出部 12によつ
4 3
てグレー色領域 101であると判断される。即ち,フィルタ Bによってグレー色領域 101 であると判断された個所 (ブロック)の図形は,直線に極めて近似しているとはいえな V、ものの中程度に水平方向に伸びる直線に近似して!/、ると!/、える。
[0068] 次に,図 10に示す明度が最も高い白色領域 102は,フィルタ Bに反応しな力つた領 域である。上記白色領域 102は,上記計算結果で得られた出力値が閾値 t未満であ
4 る場合,画像特徴抽出部 12によって白色領域 102であると判断される。即ち,フィル タ Bによって白色領域 102であると判断された該当ブロックの画像(図形)は,水平方 向に伸びる直線には近似しな 、と 、える。
[0069] なお,上記図 9および図 10に示すフィルタリング処理の結果は,画像データであり, フィルタ 40を走査することで得られた出力値に基づ 、て,画像データに変換されたも のである。また,上記フィルタリング処理の結果,得られる出力値は実数であるが,か 力る例に限定されない。
[0070] また,第 1の実施の形態に力かるフィルタリング処理では,原画像 11における改ざ ん判定領域 32を拡大 Z縮小処理せずそのままの大きさでフィルタリング処理を行つ ても良いし,予め定められた所定の倍率で縮小または拡大した後にフィルタリング処 理を行ってもよい。力かる拡大処理後にフィルタリング処理をすることで,出力値を微 調整することができる。また,縮小処理後にフィルタリング処理することで,黒画素の 領域を縮小することができるため処理速度を向上化させることができ,または出力画 像が印刷物の場合には印刷面に生じた汚れなどを縮小し目立たなくすることができ るため,改ざん検出の精度を容易に高めることができる。
[0071] 上記改ざん判定領域 32を縮小または拡大した後にフィルタリング処理を行った場 合,フィルタリング処理の結果も縮小または拡大された画像サイズとなる。以下の説 明では改ざん判定領域 32の拡大または縮小を行わな 、ものとするが,拡大または縮 小を行った場合,領域に関する変数を同じ倍率で拡大または縮小することにより,以 下の説明と同じ処理で実施できる。
[0072] (領域分割処理部 13の動作について)
次に,画像特徴抽出部 12によるフィルタリング処理が終了すると,領域分割処理部 13によって,所定の大きさのブロック単位で改ざん判定領域 32を複数のブロックに 分割される。なお上記分割された複数のブロックが判定ブロックであり,上記判定プロ ックが改ざんされた力否かを判定する判定処理単位のブロックである。
[0073] 次に,図 11を参照しながら,改ざん判定領域 32を分割した複数の判定ブロックに ついて説明する。なお,図 11は,改ざん判定領域 32を判定ブロック単位に分割した 場合の改ざん判定領域 32の概略的な構成を示す説明図である。
[0074] 図 11に示すように,改ざん判定領域 32は複数の判定ブロック Block (Block (0) , B lock (l) , · ··, Block (Bn—1) )から構成されている。判定ブロックには,ブロック IDが ,例えば 0, 1, 2, "- 11 1等のように割り振られる。
[0075] 図 11に示す判定ブロックのブロック IDは,改ざん判定領域 32の左上端の判定ブロ ックが判定ブロック Block (0)であり,ブロック IDが" 0"となる。その右隣が判定ブロッ ク Block ( 1 )で,ブロック IDが " 1 "である。
[0076] また,改ざん判定領域 32の右上端の判定ブロックが図 11に示すように,判定ブロッ ク Block (n)であり,ブロック IDが" n"となる。次の行(2行目)の左端の判定ブロックを Block (n+ 1)としているため,ブロック IDが" n+ 1"である。なお,ブロック IDに基づ Vヽて改ざん判定領域 32に構成された判定ブロックを識別可能であれば,ブロック ID の割振り方法は,力かる例に限定されない。
[0077] 上記改ざん判定領域 32に複数の判定ブロックにブロック IDを割振ることで,ブロッ ク IDから改ざん判定領域 32のどの位置に該当するかを認識することができる。例え ば,ブロック ID力 ' 1 "であれば,改ざん判定領域 32の 1行目の左端の判定ブロック B1 ock(O)の右隣の位置であることを把握することができる。つまり,画像入力部 20側で ブロック IDと改ざん判定領域 32における該当位置との対応ができるようにブロック ID の割り振りが行われる。
[0078] 上記説明では,図 11を参照しながら,原画像 11に存在する改ざん判定領域 32が 単数の場合について説明した。ここでは,図 12及び図 13を参照しながら,原画像 11 に存在する改ざん判定領域 32が複数の場合について説明する。なお,図 12は,改 ざん判定領域 32が複数存在する場合の原画像 11の概略的な構成の一例を示す説 明図であり,図 13は,図 12に示す各改ざん判定領域 32の概略的な構成の一例を示 す説明図である。
[0079] 図 12に示すように,原画像 11には,透かし領域 30内に複数の改ざん判定領域 32
(32a, 32b, 32c)が割当てられている。なお,原画像 11に改ざん判定領域 32を割 当てる方法としては,例えば,改ざんされた力否かの判定が必要な領域を改ざん判 定領域としてユーザが指定する方法,または改ざん検出装置側で,文字認識によつ て所定のキーワードを検出し,そのキーワードを含む領域を自動的に改ざん判定領 域を設定する方法等を例示することができる。
[0080] 図 12に示す透かし領域 30内の改ざん判定領域 32 (32a, 32b, 32c)を分割すると ,改ざん判定領域 32各々は,図 13に示すような複数の判定ブロック Blockから構成 される。
[0081] 図 12及び図 13に示すように,原画像 11に対して複数の改ざん判定領域 32が設定 されている場合,ブロック IDと改ざん判定領域 32における該当位置との対応をとるた めに,例えば,原画像 11に設定した全ての改ざん判定領域 32が分割された全ての 判定ブロックに対して一意のブロック IDを割り振る(同じブロック IDを持つ改ざん検出 ブロックは 2つ以上存在しない。)か,または各改ざん判定領域 32に一意の番号を割 り振り,それ以降は上記図 11に示した判定ブロックのブロック IDの割振りと同様とす る(改ざん判定領域 32に割り振った番号とその改ざん判定領域 32を分割した各判定 ブロックのブロック IDとの組み合わせにより番号付けを行う。 )等の方法を例示するこ とができるが,係る例に限定されない。
[0082] 図 13 (a)に示すように,改ざん判定領域 32aに構成された判定ブロック Blockのブ ロック IDは, "0"〜"M—1"である。次に,図 13 (b)に示す改ざん判定領域 32bに構 成された判定ブロック Blockのブロック IDは, "M"〜"N—1"であり,同様に図 13 (c) に示すブロック IDは, "N"〜"L— 1"である。以上,図 13 (a)〜図 13 (c)に示したよう に,ブロック IDは,各改ざん判定領域 32の判定ブロックでは重複せず,一意に割振 られているのが分かる。 [0083] また,改ざん判定領域 32を複数ブロックに分割する単位となる判定ブロック Block の大きさは,例えば,固定値でもよいし,改ざん判定領域 32内を N X M (N, Mは自 然数)に分割することが可能な大きさになるよう動的にサイズを決めても良い。
[0084] また,原画像 11に複数の改ざん判定領域 32が設定されている場合,例えば,改ざ ん判定領域 32の判定ブロック Blockの大きさを全て同じの場合でもよく,係る例に限 定されず,原画像 11に設定された改ざん判定領域 32の重要度に応じ,改ざん判定 領域 32ごとに分割する各判定ブロック Blockの大きさを変えても良い。
[0085] 上記判定ブロック Blockの大きさは, 1画素の場合でもよく,いかなる画素数力もな る判定ブロック Blockの場合でも実施可能である。なお,判定ブロック Blockの大きさ 力 ^画素の場合,より詳細な精度の高い改ざん検出を行うことができるが,その分改 ざん検出装置に処理負荷が力かる。
[0086] また,図 11又は図 13等に示すように,第 1の実施の形態に力かる各判定ブロック B1 ockの間は,所定距離だけ間隔を空ける場合を例に挙げて説明したが,かかる例に 限定されない。例えば,各判定ブロック Blockの間を隙間なくシームレスである場合, または図 14に示すように,例えば,判定ブロック Block (0)と判定ブロック Block (1)と がー部重なり合うなど,各判定ブロック Blockがー部重なり合う等の場合でも実施可 能である。なお,図 14は,判定ブロックで分割された改ざん判定領域の概略的な構 成の一例を示す説明図である。
[0087] なお,第 1の実施の形態に力かる改ざん判定領域 32は,例えば,図 3に示すように 原画像 11に 1つだけ設定され,判定ブロック Blockは,図 11に示すように改ざん判 定領域 32に B X n個だけ配置され,図 11で示すように各判定ブロック Blockは,隣り 合う判定ブロック Blockと所定間隔空けて改ざん判定領域 32に配置されるものとする 力 力かる例に限定されない。
[0088] (画像特徴データ化部 14の動作について)
次に,図 15を参照しながら,第 1の実施の形態に力かる画像特徴データ化部 14に よる画像特徴データ化処理について説明する。なお,図 15は,画像特徴データ化処 理の概略の一例を示す説明図である。
[0089] 画像特徴データ化部 14は,上記説明の特徴抽出フィルタ 40を介して計算された 出力値に基づき,改ざん判定領域 32に構成された判定ブロック Blockごとに各特徴 抽出フィルタ 40別の画像特徴データを計算する。
[0090] 上記画像特徴データを計算する画像特徴データ化処理では,画像特徴データ化 部 14は,画像特徴抽出部 12によって計算された出力値に基づいて画像化された特 抽出フィルタ 40a (フィルタ A)のフィルタリング処理結果を示す改ざん判定領域 32 ( 図 9)と,判定ブロック Blockから構成される改ざん判定領域 32 (図 11)を重ね合わせ る。
[0091] 図 15に示すように,画像特徴データ化部 14によって図 9に示すようなフィルタリング 処理結果を視覚的に示す改ざん特徴領域 32と,図 11に示すような判定ブロック Bio ckで分割された改ざん判定領域 32とが重畳的に合成されている。
[0092] 次に,画像特徴データ化部 14は,判定ブロック Blockごとに当該判定ブロック Bloc k領域内の出力値に基づいてその判定ブロック Blockの画像特徴を評価するための 評価値を算出する。
[0093] ここで,図 15に示す各判定ブロック Blockにおいて,どの特徴抽出フィルタ 40でフ ィルタリング処理が行われた評価値であるかを示すため,表記上,判定ブロック Bloc k (n)におけるフィルタ Xの評価値を Bw (X, n)とする。したがって,例えば,判定ブロ ック Block (1)のフィルタ Aの場合の評価値は Bw (A, 1)となる。なお, "X"は,図 4〜 図 7に示すように" A"〜"D"であり, nは図 11に示すように" 0"〜"Bn— 1"であるが, 力かる例に限定されない。
[0094] 図 15に示す判定ブロック Blockの評価値としては,例えば,判定ブロック Block (0) のフィルタ Aによる評価値(Bw (A, 0) )は,判定ブロック Block (0)の領域内における フィルタ Aによるフィルタリング処理結果で得られた出力値の平均値を評価値とする。 また,判定ブロック Block (0)のフィルタ Bによる評価値 (Bw (B, 0) )は,判定ブロック Block (0)の領域内におけるフィルタ Bによるフィルタリング処理結果で得られた出力 値の平均値を評価値とするが,力かる例に限定されない。
[0095] 例えば,図 15に示すように,判定ブロック Block (1)のフィルタ Aによる評価値(Bw
(A, 1) )は,上記判定ブロック Block (1)の領域内に少なくとも黒色領域 90と,グレー 色領域 91aと,グレー色領域 91bと, 白色領域 92とを含んでいるため,当該それらの 領域に対応する出力値を総計し,その総計の平均値が画像特徴データ化部 14によ つて求められ,評価値として算出される。
[0096] 次に,図 16を参照しながら,画像特徴データ化部 14によるフィルタ Bの場合の画像 特徴データ化処理について説明する。なお,図 16は,画像特徴データ化処理の概 略の一例を示す説明図である。また,図 16に示す画像特徴データ化処理は,図 15 に示す画像特徴データ化処理との相違点についてのみ説明し,その他については ほぼ同様であるため詳細な説明を省略する。
[0097] 図 16に示すように,画像特徴データ化部 14は,図 10に示すようなフィルタリング処 理結果を画像化した改ざん特徴領域 32と,図 11に示すような判定ブロック Blockで 分割された改ざん判定領域 32とを重畳的に合成する。
[0098] 図 16に示す判定ブロック Block (n)におけるフィルタ Bの評価値は,上記説明の通 り, Bw (B, n)となる。また,図 16に示すように,例えば,判定ブロック Block (n)の評 価値 (Bw (B, n) )は,上記判定ブロック Block (n)の領域内に少なくとも黒色領域 10
0と白色領域 102を含んでいるため,当該それらの領域 (黒色領域 100, 白色領域 1
02)に対応する出力値を総計し,その総計の平均値が画像特徴データ化部 14によ つて求められ,評価値として算出される。
[0099] 次に,画像特徴データ化部 14によって,フィルタ Aとフィルタ Bを特徴抽出フィルタ として用いた場合の各判定ブロック Blockの評価値が求められると,画像特徴データ 化部 14は,それらの評価値を格納した評価値テーブルを生成する。
[0100] 次に,図 17を参照しながら,第 1の実施の形態に力かる評価値テーブルについて 説明する。なお,図 17は,第 1の実施の形態に力かる評価値テーブルの概略的な構 成の一例を示す説明図である。
[0101] フィルタ Aとフィルタ Bの各判定ブロック Blockの評価値が求められると,図 17に示 すように評価値テーブル 170が画像特徴データ化部 14によって生成される。
[0102] 上記評価値テーブル 170は,図 17に示すように,判定ブロック Blockを一意に示す ブロック番号 nと,フィルタ Aの場合の各判定ブロック Blockの評価値と,フィルタ Bの 場合の各判定ブロック Blockの評価値とから構成されている。
[0103] したがって,図 17に示すように,改ざん判定領域 32においてブロック番号を指定す れば,各特徴抽出フィルタ 40 (フィルタ A,フィルタ B)による各判定ブロック Blockの 評価値を参照又は取得等することができる。
[0104] なお,図 17に示す評価値テーブル 170は,フィルタ Aとフィルタ Bの各判定ブロック Blockの評価値力も構成される場合を例に挙げて説明するが,かかる例に限定され ず,例えば,評価値テーブル 170は,フィルタ A,フィルタ B,およびフィルタ Cの各判 定ブロック Blockの評価値力も構成される場合など, 1又は 2種以上の特徴抽出フィ ルタ 40の各判定ブロック Blockの評価値力も構成されれば,かかる例に限定されな い。
[0105] 次に,図 18を参照しながら,第 1の実施の形態に力かる評価値テーブルについて 説明する。図 18は,第 1の実施の形態に力かる評価値テーブルの概略的な構成の 一例を示す説明図である。なお,図 18に示す評価値テーブル 170は,図 17に示す 評価値テーブル 170と比較して,図 17に示す評価値テーブル 170に構成される特 徴抽出フィルタ 40は,フィルタ Aとフィルタ Bの 2種類であるが,図 18に示す評価値テ 一ブル 170に構成される特徴抽出フィルタ 40は,フィルタ A〜フィルタ Dの 4種類で あるため,特徴抽出フィルタ 40の種類の点で相違するが,上記以外の点では実質的 に同一であるため,詳細な説明は省略する。
[0106] なお,図 18に示す評価値テーブル 170は,フィルタ A〜フィルタ Bの各判定ブロッ ク Blockの評価値力も構成される場合を例に挙げて説明するが,かかる例に限定さ れず,例えば,評価値テーブル 170は,フィルタ A〜フィルタ Fの各判定ブロック Bloc kの評価値力 構成される場合など, 1又は 2種以上の特徴抽出フィルタ 40の各判定 ブロック Blockの評価値力も構成されれば,かかる例に限定されな!、。
[0107] また,第 1の実施の形態に力かる各判定ブロック Blockの評価値は,判定ブロック B1 ock領域内に含む出力値の平均値によって求められる場合を例に挙げて説明したが ,力かる例に限定されず,例えば,各判定ブロック Blockの評価値は,フィルタ X(Xは フィルタの種類)によるフィルタリング処理結果で得られた出力値に対して,所定の閾 値 Vxを設定し,判定ブロック Blockの領域内において,その Vxより大きい値を示す 出力値のみをピックアップし,ピックアップされたそれらの出力値の平均値を評価値と する場合でもよい。ただし, Vxはフィルタ Xによるフィルタリング処理結果の,改ざん 判定領域 32全体における平均値などである。
[0108] (透力し情報合成部 15の動作について)
透力 情報合成部 15は,後程詳述する処理方法等により,改ざんされた力否かを 判定する際に用いられる改ざん検出データ DATAを原画像 11に透力しとして埋め 込む。なお,改ざん検出データ DATAとは以下に示すデータであるとする。
[0109] 改ざん検出データ DATAO :原画像 11の大きさ,データサイズなどのヘッダ情報 改ざん検出データ DATA1:改ざん判定領域 32の領域情報 (位置座標など) 改ざん検出データ DATA2:評価値テーブル 170 (画像特徴データ化部 14で求め た評価値の一覧)
改ざん検出データ DATA3:各判定ブロック Blockの位置情報およびサイズ情報 [0110] 上記改ざん検出データ DATA2の評価値テーブル 170は,上記説明した図 17又 は図 18に示す評価値テーブル 170をそのまま透力しとして原画像 11に埋め込まれ てもよいし,特徴抽出フィルタ 40ごとに所定値で量子化した後に埋め込まれてもよい
[0111] また,透かし画像出力部 10と透力 画像入力部 20の間で,改ざん判定領域 32に おける各判定ブロック Blockの位置やサイズ等が予め共通であって,上記位置ゃサ ィズ等を求める計算方法が共通である場合,改ざん判定領域 32の位置または大きさ 等から,判定ブロック Blockの位置や大きさを透力 画像入力部 20側で再計算する ことができるため,改ざん検出データ DATA3を省略することができる。したがって, 改ざん検出データ DATA自体のデータ量が軽減され,透かしとして埋め込む処理等 の効率化が図れる。
[0112] ここで,図 19を参照しながら,透力し情報合成部 15の処理について説明する。な お,図 19は,透力し情報合成部 15の処理の概略的な流れの一例を示すフローチヤ ートである。
[0113] 図 19に示すように,まず,改ざん検出データ DATAを N元符号に変換する (ステツ プ S101)。 Nは任意であるが,本実施形態では説明を容易にするため N= 2とする。 従って,ステップ S101で生成される符号は 2元符号であり, 0と 1のビット列で表現さ れるものとする。このステップ S101ではデータをそのまま符号化しても良いし,デー タを暗号ィ匕したものを符号ィ匕しても良い。
[0114] 次に,符号語の各シンボルに対して透かし信号を割り当てる (ステップ S102)。透 力し信号とはドット(黒画素)の配列によって任意の波長と方向を持つ波を表現したも のである。透かし信号については,さらに後述する。
[0115] さらに,符号化されたデータのビット列に対応する信号ユニットを原画像 11上に配 置する(ステップ S 103)。
[0116] 上記ステップ S102において,符号語の各シンボルに対して割り当てる透かし信号 について説明する。図 20は透かし信号の一例を示す説明図である。
[0117] 透かし信号の幅と高さをそれぞれ Sw, Shとする。 Swと Shは異なっていても良い力 S ,本実施形態では説明を容易にするため Sw=Shとする。長さの単位は画素数であ り,図 20の例では Sw=Sh= 12である。これらの信号が紙面に印刷されたときの大き さは,透力し画像の解像度に依存しており,例えば透力し画像が 600dpi (dot per inch:解像度の単位であり, 1インチ当たりのドット数)の画像であるとしたならば,図 2 0の透かし信号の幅と高さは,印刷文書上で 12Z600 = 0. 02 (インチ)となる。
[0118] 以下,幅と高さが Sw, Shの矩形を 1つの信号の単位として「信号ユニット」と称する 。図 20 (1)は,ドット間の距離が水平軸に対して arctan (3) (arctanは tanの逆関数) の方向に密であり,波の伝播方向は arctan (— 1Z3)である。以下,この信号ュ ッ トをユニット Aと称する。図 20 (2)はドット間の距離が水平軸に対して arctan (— 3)の 方向に密であり,波の伝播方向は arctan(lZ3)である。以下,この信号ユニットをュ ニット Bと称する。
[0119] 図 21は,図 20 (1)の画素値の変化を arctan(lZ3)の方向力も見た断面図である 。図 21において,ドットが配列されている部分が波の最小値の腹 (振幅が最大となる 点)となり,ドットが配列されて 、な 、部分は波の最大値の腹となって 、る。
[0120] また,ドットが密に配列されている領域はそれぞれ 1ユニットの中に 2つ存在するた め,この例では 1ユニットあたりの周波数は 2となる。波の伝播方向はドットが密に配列 されて!/、る方向に垂直となるため,ユニット Aの波は水平方向に対して arctan ( - 1/ 3) ,ユニット Bの波は arctan(lZ3)となる。なお, arctan (a)の方向と acrtan(b)の 方向が垂直のとき, a X b=— lである。 [0121] 本実施形態では,ユニット Aで表現される透かし信号にシンボル 0を割り当て,ュ- ット Bで表現される透かし信号にシンボル 1を割り当てる。また,これらをシンボルュ- ットと称する。
[0122] 透かし信号には図 20 (1) , (2)で示されるもの以外にも,例えば図 22 (3)〜(5)で 示されるようなドット配列が考えられる。図 22 (3)は,ドット間の距離が水平軸に対し て arctan(lZ3)の方向に密であり,波の伝播方向は arctan(— 3)である。以下,こ の信号ユニットをユニット Cと称する。
[0123] 図 22 (4)は,ドット間の距離が水平軸に対して arctan (— 1Z3)の方向に密であり ,波の伝播方向は arctan (3)である。以下,この信号ユニットをユニット Dと称する。 図 22 (5)は,ドット間の距離が水平軸に対して arctan(l)の方向に密であり,波の伝 播方向は arctan (— 1)である。なお,図 22 (5)は,ドット間の距離が水平軸に対して arctan ( 1)の方向に密であり,波の伝播方向は arctan (1)であると考えることもで きる。以下,この信号ユニットをユニット Eと称する。
[0124] このようにして,先に割り当てた組み合わせ以外にも,シンボル 0とシンボル 1を割り 当てるユニットの組み合わせのパターンが複数考えられるため,どの透かし信号がど のシンボルに割り当てられて!/ヽるかを秘密にして第三者 (不正者)が埋め込まれた信 号を簡単に解読できな 、ようにすることもできる。
[0125] さらに,図 19に示したステップ S 102で,改ざん検出データ DATAを 4元符号で符 号化した場合には,例えば,ユニット Aに符号語のシンボル 0を,ユニット Bにシンポ ル 1を,ユニット Cにシンボル 2を,ユニット Dにシンボル 3を割り当てることも可能であ る。
[0126] 図 20,図 22に示した透かし信号の一例においては, 1ユニット中のドットの数をす ベて等しくしているため,これらのユニットを隙間なく並べることにより,見かけの濃淡 が均一となる。したがって印刷された紙面上では,単一の濃度を持つグレー画像が 背景として埋め込まれて 、るように見える。
[0127] このような効果を出すために,例えば,ユニット Eを背景ユニット(シンボルが割り当 てられていない信号ユニット)と定義し,これを隙間なく並べて原画像 11の背景とし, シンボルユニット(ユニット A,ユニット B)を原画像 11に埋め込む場合は,埋め込もう とする位置の背景ユニット(ユニット E)とシンボルユニット(ユニット A,ユニット B)とを 入れ替える。
[0128] 図 23 (1)はユニット Eを背景ユニットと定義し,これを隙間なく並べて原画像 11の背 景とした場合を示す説明図である。図 23 (2)は図 23 (1)の背景画像の中にユニット Aを埋め込んだ一例を示し,図 23 (3)は図 23 (1)の背景画像の中にユニット Bを埋 め込んだ一例を示している。本実施形態では,背景ユニットを原画像 11の背景とす る方法について説明するが,シンボルユニットのみを配置することによって原画像 11 の背景としても良い。
[0129] 次に,符号語の 1シンボルを原画像 11に埋め込む方法について,図 24を参照しな がら説明する。
[0130] 図 24は,原画像 11へのシンボル埋め込み方法の一例を示す説明図である。ここで は,例として「0101」というビット列を埋め込む場合について説明する。
[0131] 図 24 (1) , (2)に示すように,同じシンボルユニットを繰り返し埋め込む。これは文 書中の文字が埋め込んだシンボルユニットの上に重なった場合,信号検出時に検出 されなくなることを防ぐためであり,シンボルユニットの繰り返し数と配置のパターン( 以下,ユニットパターンと称する。 )は任意である。
[0132] すなわち,ユニットパターンの一例として,図 24 (1)のように繰り返し数を 4 (1つのュ ニットパターン中に 4つのシンボルユニットが存在する)にしたり,図 24 (2)のように繰 り返し数を 2 (1つのユニットパターン中に 2つのシンボルユニットが存在する)にしたり することができ,あるいは,繰り返し数を 1 (1つのユニットパターン中には 1つのシンポ ルユニットだけが存在する)としてもより、。
[0133] また,図 24 (1) , (2)は 1つのシンボルユニットに対して 1つのシンボルが与えられて いる力 図 24 (3)のようにシンボルユニットの配置パターンに対してシンボルを与えて も良い。
[0134] 1ページ分に何ビットの情報量を埋め込むことができるかは,信号ユニットの大きさ, ユニットパターンの大きさ,原画像の大きさに依存する。原画像の水平方向と垂直方 向にいくつの信号を埋め込んだかは,既知として信号検出を行っても良いし,入力装 置力も入力された画像の大きさと信号ユニットの大きさから逆算しても良い。 [0135] 1ページ分の水平方向に Pw個,垂直方向に Ph個のユニットパターンが埋め込める とすると,画像中の任意の位置のユニットパターンを U (x, y) , x= l〜Pw, y= l〜P hと表現し, U (x, y)を「ユニットパターン行列」と称することにする。また, 1ページに 埋め込むことができるビット数を「埋め込みビット数」と称する。埋め込みビット数は Pw X Phである。
[0136] 図 25は,改ざん検出データ DATAを原画像 11に埋め込む方法について示したフ ローチャートである。ここでは,例えば印刷物として換算すると 1枚(1ページ分)の原 画像 11に,同じ情報を繰り返し埋め込む場合について説明する。同じ情報を繰り返 し埋め込むことにより,原画像 11と改ざん検出データ DATAを重ね合わせたときに 1 つのユニットパターン全体が塗りつぶされるなどして埋め込み情報が消失するような 場合でも,埋め込んだ情報を取り出すことを可能とするためである。
[0137] まず,改ざん検出データ DATAを N元符号に変換する (ステップ S201)。図 19のス テツプ S101と同様である。以下では,符号化されたデータをデータ符号と称し,ュ- ットパターンの組み合わせによりデータ符号を表現したものをデータ符号ユニット Du と称する。
[0138] 次 、で,データ符号の符号長(ここではビット数)と埋め込みビット数から, 1枚の画 像にデータ符号ユニットを何度繰り返し埋め込むことができるかを計算する (ステップ S202)。本実施形態ではデータ符号の符号長データをユニットパターン行列の第 1 行に挿入するものとする。データ符号の符号長を固定長として符号長データは埋め 込まないようにしても良い。
[0139] データ符号ユニットを埋め込む回数 Dnは,データ符号長を Cnとして以下の式で計 算される。
[0140] [数 1]
Figure imgf000031_0001
最大の整数
[0141] ここで剰余を Rn (Rn=Cn— (PwX (Ph—l) ) )とすると,ユニットパターン行列に は Dn回のデータ符号ユニットおよびデータ符号の先頭 Rnビット分に相当するュ-ッ トパターンを埋め込むことになる。ただし,剰余部分の Rnビットは必ずしも埋め込まな くても良い。
[0142] 図 26の説明では,ユニットパターン行列のサイズを 9 X 11 (11行 9列),データ符号 長を 12 (図中で 0〜: L 1の番号がついたものがデータ符号の各符号語を表わす)とす る。
[0143] 次いで,ユニットパターン行列の第 1行目に符号長データを埋め込む (ステップ S2 03)。図 26の例では符号長を 9ビットのデータで表現して 1度だけ埋め込んで 、る例 を説明しているが,ユニットパターン行列の幅 Pwが十分大きい場合,データ符号と同 様に符号長データを繰り返し埋め込むこともできる。
[0144] さらに,ユニットパターン行列の第 2行以降に,データ符号ユニットを繰り返し埋め込 む(ステップ S204)。図 26で示すようにデータ符号の MSB (most significant bit )または LSB (least significant bit)力 順に行方向に埋め込む。図 26の例では データ符号ユニットを 7回,およびデータ符号の先頭 6ビットを埋め込んで 、る例を示 している。
[0145] データの埋め込み方法は図 26のように行方向に連続になるように埋め込んでも良 V、し,列方向に連続になるように埋め込んでも良!、。
[0146] 以上,透力し情報合成部 15における,原画像 11と改ざん検出データ DATAの重 ね合わせについて説明した。
[0147] 上述のように,透力し情報合成部 15は,原画像 11と改ざん検出データ DATAを重 ね合わせる。透かし入り文書画像の各画素の値は,原画像 11と改ざん検出データ D ATAの対応する画素値の論理積演算 (AND)によって計算する。すなわち,原画像 11と改ざん検出データ DATAのどちらかが 0 (黒)であれば,透かし入り原画像の画 素値は 0 (黒),それ以外は 1 (白)となる。
[0148] 図 27は,透かし入り文書画像の一例を示す説明図である。図 28は,図 27の一部を 拡大して示した説明図である。ここで,ユニットパターンは図 24 (1)のパターンを用い ている。透かし入り原画像 11 (出力画像 16)は,例えば,透カゝし情報合成部 15のイン タフエース(図示せず。 )により出力される。
[0149] (透かし画像入力部 20について)
以降の説明では,出力画像 16は紙等の印刷媒体に印刷された後に配布されるも のとし,入力画像 21はその出力画像 16の透かし入りの印刷書面をスキャナ等の入力 デバイスにより画像ィ匕したものとするが,カゝかる例に限定されず,出力画像 16は印刷 されな 、ディジタルデータそのままの場合であってもよ!/、。
[0150] また,透かし画像出力部 10において,特徴抽出フィルタ 40としてフィルタ A,フィル タ B,フィルタ C,およびフィルタ Dを用いるものとする。特徴抽出フィルタ 40としてどの ようなフィルタを用いるかは,透カゝし画像出力部 10と透カゝし画像入力部 20の間で既 知であるとする。
[0151] (透力し情報抽出部 22の動作について)
透かし情報抽出部 22の処理は,後程詳述する処理方法によって原画像 11に埋め 込まれた改ざん検出データ DATAを抽出し,復元する。この処理により透力し情報 抽出部 22から出力される透力し情報 28 (改ざん検出データ DATA)は,上記説明し た通り,改ざん検出データ DATAO,改ざん検出データ DATA1,改ざん検出データ DATA2,改ざん検出データ DATA3である。なお,改ざん検出データ DATA3は, 上記説明の通り省略可能である。
[0152] 改ざん検出データ DATA2が量子化されている場合は,量子化誤差を含んだデー タとなっているため,元の値に復元する。また,改ざん検出データ DATA3が記録さ れて 、な 、場合,各判定ブロック Blockの位置とサイズを再計算する。
[0153] 次に,図 29を参照しながら,透力 情報抽出部 22の処理について説明する。図 29 は,透力し情報抽出部 22の処理の概略的な流れの一例を示すフローチャートである
[0154] 図 29に示すように,まず,スキャナなどの入力デバイス 31によって透かし入り原画 像を計算機のメモリ等に入力する (ステップ S301)。この画像を入力画像と称する。 入力画像は多値画像であり,以下では 256階調のグレイ画像として説明するが,力 力る例に限定されず,フルカラー画像などの場合でもよい。また入力画像の解像度( スキャナ等の入力デバイス(図示せず。)で読み込むときの解像度)は,上記透かし画 像出力部 10で作成した透かし入り原画像と異なっていても良いが,ここでは上記透 力し画像出力部 10で作成した画像と同じ解像度であるとして説明する。また, 1つの ユニットパターンが 1つのシンボルユニットから構成されている場合について説明する [0155] く信号検出フィルタリング工程 (ステップ S310) >
ステップ S310では,入力画像 21全体に対してフィルタリング処理を行い,フィルタ 出力値の計算とフィルタ出力値の比較を行う。フィルタ出力値の計算は,以下に示す ガボールフィルタと称されるフィルタを用いて,入力画像 21の全画素においてフィル タと画像間のコンボリューシヨンにより計算する。
[0156] 以下にガボールフィルタ G (x, y) , x=0〜gw— 1, y=0〜gh— 1を示す。 gw, gh はフィルタのサイズであり,ここでは上記透力し情報埋め込み装置 10で埋め込んだ 信号ユニットと同じ大きさである。
[0157] [数 2]
G(x, y) x exp [- 2m{u(x - x0) + v(y一 y0)}]
Figure imgf000034_0001
i:虚数単位
x = 0〜gw— 1, y = Q〜gh -l, xO = gw / 2, y0 = gh / 2
A:水平方向の影響範¾ B:垂直方向の影響範囲
tan— ! (" / v) :波の方向, Vi2 + v2:周波数
[0158] 入力画像中の任意の位置でのフィルタ出力値はフィルタと画像間のコンボリューシ ヨンにより計算する。ガボールフィルタの場合は実数フィルタと虚数フィルタ (虚数フィ ルタは実数フィルタと半波長分位相がずれたフィルタ)が存在するため,それらの 2乗 平均値をフィルタ出力値とする。例えば,ある画素 (X, y)における輝度値とフィルタ A の実数フィルタとのコンボリューシヨンが RC,虚数フィルタとのコンボリューシヨンが Ic であったとすると,フィルタ出力値 F (A, X, y)は以下の式で計算する。
[0159] [数 3]
F(A,x, y) = + /cz 上記のように各信号ユニットに対応するすべてのフィルタに対してフィルタ出力値を 計算した後,各画素において上記のように計算したフィルタ出力値を比較し,その最 大値 F(x, y)をフィルタ出力値行列として記憶する。また,値が最大であるフィルタに 対応する信号ユニットの番号をフィルタ種類行列として記憶する(図 30)。具体的に は,ある画素(X, y)において, F(A, X, y) >F(B, x, y)の場合には,フィルタ出力 値行列の(X, y)の値として F(A, X, y)を設定し,フィルタ種類行列の(x, y)の値とし て信号ユニット Aを示す「0」を設定する(本実施形態では,信号ユニット A, Bの番号 を「0」, 「1」としている)。
[0161] なお,本実施形態ではフィルタの個数が 2つであるが,フィルタの個数がそれより多 い場合も,同様に複数のフィルタ出力値の最大値とその際のフィルタに対応する信 号ユニット番号を記憶すればょ 、。
[0162] く信号位置探索工程 (ステップ S320)>
ステップ S320では,ステップ S310で得られたフィルタ出力値行列を用いて,信号 ユニットの位置を決定する。具体的には,まず,信号ユニットの大きさが ShXSwで構 成されていたとすると,格子点の垂直方向の間隔が Sh,水平方向の間隔が Sw,格 子点の個数が Nh X Nwの信号位置探索テンプレートを作成する(図 31)。そのように 作成したテンプレートの大きさは, Th(Sh*Nh) XTw(Sw*Nw)となる力 Nh, N wには信号ユニット位置を探索するために最適な値を用いればよ!、。
[0163] 次に,フィルタ出力値行列をテンプレートの大きさごとに分割する。さらに,各分割 領域で,隣接する領域の信号ユニットに重複しない範囲 (水平方向士 SwZ2,垂直 方向士 ShZ2, )でテンプレートをフィルタ出力値行列上で画素単位に移動させなが ら,テンプレート格子点上のフィルタ出力値行列値 F(x, y)の総和 Vを以下の式を用 いて求め(図 31) ,その総和が一番大きいテンプレートの格子点をその領域の信号 ユニットの位置とする。
[0164] 画
Nw-\Nh-\
V(x, y) = > YF(x + Sw*u,y + Sh*v)
«=0 v=0
Xs-Sw/2<x<Xe + Sw/2 s-Sh/2+<y<Ye + Sh/2 (Xs s):分割領域の左上座標, ( ,:^):分割領域の右下座標 [0165] 上記の例は,ステップ S310で全画素に対して,フィルタ出力値を求めた場合であり ,フィルタリングを行う際,ある一定間隔の画素に対してのみフィルタリングを行うことも できる。例えば, 2画素おきにフィルタリングを行った場合は,上記の信号位置探索テ ンプレートの格子点の間隔も 1Z2とすればよい。
[0166] <信号シンボル決定工程 (ステップ S330) >
ステップ S330では,ステップ S320で決定した信号ユニット位置のフィルタ種類行 列の値 (フィルタに対応した信号ユニット番号)を参照することで,信号ユニットが Aか Bを決定する。
[0167] 上記のようにして,決定した信号ユニットの判定結果をシンボル行列として記憶する
[0168] く信号境界決定工程 (ステップ S340) >
ステップ S320では,信号ユニットが埋め込まれているかにかかわらず,画像全面に 対してフィルタリング処理を行っているので,どの部分に信号ユニットが埋め込まれて いたかを決定する必要がある。そこで,ステップ S340では,シンボル行列からあらか じめ信号ユニットを埋め込む際に決めておいたパターンを探索することで信号境界を 求める。
[0169] 例えば信号ユニットが埋め込まれている境界には,必ず信号ユニット Aを埋め込む としておけば,ステップ S330で決定したシンボル行列の横方向に信号ユニット Aの 数を計数し, 中心から上下にそれぞれ,信号ユニット Aの個数が一番多い位置を信 号境界の上端 Z下端とする。図 32の例では,シンボル行列における信号ユニット A は「黒」(値でいうと「0」)で表現されているので,シンボル行列の黒画素数を計数する ことで,信号ユニット Aの数を計数することができ,その度数分布により,信号境界の 上端 Z下端を求めることができる。左端 Z右端もユニット Aの個数を計数する方向が 異なるだけで, 同じように求めることができる。
[0170] 信号境界を求めるためには上記方法に限らず,シンボル行列力 探索することがで きるパターンをあら力じめ埋め込み側と検出側で決めておくだけでよい。
[0171] 再び,図 29のフローチャートに戻り,以降のステップ S305について説明する。ステ ップ S305では,シンボル行列のうち,信号境界内部に相当する部分力も元の情報を 復元する。なお,本実施形態では, 1つのユニットパターンは 1つのシンボルユニット で構成されているので,ユニットパターン行列は,シンボル行列と等価になる。
[0172] く情報復号工程 (ステップ S305) >
図 33は情報復元の一例を示す説明図である。情報復元のステップは以下の通りで ある。
(1)各ユニットパターンに埋め込まれているシンボルを検出する(図 33 (1) )。
(2)シンボルを連結してデータ符号を復元する(図 33 (2) )。
(3)データ符号を復号して埋め込まれた情報を取り出す(図 33 (3) )。
[0173] 図 34〜図 36はデータ符号の復元方法の一例を示す説明図である。復元方法は基 本的に図 26の逆の処理となる。
[0174] まず,ユニットパターン行列の第 1行力も符号長データ部分を取り出して,埋め込ま れたデータ符号の符号長を得る (ステップ S401)。
[0175] 次いで,ユニットパターン行列のサイズとステップ S401で得たデータ符号の符号長 をもとに,データ符号ユニットを埋め込んだ回数 Dnおよび剰余 Rnを計算する (ステツ プ S402)。
[0176] 次いで,ユニットパターン行列の 2行目以降からステップ S203と逆の方法でデータ 符号ユニットを取り出す (ステップ S403)。図 35の例では U (l, 2) (2行 1列)から順 に 12個のパターンユニットごとに分解する(U (l, 2)〜U (3, 3) , U (4, 3)〜U (6, 4 ) , · ' · )。 ϋη= 7, Rn=6であるため, 12個のパターンユニット(データ符号ユニット) は 7回取り出され,剰余として 6個(データ符号ユニットの上位 6個に相当する)のュ- ットパターン (U (4, 11)〜U (9, 11) )が取り出される。
[0177] 次いで,ステップ S403で取り出したデータ符号ユニットに対してビット確信度演算 を行うことにより,埋め込んだデータ符号を再構成する (ステップ S404)。以下,ビット 確信度演算について説明する。
[0178] 図 36のようにユニットパターン行列の 2行 1列目力も最初に取り出されたデ—外符 号ユニットを Du(l, l)〜Du (12, 1)とし,順次 Du (l, 2)〜Du(12, 2) , · · · ,と表 記する。また,剰余部分は Du (l, 8)〜Du(6, 8)とする。ビット確信度演算は各デー タ符号ユニットの要素ごとに多数決を取るなどして,データ符号の各シンボルの値を 決定することである。これにより,例えば,文字領域との重なりや紙面の汚れなどが原 因で,任意のデータ符号ユニット中の任意のユニットから正しく信号検出を行えなか つた場合 (ビット反転エラーなど)でも,最終的に正しくデータ符号を復元することがで きる。
[0179] 具体的には例えばデータ符号の 1ビット目は, Du (l, 1) , Du (l, 2) , · · · , Du (l , 8)の信号検出結果が 1である方が多い場合には 1と判定し, 0である方が多い場合 には 0と判定する。同様にデータ符号の 2ビット目は Du (2, 1) , Du (2, 2) , · · · , Du (2, 8)の信号検出結果による多数決によって判定し,データ符号の 12ビット目は Du (12, 1) , Du(12, 2) , · · · , Du(12, 7) (Du (12, 8)は存在しないため Du ( 12, 7) までとなる)の信号検出結果による多数決によって判定する。
[0180] ここではデータ符号を繰り返し埋め込む場合について説明したが,データを符号化 する際に誤り訂正符号などを用いることにより,データ符号ユニットの繰り返しを行わ な 、ような方法も実現できる。
[0181] 以上説明したように,入力画像 21全面にフィルタリング処理を施し,信号位置探索 テンプレートを用いて,フィルタ出力値の総和が最大になるように,信号ユニットの位 置を求めることができるので,用紙のゆがみなどにより画像が伸縮していたりする場合 にでも,信号ユニットの位置を正しく検出でき,透かし入り原画像 (入力画像 21)から 正確に改ざん検出データ DATAを検出することができる。
[0182] (画像変形部 23の動作について)
画像変形部 23では,後程詳述する画像補正処理などの方法により,入力画像 21 の歪みなどを補正し,図 3に示す原画像 11の基準座標 31を原点とし,サイズが透か し領域 30に等しい二値化済みの補正画像 29を作成する。
[0183] ここで,図 37を参照しながら,画像変形部 23の処理について説明する。なお,図 3 7は画像変形部 23のフローチャートである。以下,このフローチャートに従って説明を 行う。
[0184] <信号ユニットの位置検出(ステップ S610) >
図 38は第 1の実施形態で検出された信号ユニット位置を入力画像 (透かし入り原画 像 11) 21上に表示したものである。図 38において,信号ユニットを U (x, y) , x= l〜 Wu, y=l〜Huと表記する。 U(l, y)〜U(Wu, y)は同じ行にある信号ユニット(図 38の符号 710)とし, U(x, l)〜U(x, Hu)は同じ列にある信号ユニット(図 38の符 号 720)とする。 U(l, y)〜U(Wu, y)および U(x, l)〜U(x, Hu)などは,実際に は同じ直線上には並んでおらず,微小に上下左右にずれている。
[0185] また信号ユニット U (X, y)の入力画像上の座標値 Pを (Px (x, y) , Py(x, y)), χ= l〜Wu, y=l〜Huと表記する(図 38の符号 730, 740, 750, 760)。ただし入力画 像に対して縦横 N画素おき (Nは自然数)にフィルタリングを行うものとする。このフィ ルタリングについては,第 1の実施形態のく信号位置探索工程 (ステップ S320) >と 同様に行う。 Pは信号出力値行列における各信号ユニットの座標値を単純に縦横 N 倍した値である。
[0186] く信号ユニット位置の直線近似 (ステップ S620) >
信号ユニットの位置を行方向,列方向に直線で近似する。図 39は行方向の直線近 似の例である。図 39において,同じ行にある信号ユニット U(l, y)〜U(Wu, y)の位 置を直線 Lh(y)で近似している。近似直線は,各信号ユニットの位置と直線 Lh(y)と の距離の総和が最も小さくなるような直線である。このような直線は,例えば最小二乗 法や主成分分析などの一般的手法によって求めることができる。行方向の直線近似 はすべての行につ 、て行 、,同様にして列方向の直線近似をすベての列につ!/、て 行う。
[0187] 図 40は行方向,列方向に直線近似を行った結果の例である。図 40において,信 号ユニットを U(x, y), x=l〜Wu, y=l〜Huと表記する。 Lh(y)は U(l, y)〜U( Wu, y)を近似した直線(図 40の符号 810)であり, Lv(x)は U(x, l)〜U(x, Hu)を 近似した直線(図 40の符号 820)である。
[0188] <直線の均等化 (ステップ S630) >
ステップ S620で近似した直線は,検出された信号ユニットの位置が,ある程度まと まってずれているなどの理由により,個別に見ると直線の傾きや位置が均等ではない 。そこで,ステップ S630では,個々の直線の傾きや位置を補正して均等化を行う。
[0189] 図 41は行方向の近似直線 Lh(y)の傾きを補正する例である。図 41 (a)は補正前 であり,図 41(b)は補正後である。図 41(&)にぉける01( )の傾きを丁11( )としたとき , Lh (y)の傾きは Lh (y)の近傍の直線の傾きの平均値となるように補正する。具体的 には,
Figure imgf000040_0001
〜Th(y+Nh) )とする。ただし, AVERA GE (A〜B)は A〜Bまでの平均値を計算する計算式とし, Nhは任意の自然数とする 。 y— Nhく 1の場合は Th (y) =AVERAGE (Th (l)〜Th(y+Nh) )とし, y+Nh> Huの場合は Th (y) = AVERAGE (Th (y-Nh)〜Th (Hu) )とする。図 41は Nhを 1としたときの例であり,図 41 (b)は Lh(y)力Lh(y— 1)〜Lh (y+ 1)の直線の傾きの 平均値によって補正されて 、る例を示して 、る。
[0190] 図 42は行方向の近似直線 Lh (y)の位置を補正する例である。図 42 (a)は補正前 であり,図 42 (b)は補正後である。図 42 (a)について,垂直方向に任意の基準直線 1 130を設定し,この直線と Lh(y)との交点の y座標を Q (y)としたとき, Q (y)が Lh (y) の近傍の直線位置の平均となるように補正する。具体的には, Q (y) = AVERAGE (
Figure imgf000040_0002
とする。ただし Mhは任意の自然数とする。 y— Mhく 1ま たは y+Mh>Huの場合は変更を行わないものとする。図 42は Mhを 1としたときの 例であり,図 42 (b)は Lh (y)力 SLh (y— 1)と Lh(y+ 1)の直線の位置の中点(平均) によって補正されている例を示している。なお,この処理は省略可能である。
[0191] <直線の交点計算(ステップ S640) >
行方向の近似直線と列方向の近似直線の交点を計算する。図 43は行方向の近似 直線 Lh (l)〜Lh(Hu)と,列方向の近似直線 Lv(l)〜Lv(Wu)の交点を計算した 例である。交点の計算は一般的な数学的手法で行う。ここで計算した交点を補正後 の信号ユニット位置とする。すなわち,行方向の近似直線 Lh (y)と列方向の近似直 線 Lv(x)の交点を,信号ユ ット U (x, y)の補正後の位置 (Rx (x, y) , Ry(x, y) )と する。例えば信号ユニット U (l, 1)の補正後の位置は, Lh (l)と Lv(l)の交点とする
[0192] <補正画像作成 (ステップ S650) >
ステップ S640により計算した信号ユニット位置を参照して,入力画像から補正画像 を作成する。ここでは透カゝし画像出力部 10で出力した透かし入り原画像を印刷する 際の解像度を Doutとし,透かし画像入力部 20に入力する入力画像 21を取得する 際の解像度を Dinとする。また補正画像 29の大きさは,入力画像 21と同じ倍率であ るとする。
[0193] 透力し画像出力部 10において信号ユニットの大きさが幅 Sw,高さ Shであるとする と,入力画像 21における信号ユニットは幅 Tw=SwXDinZDout,高さは Th=Sh XDinZDoutとなる。したがって,信号ユニットの数が横方向に Wu個,縦方向に Hu 個である場合には,補正画像 29のサイズは幅 Wm=TwXWu,高さ Hm=ThXHu となる。また,補正画像 29における任意の信号ユニット U(x, y)の位置を (Sx(x, y) , Sy(x, y))とすると,信号ユニットが均等に並ぶように補正画像 29を作るため, Sx =TwXx, Sy=ThXyが成り立つ。なお,最も左上の信号ユニット U (1, 1)の位置 は(0, 0)であり,これが補正画像 29の原点となる。
[0194] 補正画像上の任意の位置 (Xm, Ym)の画素値 Vmは,入力画像上の座標(Xi, Yi )の画素値 Viにより求める。図 44はこれらの座標の対応例であり,図 44 (a)は入力画 像 1310 (入力画像 21)を,図 44 (b)は補正画像 1320 (補正画像 29)を示して 、る。 この図を用いて (Xm, Ym)と (Xi, Yi)の関係を説明する。
[0195] 図 44(b)の補正画像 1320〖こおいて, (Xm, Ym)を中心としてみたときの左上,右 上,左下の領域で,最も近い信号ユニットをそれぞれ U(x, y) (座標値は(Sx(x, y) , Sy(x, y)), 1360), U(x+1, y) (1370), U(x, y+1) (1380)とし,それらとの 距離をそれぞれ El, E2, E3とする(具体的には, Xは XmZTw+1を超えない最小 の整数, yは XmZTw+1を超えない最小の整数)。このとき,図 44 (a)の入力画像 1 310における U(x, y) (座標値は(Rx(x, y), Ry(x, y)), 1330), U(x+1, y) (13 40), U(x, y+1) (1350)と(Xi, Yi)との距離がそれぞれ Dl, D2, D3であって, D 1〜D3の比 Dl: D2: D3が El: E2: E3と等し!/、ときに(Xm, Ym)の画素値 Vmは, 入力画像 1310上の座標(Xi, Yi)の画素値 Viにより求める。
[0196] 図 45はこのような (Xi, Yi)の具体的な計算方法を示している。図 45 (a)の符号 14 30は(Xm, Ym)を U(x, y)と U(x+1, y)を結ぶ直線上に射影した点で Fx =Xm— Sx(x, y)である。また,符号 1440は(Xm, Ym)を U(x, y)と U(x, y+1)を結ぶ直 線上に射影した点で Fy=Ym— Sy(x, y)である。同様に,図 45 (b)の符号 1450は (Xm, Ym)を U(x, y)と U(x+1, )を結ぶ直線上に射影した点で0 = 1!1 3 ( x, y)である。同様に,符号 1460は (Xm, Ym)を U(x, y)と U(x, y+1)を結ぶ直線 上に射影した点で Gy=Ym— Sy(x, y)である。このとき,図 45 (a)の入力画像 141 0における Fxは, Fx/ (Rx (x+ 1, y) -Rx(x, y) ) =ExZTwより, Fx = Ex/Tw X (Rx(x+ 1, y) -Rx (x, y) )となる。同様に, Fy=Ey/Th X (Ry(x, y+ 1)— Ry (x, y) )となる。これより, Xi=Fx+Rx(x, y) , Yi=Fy+Ry(x, y)となる。
[0197] 以上により,図 45 (b)の補正画像 1420上の任意の点(Xm, Ym)の画素値には, 入力画像上の点 (Xi, Yi)の画素値をセットする。ただし, (Xi, Yi)は一般的に実数 値であるため,入力画像上で (Xi, Yi)に最も近い座標における画素値とするか,そ の近傍 4画素の画素値とそれらとの距離の比から画素値を計算する。
[0198] 以上,画像変形部 23の動作について説明した。
[0199] 以上説明したように,本実施形態によれば,印刷時に埋め込んだ信号の位置情報 を元に,印刷書面を取り込んだ画像を補正するため,印刷物から取り込んだ画像か ら印刷前の画像を歪みや伸び縮みなく復元できるので,それらの画像間の位置の対 応付けを高精度で行うことができ,さらには高性能の改ざん検出を行うことができる。
[0200] (画像特徴抽出部 24〜画像特徴データ化部 26の動作にっ ヽて)
次に,画像変形部 22によって入力画像 21が補正された補正画像 29が出力される と,画像特徴抽出部 24は,補正画像 29に対して画像特徴を示し,改ざんの有無を 判定するための比較出力値を出力する。なお,比較出力値を出力する方法について は,上記画像特徴抽出部 12にお 、て説明したのと実質的に同様であるため詳細な 説明は省略する。
[0201] 上記画像特徴抽出部 24と同じように,領域分割処理部 25と画像特徴データ化部 2 6につ 、ても ,上記領域分割処理部 13及び画像特徴データ化部 14にお ヽて説明し たのと実質的に同様であるため詳細な説明は省略する。なお,画像特徴データ化部 26で出力される比較評価値は,補正画像 29に対する各判定ブロック Blockの画像 特徴データである。
[0202] (改ざん判定部 27の動作について)
ここで,上記説明した通り,透力し情報 28 (改ざん検出データ DATA)に含まれる 改ざん検出データ DATA2において,判定ブロック Block (n)のフィルタ Xによる評価 値を Bw(X, n)とする(Xは A, B, C,または Dのうちいずれ力, nは 0〜: Bn—1)。 [0203] また,上記画像特徴データ化部 26が計算し,改ざん判定部 27に出力する比較評 価値を Bd (X, n)と表記する。さらに, Bw (X, n)と Bd (X, n)の差の絶対値を Df (X, n)と表記すると,以下に示す式になる。
[0204] Df (X, n) = | Bw(X, n)— Bd (X, n) |…(式 1)
[0205] このとき,改ざん判定部 27は,各判定ブロック Blockの評価値と比較評価値との絶 対値の差 (Df (X, n) )を計算し,さらに改ざん判定部 27は,その Df (X, n)が以下に 示す"判定基準 1"〜"判定基準 4"のいずれかを満たす場合,入力画像 21の判定ブ ロック Block (n)に相当する位置に改ざんがあつたとみなす。
[0206] (判定基準 1): Df (A, n) >T
a
(判定基準 2) : Df (B, n) >T
b
(判定基準 3) : Df (C, n) >T
(判定基準 4) : Df (D, n) >T
d
なお,上記判定基準 1は,フィルタ Aにおける評価値と比較評価値との絶対値の差 力 よりも大きいことを示し,上記判定基準 2は,フィルタ Bにおける評価値と比較評 a
価値との絶対値の差が Tよりも大きいことを示し,上記判定基準 3は,フィルタ Cにお
b
ける評価値と比較評価値との絶対値の差が τよりも大きいことを示し,上記判定基準
4は,フィルタ Dにおける評価値と比較評価値との絶対値の差が Tよりも大きいことを
d
示している。
[0207] ここで,図 46〜図 49を参照しながら,改ざん判定部 27による改ざんされた力否か を判定する判定処理について説明する。図 46〜図 49は,改ざん判定部 27による改 ざん判定処理の概略の一例を示す説明図である。なお,図 46〜図 49は原画像 11 の改ざん判定領域 32内の画像領域 190— 1に存在した" X"という文字が入力画像 2 1の改ざん判定領域 32内の画像領域 190— 2で" L"という文字に書き換えられた場 合の改ざん判定処理について説明した図である。
[0208] 図 46に示すように,原画像 11の改ざん判定領域 32内の画像領域 190—1に" X"と いう文字に対して特徴抽出フィルタ 40のフィルタ A〜フィルタ Dによるフィルタリング 処理が行われた結果が示されて 、る。
[0209] 図 46に示す画像領域 190a— 1は,画像領域 190— 1についてフィルタ Aによるフィ ルタリング処理結果であり,画像領域 190b— 1は,画像領域 190— 1についてフィル タ Bによるフィルタリング処理結果であり,画像領域 190c— 1は,画像領域 190— 1に ついてフィルタ Cによるフィルタリング処理結果であり,画像領域 190d— 1は,画像領 域 190— 1につ!/、てフィルタ Dによるフィルタリング処理結果を示して!/、る。
[0210] "X"という文字は右斜め上方向の直線と左斜め上方向の直線とから主に構成され ているため,図 46の画像領域 190a— 1と画像領域 190b— 1に示すように,水平方 向と垂直方向の直線に対する反応が弱く,画像領域 190c— 1と画像領域 190d— 1 に示すように,斜め方向の直線に対する反応は強い。
[0211] 図 47は,上記" X"文字を含んだ画像領域 190— 1を複数の判定ブロック Blockに 分割した場合の概略的な構成の一例を示す説明図である。図 47に示すように,特に ,画像領域 190c— 1の判定ブロック Block (M)と判定ブロック Block (N+ 1)の評価 値(Bw(C, M) , Bw (C, N+ l) )や,画像領域 190d— 1の判定ブロック Block (M + 1)と,判定ブロック Block (N)と,判定ブロック Block(N+ l)との評価値(Bw(D, M+ 1) , Bw (D, N) , Bw(D, N+ 1) )などが特に大きい値となり,それ以外の評価 値は小さな値となる。
[0212] 次に,図 48には,改ざん判定領域 32の画像領域 190— 1に含まれていた" X"とい う文字と同じ位置(画像領域 190— 2)に対して上記フィルタ A〜フィルタ Dによるフィ ルタリング処理を行った結果の一例を示している。なお,何らかの行為により,入力画 像 21にお 、て" X"が" L"と 、う文字に置き換えられて 、るものとする。
[0213] 画像領域 190a— 2は,画像領域 190— 2にフィルタ Aでフィルタリング処理した結 果を示し,画像領域 190b— 2は,画像領域 190— 2にフィルタ Bでフィルタリング処 理した結果を示し,画像領域 190c— 2は,画像領域 190— 2にフィルタ Cでフィルタリ ング処理した結果を示し,画像領域 190d— 2は,画像領域 190— 2にフィルタ Dでフ ィルタリング処理した結果を示して 、る。
[0214] "L"という文字は,垂直方向の直線と水平方向の直線とから主に構成されているた め,図 48の画像領域 190a— 2と画像領域 190b— 2に示すように,水平方向と垂直 方向の直線に対する反応が強く,画像領域 190c— 1と画像領域 190d— 2に示すよ うに,斜め方向の直線に対する反応は弱い。 [0215] 図 49は,上記文字" L"を含んだ画像領域 190— 2を複数の判定ブロック Blockに 分割した場合の概略的な構成の一例を示す説明図である。図 49に示すように,特に ,画像領域 190a— 2の判定ブロック Block (M+1)と,判定ブロック Block (N+ 1)の 評価値(Bd(A, M+1), Bd(A, N+1))や,画像領域 190b— 2の判定ブロック Bio ck(N)と,判定ブロック Block (N+1)の比較評価値(Bd(B, N) , Bd(B, N+1))な どが特に大きい値となり,それ以外の評価値は小さな値となる。
[0216] 改ざん判定部 27は,例えば,図 47と図 49に示す各判定ブロック Blockの評価値及 び比較評価値に基づ 、て,改ざんされた力否かの判定処理を行う。
[0217] 改ざん判定部 27は,例えば,図 47に示す原画像 11の改ざん判定領域 32内の判 定ブロック Blockの評価値の方力 原画像 11の判定ブロック Blockに対応する図 49 に示す入力画像 21の判定ブロック Blockの比較評価値よりも大きい場合の評価値の ペア(Bw(C, M)と Bd(C, M))の差分である絶対値 Df(C, M)や, Bw(C, N+1) と Bd(C, N+1)の差分の絶対値 Df(C, N+1)などが閾値 Tcを超えるため,判定ブ ロック Block(M),判定ブロック Block(N+l)などに相当する位置に改ざんがあった と判定することができる。
[0218] 同様に,改ざん判定部 27は,例えば,図 47に示す原画像 11の判定ブロック Block の評価値の方が,入力画像 21の判定ブロック Blockの比較評価値よりも小さ 、場合 の評価値'比較評価値ペア(Bw(A, M+1), Bd(A, M+1))の差分である絶対値 Df(A, M+1)や,評価値'比較評価値ペア(Bw( A, N+1), Bd(A, N+1))の差 分の絶対値 Df (A, N+1)などが閾値 Taをこえるため,判定ブロック Block (M+1) ,判定ブロック Block (N+ 1)などに相当する位置に改ざんがあつたと判定することが できる。
[0219] なお,上記説明した判定基準 1〜判定基準 4からなる判断基準に,以下に示す判 定基準 5の式を,さらに追加してもよいし,以下に示す"判定基準 5"のみ力 なる判 断基準の場合でも実施可能である。
[0220] (判定基準 5): C XDf(A, n)+C XDf (B, n)+C XDf (C, n)+C XDf (D, n
a b e d
) >Tall…(式 2)
[0221] ただし,上記"判定基準 5"において, C〜Cは任意の定数である。また, C〜Cが
a d a d すべて 1の場合,上記判定基準 5は Df (A, n)〜Df(D, n)の単純な和に対する判定 基準となる。
[0222] また,あるブロック αの差分の絶対値の組(Df (A, a), Df (B, a), Df(C, a), D f(D, α))を,要素数力 つのベクトル(四次元ベクトル)とみなし(これを差分ベクトル と呼ぶ),サンプル画像により原画像 11と入力画像 21の間で改ざんのない判定プロ ック Blockの評価値と比較評価値の差分 Df(X, n),および改ざんのある判定ブロッ ク Blockの評価値と比較評価値の差分 Df(X, n)のサンプルデータを取得し,さらに 改ざんのな!、場合と改ざんのある場合の差分ベクトルの分布を計算し,この分布の第 1主成分を示す主軸を計算した後, C〜Cを各差分ベクトルを主軸へ写像するため
a d
の係数としてもよい。
[0223] また,判定ブロック Block (n)の近傍領域に含まれる判定ブロック Block (η+ Δη) から, Df(X, n)の値を以下に示す式から求める場合でもよい。
[0224] Df(X, n)=MAX{ | Bw(X, η+ Δη)— Bd(X, η+ Δη) | }…(式 3)
[0225] ただし, MAX{}はすべての Δηに対する | Bw(X, η+ Δη)—Bd(X, n+ Δη) | の最大値である。
[0226] 以上から,第 1の実施の形態に力かる透力し画像出力部 10と透力し画像入力部 20 の説明を終了する。上記透力 画像出力部 10又は透力 画像入力部 20によって, 印刷された書面に対する改ざんの有無を自動的に判別することができる。
[0227] (第 2の実施の形態について)
次に,第 2の実施の形態に力かる改ざん検出装置では,例えば,文書画像中の文 字領域の特徴データのみを透力し情報とすることによって,データ量を削減すること を目的としている。なお,第 2の実施の形態に力かる改ざん検出装置の説明では,第 1の実施の形態に力かる改ざん検出装置との相違点について特に詳細に説明し,そ の他の点については実質的に同様であるため省略する。
[0228] まず,図 50を参照しながら,第 2の実施の形態に力かる改ざん検出装置に備わる 透力し画像出力部 1010について説明する。なお,図 50は,第 2の実施の形態にか 力る透かし画像出力部 1010の概略的な構成の一例を示すブロック図である。
[0229] 図 50に示すように,第 2の実施の形態に力かる透力し画像出力部 1010と第 1の実 施の形態に力かる透力 画像出力部 10とが相違する点は,第 2の実施の形態に係る 透力し画像出力部 1010に文字領域抽出部 1017が,さらに追加された点である。
[0230] 上記文字領域抽出部 1017は,原画像 1011から文字領域を抽出する。なお,第 2 の実施の形態にカゝかる原画像 1011は,文書作成ツール等により作成された文書画 像である。
[0231] 領域分割処理部 1013は,上記文字領域抽出部 1017で抽出された文字領域を任 意の大きさのブロックに分割する。上記文字領域が分割されると,文字領域は複数の 判定ブロック Blockから構成される。
[0232] 次に,図 51を参照しながら,第 2の実施の形態に力かる改ざん検出装置に備わる 透力し画像入力部 1020について説明する。なお,図 24は,第 2の実施の形態にか 力る透かし画像入力部の概略的な構成の一例を示すブロック図である。
[0233] 図 51に示すように,第 2の実施の形態に力かる透力し画像入力 1020は,第 1の実 施の形態に力かる透力 画像入力部 20に備わる各部の構成と実質的に同様である ため,詳細な説明を省略する。なお,第 2の実施の形態に力かる改ざん検出装置に は上記透力し画像出力部 1010及び Z又は透力し画像入力部 1020が備わる。
[0234] (第 2の実施の形態に係る改ざん検出装置に備わる各部の動作について)
次に,図 52および図 53を参照しながら,第 2の実施の形態に力かる透力し画像出 力部 1010による処理について説明する。図 52は,第 2の実施の形態に力かる文字 領域を抽出する抽出処理の概略の一例を示す説明図であり,図 53は,第 2の実施の 形態にカゝかる文字領域を分割する分割処理の概略の一例を示す説明図である。
[0235] なお,以降の説明では,第 1の実施の形態と相違する相違点について説明し,その 他の点については,実質的に同様であるため,詳細な説明は省略する。
[0236] まず,文字領域抽出部 1017は,原画像 1011の画像領域のうち,改ざん判定領域 32に対して文字領域 1251を識別し,改ざん判定領域 32から文字領域 1251を抽出 する。
[0237] 文字領域抽出部 1017が上記文字領域 1251を抽出すると,図 52に示すように,改 ざん判定領域 32のうち文字である部分だけが認識され,文字領域 1251 (1251a, 1 251b, 1251c)として抽出されている。なお,例えば,文字領域 1が文字領域 1251a ,文字領域 2が文字領域 1251b,文字領域 3が文字領域 1251cとするが,かかる例 に限定されない。
[0238] なお,図 52に示す文字領域 1251には,横書きの文字が含まれている場合を例に 挙げて説明しているが,力かる例に限定されず,例えば,文字領域 1251には,縦書 きの文字が含まれる場合等でも実施可能である。上記の場合,その文字領域 1251 に含まれる文字を 90度回転することで,横書きの場合と同じように後続処理を実行す ることがでさる。
[0239] ここで,文字領域抽出部 1017の文字領域抽出処理について説明すると,まず文 字領域抽出部 1017は,改ざん判定領域 32のうち黒画素からなる領域 (黒画素領域 )に対して膨張処理を実行する。なお,膨張処理については一般的に用いられる画 像処理によって行われる。
[0240] 次に,文字領域抽出部 1017は,膨張処理が行われた文字領域に対して,ラベル 付けを実行し, 1文字又は 2文字等の各文字を囲む最小矩形からなる文字領域を, まず抽出する。なお,ラベル付けは,連続的に集まった黒画素の集合を 1つのグルー プとして定義付ける,いわゆる黒画素のグルーピング処理である。上記ラベル付けす ることで, 1文字または 2文字力 なる最小矩形力 なる文字領域を抽出することがで きる。
[0241] また,文字領域抽出部 1017が,膨張処理を行うのは,上記ラベル付け処理を効率 化するためであり,力かる膨張処理によって,ラベル付け処理の処理時間を短縮する ことができる。
[0242] 次に,文字領域抽出部 1017は,ラベル付けを行った最小矩形力もなる文字領域 の存在位置を把握し,その文字領域の左右に存在する最小矩形からなる文字領域 同士を結合させる。その結果,文字領域抽出部 1017は,複数文字が含まれる文字 領域 1251を抽出することができる。なお,上記結合処理の結果,文字領域 1251に は, 1文字だけの文字が含まれる場合もあり得る。
[0243] なお,第 2の実施の形態にカゝかる文字領域抽出部 1017は,文字領域 1251を抽出 する際に,改ざん判定領域 32には,文字以外,直線等,特に存在しない場合を例に 挙げて説明したが,力かる例に限定されず,例えば,水平方向又は垂直方向の鄞線 が改ざん判定領域 32に存在する場合であっても,実施可能である。上記の場合,改 ざん判定領域 32を含む原稿画像 11に存在する鄞線を除去した後,文字領域の抽 出を行う。
[0244] また,上記文字領域抽出部 1017による文字領域 1251が抽出された後の処理に ついては,第 1の実施の形態に力かる透力し画像出力部 10の処理と,ほぼ同様であ るため詳細な説明は省略する。
[0245] なお,画像特徴抽出部 1012による出力値を出力するためのフィルタリング処理で は,第 1の実施の形態に力かる画像特徴抽出部 12と同様に,改ざん判定領域 32の 全体につ 、てフィルタリング処理を実行してもよ 、し,または処理時間短縮を目的とし て,文字領域抽出部 1017で抽出された文字領域 1251についてのみフィルタリング 処理を実行してもよい。
[0246] (領域分割処理部 1013の動作にっ 、て)
次に,図 53に示すように,領域分割処理部 1013は,文字領域抽出部 1017によつ て抽出された文字領域 1251に対して,判定ブロック Block単位に分割処理を実行 する。したがって,文字領域 1251には, 1又は 2以上の判定ブロック Blockが存在す る。
[0247] 図 53に示すように,文字領域 1251は,まず上下に 2つに分割し,さらに水平方向 に n分割されている。したがって,判定ブロック Blockの高さは,文字領域 1251を縦 方向に 2分割した値であり,文字領域 1251ごとに異なる。また,判定ブロック Block の幅は予め定められた固定値としているが,力かる例に限定されず,例えば,判定ブ ロック Blockの幅を,文字領域 1251を水平方向に N分割した値に動的に変更する場 合でもよいし,または幅,高さ共に予め定められた固定値の場合でもよい。
[0248] 上記領域分割処理部 1013によって文字領域 1251が分割されると,画像特徴デ 一タ化部(第 1の画像特徴評価部) 1014によって,フィルタリング処理が実行され, 出力値が生成される。なお,第 2の実施の形態に力かる画像特徴データ化部 1014 の処理は,第 1の実施の形態に力かる画像特徴データ化部 14と実質的に同様であ るため,詳細な説明は省略する。
[0249] (透力し情報合成部 1015の動作について) 次に,透かレ f青報合成部 1015は,第 1の実施の形態に力かる改ざん検出データ D ATAに含まれる改ざん検出データ DATAO〜DATA3に加え,さらに以下に示す改 ざん検出データ DATA4が改ざん検出データ DATAに含まれる。
[0250] DATA4:文字領域の位置情報およびサイズ情報
[0251] なお,上記改ざん検出データ DATA4の他にも,例えば,文字領域抽出部 1017に おいて,鄞線を除去する処理が行われた場合等には,改ざん検出データ DATAに, 改ざん検出データ DATA5を,さらに追加する。
[0252] DATA5:鄞線領域 (鄞線がひかれた個所)を特定ための位置情報およびサイズ情 報
[0253] (透かし画像入力部 1020について)
第 2の実施の形態に力かる透かし画像入力部 1020は,第 1の実施の形態にかかる 透力 画像入力部 20とほぼ同様の構成であるため詳細な説明は省略する。なお,画 像変形部 1023については,透力し情報 1028 (改ざん検出データ DATA)に改ざん 検出データ DATA5 (鄞線領域情報)が含まれている場合,画像変形部 1023は,原 画像 11の画像領域のうち鄞線領域のみを除去する。
[0254] 上記画像領域のうち鄞線領域の除去については,例えば,画像変形部 1023は, 画像領域の水平方向又は垂直方向に走査しながら,黒画素が連続的に存在する個 所を検索する。上記黒画素が所定値以上連続して検出した場合,上記黒画素の存 在する領域を鄞線領域であると判断する。さらに画像変形部 1023は,その黒画素を 白画素に変更することで,上記鄞線領域を除去する。
[0255] さらに,領域分割処理部 1025については透力し情報 1028に改ざん検出データ D ATA3が格納されていない場合,領域分割処理部 1025は,改ざん検出データ DA TA4を取得し,その改ざん検出データ DATA4が示す文字領域情報に基づき判定 ブロック Blockの位置とサイズを再計算する。
[0256] 以上で,第 2の実施の形態に力かる透力し画像出力部 1010又は透かし画像入力 部 1020の一連の動作についての説明は終了する。力かる処理によって,特に入力 画像 1201として文書画像中に存在する文字領域 1251に係る評価値のみを透かし 情報として,原画像 1021に埋め込むことができる。したがって,改ざん判定領域 32よ りも文字領域 1251の方が狭いため,第 1の実施の形態に力かる効果に加えて,原画 像 1021に埋め込む必要がある透力し情報のデータ量を削減することができる。
[0257] 以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本 発明は力かる例に限定されない。当業者であれば,特許請求の範囲に記載された技 術的思想の範疇内において各種の変更例または修正例を想定し得ることは明らかで あり,それらについても当然に本発明の技術的範囲に属するものと了解される。
[0258] また,本実施形態においては,透かレ f青報が埋め込まれた入力画像 21を紙などの 印刷物に印刷し,その印刷書面をスキャナ等のインタフェース力 取り込んだ画像を 用いて改ざんの判定を行う場合を例に挙げて説明したが,力かる例に限定されない 。例えば,入力画像 21を印刷せず,そのまま改ざんの判定を行う場合等でも実施可 能である。
産業上の利用可能性
[0259] 本発明は,文書画像等の改ざんを検出することが可能な改ざん検出装置,透かし 入り画像入力装置,透かし入り画像出力装置,および検索情報提供システムに適用 可能である。

Claims

請求の範囲
画像を入力し,その入力画像の画像領域のうち改ざんされたか否かを判定する 1又 は 2以上の判定領域に対して特定の形状に強く反応する 1又は 2種以上の特徴抽出 フィルタのうち少なくとも一種の特徴抽出フィルタを施して出力値を計算する第 1の画 像特徴抽出部と;
前記画像の各判定領域を所定の大きさの判定ブロックで分割する第 1の領域分割 処理部と;
前記算出された出力値に基づき,前記特徴抽出フィルタごとに前記各判定ブロック の評価値を算出する第 1の画像特徴評価部と;
前記画像のサイズ情報,前記画像における前記判定領域の位置情報,前記画像 における判定領域のサイズ情報,前記各判定ブロックの位置情報,前記各判定プロ ックのサイズ情報,または前記各判定ブロックの評価値のうち少なくとも一つの情報を 透力し情報として前記画像に埋め込み,出力画像を生成する透力し情報埋め込み 部と;
前記出力画像に埋め込まれた前記透力し情報を抽出する透力し情報抽出部と; 少なくとも前記出力画像を加工し,前記画像と略同一サイズの比較画像を生成する 画像生成部と;
前記抽出された透かし情報に含まれる少なくとも前記判定領域の位置情報,前記 判定領域のサイズ情報,前記各判定ブロックの位置情報,または前記各判定ブロッ クのサイズ情報のうち少なくとも一つに基づいて,前記比較画像における前記判定領 域に対し,前記特徴抽出フィルタを施して比較出力値を計算する第 2の画像特徴抽 出部と;
前記比較画像の各判定領域を前記判定ブロックで分割する第 2の領域分割処理 部と;
前記算出された比較出力値に基づいて,前記各判定領域に施された特徴抽出フィ ルタごとに前記判定ブロックの比較評価値を算出する第 2の画像特徴評価部と; 前記透力し情報に含む前記画像における各判定ブロックの評価値を取得し,該画 像の各判定ブロックの評価値と前記比較画像の各判定ブロックの比較評価値との差 分を前記特徴検出フィルタごとに計算し,該特徴検出フィルタごとに算出された 1又 は 2以上の差分値のうち少なくとも一つが所定値よりも大きい場合,その比較評価値 に対応する比較画像の判定領域には改ざんがあつたと判定する改ざん判定部と; を備えることを特徴とする,改ざん検出装置。
[2] 画像を入力し,その入力画像の画像領域のうち改ざんされたか否かを判定する 1又 は 2以上の判定領域に対して特定の形状に強く反応する 1又は 2種以上の特徴抽出 フィルタのうち少なくとも一種の特徴抽出フィルタを施して出力値を計算する画像特 徴抽出部と;
前記画像の各判定領域を所定の大きさの判定ブロックで分割する領域分割処理部 と;
前記算出された出力値に基づき,前記特徴抽出フィルタごとに前記各判定ブロック の評価値を算出する画像特徴評価部と;
前記画像のサイズ情報,前記画像における前記判定領域の位置情報,前記判定 領域のサイズ情報,前記各判定ブロックの位置情報,前記各判定ブロックのサイズ情 報,または前記各判定ブロックの評価値のうち少なくとも一つの情報を透力し情報と して前記画像に埋め込み,出力画像を生成する透力 情報埋め込み部と; を備えることを特徴とする,透かし入り画像出力装置。
[3] 前記評価値は,前記判定ブロック内に存在する 1又は 2以上の前記出力値の平均値 であることを特徴とする,請求項 2に記載の透かし入り画像出力装置。
[4] 前記評価値は,前記特徴抽出フィルタごとに設定された所定値よりも大き!、前記出 力値のうち,前記判定ブロック内に存在する 1又は 2以上の前記出力値の平均値で あることを特徴とする,請求項 2に記載の透かし入り画像出力装置。
[5] 前記画像に設定される前記判定領域は,該判定領域内の領域全てに対して前記特 徴抽出フィルタが施されることを特徴とする,請求項 2, 3,または 4項のうちいずれか
1項に記載の透かし入り画像出力装置。
[6] 前記画像に設定された前記判定領域は,該判定領域内に文字が存在する領域のみ を網羅するように再配置されることを特徴とする,請求項 2, 3,または 4項のうちいず れカ 1項に記載の透かし入り画像出力装置。
[7] 前記特徴抽出フィルタは,画像の特定の方向に傾く直線に強く反応するフィルタであ ることを特徴とする,請求項 2, 3, 4, 5,または 6項のうちいずれか 1項に記載の透か し入り画像出力装置。
[8] 画像に,前記画像のサイズ情報,前記画像の画像領域のうち改ざんされたカゝ否かを 判定する 1又は 2以上の判定領域の位置情報,前記判定領域のサイズ情報,前記判 定領域を分割することで前記判定領域に構成される 1又は 2以上の各判定ブロックの 位置情報,前記各判定ブロックのサイズ情報,または前記各判定ブロックの評価値の うち少なくとも一つの情報が透力し情報として埋め込まれることで生成された出力画 像から,前記透力し情報を抽出する透力し情報抽出部と;
少なくとも前記出力画像を加工し,前記画像と略同一サイズの比較画像を生成する 画像生成部と;
前記抽出された透かし情報に含まれる少なくとも前記判定領域の位置情報,前記 判定領域のサイズ情報,前記各判定ブロックの位置情報,または前記各判定ブロッ クのサイズ情報のうち少なくとも一つに基づいて,前記比較画像における前記判定領 域に対し,特定の形状に強く反応する 1又は 2種以上の特徴抽出フィルタのうち少な くとも一種の特徴抽出フィルタを施して比較出力値を計算する画像特徴抽出部と; 前記比較画像の各判定領域を前記判定ブロックで分割する領域分割処理部と; 前記算出された比較出力値に基づいて,前記各判定領域に施された特徴抽出フィ ルタごとに前記判定ブロックの比較評価値を算出する画像特徴評価部と;
前記透力し情報に含む前記画像における各判定ブロックの評価値を取得し,該画 像の各判定ブロックの評価値と前記比較画像の各判定ブロックの比較評価値との差 分を前記特徴検出フィルタごとに計算し,該特徴検出フィルタごとに算出された 1又 は 2以上の差分値のうち少なくとも一つが所定値よりも大きい場合,その比較評価値 に対応する比較画像の判定領域には改ざんがあつたと判定する改ざん判定部と; を備えることを特徴とする,透かし入り画像入力装置。
[9] 前記改ざん判定部は,前記透かし情報に含む前記画像における各判定ブロックの評 価値を取得し,前記画像の各判定ブロックの評価値と前記比較画像の各判定ブロッ クの比較評価値との差分を前記特徴検出フィルタごとに計算し,該特徴検出フィルタ ごとの差分値を線形結合した値が,所定値よりも大きい場合,その比較評価値に対 応する比較画像の判定領域には改ざんがあつたと判定することを特徴とする,請求 項 8に記載の透かし入り画像入力装置。
[10] 前記評価値は,前記判定ブロック内に存在する 1又は 2以上の前記出力値の平均値 であることを特徴とする,請求項 8に記載の透かし入り画像入力装置。
[11] 前記評価値は,前記特徴抽出フィルタごとに設定された所定値よりも大きい前記出 力値のうち,前記判定ブロック内に存在する 1又は 2以上の前記出力値の平均値で あることを特徴とする,請求項 8に記載の透かし入り画像入力装置。
[12] 画像を入力し,その入力画像の画像領域のうち改ざんされたか否かを判定する 1又 は 2以上の判定領域に対して特定の形状に強く反応する 1又は 2種以上の特徴抽出 フィルタのうち少なくとも一種の特徴抽出フィルタを施して出力値を計算する画像特 徴抽出処理と;
前記画像の各判定領域を所定の大きさの判定ブロックで分割する領域分割処理と 前記算出された出力値に基づき,前記特徴抽出フィルタごとに前記各判定ブロック の評価値を算出する画像特徴評価処理と;
前記画像のサイズ情報,前記画像における前記判定領域の位置情報,前記判定 領域のサイズ情報,前記各判定ブロックの位置情報,前記各判定ブロックのサイズ情 報,または前記各判定ブロックの評価値のうち少なくとも一つの情報を透力し情報と して前記画像に埋め込み,出力画像を生成する透力 情報埋め込み処理と; を含むことを特徴とする,透かし入り画像出力方法
[13] 画像に,前記画像のサイズ情報,前記画像の画像領域のうち改ざんされたカゝ否かを 判定する 1又は 2以上の判定領域の位置情報,前記判定領域のサイズ情報,前記判 定領域を分割することで前記判定領域に構成される 1又は 2以上の各判定ブロックの 位置情報,前記各判定ブロックのサイズ情報,または前記各判定ブロックの評価値の うち少なくとも一つの情報が透力し情報として埋め込まれることで生成された出力画 像から,前記透力し情報を抽出する透力し情報抽出処理と;
少なくとも前記出力画像を加工し,前記画像と略同一サイズの比較画像を生成する 画像生成処理と;
前記抽出された透かし情報に含まれる少なくとも前記判定領域の位置情報,前記 判定領域のサイズ情報,前記各判定ブロックの位置情報,または前記各判定ブロッ クのサイズ情報のうち少なくとも一つに基づいて,前記比較画像における前記判定領 域に対し,特定の形状に強く反応する 1又は 2種以上の特徴抽出フィルタのうち少な くとも一種の特徴抽出フィルタを施して比較出力値を計算する画像特徴抽出処理と; 前記比較画像の各判定領域を前記判定ブロックで分割する領域分割処理処理と; 前記算出された比較出力値に基づいて,前記各判定領域に施された特徴抽出フィ ルタごとに前記判定ブロックの比較評価値を算出する画像特徴評価処理と; 前記透力し情報に含む前記画像における各判定ブロックの評価値を取得し,該画 像の各判定ブロックの評価値と前記比較画像の各判定ブロックの比較評価値との差 分を前記特徴検出フィルタごとに計算し,該特徴検出フィルタごとに算出された 1又 は 2以上の差分値のうち少なくとも一つが所定値よりも大きい場合,その比較評価値 に対応する比較画像の判定領域には改ざんがあつたと判定する改ざん判定処理と; を含むことを特徴とする,透かし入り画像入力方法。
PCT/JP2005/022080 2004-12-01 2005-12-01 改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法 WO2006059681A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004349147A JP2006157831A (ja) 2004-12-01 2004-12-01 改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法
JP2004-349147 2004-12-01

Publications (1)

Publication Number Publication Date
WO2006059681A1 true WO2006059681A1 (ja) 2006-06-08

Family

ID=36565114

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/022080 WO2006059681A1 (ja) 2004-12-01 2005-12-01 改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法

Country Status (2)

Country Link
JP (1) JP2006157831A (ja)
WO (1) WO2006059681A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8038073B2 (en) 2006-12-22 2011-10-18 Canon Kabushiki Kaisha Tamper detection of documents using encoded dots
US8840249B2 (en) 2008-10-31 2014-09-23 Christie Digital Systems, Inc. Method, system and apparatus for projecting visible and non-visible images

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309157A (ja) * 2000-04-26 2001-11-02 Ntt Data Corp 書類認証方法、システム、書類作成装置、書類認証装置及び記録媒体
JP2003101762A (ja) * 2001-07-18 2003-04-04 Oki Electric Ind Co Ltd 透かし情報埋め込み装置,及び,透かし情報検出装置
JP2003115989A (ja) * 2001-10-04 2003-04-18 Oki Electric Ind Co Ltd 電子すかし埋め込み装置及び電子すかし検出装置
JP2003209676A (ja) * 2002-01-10 2003-07-25 Oki Electric Ind Co Ltd 電子透かし埋め込み装置,電子透かし検出装置,電子透かし埋め込み方法,及び,電子透かし検出方法
JP2003264685A (ja) * 2002-03-08 2003-09-19 Oki Electric Ind Co Ltd 文書画像出力方法及び装置、改ざん判定方法及びシステム、並びに改ざん判定システムの制御用プログラム
JP2004165778A (ja) * 2002-11-11 2004-06-10 Ricoh Co Ltd 符号生成装置、画像処理装置、符号生成プログラム、画像処理プログラムおよび記憶媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309157A (ja) * 2000-04-26 2001-11-02 Ntt Data Corp 書類認証方法、システム、書類作成装置、書類認証装置及び記録媒体
JP2003101762A (ja) * 2001-07-18 2003-04-04 Oki Electric Ind Co Ltd 透かし情報埋め込み装置,及び,透かし情報検出装置
JP2003115989A (ja) * 2001-10-04 2003-04-18 Oki Electric Ind Co Ltd 電子すかし埋め込み装置及び電子すかし検出装置
JP2003209676A (ja) * 2002-01-10 2003-07-25 Oki Electric Ind Co Ltd 電子透かし埋め込み装置,電子透かし検出装置,電子透かし埋め込み方法,及び,電子透かし検出方法
JP2003264685A (ja) * 2002-03-08 2003-09-19 Oki Electric Ind Co Ltd 文書画像出力方法及び装置、改ざん判定方法及びシステム、並びに改ざん判定システムの制御用プログラム
JP2004165778A (ja) * 2002-11-11 2004-06-10 Ricoh Co Ltd 符号生成装置、画像処理装置、符号生成プログラム、画像処理プログラムおよび記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8038073B2 (en) 2006-12-22 2011-10-18 Canon Kabushiki Kaisha Tamper detection of documents using encoded dots
US8840249B2 (en) 2008-10-31 2014-09-23 Christie Digital Systems, Inc. Method, system and apparatus for projecting visible and non-visible images

Also Published As

Publication number Publication date
JP2006157831A (ja) 2006-06-15

Similar Documents

Publication Publication Date Title
JP4277800B2 (ja) 透かし情報検出方法
JP3628312B2 (ja) 透かし情報埋め込み装置,及び,透かし情報検出装置
JP4218920B2 (ja) 画像処理装置及び画像処理方法並びに記憶媒体
JP4035717B2 (ja) 画像処理装置及び画像処理方法
WO2018076409A1 (zh) 一种二维码的防拷贝实现方法及实现系统
CN103886545B (zh) 基于计算全息的变换域抗打印扫描数字水印方法
JP3964684B2 (ja) 電子透かし埋め込み装置,電子透かし検出装置,電子透かし埋め込み方法,及び,電子透かし検出方法
US20070127771A1 (en) Image processing apparatus and method
WO2005094058A1 (ja) 印刷媒体の品質調整システム,検査用透かし媒体出力装置,透かし品質検査装置,調整済透かし媒体出力装置,印刷媒体の品質調整方法,および検査用透かし媒体
KR101086802B1 (ko) 워터마크 정보매립장치 및 방법, 워터마크 정보검출장치 및방법, 워터마크된 문서
JP4173994B2 (ja) 画像に埋め込まれたハーフトーン変調の検出
JP4595014B2 (ja) 電子透かし埋め込み装置および検出装置
KR20070052332A (ko) 화상 처리 방법 및 화상 처리 장치
EP1684496A1 (en) Watermark information embedding device, watermark information detection device, watermark information embedding method, watermark information detection method, and printed matter
JP4192887B2 (ja) 改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法
WO2006059681A1 (ja) 改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法
JP4134992B2 (ja) 透かし情報検出装置および透かし情報埋め込み装置および透かし情報検出方法および透かし情報埋め込み方法
JP2006279640A (ja) 情報埋め込み装置、印刷用媒体、および、情報読み取り装置
JP4096902B2 (ja) 透かし情報検出装置及び透かし情報検出方法
JP4192906B2 (ja) 透かし情報検出装置及び透かし情報検出方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05811437

Country of ref document: EP

Kind code of ref document: A1