WO2006035677A1 - 画像処理方法および画像処理装置 - Google Patents

画像処理方法および画像処理装置 Download PDF

Info

Publication number
WO2006035677A1
WO2006035677A1 PCT/JP2005/017517 JP2005017517W WO2006035677A1 WO 2006035677 A1 WO2006035677 A1 WO 2006035677A1 JP 2005017517 W JP2005017517 W JP 2005017517W WO 2006035677 A1 WO2006035677 A1 WO 2006035677A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
superimposed
straight line
pattern
position information
Prior art date
Application number
PCT/JP2005/017517
Other languages
English (en)
French (fr)
Inventor
Masahiko Suzaki
Original Assignee
Oki Electric Industry Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co., Ltd. filed Critical Oki Electric Industry Co., Ltd.
Priority to US11/663,922 priority Critical patent/US20080260200A1/en
Priority to EP05785784A priority patent/EP1798950A4/en
Publication of WO2006035677A1 publication Critical patent/WO2006035677A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits

Definitions

  • the present invention relates to an image processing method and an image processing apparatus capable of verifying falsification on the side of receiving a form when the printed form is falsified.
  • the present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to provide a new and improved image processing method capable of highly accurate alteration detection. And providing an image processing apparatus.
  • a detection unit that detects a superimposed position of a superimposed pattern from a pattern superimposed image in which an identifiable pattern is superimposed on the original image;
  • An image processing apparatus comprising: a corrected image creating unit that creates a corrected image of the pattern superimposed image based on the detected superposition position information.
  • the printed image is corrected based on the position information of the signal embedded at the time of printing. Therefore, it is possible to associate the positions of these images with high accuracy, and to perform high-performance alteration detection.
  • the pattern superimposed image may be an image itself that is output by superimposing an identifiable pattern, or by superimposing an identifiable pattern and printing it as a printed material (such as a form). It may be an image captured by an input device such as an apparatus.
  • the identifiable pattern may be superimposed on the entire original image at a known interval.
  • the identifiable pattern can be superimposed on the entire original image at equal intervals in both the vertical and horizontal directions.
  • the following method can be employed.
  • a set of position information arranged in the horizontal direction is approximated by a straight line
  • a set of position information arranged in the vertical direction is approximated by a straight line.
  • An intersection point between the horizontal approximate line and the vertical approximate line may be calculated, and the intersection point may be detected as a superimposed position of the pattern superimposed on the original image.
  • a set of position information arranged in the vertical direction is linearly approximated to a set of position information arranged in the horizontal direction.
  • the slope of the approximate straight line in the horizontal direction is replaced with the average value of the approximate straight line and other nearby horizontal lines (for example, adjacent to it)
  • the slope of the approximate straight line in the vertical direction is Replace with the average value of the approximate straight line and other nearby vertical lines (for example, adjacent to it), calculate the intersection of the horizontal approximate line and the vertical approximate line, and Detect as the superimposed position of the pattern superimposed on the image Please do it.
  • a set of position information arranged in the vertical direction is linearly approximated and a set of position information arranged in the vertical direction is approximated.
  • the vertical position of the horizontal approximate line is replaced with the average value of the approximate line and the vertical position of the other horizontal lines in the vicinity (for example, adjacent to it).
  • Replace the horizontal position of the approximate straight line with the average value of the horizontal position of the approximate straight line and other nearby vertical lines (for example, adjacent to it), and It is also possible to calculate an intersection point with the approximate straight line in the direction and detect the intersection point of the pattern in which the intersection point is superimposed on the original image.
  • the corrected image creation unit creates a corrected image of the pattern superimposed image so that the superimposed positions detected by the detection unit are aligned at known intervals in both the vertical and horizontal directions. It may be deformed.
  • a tampering determination unit that determines that tampering has been performed on the image may be further provided.
  • the image features of an arbitrary area of the original image and the position information of the area are recorded as visible or invisible information in the original image, and the detection unit detects the pattern superimposed image force image features and position information.
  • the tampering determination unit compares the extracted image feature with the image feature at the same position in the deformed pattern superimposed image, and if there is a difference between them, it may be determined that the tampering has occurred.
  • the image feature of an arbitrary region of the original image and the position information of the region are stored separately from the original image, and the tampering determination unit is configured to store the stored feature image and the deformed butterfly. Compare the image features at the same position in the superimposed image, and if there is a difference between them, determine that it has been tampered with.
  • a detection step of detecting a superimposed position of a superimposed pattern from a pattern superimposed image in which an identifiable pattern is superimposed on the original image There is provided an image processing method characterized by including a corrected image creation step of creating a corrected image of a pattern superimposed image based on the detected superimposed position information.
  • the pattern superimposed image may be an image itself that is output by superimposing an identifiable pattern, or by superimposing an identifiable pattern and printing it as a printed material (such as a form). It may be an image captured by an input device such as an apparatus.
  • the image processing method of the present invention can be applied as follows.
  • the identifiable pattern can be, for example, superimposed on the entire original image at a known interval.
  • the identifiable pattern can be superimposed on the entire original image at equal intervals in both the vertical and horizontal directions.
  • the following method can be used to detect the superimposed position in the detection step.
  • a set of position information arranged in the horizontal direction is approximated by a straight line
  • a set of position information arranged in the vertical direction is approximated by a straight line.
  • the intersection point between the horizontal approximate line and the vertical approximate line may be calculated, and the intersection point may be detected as a superimposed position of the pattern superimposed on the original image.
  • a set of position information arranged in the vertical direction is linearly approximated and a set of position information arranged in the vertical direction is approximated.
  • the slope of the approximate straight line in the horizontal direction is replaced with the average value of the approximate straight line and other nearby horizontal lines (for example, adjacent to it)
  • the slope of the approximate straight line in the vertical direction is Replace with the average value of the approximate straight line and other nearby vertical lines (for example, adjacent to it), calculate the intersection of the horizontal approximate line and the vertical approximate line, and Try to detect it as the superimposed position of the pattern superimposed on the image.
  • a set of position information arranged in the vertical direction is linearly approximated to a set of position information arranged in the horizontal direction.
  • the vertical position of the horizontal approximate line is replaced with the average value of the approximate line and the vertical position of the other horizontal lines in the vicinity (for example, adjacent to it).
  • the position of the approximate straight line in the horizontal direction Is replaced with the average value of other vertical lines in the vicinity of (for example, adjacent to) the horizontal position, and the intersection of the horizontal approximate line and the vertical approximate line is calculated. You may make it detect with the superimposition position of the pattern superimposed on.
  • the corrected image creation step a corrected image of the pattern superimposed image is created so that the superimposed positions detected in the detection step are aligned at known intervals in both the vertical and horizontal directions, and the non-turned superimposed image is deformed. You may make it do.
  • a tampering determination step for determining that tampering has been performed on the image may be further included.
  • the image features of an arbitrary area of the original image and the position information of the area are recorded as visible or invisible information in the original image.
  • the position information are extracted, and in the tampering determination process, the extracted image feature is compared with the image feature at the same position of the deformed pattern superimposed image, and if there is a difference between them, it is determined that the tampering has occurred. Even so,
  • the image features of an arbitrary area of the original image and the position information of the area are stored separately from the original image, and the stored feature image and the deformed pattern in the tampering determination step. Compare the image features at the same position in the superimposed image, and if there is a difference between them, determine that it has been tampered with.
  • a program for causing a computer to function as the image processing apparatus and a computer-readable recording medium on which the program is recorded.
  • the program may be written in any programming language.
  • a recording medium for example, a CD-ROM, a DVD-ROM, a flexible disk, or the like that is generally used as a recording medium capable of recording a program, or a recording medium that will be used in the future. Can also be adopted.
  • an image captured with a printed document is corrected based on position information of a signal embedded at the time of printing. Therefore, it is possible to restore the position between these images with high accuracy, and to perform high-performance tamper detection.
  • FIG. 1 is an explanatory diagram showing a configuration of a watermark information embedding device and a watermark information detection device.
  • FIG. 2 is a flowchart showing a processing flow of a watermarked document image composition unit 13.
  • FIG. 3 An explanatory diagram showing an example of a watermark signal. (1) shows unit A and (2) shows unit B.
  • FIG. 4 is a cross-sectional view of the change in pixel value in FIG. 3 (1) as viewed from the direction of arctan (lZ3).
  • FIG. 5 An explanatory diagram showing an example of a watermark signal. (3) is unit C, (4) is unit D,
  • FIG. 6 An explanatory diagram of the background image.
  • (1) shows the case where unit E is defined as the background unit and is arranged without gaps as the background of the document image.
  • (2) shows the case of (1).
  • An example in which unit A is embedded in the background image is shown, and (3) shows an example in which unit B is embedded in the background image in (1).
  • FIG. 7 is an explanatory diagram showing an example of a symbol embedding method in a document image.
  • FIG. 8 is a flowchart showing a method for embedding confidential information in a document image.
  • FIG. 9 is an explanatory diagram showing an example of a method for embedding secret information in a document image.
  • FIG. 10 is an explanatory diagram showing an example of a watermarked document image.
  • FIG. 11 is an explanatory view showing a part of FIG. 10 in an enlarged manner.
  • FIG. 12 is a flowchart showing a process flow of the watermark detection unit 32 in the first embodiment.
  • FIG. 13 is an explanatory diagram of a signal detection filtering step (step S310) in the first embodiment.
  • FIG. 14 is an explanatory diagram of a signal position search step (step S320) in the first embodiment.
  • FIG. 15 is an explanatory diagram of a signal boundary determining step (step S340) in the first embodiment.
  • FIG. 16 is an explanatory diagram showing an example of an information restoration step (step S305).
  • FIG. 17 is an explanatory diagram showing a flow of processing of a data code restoration method.
  • FIG. 18 is an explanatory diagram showing an example of a data code restoration method.
  • FIG. 19 is an explanatory diagram showing an example of a data code restoration method.
  • FIG. 20 is an explanatory diagram showing a configuration of a watermark information embedding device and a watermark information detection device in a fifth embodiment.
  • FIG. 21 is a flowchart showing a process flow of the falsification determination unit 33.
  • FIG. 22 is an explanatory diagram of the feature comparison step (step S450).
  • FIG. 23 is an explanatory diagram of the feature comparison step (step S450).
  • FIG. 26 is an explanatory diagram showing a configuration of a transparent image output unit.
  • FIG. 27 is an explanatory diagram showing a configuration of a transparent document input unit.
  • ⁇ 29] is a flowchart showing the operation of the input image transformation unit.
  • FIG. 30 is an explanatory diagram showing an example of a detected signal unit position.
  • FIG. 31 is an explanatory diagram showing an example of detecting an approximate line.
  • FIG. 32 is an explanatory diagram showing an example of a result of linear approximation.
  • FIG. 33 is an explanatory diagram showing tilt correction.
  • FIG. 34 is an explanatory diagram showing position correction.
  • FIG. 35 is an explanatory diagram showing an example of the intersection of straight lines.
  • ⁇ 36 It is an explanatory diagram showing an example of the correspondence between the position of the input image and the corrected image.
  • FIG. 37 is an explanatory diagram showing an example of a method for associating an input image with a corrected image.
  • FIG. 1 is an explanatory diagram showing the configuration of the watermark information embedding device and the watermark information detection device according to the present embodiment.
  • the watermark information embedding device 10 is a device that forms a watermarked document image based on the document image and confidential information embedded in the document and prints it on a paper medium. As shown in FIG. 1, the watermark information embedding device 10 is composed of a watermarked document image composition unit 13 and an output device 14. Document image 15 is an image created by a document creation tool or the like. Secret information 16 is information (character strings, images, audio data) embedded in paper media in a format other than characters.
  • the white pixel region in the document image 15 is a portion where nothing is printed, and the black pixel region is a portion where black paint is applied.
  • the description will be made on the assumption that printing is performed on white paper with black ink (single color).
  • the present invention is not limited to this, and printing is performed in color (multicolor). Similarly, the present invention can be applied.
  • the watermarked document image composition unit 13 creates a watermarked document image by superimposing the document image 15 and the secret information 16.
  • the watermarked document image composition unit 13 decodes the confidential information 16.
  • N-ary code (N is 2 or more) is converted to a numerical value and assigned to each signal of the codeword.
  • the signal represents a wave with an arbitrary direction and wavelength by arranging dots in a rectangular area of arbitrary size, and a symbol is assigned to the direction and wavelength of the wave.
  • a watermarked document image is one in which these signals are placed on the image according to certain rules.
  • the output device 14 is an output device such as a printer, and prints a watermarked document image on a paper medium.
  • the watermarked document image composition unit 13 may be realized as one function in the printer driver.
  • the printed document 20 is printed with the confidential information 16 embedded in the original document image 15, and is physically stored and managed.
  • the transparent information detecting device 30 is a device that takes in a document printed on a paper medium as an image and restores the embedded secret information 16. As shown in FIG. 1, the watermark information detection device 30 includes an input device 31 and a watermark detection unit 32.
  • the input device 31 is an input device such as a scanner, and takes in the document 20 printed on paper as a multi-value gray image into a computer.
  • the watermark detection unit 32 performs a filtering process on the input image and detects an embedded signal. The detected signal power symbol is restored, and the embedded secret information 16 is extracted.
  • Document image 15 is data including font information and layout information, and is created by document creation software. Document image 15 can be created for each page as an image of the document printed on paper. This document image 15 is a black and white binary image, white on the image, pixels (pixels with a value of 1) are background, black !, pixels (pixels with a value of SO) are character areas (ink is applied) Area).
  • the secret information 16 is various data such as characters, sounds and images.
  • the watermarked document image composition unit 13 superimposes this secret information 16 as the background of the document image 15.
  • FIG. 2 is a flowchart showing a processing flow of the watermarked document image composition unit 13.
  • the secret information 16 is converted into an N-element code (step S101).
  • the data may be encoded as it is, or the encrypted data may be encoded.
  • a watermark signal is assigned to each symbol of the code word (step S 102).
  • the permeability signal represents a wave having an arbitrary wavelength and direction by the arrangement of dots (black pixels).
  • the watermark signal will be further described later.
  • a signal unit corresponding to the bit string of the encoded data is arranged on the document image 15 (step S103).
  • FIG. 3 is an explanatory diagram showing an example of a watermark signal.
  • the width and height of the watermark signal be Sw and Sh, respectively.
  • the unit of length is the number of pixels.
  • a rectangle having a width and a height of Sw and Sh is referred to as a “signal unit” as one signal unit.
  • the distance between dots is dense in the direction of arctan (3) (arctan is the inverse function of tan) with respect to the horizontal axis, and the wave propagation direction is arctan (–1Z3).
  • This signal cut is hereinafter referred to as unit A.
  • the distance between the dots is dense in the arctan (–3) direction with respect to the horizontal axis, and the wave propagation direction is arctan (lZ3).
  • this signal unit is referred to as “user B”.
  • FIG. 4 is a cross-sectional view of the change in the pixel value of FIG. 3 (1) in which the directional force of arctan (lZ3) is also seen.
  • the dots are arranged and become the antinode of the minimum value of the wave (the point where the amplitude is maximum), and the dots are arranged and the portion becomes the antinode of the maximum value of the wave.
  • symbol 0 is assigned to the watermark signal expressed by unit A
  • symbol 1 is assigned to the watermark signal expressed by unit B. These are also called symbol cuts.
  • Figs. 5 (3) the distance between dots is dense in the direction of arctan (lZ3) with respect to the horizontal axis, and the wave propagation direction is arctan (–3).
  • this signal unit is referred to as unit C.
  • Fig. 5 (4) the distance between the dots is dense in the arctan (–1Z3) direction with respect to the horizontal axis, and the wave propagation direction is arctan (3).
  • this signal unit is referred to as unit D.
  • the distance between dots is dense in the direction of arctan (l) with respect to the horizontal axis, and the propagation direction of the wave is arctan (–1).
  • the distance between dots is dense in the direction of arct an (-1) with respect to the horizontal axis, and the wave propagation direction can be considered to be arctan (1).
  • this signal unit is referred to as unit E.
  • step S102 shown in FIG. 2 when the secret information is encoded with a quaternary code,
  • codeword symbol 0 to unit A
  • symbol 1 to unit B
  • symbol 2 to unit
  • symbol 3 to unit D.
  • unit E is defined as a background unit (signal unit to which no symbol is assigned), which is arranged without gaps as the background of document image 15, and symbol unit (When embedding unit A and unit B) in document image 15, replace the background unit (unit E) and symbol unit (unit A and unit B) at the position to be embedded.
  • FIG. 6 (1) is an explanatory diagram showing a case where unit E is defined as a background unit, which is arranged without gaps and used as the background of the document image 15.
  • Fig. 6 (2) shows an example of unit A embedded in the background image of Fig. 6 (1)
  • Fig. 6 (3) shows an example of unit B embedded in the background image of Fig. 6 (1). Show.
  • a method of using the background unit as the background of the document image 15 will be described.
  • only the symbol unit may be arranged as the background of the document image 15.
  • FIG. 7 is an explanatory diagram showing an example of a symbol embedding method in the document image 15.
  • “0101” will be described when a bit string is embedded.
  • the same symbol unit is repeatedly embedded. This is to prevent the characters in the document from being detected when a signal is detected when they are overlaid on the embedded symbol unit.
  • the number of symbol unit repetitions and the pattern of arrangement (hereinafter referred to as the unit pattern). ) Is optional.
  • the number of repetitions is 4 (4 symbol units exist in one unit pattern) as shown in Fig. 7 (1), or as shown in Fig. 7 (2).
  • the number of repetitions can be 2 (two symbol units exist in one unit pattern), or the number of repetitions is 1 (only one symbol unit exists in one unit pattern) Even more.
  • Figs. 7 (1) and (2) one symbol unit is given one symbol. Forces Symbols may be given to the symbol unit layout pattern as shown in Fig. 7 (3).
  • How many bits of information can be embedded in one page depends on the size of the signal unit, the size of the unit pattern, and the size of the document image.
  • the number of signals embedded in the horizontal and vertical directions of the document image may be detected as known, or the input device power may be calculated back from the size of the input image and the size of the signal unit. good.
  • the number of bits that can be embedded in one page is called the “number of embedded bits”.
  • the number of embedded bits is Pw X Ph.
  • FIG. 8 is a flowchart showing a method for embedding the secret information 16 in the document image 15.
  • the secret information 16 is converted into an N-element code (step S201). This is the same as step S101 in FIG. Below, the encoded data is referred to as a data code, and the data code expressed by a combination of unit patterns is referred to as a data code unit Du.
  • step S202 based on the code length of the data code (here, the number of bits) and the number of embedded bits, how many times the data code unit can be repeatedly embedded in one image is calculated (step S202).
  • the code length data of the data code is inserted into the first row of the unit pattern matrix.
  • the code length of the data code may be fixed and the code length data may not be embedded.
  • the number Dn of embedding data code units is calculated by the following equation, where the data code length is Cn.
  • the unit pattern matrix has a Dn number of data code units and a queue corresponding to the first Rn bits of the data code. Embedded pattern. However, the Rn bit in the remainder does not necessarily have to be embedded.
  • the unit pattern matrix size is 9 XII (11 rows and 9 columns), and the data code length is 12 (in the figure, 0 to L 1 numbers are assigned to each code of the data code. Represents a word).
  • code length data is embedded in the first row of the unit pattern matrix (step S203).
  • the code length is represented by 9-bit data and embedded only once. However, if the unit pattern matrix width Pw is sufficiently large, the code length is the same as the data code. Data can be embedded repeatedly.
  • the data code unit is repeatedly embedded in the second and subsequent rows of the unit pattern matrix (step S204).
  • the MSB (most significant bit) or LSB (least significant bit) strength of the data code is embedded in the row direction.
  • the example in Fig. 9 shows an example in which the data code unit is embedded 7 times and the first 6 bits of the data code are embedded.
  • the data embedding method may be embedded so as to be continuous in the row direction as shown in FIG. 9 or may be embedded so as to be continuous in the column direction.
  • the watermarked document image composition unit 13 superimposes the document image 15 and the secret information 16.
  • the value of each pixel in the watermarked document image is calculated by ANDing the corresponding pixel values of the document image 15 and the secret information 16. In other words, if either document image 15 or confidential information 16 is 0 (black), the pixel value of the watermarked document image is 0 (black). Otherwise, it is 1 (white).
  • FIG. 10 is an explanatory diagram showing an example of a watermarked document image.
  • Fig. 11 is an explanatory diagram showing a part of Fig. 10 on an enlarged scale.
  • the unit pattern shown in Fig. 7 (1) is used.
  • the watermarked document image is output by the output device 14.
  • FIG. 12 is a flowchart showing the process flow of the watermark detection unit 32.
  • a watermarked document image is input to a memory of a computer or the like by an input device 31 such as a scanner (step S301).
  • This image is referred to as an input image.
  • the input image is a multi-valued image, and is described below as a gray image with 256 gradations.
  • the resolution of the input image (the resolution when it is read by the input device 31) may be different from the watermarked document image created by the above-mentioned transparent watermark blueprint embedding device 10! In the following description, it is assumed that the resolution is the same as the image created by the information embedding device 10. The case where one unit pattern consists of one symbol unit is explained.
  • step S310 the entire input image is filtered, and the filter output value is calculated and the filter output value is compared.
  • the filter output value is calculated as follows:
  • gw and gh are filter sizes, which are the same size as the signal unit embedded in the information embedding device 10 above.
  • the filter output value at an arbitrary position in the input image is calculated by convolution between the filter and the image.
  • a Gabor filter there are a real filter and an imaginary filter (an imaginary filter is a filter whose phase is shifted by half a wavelength from the real filter), and the mean square value of these filters is used as the filter output value.
  • the filter output value F (A, X, y) is calculated by the following formula.
  • the filter output values calculated as described above are compared at each pixel, and the maximum value F (x , y) is stored as a filter output value matrix.
  • the number of the signal unit corresponding to the filter with the maximum value is stored as a filter type matrix (Fig. 13).
  • the number of filters is two. However, even when the number of filters is larger than that, the maximum value of the plurality of filter output values and the signals corresponding to the filters at that time are similarly used. Remember the unit number.
  • step S320 the position of the signal unit is determined using the filter output value matrix obtained in step S310. Specifically, first, the size of the signal unit is ShXSw. Assuming that this is done, a signal location search template is created in which the vertical spacing of the grid points is Sh, the horizontal spacing is Sw, and the number of grid points is Nh X Nw (Fig. 14). The size of the template created in this way should be the optimum value for searching for the signal unit position for the forces Nh and Nw for Th (Sh * Nh) XTw (Sw * Nw)!
  • the filter output value matrix is divided for each template size. Furthermore, in each divided area, the template grid points are moved while the template is moved pixel by pixel on the filter output value matrix within the range that does not overlap the signal units in the adjacent areas (horizontal direction SwZ2, vertical direction ShZ2,).
  • the sum V of the filter output value matrix values F (x, y) above is obtained using the following formula (Fig. 14), and the lattice point of the template with the largest sum is taken as the position of the signal unit in that region.
  • the above example is a case where the filter output value is obtained for all the pixels in step S310.
  • filtering it is possible to perform filtering only for pixels at a certain interval. For example, when filtering is performed every two pixels, the interval between the grid points in the above signal position search template may be set to 1Z2.
  • step S330 the signal unit is determined to be A or B by referring to the value of the filter type matrix at the signal unit position determined in step S320 (signal unit number corresponding to the filter).
  • the determination result of the determined signal unit is stored as a symbol matrix.
  • step S320 the entire image is filtered regardless of whether the signal unit is embedded. It is necessary to decide whether it was. Therefore, in step S340, the signal boundary is found by searching for the pattern determined when embedding the signal unit in advance from the symbol matrix.
  • the number of signal units A is counted in the horizontal direction of the symbol matrix determined in step S330, and the signal unit A is counted vertically from the center.
  • the position with the largest number of signal units A is defined as the upper end Z lower end of the signal boundary.
  • the signal unit A in the symbol matrix is represented by “black” (or “0” in terms of value). Therefore, by counting the number of black pixels in the symbol matrix, the number of signal units A is calculated. Counting can be performed, and the upper end Z lower end of the signal boundary can be obtained from the frequency distribution. The left end and the right end can also be obtained in the same way, except for the direction in which the number of units A is counted.
  • the signal boundary is not limited to the above method, and patterns that can be searched for symbol matrix power need only be determined on the embedding side and the detection side.
  • step S3 05 the partial force information corresponding to the inside of the signal boundary in the symbol matrix is restored.
  • the unit pattern matrix is equivalent to the symbol matrix.
  • FIG. 16 is an explanatory diagram showing an example of information restoration. The steps of information restoration are as follows.
  • FIG. 17 to 19 are explanatory diagrams showing an example of a data code restoration method.
  • the restoration method is basically the reverse process of Fig. 8.
  • the code length data portion of the first row force of the unit pattern matrix is also extracted to obtain the code length of the embedded data code (step S401).
  • step S402 the size of the unit pattern matrix and the code length of the data code obtained in step S401 Based on the above, the number Dn of data code units and the remainder Rn are calculated (step S402).
  • the data code unit is extracted from the second and subsequent rows of the unit pattern matrix by the reverse method of step S203 (step S403).
  • step S404 the embedded data code is reconstructed by performing bit certainty calculation on the data code unit extracted in step S403 (step S404).
  • the bit confidence calculation is described below.
  • Du (l, l) to Du (12, 1) which are first extracted from the second row and first column of the unit pattern matrix, are Du (l, l) to Du (12, 1). 2) to Du (12, 2),. The remainder is Du (l, 8) to Du (6, 8).
  • the bit certainty calculation is to determine the value of each symbol of the data code by taking a majority vote for each element of each data code unit. As a result, even if the correct signal detection is not possible from any unit in the data encoding unit (such as bit inversion error) due to overlap with the character area or contamination on the paper, The data code can be restored.
  • the signal detection result of Du (l, 1), Du (l, 2), ..., Du (l, 8) should be 1. When there are many, it is determined as 1, and when there are more 0, it is determined as 0.
  • the second bit of the data code is determined by majority decision based on the signal detection result of Du (2, 1), Du (2, 2), ..., Du (2, 8), and the 12th bit of the data code is Du (12, 1), Du (12, 2), ..., Du (12, 7) (Du (12, 8) does not exist, so it is up to Du (12, 7)) Judgment by majority vote.
  • each signal unit position is obtained by using the signal unit position obtained in the signal position search step (step S320).
  • the feature values of the document image (image data before embedding transparency) and the input image (an image obtained by scanning a printed document with the transparency embedded) are compared, and the contents of the print document are altered. Judgment is made.
  • FIG. 20 is a processing configuration diagram in the second embodiment.
  • a tampering determination unit 33 is provided.
  • the falsification determination unit 33 determines whether the contents of the printed document have been falsified by comparing the feature values related to the document image embedded in advance with the feature values related to the input image.
  • FIG. 21 shows a processing flow of the falsification determination unit 33
  • FIG. 22 shows a processing explanatory diagram of the falsification determination unit 33.
  • step S410 as in the first embodiment, the watermarked document image read by the input device 31 such as a scanner is input to the memory of the computer or the like (this image is referred to as an input image).
  • step S420 the data amount decoded in the information decoding step (step S305) of the detection unit 32 is also extracted through the feature amount related to the document image embedded in advance.
  • the document image feature amount is a reduced binary with the upper left coordinate of the area where the signal unit is embedded as the reference point (reference point P in FIG. 22) in the watermarked document image as shown in FIG.
  • the image is used. Since the document image on the embedding side is a binary image, it is only necessary to perform reduction processing using a known technique.
  • the image data is MR, MMR. After compressing the amount of data using a binary image compression method such as the above, embed it using the signal unit assigned to each symbol.
  • step S430 the input image is binarized.
  • the data force obtained by decoding the information relating to the binary threshold value embedded in advance in the information decoding step (step S305) of the watermark detection unit 32 is also extracted.
  • the extracted information power also determines the binary key threshold and binaries the input image.
  • this binary key threshold information is encoded using an arbitrary method such as using an error correction code, and is assigned to each symbol unit. You should embed it using.
  • the number of black pixels included in the document image when embedding is an example.
  • the number of black pixels in the binary image obtained by binarizing the input image that is normally the same size as the document image is included in the document image when embedding.
  • Set a binary key threshold to match the number.
  • the binary image threshold may be determined by using a known technique and the input image may be binarized.
  • the watermark detection side can create almost the same data as the binary image of the document image when embedding.
  • step S440 a feature quantity related to the input image is obtained from the input image and the signal unit position obtained in the signal position search step (step S320) of the watermark detection unit 32 and the signal boundary obtained in the signal boundary determination step (step S340). create. Specifically, the upper left coordinate of the signal boundary is used as a reference point (reference point Q in Fig. 22), and multiple signal units are divided into one unit. Divide and obtain a reduced image of the input image corresponding to the coordinate position in that unit. In Fig. 22, as an example of the region divided as described above, a rectangle with the upper left coordinate (xs, ys) and the lower right coordinate (xe, ye) is shown as an example. The same reduction method should be used for the embedding side
  • the upper left coordinate of the signal boundary is used as a reference point (reference point Q in Fig. 23), a plurality of signal units are divided into one unit, and the coordinate position corresponds to that unit. After creating a corrected image of the input image, you can reduce the corrected image.
  • step S450 the features obtained in the document image feature extraction process (step S420) and the input image feature creation process (step S440) are compared. If they do not match, the printed document corresponding to the position is falsified. It is determined that Specifically, the reduced input image for each signal unit obtained in step S440.
  • the corresponding document image feature extraction process step S420.
  • Reduced binary image (xs, ys)-(xe, ye) with reference point P in Fig. 22 as P Is compared with the rectangle with the upper left Z and the lower right vertex), and tampering is determined. For example, if the number of pixels with different luminance values in two images to be compared is equal to or greater than a predetermined threshold, it can be determined that the printed document corresponding to the signal unit has been altered.
  • a reduced binary image is used as the feature quantity, but instead, coordinate information and text data written in a printed document may be used.
  • the input image data corresponding to the coordinate information is referred to, the image information is recognized using a known OCR technology, and the recognition result is compared with the text data. Judgment can be made.
  • the feature amount relating to the document image that has been embedded with emphasis and the feature amount of the input image read by the scanner with the print document embedded with the confidential information are used for signal position search. It is possible to detect whether the contents of a printed document have been tampered with by comparing the signal unit determined using the template as a reference. wear. According to the first embodiment, the position of the signal unit can be accurately obtained, so that the feature quantity can be easily compared by using the position, and the alteration of the printed document can be determined.
  • FIG. 24 shows the signal unit positions detected in the first and second embodiments.
  • the position of the signal unit is detected in a state of being arranged almost uniformly in the entire input image (watermarked document image).
  • the detected signal unit positions are locally unevenly distributed due to rotation of the input image and local distortion of the paper.
  • the signal unit position on the filter output value matrix is correlated with the position on the input image by simply multiplying the signal unit position several times (or twice when filtering is performed every two pixels).
  • This embodiment includes a transparent image output unit 100 shown in FIG. 26 and a transparent image input unit 200 shown in FIG. Hereinafter, it demonstrates in order.
  • FIG. 26 is a configuration diagram of the transparent image output unit 100.
  • the transparent image output unit 100 is a functional unit that performs processing using the image 110 as an input, and includes a feature image generation unit 120 and a watermark information synthesis unit 130. Then, the transparency image output unit 100 outputs an output image 140 with a watermark.
  • the image 110 is an image of document data created by document creation software or the like.
  • the feature image generation unit 120 is a functional unit that generates image feature data to be embedded as a watermark.
  • the image feature data can be generated in the same manner as the watermarked document image composition unit 13 of the first and second embodiments, for example.
  • the watermark information synthesis unit 130 is a functional unit that embeds image feature data in the image 110 as information.
  • the embedding of the transparency information can be performed, for example, in the same manner as the watermarked document image composition unit 13 of the first and second embodiments.
  • the output image 140 is a watermarked image.
  • FIG. 27 is a configuration diagram of the transparent image input unit 200.
  • the watermark image input unit 200 is a functional unit that extracts watermark information using the input image 210 as input and corrects the input image.
  • An input image transformation unit 230 and a tampering judgment unit 240 are provided.
  • the input image 210 is an output image 140 or an image of the paper on which the output image 140 is printed using an input device such as a scanner.
  • the transparency information extraction unit 220 is a functional unit that extracts the transparency information of the input image force and restores the feature image 250. The extraction of watermark information can be performed, for example, in the same manner as the watermark detection unit 32 of the first and second embodiments.
  • the input image deformation unit 230 is a functional unit that corrects the distortion of the input image and generates the corrected image 260.
  • the tampering determination unit 240 is a functional unit that detects the difference area as tampering by superimposing the feature image 250 and the correction image 260.
  • the present embodiment is configured as described above.
  • the description will focus on the parts that are different from the second embodiment. It is assumed that the output image 140 output from the watermark image output unit 100 is printed and then converted into an image by a scanner and passed to the watermark image input unit 200.
  • FIG. 28 shows an example of a watermarked image.
  • the upper left coordinate of the area in which the signal unit of the watermarked document image is embedded is set as the reference coordinate (0, 0).
  • the reference coordinate (0, 0)
  • a falsification detection area is set in the image 110 so that only falsification of an important area in the image 110 can be detected.
  • the upper left coordinate of the falsification detection area when the reference coordinate is the origin is (A X, Ay)
  • the width of the falsification detection area is Aw
  • the height is Ah.
  • the reference coordinate is the upper left coordinate of the watermark area.
  • the feature image is an image obtained by cutting out the falsification detection area from the image 110, or an image obtained by reducing it.
  • the permeability information synthesis unit 130 synthesizes the falsification detection area information (for example, upper left coordinates, width, height) with the feature image and the image 110 as watermark information.
  • the transparency information extracting unit 220 extracts the information from the input image 210 and restores the feature image 250 embedded by the watermark output unit 100. This operation is the same as in the first and second embodiments.
  • FIG. 29 is a flowchart of the input image deformation unit 230. The following explanation is based on this flowchart.
  • FIG. 30 shows the signal unit position detected in the first and second embodiments on the input image (watermarked document image) 210.
  • U (l, y) to U (Wu, y) are signal queues in the same row (reference numeral 710 in FIG. 30), and U (x, l) to U (x, Hu) are in the same column
  • U (l, y) to U (Wu, y) and U (x, l) to U (x, Hu) In some cases, they are not lined up on the same straight line, but slightly shifted up and down and left and right.
  • the input image is filtered every N pixels vertically and horizontally (N is a natural number). This filtering is performed in the same manner as the signal position search step (step S320)> in the first embodiment.
  • P is a value obtained by simply multiplying the coordinate value of each signal unit in the signal output value matrix N times vertically and horizontally.
  • Figure 31 shows an example of line approximation in the row direction.
  • the positions of signal units U (l, y) to U (Wu, y) in the same row are approximated by a straight line Lh (y).
  • the approximate line is such that the sum of the distances between the position of each signal unit and the line Lh (y) is the smallest.
  • Such a straight line can be obtained by a general method such as a least square method or principal component analysis.
  • the linear approximation in the row direction is performed for all rows, the rows, and similarly the linear approximation in the column direction for all columns!
  • FIG. 32 shows an example of the result of performing linear approximation in the row direction and the column direction.
  • Lh (y) is a straight line approximating U (l, y) to U (Wu, y) (symbol 810 in Fig. 32), and Lv (x) is U (x, l) to U (x, Hu) Is a straight line (reference numeral 820 in Fig. 32).
  • step S620 The straight line approximated in step S620 does not have the same slope or position when viewed individually, for example, because the detected signal units are misaligned to some extent. Therefore, in step S630, equalization is performed by correcting the inclination and position of each straight line.
  • FIG. 33 shows an example of correcting the slope of the approximate straight line Lh (y) in the row direction.
  • Figure 33 (a) is before correction
  • Fig. 33 (b) is after correction.
  • the slope of 01 () in Fig. 33 (&) is 11 ()
  • the slope of Lh (y) is corrected to be the average value of the slope of the straight line near Lh (y).
  • TMy) AVERAGE (TMy ⁇ Nh) to Th (y + Nh)).
  • AVERA GE (A to B) is a formula that calculates the average value from A to B
  • Nh is an arbitrary natural number .
  • Fig. 33 shows an example when Nh is 1, and Fig. 33 (b) is corrected by the average value of the slope of the straight line of Lh (y) force Lh (y-1) to Lh (y + 1).
  • Nh 1
  • Fig. 33 (b) is corrected by the average value of the slope of the straight line of Lh (y) force Lh (y-1) to Lh (y + 1).
  • FIG. 34 shows an example of correcting the position of the approximate straight line Lh (y) in the row direction.
  • Figure 34 (a) is before correction
  • Fig. 34 (b) is after correction.
  • Fig. 34 (a) when an arbitrary reference line 1130 is set in the vertical direction and the y coordinate of the intersection of this line and Lh (y) is Q (y), Q (y) is Lh (y It is corrected so that it becomes the average of the straight line positions in the vicinity of).
  • Q (y) AVERAGE ( And
  • Mh is an arbitrary natural number. If y—Mh 1 or y + Mh> Hu, no change is made.
  • Fig. 34 shows an example when Mh is 1.
  • Fig. 34 (b) is corrected by the midpoint (average) of the Lh (y) force SLh (y-1) and Lh (y + 1) straight line positions. An example is shown. This process can be omitted.
  • Figure 35 shows an example of calculating the intersections of approximate straight lines Lh (l) to Lh (Hu) in the row direction and approximate straight lines Lv (l) to Lv (Wu) in the column direction.
  • the intersection point is calculated by a general mathematical method.
  • the intersection calculated here is the corrected signal unit position. That is, the intersection of the approximate straight line Lh (y) in the row direction and the approximate straight line Lv (x) in the column direction is defined as the corrected position (Rx (x, y), Ry) of the signal unit U (x, y). (x, y)).
  • the corrected position of signal unit U (l, 1) is the intersection of Lh (l) and Lv (l)
  • a corrected image is created from the input image with reference to the signal unit position calculated in step S640.
  • Dout be the resolution when printing the transparent image output by the transparent image output unit 100
  • Din when acquiring the image to be input to the watermark image input unit 200.
  • the size of the corrected image is assumed to be the same magnification as the input image.
  • the signal unit in the transparent image output unit is width Sw and height Sh
  • the corrected image is created so that the signal units are evenly arranged.
  • the position of the upper left signal unit U (l, 1) is (0, 0), which is the origin of the corrected image.
  • the pixel value Vm at an arbitrary position (Xm, Ym) on the corrected image is obtained from the pixel value Vi at the coordinates (Xi, Yi) on the input image.
  • Fig. 36 shows an example of the correspondence between these coordinates.
  • Fig. 36 (a) shows the input image 1310
  • Fig. 36 (b) shows the corrected image 1320. The relationship between (Xm, Ym) and (Xi, Yi) is explained using this figure.
  • the closest signal units in the upper left, upper right, and lower left areas when viewed at (Xm, Ym) as the center are U (x, y) (The coordinate values are (Sx (x, y), Sy (x, y)), 1360), U (x + 1, y) (1370), U (x, y + 1) (1380)
  • El, E2, and E3 be the distances (specifically, X is the smallest integer that does not exceed XmZTw + 1, and y is the smallest integer that does not exceed XmZTw + 1).
  • U (x, y) (coordinate values are (Rx (x, y), Ry (x, y)), 1330), U (x + 1, y) in the input image 1 310 in FIG. ) (13 40), U (x, y + 1)
  • the distance between (1350) and (Xi, Yi) is Dl, D2, D3, respectively, and the ratio of D1 to D3 Dl: D2: D3 is El : E2: E3 is equal! /
  • the pixel value Vm of (Xm, Ym) is obtained from the pixel value Vi of the coordinates (Xi, Yi) on the input image 1310.
  • Fig. 37 shows a specific calculation method of such (Xi, Yi).
  • the symbol 14 30 in Fig. 37 (a) is the point where (Xm, Ym) is projected onto the straight line connecting U (x, y) and U (x + 1, y).
  • Fx Xm— Sx (x, y) It is.
  • Figure 38 shows an example of tampering determination
  • Bx Ax X Din / Dout
  • By Ay X Din / Dout
  • Bw AwX Din / Dout
  • Bh Ah X Din / Dout.
  • the corrected image 1530 in Fig. 38 (c) is binarized with an appropriate threshold, and the enlarged or reduced feature image (Fig. 38 (a)) is displayed in the corrected image (Bx, By) in the upper left. They are superimposed so that they fit. At this time, the difference between the two images is regarded as tampering.
  • the image captured from the printed document is corrected based on the position information of the signal embedded at the time of printing, the image before printing is distorted from the image captured from the printed material. Since restoration can be performed without expansion or contraction, the positions of these images can be correlated with high accuracy, and high-performance alteration detection can be performed.
  • the present invention is applicable to an image processing method and an image processing apparatus capable of verifying falsification on the side of receiving a form when the printed form is falsified. / vu / Osoozfcld-/-9ss900iAV ⁇

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】 高精度の改ざん検出を行うことの可能な画像処理方法および画像処理装置を提供する。 【解決手段】 透かし画像入力部200は,元画像に識別可能なパターンを重畳したパターン重畳画像から,重畳したパターンの重畳位置を検出する透かし情報抽出部220と,検出した重畳位置情報を元にして,パターン重畳画像260の補正画像を作成する入力画像変形部230とを備えたことを特徴とする。印刷時に埋め込んだ信号の位置情報を元に,印刷書面を取り込んだ画像を補正するため,印刷物から取り込んだ画像から印刷前の画像を歪みや伸び縮みなく復元できるので,それらの画像間の位置の対応付けを高精度で行うことができ,さらには高性能の改ざん検出を行うことができる。

Description

明 細 書
画像処理方法および画像処理装置
技術分野
[0001] 本発明は印刷された帳票に対して改ざんがあった場合に,帳票を受け取った側で 改ざんの検証を行うことができる画像処理方法および画像処理装置に関する。 背景技術
[0002] 印刷された帳票に対して改ざんがあった場合に,帳票を受け取った側で改ざんの 検証を行う技術として,特開 2000— 232573号公報「印刷装置,印刷方法及び記録 媒体」に開示の技術がある。同文献に開示の技術では,少なくとも帳票を含む印刷 物に印字データを印刷する際に,上記印字データの他に,上記印字データに対応し た電子透力 を印刷することにより,その印刷物を見ただけで印刷したファイルを忠 実に複製できるようにするとともに,印刷物に印刷してある電子透力し情報から,印刷 結果が改ざんされている力否かを判別できるようにする。改ざんの判定は印刷結果と 電子透力しで印字されたものとを比較することによって行う。
発明の開示
発明が解決しょうとする課題
[0003] ところで,上記従来の方法では,改ざんの判別は電子透力 力も取り出した印字内 容と,紙面に印刷されている印字内容とを目視によって比較する必要がある。これに は以下のような問題点がある。まず第 1の問題点として, 目視による判定であるため大 量の帳票を短時間で処理することが困難である。また第 2の問題点として,印字内容 を 1文字ずつ読み比べる必要があるため,人為的なミスによって改ざんの見逃しが起 こる可能性がある。上記従来の方法では,このような問題点を有することによって,高 精度の改ざん検出を行うことが困難であった。
[0004] 本発明は,上記従来技術が有する問題点に鑑みてなされたものであり,本発明の 目的は,高精度の改ざん検出を行うことの可能な,新規かつ改良された画像処理方 法および画像処理装置を提供することである。
課題を解決するための手段 [0005] 上記課題を解決するため,本発明の第 1の観点によれば,元画像に識別可能なパ ターンを重畳したパターン重畳画像から,重畳したパターンの重畳位置を検出する 検出部と,検出した重畳位置情報を元にして,パターン重畳画像の補正画像を作成 する補正画像作成部と,を備えたことを特徴とする,画像処理装置が提供される。
[0006] 力かる構成によれば,印刷時に埋め込んだ信号の位置情報を元に,印刷書面を取 り込んだ画像を補正するため,印刷物力 取り込んだ画像力 印刷前の画像を歪み や伸び縮みなく復元できるので,それらの画像間の位置の対応付けを高精度で行う ことができ,さらには高性能の改ざん検出を行うことができる。なお,パターン重畳画 像は,識別可能なパターンを重畳して出力した画像そのものであってもよく,あるい は,識別可能なパターンを重畳してそれを印刷物(帳票など)として印刷し,スキャナ 装置などの入力デバイスにより取り込んだ画像であってもよい。
[0007] 本発明の画像処理装置において,以下のような応用が可能である。
[0008] 識別可能なパターンは,例えば,元画像の全体に既知の間隔に重畳されているも のとすることができる。あるいは,識別可能なパターンは,元画像の全体に縦方向, 横方向ともに等間隔に重畳されているものとすることができる。
[0009] 検出部による重畳位置の検出方法としては,例えば以下のような方法を採用するこ とができる。まず第 1の例として,ノターン重畳画像力も検出した識別可能なパターン の位置情報について,水平方向に並んだ位置情報の組を直線近似し,垂直方向に 並んだ位置情報の組を直線近似し,水平方向の近似直線と垂直方向の近似直線と の交点を計算し,該交点を元画像に重畳したパターンの重畳位置として検出するよう にしてもよい。
[0010] また第 2の例として,パターン重畳画像から検出した識別可能なパターンの位置情 報について,水平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位 置情報の組を直線近似し,水平方向の近似直線の傾きを,該近似直線とその近傍 の(例えば,それに隣接する)他の水平方向の直線による平均値に置き換え,垂直方 向の近似直線の傾きを,該近似直線とその近傍の (例えば,それに隣接する)他の垂 直方向の直線による平均値に置き換え,水平方向の近似直線と垂直方向の近似直 線との交点を計算し,該交点を元画像に重畳したパターンの重畳位置として検出す るようにしてちょい。
[0011] また第 3の例として,パターン重畳画像から検出した識別可能なパターンの位置情 報について,水平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位 置情報の組を直線近似し,水平方向の近似直線の垂直方向の位置を,該近似直線 とその近傍の(例えば,それに隣接する)他の水平方向の直線の垂直方向の位置に よる平均値に置き換え,垂直方向の近似直線の水平方向の位置を,該近似直線とそ の近傍の(例えば,それに隣接する)他の垂直方向の直線の水平方向の位置による 平均値に置き換え,水平方向の近似直線と垂直方向の近似直線との交点を計算し, 該交点を元画像に重畳したパターンの重畳位置と検出するようにしてもよい。
[0012] 一方,補正画像作成部は,検出部が検出した重畳位置が縦方向,横方向ともに既 知の間隔に並ぶように,パターン重畳画像の補正画像を作成して,パターン重畳画 像を変形するようにしてもょ ヽ。
[0013] また,画像に対して改ざんが行われたことを判定する改ざん判定部をさらに備える ようにしてもよい。すなわち,元画像の任意の領域の画像特徴とその領域の位置情 報とが,その元画像に可視または不可視の情報として記録されており,検出部は,パ ターン重畳画像力 画像特徴と位置情報とを取り出し,改ざん判定部は,取り出した 画像特徴と,変形したパターン重畳画像の同じ位置の画像特徴とを比較し,それら の間に違 、があればそれを改ざんと判定するようにしてもよ!、。
[0014] また,元画像の任意の領域の画像特徴とその領域の位置情報とが,その元画像と は別に保存されており,改ざん判定部は,保存されている特徴画像と,変形したバタ ーン重畳画像の同じ位置の画像特徴とを比較し,それらの間に違いがあればそれを 改ざんと判定するようにしてもょ ヽ。
[0015] 上記課題を解決するため,本発明の第 2の観点によれば,元画像に識別可能なパ ターンを重畳したパターン重畳画像から,重畳したパターンの重畳位置を検出する 検出工程と,検出した重畳位置情報を元にして,パターン重畳画像の補正画像を作 成する補正画像作成工程と,を含むことを特徴とする,画像処理方法が提供される。
[0016] 力かる方法によれば,印刷時に埋め込んだ信号の位置情報を元に,印刷書面を取 り込んだ画像を補正するため,印刷物力 取り込んだ画像力 印刷前の画像を歪み や伸び縮みなく復元できるので,それらの画像間の位置の対応付けを高精度で行う ことができ,さらには高性能の改ざん検出を行うことができる。なお,パターン重畳画 像は,識別可能なパターンを重畳して出力した画像そのものであってもよく,あるい は,識別可能なパターンを重畳してそれを印刷物(帳票など)として印刷し,スキャナ 装置などの入力デバイスにより取り込んだ画像であってもよい。
[0017] 本発明の画像処理方法において,以下のような応用が可能である。
[0018] 識別可能なパターンは,例えば,元画像の全体に既知の間隔に重畳されているも のとすることができる。あるいは,識別可能なパターンは,元画像の全体に縦方向, 横方向ともに等間隔に重畳されているものとすることができる。
[0019] 検出工程における重畳位置の検出は,より詳細には,例えば以下のような方法を採 用することができる。まず第 1の例として,パターン重畳画像から検出した識別可能な パターンの位置情報について,水平方向に並んだ位置情報の組を直線近似し,垂 直方向に並んだ位置情報の組を直線近似し,水平方向の近似直線と垂直方向の近 似直線との交点を計算し,該交点を元画像に重畳したパターンの重畳位置として検 出するようにしてもよい。
[0020] また第 2の例として,パターン重畳画像から検出した識別可能なパターンの位置情 報について,水平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位 置情報の組を直線近似し,水平方向の近似直線の傾きを,該近似直線とその近傍 の(例えば,それに隣接する)他の水平方向の直線による平均値に置き換え,垂直方 向の近似直線の傾きを,該近似直線とその近傍の (例えば,それに隣接する)他の垂 直方向の直線による平均値に置き換え,水平方向の近似直線と垂直方向の近似直 線との交点を計算し,該交点を元画像に重畳したパターンの重畳位置として検出す るようにしてちょい。
[0021] また第 3の例として,パターン重畳画像から検出した識別可能なパターンの位置情 報について,水平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位 置情報の組を直線近似し,水平方向の近似直線の垂直方向の位置を,該近似直線 とその近傍の(例えば,それに隣接する)他の水平方向の直線の垂直方向の位置に よる平均値に置き換え,垂直方向の近似直線の水平方向の位置を,該近似直線とそ の近傍の(例えば,それに隣接する)他の垂直方向の直線の水平方向の位置による 平均値に置き換え,水平方向の近似直線と垂直方向の近似直線との交点を計算し, 該交点を元画像に重畳したパターンの重畳位置と検出するようにしてもよい。
[0022] 一方,補正画像作成工程においては,検出工程において検出した重畳位置が縦 方向,横方向ともに既知の間隔に並ぶように,パターン重畳画像の補正画像を作成 して,ノターン重畳画像を変形するようにしてもよい。
[0023] また,画像に対して改ざんが行われたことを判定する改ざん判定工程をさらに含む ようにしてもよい。すなわち,元画像の任意の領域の画像特徴とその領域の位置情 報とが,その元画像に可視または不可視の情報として記録されており,検出工程に おいて,パターン重畳画像カゝら画像特徴と位置情報とを取り出し,改ざん判定工程 において,取り出した画像特徴と,変形したパターン重畳画像の同じ位置の画像特 徴とを比較し,それらの間に違 、があればそれを改ざんと判定するようにしてもょ 、。
[0024] また,元画像の任意の領域の画像特徴とその領域の位置情報とが,その元画像と は別に保存されており,改ざん判定工程において,保存されている特徴画像と,変形 したパターン重畳画像の同じ位置の画像特徴とを比較し,それらの間に違いがあれ ばそれを改ざんと判定するようにしてもょ 、。
[0025] また,本発明の他の観点によれば,コンピュータを,上記画像処理装置として機能 させるためのプログラムと,そのプログラムを記録した,コンピュータにより読み取り可 能な記録媒体が提供される。ここで,プログラムはいかなるプログラム言語により記述 されていてもよい。また,記録媒体としては,例えば, CD-ROM, DVD-ROM,フ レキシブルディスクなど,プログラムを記録可能な記録媒体として現在一般に用いら れて 、る記録媒体,あるいは将来用いられる 、かなる記録媒体をも採用することがで きる。
発明の効果
[0026] 以上のように,本発明によれば,印刷時に埋め込んだ信号の位置情報を元に,印 刷書面を取り込んだ画像を補正するため,印刷物力も取り込んだ画像から印刷前の 画像を歪みや伸び縮みなく復元できるので,それらの画像間の位置の対応付けを高 精度で行うことができ,さらには高性能の改ざん検出を行うことができる。 図面の簡単な説明
[図 1]透かし情報埋め込み装置及び透かし情報検出装置の構成を示す説明図であ る。
[図 2]透かし入り文書画像合成部 13の処理の流れを示す流れ図である。
[図 3]透かし信号の一例を示す説明図であり, (1)はユニット Aを, (2)はユニット Bを 示している。
[図 4]図 3 (1)の画素値の変化を arctan (lZ3)の方向から見た断面図である。
[図 5]透かし信号の一例を示す説明図であり, (3)はユニット Cを, (4)はユニット Dを,
(5)はユニット Eを示している。
[図 6]背景画像の説明図であり, (1)はユニット Eを背景ユ ットと定義し,これを隙間 なく並べて文書画像の背景とした場合を示し, (2)は(1)の背景画像の中にユニット Aを埋め込んだ一例を示し, (3)は(1)の背景画像の中にユニット Bを埋め込んだ一 例を示している。
[図 7]文書画像へのシンボル埋め込み方法の一例を示す説明図である。
[図 8]秘密情報を文書画像に埋め込む方法について示した流れ図である。
[図 9]秘密情報を文書画像に埋め込む方法の一例を示す説明図である。
[図 10]透かし入り文書画像の一例を示す説明図である。
[図 11]図 10の一部を拡大して示した説明図である。
[図 12]第 1の実施の形態における透かし検出部 32の処理の流れを示す流れ図であ る。
[図 13]第 1の実施の形態における信号検出フィルタリング工程 (ステップ S310)の説 明図である。
[図 14]第 1の実施の形態における信号位置探索工程 (ステップ S320)の説明図であ る。
[図 15]第 1の実施の形態における信号境界決定工程 (ステップ S340)の説明図であ る。
[図 16]情報復元工程 (ステップ S305)の一例を示す説明図である。
[図 17]データ符号の復元方法の処理の流れを示す説明図である。 圆 18]データ符号の復元方法の一例を示す説明図である。
圆 19]データ符号の復元方法の一例を示す説明図である。
[図 20]第 5の実施の形態における透かし情報埋め込み装置及び透かし情報検出装 置の構成を示す説明図である。
[図 21]改ざん判定部 33の処理の流れを示す流れ図である。
[図 22]特徴比較工程 (ステップ S450)の説明図である。
[図 23]特徴比較工程 (ステップ S450)の説明図である。
圆 24]検出された信号ュ-ット位置の例を示す説明図である。
圆 25]信号ユニット位置の不均一な配列の例を示す説明図である。
圆 26]透カゝし画像出力部の構成を示す説明図である。
圆 27]透カゝし文書入力部の構成を示す説明図である。
圆 28]透かし入り画像を示す説明図である。
圆 29]入力画像変形部の動作を示す流れ図である。
圆 30]検出された信号ユ ット位置の例を示す説明図である。
圆 31]近似直線の検出の例を示す説明図である。
圆 32]直線近似を行った結果の例を示す説明図である。
圆 33]傾きの補正を示す説明図である。
圆 34]位置の補正を示す説明図である。
圆 35]直線の交点の例を示す説明図である。
圆 36]入力画像と補正画像の位置の対応例を示す説明図である。
圆 37]入力画像と補正画像の対応付け方法の例を示す説明図である。
圆 38]改ざん検出の例を示す説明図である。
符号の説明
100 透かし画像出力部
110 画像
120 特徴画像生成部
130 透かし情報合成部
140 出力画像 200 透かし画像入力部
210 入力画像
220 透かし情報抽出部
230 入力画像変形部
240 改ざん判定部
250 特徴画像
260 補正画像
発明を実施するための最良の形態
[0029] 以下に添付図面を参照しながら,本発明にかかる画像処理方法および画像処理装 置の好適な実施の形態について詳細に説明する。なお,本明細書および図面にお いて,実質的に同一の機能構成を有する構成要素については,同一の符号を付す ることにより重複説明を省略する。
[0030] (第 1の実施形態)
図 1は,本実施形態にかかる透かし情報埋め込み装置及び透かし情報検出装置の 構成を示す説明図である。
[0031] (透かし情報埋め込み装置 10)
透かし情報埋め込み装置 10は,文書画像と文書に埋め込む秘密情報とをもとに透 かし入り文書画像を構成し,紙媒体に印刷を行う装置である。透かし情報埋め込み 装置 10は,図 1に示したように,透かし入り文書画像合成部 13と,出力デバイス 14と により構成されている。文書画像 15は文書作成ツール等により作成された画像であ る。秘密情報 16は紙媒体に文字以外の形式で埋め込む情報 (文字列や画像,音声 データ)などである。
[0032] 文書画像 15中の白画素領域は何も印刷されない部分であり,黒画素領域は黒の 塗料が塗布される部分である。なお,本実施形態では, 白い紙面に黒のインク(単色 )で印刷を行うことを前提として説明するが,本発明はこれに限定されず,カラー (多 色)で印刷を行う場合であっても,同様に本発明を適用可能である。
[0033] 透かし入り文書画像合成部 13は,文書画像 15と秘密情報 16を重ね合わせて透か し入りの文書画像を作成する。透かし入り文書画像合成部 13は,秘密情報 16をディ ジタルイ匕して数値に変換したものを N元符号ィ匕 (Nは 2以上)し,符号語の各シンボル をあらかじめ用意した信号に割り当てる。信号は任意の大きさの矩形領域中にドット を配列することにより任意の方向と波長を持つ波を表現し,波の方向や波長に対して シンボルを割り当てたものである。透かし入り文書画像は,これらの信号がある規則 に従って画像上に配置されたものである。
[0034] 出力デバイス 14は,プリンタなどの出力装置であり,透かし入り文書画像を紙媒体 に印刷する。透かし入り文書画像合成部 13はプリンタドライバの中の一つの機能とし て実現されていても良い。
[0035] 印刷文書 20は,元の文書画像 15に対して秘密情報 16を埋め込んで印刷されたも のであり,物理的に保管 ·管理される。
[0036] (透かし情報検出装置 30)
透力し情報検出装置 30は,紙媒体に印刷されている文書を画像として取り込み, 埋め込まれている秘密情報 16を復元する装置である。透かし情報検出装置 30は, 図 1に示したように,入力デバイス 31と,透かし検出部 32とにより構成されている。
[0037] 入力デバイス 31は,スキャナなどの入力装置であり,紙に印刷された文書 20を多 値階調のグレイ画像として計算機に取り込む。また,透かし検出部 32は,入力画像 に対してフィルタリング処理を行い,埋め込まれた信号を検出する。検出された信号 力 シンボルを復元し,埋め込まれた秘密情報 16を取り出す。
[0038] 以上のように構成される透かレ f青報埋め込み装置 10及び透かし情報検出装置 30 の動作について説明する。まず,図 1〜図 11を参照しながら,透かレ f青報埋め込み 装置 10の動作について説明する。
[0039] (文書画像 15)
文書画像 15はフォント情報やレイアウト情報を含むデータであり,文書作成ソフト等 で作成されるものとする。文書画像 15は,文書が紙に印刷された状態の画像として ページごとに作成することができる。この文書画像 15は白黒の二値画像であり,画像 上で白 、画素 (値が 1の画素)は背景であり,黒!、画素 (値力 SOの画素)は文字領域( インクが塗布される領域)であるものとする。
[0040] (秘密情報 16) 秘密情報 16は文字,音声,画像などの各種データである。透かし入り文書画像合 成部 13ではこの秘密情報 16を,文書画像 15の背景として重ね合わせる。
[0041] 図 2は,透かし入り文書画像合成部 13の処理の流れを示す流れ図である。
まず,秘密情報 16を N元符号に変換する (ステップ S101)。 Nは任意であるが,本 実施形態では説明を容易にするため N = 2とする。従って,ステップ S101で生成さ れる符号は 2元符号であり, 0と 1のビット列で表現されるものとする。このステップ S10 1ではデータをそのまま符号ィ匕しても良いし,データを暗号ィ匕したものを符号ィ匕しても 良い。
[0042] 次 、で,符号語の各シンボルに対して透かし信号を割り当てる (ステップ S 102)。
透力し信号とはドット(黒画素)の配列によって任意の波長と方向を持つ波を表現した ものである。透かし信号については,さらに後述する。
[0043] さらに,符号ィ匕されたデータのビット列に対応する信号ユニットを文書画像 15上に 配置する(ステップ S 103)。
[0044] 上記ステップ S102において,符号語の各シンボルに対して割り当てる透かし信号 について説明する。図 3は透かし信号の一例を示す説明図である。
[0045] 透かし信号の幅と高さをそれぞれ Sw, Shとする。 Swと Shは異なっていても良い力 S ,本実施形態では説明を容易にするため Sw=Shとする。長さの単位は画素数であ り,図 3の例では Sw=Sh= 12である。これらの信号が紙面に印刷されたときの大き さは,透力し画像の解像度に依存しており,例えば透力し画像が 600dpi (dot per inch:解像度の単位であり, 1インチ当たりのドット数)の画像であるとしたならば,図 3 の透かし信号の幅と高さは,印刷文書上で 12Z600 = 0. 02 (インチ)となる。
[0046] 以下,幅と高さが Sw, Shの矩形を 1つの信号の単位として「信号ユニット」と称する 。図 3 (1)は,ドット間の距離が水平軸に対して arctan(3) (arctanは tanの逆関数) の方向に密であり,波の伝播方向は arctan (— 1Z3)である。以下,この信号ュ ッ トをユニット Aと称する。図 3 (2)はドット間の距離が水平軸に対して arctan (— 3)の方 向に密であり,波の伝播方向は arctan(lZ3)である。以下,この信号ユニットをュ- ッ卜 Bと称する。
[0047] 図 4は,図 3 (1)の画素値の変化を arctan(lZ3)の方向力も見た断面図である。 図 4にお 、て,ドットが配列されて 、る部分が波の最小値の腹 (振幅が最大となる点) となり,ドットが配列されて 、な 、部分は波の最大値の腹となって 、る。
[0048] また,ドットが密に配列されている領域はそれぞれ 1ユニットの中に 2つ存在するた め,この例では 1ユニットあたりの周波数は 2となる。波の伝播方向はドットが密に配列 されて!/、る方向に垂直となるため,ユニット Aの波は水平方向に対して arctan ( - 1/ 3) ,ユニット Bの波は arctan(lZ3)となる。なお, arctan (a)の方向と acrtan(b)の 方向が垂直のとき, a X b=— lである。
[0049] 本実施形態では,ユニット Aで表現される透かし信号にシンボル 0を割り当て,ュニ ット Bで表現される透かし信号にシンボル 1を割り当てる。また,これらをシンボルュ- ットと称する。
[0050] 透かし信号には図 3 (1) , (2)で示されるもの以外にも,例えば図 5 (3)〜(5)で示さ れるようなドット配列が考えられる。図 5 (3)は,ドット間の距離が水平軸に対して arct an (lZ3)の方向に密であり,波の伝播方向は arctan (— 3)である。以下,この信号 ユニットをユニット Cと称する。
図 5 (4)は,ドット間の距離が水平軸に対して arctan (— 1Z3)の方向に密であり, 波の伝播方向は arctan (3)である。以下,この信号ユニットをユニット Dと称する。図 5 (5)は,ドット間の距離が水平軸に対して arctan(l)の方向に密であり,波の伝播 方向は arctan (— 1)である。なお,図 5 (5)は,ドット間の距離が水平軸に対して arct an (— 1)の方向に密であり,波の伝播方向は arctan (1)であると考えることもできる。 以下,この信号ユニットをユニット Eと称する。
[0051] このようにして,先に割り当てた組み合わせ以外にも,シンボル 0とシンボル 1を割り 当てるユニットの組み合わせのパターンが複数考えられるため,どの透かし信号がど のシンボルに割り当てられて!/ヽるかを秘密にして第三者 (不正者)が埋め込まれた信 号を簡単に解読できな 、ようにすることもできる。
[0052] さらに,図 2に示したステップ S 102で,秘密情報を 4元符号で符号化した場合には
,例えば,ユニット Aに符号語のシンボル 0を,ユニット Bにシンボル 1を,ユニットじに シンボル 2を,ユニット Dにシンボル 3を割り当てることも可能である
[0053] 図 3,図 5に示した透かし信号の一例においては, 1ユニット中のドットの数をすベて 等しくしているため,これらのユニットを隙間なく並べることにより,見かけの濃淡が均 一となる。したがって印刷された紙面上では,単一の濃度を持つグレイ画像が背景と して埋め込まれて 、るように見える。
[0054] このような効果を出すために,例えば,ユニット Eを背景ユニット(シンボルが割り当 てられていない信号ユニット)と定義し,これを隙間なく並べて文書画像 15の背景とし ,シンボルユニット(ユニット A,ユニット B)を文書画像 15に埋め込む場合は,埋め込 もうとする位置の背景ユニット(ユニット E)とシンボルユニット(ユニット A,ユニット B)と を入れ替える。
[0055] 図 6 (1)はユニット Eを背景ユニットと定義し,これを隙間なく並べて文書画像 15の 背景とした場合を示す説明図である。図 6 (2)は図 6 (1)の背景画像の中にユニット A を埋め込んだ一例を示し,図 6 (3)は図 6 (1)の背景画像の中にユニット Bを埋め込ん だ一例を示している。本実施形態では,背景ユニットを文書画像 15の背景とする方 法について説明するが,シンボルユニットのみを配置することによって文書画像 15の 背景としても良い。
[0056] 次いで,符号語の 1シンボルを文書画像 15に埋め込む方法について,図 7を参照 しながら説明する。
[0057] 図 7は,文書画像 15へのシンボル埋め込み方法の一例を示す説明図である。ここ では,例として「0101」と 、うビット列を埋め込む場合にっ 、て説明する。
[0058] 図 7 (1) , (2)に示すように,同じシンボルユニットを繰り返し埋め込む。これは文書 中の文字が埋め込んだシンボルユニットの上に重なった場合,信号検出時に検出さ れなくなることを防ぐためであり,シンボルユニットの繰り返し数と配置のパターン(以 下,ユニットパターンと称する。 )は任意である。
[0059] すなわち,ユニットパターンの一例として,図 7 (1)のように繰り返し数を 4 (1つのュ ニットパターン中に 4つのシンボルユニットが存在する)にしたり,図 7 (2)のように繰り 返し数を 2 (1つのユニットパターン中に 2つのシンボルユニットが存在する)にしたり することができ,あるいは,繰り返し数を 1 (1つのユニットパターン中には 1つのシンポ ルユニットだけが存在する)としてもより、。
[0060] また,図 7 (1) , (2)は 1つのシンボルユニットに対して 1つのシンボルが与えられて いる力 図 7 (3)のようにシンボルユニットの配置パターンに対してシンボルを与えて も良い。
[0061] 1ページ分に何ビットの情報量を埋め込むことができるかは,信号ユニットの大きさ, ユニットパターンの大きさ,文書画像の大きさに依存する。文書画像の水平方向と垂 直方向にいくつの信号を埋め込んだかは,既知として信号検出を行っても良いし,入 力装置力も入力された画像の大きさと信号ユニットの大きさから逆算しても良い。
[0062] 1ページ分の水平方向に Pw個,垂直方向に Ph個のユニットパターンが埋め込める とすると,画像中の任意の位置のユニットパターンを U (x, y) , x= l〜Pw, y= l〜P hと表現し, U (x, y)を「ユニットパターン行列」と称することにする。また, 1ページに 埋め込むことができるビット数を「埋め込みビット数」と称する。埋め込みビット数は Pw X Phである。
[0063] 図 8は,秘密情報 16を文書画像 15に埋め込む方法について示した流れ図である。
ここでは 1枚(1ページ分)の文書画像 15に,同じ情報を繰り返し埋め込む場合につ いて説明する。同じ情報を繰り返し埋め込むことにより,文書画像 15と秘密情報 16を 重ね合わせたときに 1つのユニットパターン全体が塗りつぶされるなどして埋め込み 情報が消失するような場合でも,埋め込んだ情報を取り出すことを可能とするためで ある。
[0064] まず,秘密情報 16を N元符号に変換する(ステップ S201)。図 2のステップ S101と 同様である。以下では,符号化されたデータをデータ符号と称し,ユニットパターンの 組み合わせによりデータ符号を表現したものをデータ符号ユニット Duと称する。
[0065] 次 、で,データ符号の符号長(ここではビット数)と埋め込みビット数から, 1枚の画 像にデータ符号ユニットを何度繰り返し埋め込むことができるかを計算する (ステップ S202)。本実施形態ではデータ符号の符号長データをユニットパターン行列の第 1 行に挿入するものとする。データ符号の符号長を固定長として符号長データは埋め 込まないようにしても良い。
[0066] データ符号ユニットを埋め込む回数 Dnは,データ符号長を Cnとして以下の式で計 算される。
[0067] [数 1] J W X (ί>Λ - 1)
Dn ― ―
^ を超えなレ 最大の整数
[0068] ここで剰余を Rn (Rn=Cn— (PwX (Ph—l) ) )とすると,ユニットパターン行列に は Dn回のデータ符号ユニットおよびデータ符号の先頭 Rnビット分に相当するュ-ッ トパターンを埋め込むことになる。ただし,剰余部分の Rnビットは必ずしも埋め込まな くても良い。
[0069] 図 9の説明では,ユニットパターン行列のサイズを 9 X I I (11行 9列),データ符号 長を 12 (図中で 0〜: L 1の番号がついたものがデータ符号の各符号語を表わす)とす る。
[0070] 次いで,ユニットパターン行列の第 1行目に符号長データを埋め込む (ステップ S2 03)。図 9の例では符号長を 9ビットのデータで表現して 1度だけ埋め込んで 、る例を 説明しているが,ユニットパターン行列の幅 Pwが十分大きい場合,データ符号と同 様に符号長データを繰り返し埋め込むこともできる。
[0071] さらに,ユニットパターン行列の第 2行以降に,データ符号ユニットを繰り返し埋め込 む(ステップ S204)。図 9で示すようにデータ符号の MSB (most significant bit) または LSB (least significant bit)力 順に行方向に埋め込む。図 9の例ではデ ータ符号ユニットを 7回,およびデータ符号の先頭 6ビットを埋め込んで 、る例を示し ている。
[0072] データの埋め込み方法は図 9のように行方向に連続になるように埋め込んでも良!ヽ し,列方向に連続になるように埋め込んでも良い。
[0073] 以上,透かし入り文書画像合成部 13における,文書画像 15と秘密情報 16の重ね 合わせについて説明した。
[0074] 上述のように,透かし入り文書画像合成部 13は,文書画像 15と秘密情報 16を重ね 合わせる。透かし入り文書画像の各画素の値は,文書画像 15と秘密情報 16の対応 する画素値の論理積演算 (AND)によって計算する。すなわち,文書画像 15と秘密 情報 16のどちらかが 0 (黒)であれば,透かし入り文書画像の画素値は 0 (黒),それ 以外は 1 (白)となる。
[0075] 図 10は,透かし入り文書画像の一例を示す説明図である。図 11は,図 10の一部を 拡大して示した説明図である。ここで,ユニットパターンは図 7 (1)のパターンを用い ている。透かし入り文書画像は,出力デバイス 14により出力される。
[0076] 以上,透力 情報埋め込み装置 10の動作について説明した。
次いで,図 1,及び,図 12〜図 19を参照しながら,透かし情報検出装置 30の動作 について説明する。
[0077] (透かし検出部 32)
図 12は,透かし検出部 32の処理の流れを示す流れ図である。
まず,スキャナなどの入力デバイス 31によって透かし入り文書画像を計算機のメモ リ等に入力する (ステップ S301)。この画像を入力画像と称する。入力画像は多値画 像であり,以下では 256階調のグレイ画像として説明する。また入力画像の解像度( 入力デバイス 31で読み込むときの解像度)は,上記透かレ f青報埋め込み装置 10で 作成した透かし入り文書画像と異なって 、ても良!、が,ここでは上記透力し情報埋め 込み装置 10で作成した画像と同じ解像度であるとして説明する。また, 1つのユニット パターンが 1つのシンボルユニットから構成されている場合について説明する。
[0078] く信号検出フィルタリング工程 (ステップ S310) >
ステップ S310では,入力画像全体に対してフィルタリング処理を行い,フィルタ出 力値の計算とフィルタ出力値の比較を行う。フィルタ出力値の計算は,
以下に示すガボールフィルタと称されるフィルタを用いて,入力画像の全画素におい てフィルタと画像間のコンボリューシヨンにより計算する。
[0079] 以下にガボールフィルタ G (x, y) , x=0〜gw— 1, y=0〜gh— 1を示す。 gw, gh はフィルタのサイズであり,ここでは上記透力し情報埋め込み装置 10で埋め込んだ 信号ユニットと同じ大きさである。
[0080] [数 2] (x-x )2 : (y-yO)
A2 B2
ί:虚数単位
x = 0〜gw_l, = O'—gh - 1, χθ = gw/2, y0 = gh/2
水平方向の影響範囲, S:垂直方向の影響範囲
:波の方向, 2+ 2:周波数
[0081] 入力画像中の任意の位置でのフィルタ出力値はフィルタと画像間のコンボリューシ ヨンにより計算する。ガボールフィルタの場合は実数フィルタと虚数フィルタ (虚数フィ ルタは実数フィルタと半波長分位相がずれたフィルタ)が存在するため,それらの 2乗 平均値をフィルタ出力値とする。例えば,ある画素 (X, y)における輝度値とフィルタ A の実数フィルタとのコンボリューシヨンが RC,虚数フィルタとのコンボリューシヨンが Ic であったとすると,フィルタ出力値 F(A, X, y)は以下の式で計算する。
[0082]
F(A,x,y) = ^IRc2 +Ic2
[0083] 上記のように各信号ユニットに対応するすべてのフィルタに対してフィルタ出力値を 計算した後,各画素において上記のように計算したフィルタ出力値を比較し,その最 大値 F(x, y)をフィルタ出力値行列として記憶する。また,値が最大であるフィルタに 対応する信号ユニットの番号をフィルタ種類行列として記憶する(図 13)。具体的に は,ある画素(X, y)において, F(A, X, y) >F(B, x, y)の場合には,フィルタ出力 値行列の(X, y)の値として F(A, X, y)を設定し,フィルタ種類行列の(x, y)の値とし て信号ユニット Aを示す「0」を設定する(本実施形態では,信号ユニット A, Bの番号 を「0」, 「1」としている)。
[0084] なお,本実施形態ではフィルタの個数が 2つであるが,フィルタの個数がそれより多 い場合も,同様に複数のフィルタ出力値の最大値とその際のフィルタに対応する信 号ユニット番号を記憶すればょ 、。
[0085] く信号位置探索工程 (ステップ S320) >
ステップ S320では,ステップ S310で得られたフィルタ出力値行列を用いて,信号 ユニットの位置を決定する。具体的には,まず,信号ユニットの大きさが ShXSwで構 成されていたとすると,格子点の垂直方向の間隔が Sh,水平方向の間隔が Sw,格 子点の個数が Nh X Nwの信号位置探索テンプレートを作成する(図 14)。そのように 作成したテンプレートの大きさは, Th(Sh*Nh) XTw(Sw*Nw)となる力 Nh, N wには信号ユニット位置を探索するために最適な値を用いればよ!、。
[0086] 次に,フィルタ出力値行列をテンプレートの大きさごとに分割する。さらに,各分割 領域で,隣接する領域の信号ユニットに重複しない範囲 (水平方向士 SwZ2,垂直 方向士 ShZ2, )でテンプレートをフィルタ出力値行列上で画素単位に移動させなが ら,テンプレート格子点上のフィルタ出力値行列値 F(x, y)の総和 Vを以下の式を用 いて求め(図 14) ,その総和が一番大きいテンプレートの格子点をその領域の信号 ユニットの位置とする。
[0087] [数 4]
Figure imgf000019_0001
Xs-Sw/2<x<Xe + Sw/2,Ys-Sh/2+<y<Ye + Sh/2
(Xs,Ys):分割領域の左上座標, , ):分割領域の右下座標
[0088] 上記の例は,ステップ S310で全画素に対して,フィルタ出力値を求めた場合であり ,フィルタリングを行う際,ある一定間隔の画素に対してのみフィルタリングを行うことも できる。例えば, 2画素おきにフィルタリングを行った場合は,上記の信号位置探索テ ンプレートの格子点の間隔も 1Z2とすればよい。
[0089] <信号シンボル決定工程 (ステップ S330) >
ステップ S330では,ステップ S320で決定した信号ユニット位置のフィルタ種類行 列の値 (フィルタに対応した信号ユニット番号)を参照することで,信号ユニットが Aか Bを決定する。
[0090] 上記のようにして,決定した信号ユニットの判定結果をシンボル行列として記憶する
[0091] く信号境界決定工程 (ステップ S340)>
ステップ S320では,信号ユニットが埋め込まれているかにかかわらず,画像全面に 対してフィルタリング処理を行っているので,どの部分に信号ユニットが埋め込まれて いたかを決定する必要がある。そこで,ステップ S340では,シンボル行列からあらか じめ信号ユニットを埋め込む際に決めておいたパターンを探索することで信号境界を 求める。
[0092] 例えば信号ユニットが埋め込まれている境界には,必ず信号ユニット Aを埋め込む としておけば,ステップ S330で決定したシンボル行列の横方向に信号ユニット Aの 数を計数し,中心から上下にそれぞれ,信号ユニット Aの個数が一番多い位置を信 号境界の上端 Z下端とする。図 15の例では,シンボル行列における信号ユニット A は「黒」(値でいうと「0」)で表現されているので,シンボル行列の黒画素数を計数する ことで,信号ユニット Aの数を計数することができ,その度数分布により,信号境界の 上端 Z下端を求めることができる。左端 Z右端もユニット Aの個数を計数する方向が 異なるだけで,同じように求めることができる。
[0093] 信号境界を求めるためには上記方法に限らず,シンボル行列力 探索することがで きるパターンをあら力じめ埋め込み側と検出側で決めておくだけでよい。
[0094] 再び,図 12の流れ図に戻り,以降のステップ S305について説明する。ステップ S3 05では,シンボル行列のうち,信号境界内部に相当する部分力 元の情報を復元す る。なお,本実施形態では, 1つのユニットパターンは 1つのシンボルユニットで構成 されているので,ユニットパターン行列は,シンボル行列と等価になる。
[0095] <情報復号工程 (ステップ S305) >
図 16は情報復元の一例を示す説明図である。情報復元のステップは以下の通りで ある。
(1)各ユニットパターンに埋め込まれているシンボルを検出する(図 16 (1) )。
(2)シンボルを連結してデータ符号を復元する(図 16 (2) )。
(3)データ符号を復号して埋め込まれた情報を取り出す(図 16 (3) )。
[0096] 図 17〜図 19はデータ符号の復元方法の一例を示す説明図である。復元方法は基 本的に図 8の逆の処理となる。
[0097] まず,ユニットパターン行列の第 1行力も符号長データ部分を取り出して,埋め込ま れたデータ符号の符号長を得る (ステップ S401)。
[0098] 次いで,ユニットパターン行列のサイズとステップ S401で得たデータ符号の符号長 をもとに,データ符号ユニットを埋め込んだ回数 Dnおよび剰余 Rnを計算する (ステツ プ S402)。
[0099] 次!、で,ユニットパターン行列の 2行目以降からステップ S203と逆の方法でデータ 符号ユニットを取り出す (ステップ S403)。図 18の例では U(l, 2) (2行 1列)から順 に 12個のパターンユニットごとに分解する(U(l, 2)〜U(3, 3), U(4, 3)〜U(6, 4 ), ·'·)。ϋη=7, Rn=6であるため, 12個のパターンユニット(データ符号ユニット) は 7回取り出され,剰余として 6個(データ符号ユニットの上位 6個に相当する)のュ- ットパターン (U (4, 11)〜U(9, 11))が取り出される。
[0100] 次いで,ステップ S403で取り出したデータ符号ユニットに対してビット確信度演算 を行うことにより,埋め込んだデータ符号を再構成する (ステップ S404)。以下,ビット 確信度演算について説明する。
[0101] 図 19のようにユニットパターン行列の 2行 1列目力も最初に取り出されたデ一外符 号ユニットを Du(l, l)〜Du(12, 1)とし,順次 Du(l, 2)〜Du(12, 2), ···,と表 記する。また,剰余部分は Du(l, 8)〜Du(6, 8)とする。ビット確信度演算は各デー タ符号ユニットの要素ごとに多数決を取るなどして,データ符号の各シンボルの値を 決定することである。これにより,文字領域との重なりや紙面の汚れなどが原因で,任 意のデータ符号ユニット中の任意のユニットから正しく信号検出を行えな力つた場合 (ビット反転エラーなど)でも,最終的に正しくデータ符号を復元することができる。
[0102] 具体的には例えばデータ符号の 1ビット目は, Du(l, 1), Du(l, 2), ···, Du(l , 8)の信号検出結果が 1である方が多い場合には 1と判定し, 0である方が多い場合 には 0と判定する。同様にデータ符号の 2ビット目は Du (2, 1), Du(2, 2), ···, Du (2, 8)の信号検出結果による多数決によって判定し,データ符号の 12ビット目は Du (12, 1), Du(12, 2), ···, Du(12, 7) (Du(12, 8)は存在しないため Du( 12, 7) までとなる)の信号検出結果による多数決によって判定する。
[0103] ここではデータ符号を繰り返し埋め込む場合について説明したが,データを符号化 する際に誤り訂正符号などを用いることにより,データ符号ユニットの繰り返しを行わ な 、ような方法も実現できる。
[0104] (第 1の実施形態の効果) 以上説明したように,本実施形態によれば,入力画像全面にフィルタリング処理を 施し,信号位置探索テンプレートを用いて,フィルタ出力値の総和が最大になるよう に,信号ユニットの位置を求めることができるので,用紙のゆがみなどにより画像が伸 縮していたりする場合にでも,信号ユニットの位置を正しく検出でき,秘密情報入り文 書力も正確に秘密情報を検出することができる。
[0105] (第 2の実施形態)
上述した第 1の実施形態では,印刷文書力 秘密情報を検出するだけであった。こ れに対して,第 2の実施形態では第 1の実施形態に改ざん判定部を追加して,信号 位置探索工程 (ステップ S320)で求めた信号ユニット位置を利用して,各信号ュニッ ト位置における文書画像 (透力 を埋め込む前の画像データ)と入力画像 (透力しが 埋め込まれた印刷文書をスキャナなどで読み込んだ画像)の特徴量を比較し,印刷 文書の内容が改ざんされて 、るかの判定を行う。
[0106] 図 20は,第 2の実施形態における処理構成図である。第 1の実施形態に,改ざん 判定部 33を有する構成である。改ざん判定部 33では,あらかじめ埋め込んでおいた 文書画像に関する特徴量と入力画像に関する特徴量を比較することによって印刷文 書の内容の改ざんを判定する。
[0107] 図 21は改ざん判定部 33の処理の流れ,図 22は改ざん判定部 33の処理説明図を 示す。
[0108] ステップ S410では,第 1の実施形態と同様にスキャナなどの入力デバイス 31によ つて読み込んだ透かし入り文書画像を計算機のメモリ等に入力する(この画像を入力 画像と呼ぶ)。
[0109] く文書画像特徴量の抽出工程 (ステップ S420) >
ステップ S420では,あらかじめ埋め込んでおいた文書画像に関する特徴量を透か し検出部 32の情報復号工程 (ステップ S305)で復号したデータ力も抽出する。本実 施形態における文書画像特徴量としては,図 22のように透かし入り文書画像におい て,信号ユニットを埋め込まれた領域の左上座標を基準点(図 22の基準点 P)とした 縮小 2値画像を用いている。埋め込み側の文書画像は 2値画像であるため,公知の 技術を用いた縮小処理を行っておくだけでよい。また,画像データは, MR, MMR などの 2値画像の圧縮方法を用いてデータ量を圧縮した上で,各シンボルに割り当 てられた信号ユニットを用いて埋め込んでお 、てもよ!/、。
[0110] <入力画像の 2値化処理工程 (ステップ S430) >
ステップ S430では,入力画像の 2値化処理を行う。本実施形態では,あら力じめ埋 め込んでおいた 2値ィ匕閾値に関する情報を透かし検出部 32の情報復号工程 (ステツ プ S305)で復号したデータ力も抽出する。その抽出した情報力も 2値ィ匕閾値を決定 し,入力画像を 2値ィ匕する。この 2値ィ匕閾値に関する情報も第 4の実施形態における 信号ユ ット数の場合と同様に,誤り訂正符号を用いるなど任意の方法で用いて符 号化し,各シンボルに割り当てられた信号ユニットを用いて埋め込んでおけばよ 、。
[0111] なお, 2値ィ匕閾値に関する情報としては,埋め込む際に文書画像に含まれる黒画 素数などが一例である。そのような場合には,文書画像と同じ大きさに正規ィ匕した入 力画像を 2値化して得られる 2値画像の黒画素数が,埋め込む際に文書画像に含ま れて 、た黒画素数と一致するように 2値ィ匕閾値を設定すればょ 、。
[0112] さらに,文書画像をいくつかの領域に分け,その領域ごとに 2値ィ匕閾値に関する情 報を埋め込んでおけば,入力画像の領域単位に 2値ィ匕処理を行うこともできる。その ようにすることで,入力画像のある領域に大幅な改ざんが加えられ,その領域の黒画 素数が元の文書画像の黒画素数と大きく異なり,適正な 2値ィ匕閾値の範囲にない場 合でも,周辺領域の 2値ィ匕閾値の情報を参照することで,適正な 2値化閾値を設定 することができる。
[0113] 画像の 2値化処理は,公知の技術を用いて 2値ィ匕閾値を決定し,入力画像を 2値化 してもよいが,上記の方法を採用することで,スキャナの機種に依存することなく,埋 め込む際の文書画像の 2値画像とほぼ同じデータを透かし検出側でも作成すること ができる。
[0114] く入力画像特徴量の抽出工程 (ステップ S440) >
ステップ S440では,入力画像と透かし検出部 32の信号位置探索工程 (ステップ S 320)で得られた信号ユニット位置と信号境界決定工程 (ステップ S340)で得られた 信号境界から入力画像に関する特徴量を作成する。具体的には,信号境界の左上 座標を基準点(図 22の基準点 Q)として,複数の信号ユニットをひとつの単位として分 割し,その単位で座標位置が対応する入力画像の縮小画像を求める。図 22では, 上記のように分割したある領域として,左上座標が (xs, ys) ,右下座標が(xe, ye)で ある矩形を例として示している。縮小方法は,埋め込み側と同じ手法を用いればよい
[0115] なお,縮小画像を求める場合に,信号境界の左上座標を基準点(図 23の基準点 Q )として,複数の信号ユニットをひとつの単位として分割し,その単位で座標位置が対 応するような入力画像の補正画像を作成した後,その補正画像を縮小してもよ 、。
[0116] く特徴量の比較工程 (ステップ S450) >
ステップ S450では,文書画像特徴抽出工程 (ステップ S420)と入力画像特徴作成 工程 (ステップ S440)で得られた特徴を比較し,一致していなければ,その位置に対 応する印刷文書が改ざんされていると判定する。具体的には,ステップ S440で得ら れた信号ユニット単位ごとの入力画像の縮小 2値画像(図 22における基準点を Qとし た (xs, ye) (xs, ye)を左上 Z右下頂点とする矩形)とそれに対応する文書画像特 徴抽出工程 (ステップ S420)で抽出した文書画像の縮小 2値画像(図 22における基 準点を Pとした (xs, ys) - (xe, ye)を左上 Z右下頂点とする矩形)と比較することに よって,改ざんを判定する。例えば比較対象の 2つ画像において,輝度値が異なる画 素の個数が所定の閾値以上であれば,その信号ユニットに対応する印刷文書が改ざ んされて 、ると判定すればょ 、。
[0117] なお,上記の実施形態では,特徴量として縮小 2値画像を用いたが,その代わりに 座標情報と印刷文書に記入されているテキストデータでもよい。その場合は,その座 標情報に対応する入力画像のデータを参照し,その画像情報を公知の OCR技術を 用いて,文字認識を行い,その認識結果とテキストデータを比較することで,改ざん の判定を行うことができる。
[0118] (第 2の実施形態の効果)
以上説明したように,本実施形態によれば,あら力じめ埋め込んでおいた文書画像 に関する特徴量と秘密情報が埋め込まれた印刷文書をスキャナで読み込んだ入力 画像の特徴量を,信号位置探索テンプレートを用いて決定した信号ユニットを基準と して,比較することによって,印刷文書の内容が改ざんされているかを検出することが きる。第 1の実施形態によって,信号ユニット位置を正確に求めることができるので, その位置を利用すれば容易に特徴量の比較が可能となり,印刷文書の改ざんを判 定することができる。
[0119] 上記第 1,第 2の実施形態では,紙面に印刷されている印字内容の改ざんの有無 を自動的に検出しており,改ざん位置の特定には信号ユニットの位置情報を利用し ている。図 24は,上記第 1,第 2の実施形態で検出された信号ユニット位置である。こ れにより信号ユニットの位置は入力画像 (透かし入り文書画像)全体にほぼ均一な格 子状に並んだ状態で検出される。しかしながら図 25で示すように,入力画像の回転 や紙の局所的な歪みなどにより,検出された信号ユニット位置が局所的には不均一 に配列された部分がある。
[0120] これは主に以下のような理由による。すなわち,上記第 1,第 2の実施形態で信号ュ ニット位置を検出する際に,処理時間の短縮を目的として,入力画像の数画素おき にフィルタリングを行った結果を,入力画像より小さ!/ヽフィルタ出力値行列に記録し, このフィルタ出力値行列における信号ユニット位置を決定して 、る。たとえば縦横 2画 素おきにフィルタリングを行った場合は,フィルタ出力値行列は入力画像の縦横 2分 の 1となる。その後,信号ユニット位置を単に数倍(2画素おきにフィルタリングを行つ た場合は 2倍)することによって,フィルタ出力値行列上の信号ユニット位置と入力画 像上の位置を対応付けている。このため,フィルタ出力値行列の上では小さ力つた不 均一性が,入力画像上では大きな不均一となって現れる。不均一な部分が大きいと ,画像特徴を比較する上での位置情報にずれが生じるために正確な改ざん検出が できなくなる。
[0121] そこで以下では,上記第 1,第 2の実施形態を改良し,さらに高精度の改ざん検出 を行えるようにした実施形態にっ ヽて説明する。
[0122] (第 3の実施形態)
本実施形態は,図 26に示した透カゝし画像出力部 100と,図 27に示した透カゝし画像 入力部 200により構成されている。以下,順に説明する。
[0123] (透力 画像出力部 100)
図 26は透力し画像出力部 100の構成図である。 透力し画像出力部 100は,図 26に示したように,画像 110を入力として処理を行う 機能部であり,特徴画像生成部 120と透かし情報合成部 130を備えて構成される。 そして,透力 画像出力部 100は透かし入りの出力画像 140を出力する。
[0124] 画像 110は文書作成ソフト等で作成した文書データを画像ィ匕したものなどである。
特徴画像生成部 120は透かしとして埋め込む画像特徴データを生成する機能部で ある。画像特徴データの生成は,例えば第 1,第 2の実施形態の透かし入り文書画像 合成部 13と同様に行うことができる。透かし情報合成部 130は画像特徴データを画 像 110に透力し情報として埋め込む機能部である。透力し情報の埋め込みは,例え ば第 1,第 2の実施形態の透かし入り文書画像合成部 13と同様に行うことができる。 出力画像 140は透かし入りの画像である。
[0125] (透かし画像入力部 200)
図 27は透力し画像入力部 200の構成図である。
透かし画像入力部 200は,図 27に示したように,入力画像 210を入力として,透か し情報を抽出し,入力画像の補正を行う機能部であり,透力し情報抽出部 220と,入 力画像変形部 230と,改ざん判定部 240を備えて構成される。
[0126] 入力画像 210は出力画像 140,または出力画像 140を印刷した紙をスキャナ等の 入力デバイスにより画像ィ匕したものである。透力 情報抽出部 220は入力画像力も透 かし情報を抽出し,特徴画像 250を復元する機能部である。透かし情報の抽出は, 例えば第 1,第 2の実施形態の透かし検出部 32と同様に行うことができる。入力画像 変形部 230は入力画像の歪みを修正して補正画像 260を生成する機能部である。 改ざん判定部 240は特徴画像 250と補正画像 260を重ねあわせ,差分領域を改ざ んとして検出する機能部である。
[0127] 本実施形態は以上のように構成されている。
次いで,本実施形態の動作について説明する。
以下では,上記第 2の実施形態と異なる部分を中心に説明する。なお,透かし画像 出力部 100で出力された出力画像 140は,ー且印刷された後,スキャナにより画像 化し,透かし画像入力部 200に渡されるものとする。
[0128] (透かし画像出力部 100) 透かし出力部 100において上記第 2の実施形態と異なる点は特徴画像生成部 120 であり,これは,上記第 2の実施形態のく文書画像特徴量の抽出工程 (ステップ S42 0) >に対する機能追加である。
[0129] (特徴画像生成部 120)
図 28は透かし入り画像の例である。
上記第 2の実施形態のく文書画像特徴量の抽出工程 (ステップ S420) >と同様に ,透かし入り文書画像の信号ユニットを埋め込まれた領域の左上座標を基準座標 (0 , 0)とする。この例では画像 110の中で重要な領域の改ざんのみが検出できるよう, 画像 110の中に改ざん検出領域を設定するものとする。
[0130] 図 28に示すように,基準座標を原点としたときの改ざん検出領域の左上座標を (A X, Ay)として,改ざん検出領域の幅を Aw,高さを Ahとする。基準座標とは透かし領 域の左上の座標である。このとき,特徴画像は画像 110から改ざん検出領域を切り取 つた画像か,またはそれを縮小した画像とする。また,透力 情報合成部 130におい ては,特徴画像とともに改ざん検出領域情報 (例えば左上座標,幅,高さ)を透かし 情報として画像 110に合成する。
[0131] (透かし画像入力部 200)
透力し情報抽出部 220は入力画像 210から透力し情報の取り出しを行って,透かし 出力部 100で埋め込んだ特徴画像 250を復元する。この動作は上記第 1,第 2の実 施形態と同じである。
[0132] (入力画像変形部 230)
図 29は入力画像変形部 230のフローチャートである。以下,このフローチャートに 従って説明を行う。
[0133] <信号ユニットの位置検出(ステップ S610) >
図 30は第 1,第 2の実施形態で検出された信号ユニット位置を入力画像 (透かし入 り文書画像) 210上に表示したものである。図 30において,信号ユニットを U (x, y) , x= l〜Wu, y= l〜Huと表記する。 U (l, y)〜U (Wu, y)は同じ行にある信号ュ- ット(図 30の符号 710)とし, U (x, l)〜U (x, Hu)は同じ列にある信号ユニット(図 3 0の符号 720)とする。 U (l, y)〜U (Wu, y)および U (x, l)〜U (x, Hu)などは,実 際には同じ直線上には並んでおらず,微小に上下左右にずれて 、る。
[0134] また信号ユニット U (X, y)の入力画像上の座標値 Pを (Px (x, y) , Py(x, y) ) , χ= l〜Wu, y= l〜Huと表記する(図 30の符号 730, 740, 750, 760)。ただし入力画 像に対して縦横 N画素おき (Nは自然数)にフィルタリングを行うものとする。このフィ ルタリングについては,第 1の実施形態のく信号位置探索工程 (ステップ S320) >と 同様に行う。 Pは信号出力値行列における各信号ユニットの座標値を単純に縦横 N 倍した値である。
[0135] く信号ユニット位置の直線近似 (ステップ S620) >
信号ユニットの位置を行方向,列方向に直線で近似する。図 31は行方向の直線近 似の例である。図 31において,同じ行にある信号ユニット U (l, y)〜U (Wu, y)の位 置を直線 Lh (y)で近似している。近似直線は,各信号ユニットの位置と直線 Lh (y)と の距離の総和が最も小さくなるような直線である。このような直線は,例えば最小二乗 法や主成分分析などの一般的手法によって求めることができる。行方向の直線近似 はすべての行につ 、て行 、,同様にして列方向の直線近似をすベての列につ!/、て 行う。
[0136] 図 32は行方向,列方向に直線近似を行った結果の例である。図 32において,信 号ユニットを U (x, y) , x= l〜Wu, y= l〜Huと表記する。 Lh (y)は U (l, y)〜U ( Wu, y)を近似した直線(図 32の符号 810)であり, Lv(x)は U (x, l)〜U (x, Hu)を 近似した直線(図 32の符号 820)である。
[0137] <直線の均等化 (ステップ S630) >
ステップ S620で近似した直線は,検出された信号ユニットの位置が,ある程度まと まってずれているなどの理由により,個別に見ると直線の傾きや位置が均等ではない 。そこで,ステップ S630では,個々の直線の傾きや位置を補正して均等化を行う。
[0138] 図 33は行方向の近似直線 Lh (y)の傾きを補正する例である。図 33 (a)は補正前 であり,図 33 (b)は補正後である。図 33 (&)にぉける01 ( )の傾きを丁11 ( )としたとき , Lh (y)の傾きは Lh (y)の近傍の直線の傾きの平均値となるように補正する。具体的 には, TMy) =AVERAGE (TMy—Nh)〜Th(y+Nh) )とする。ただし, AVERA GE (A〜B)は A〜Bまでの平均値を計算する計算式とし, Nhは任意の自然数とする 。 y— Nhく 1の場合は Th(y)=AVERAGE(Th(l)〜Th(y+Nh))とし, y+Nh> Huの場合は Th(y) =AVERAGE(Th(y— Nh)〜Th(Hu))とする。図 33は Nhを 1としたときの例であり,図 33 (b)は Lh(y)力Lh(y— 1)〜Lh(y+ 1)の直線の傾きの 平均値によって補正されて 、る例を示して 、る。
[0139] 図 34は行方向の近似直線 Lh (y)の位置を補正する例である。図 34 (a)は補正前 であり,図 34(b)は補正後である。図 34(a)について,垂直方向に任意の基準直線 1 130を設定し,この直線と Lh(y)との交点の y座標を Q(y)としたとき, Q(y)が Lh(y) の近傍の直線位置の平均となるように補正する。具体的には, Q(y)= AVERAGE (
Figure imgf000029_0001
とする。ただし Mhは任意の自然数とする。 y— Mhく 1ま たは y+Mh>Huの場合は変更を行わないものとする。図 34は Mhを 1としたときの 例であり,図 34(b)は Lh(y)力 SLh(y— 1)と Lh(y+ 1)の直線の位置の中点(平均) によって補正されている例を示している。なお,この処理は省略可能である。
[0140] <直線の交点計算(ステップ S640) >
行方向の近似直線と列方向の近似直線の交点を計算する。図 35は行方向の近似 直線 Lh(l)〜Lh(Hu)と,列方向の近似直線 Lv(l)〜Lv(Wu)の交点を計算した 例である。交点の計算は一般的な数学的手法で行う。ここで計算した交点を補正後 の信号ユニット位置とする。すなわち,行方向の近似直線 Lh(y)と列方向の近似直 線 Lv(x)の交点を,信号ユ ット U(x, y)の補正後の位置 (Rx(x, y) , Ry(x, y))と する。例えば信号ユニット U(l, 1)の補正後の位置は, Lh(l)と Lv(l)の交点とする
[0141] く補正画像作成 (ステップ S650)>
ステップ S640により計算した信号ユニット位置を参照して,入力画像から補正画像 を作成する。ここでは透力し画像出力部 100で出力した透力し画像を印刷する際の 解像度を Doutとし,透かし画像入力部 200に入力する画像を取得する際の解像度 を Dinとする。また補正画像の大きさは,入力画像と同じ倍率であるとする。
[0142] 透力し画像出力部において信号ユニットの大きさが幅 Sw,高さ Shであるとすると, 入力画像における信号ユニットは幅 Tw=SwXDinZDout,高さは Th=ShXDin ZDoutとなる。したがって,信号ユニットの数が横方向に Wu個,縦方向に Hu個で ある場合には,補正画像のサイズは幅 Wm=TwXWu,高さ Hm=ThXHuとなる。 また,補正画像における任意の信号ユニット U(x, y)の位置を (Sx(x, y), Sy(x, y) )とすると,信号ユニットが均等に並ぶように補正画像を作るため, Sx=TwXx, Sy =ThXyが成り立つ。なお,最も左上の信号ユニット U(l, 1)の位置は(0, 0)であり ,これが補正画像の原点となる。
[0143] 補正画像上の任意の位置 (Xm, Ym)の画素値 Vmは,入力画像上の座標(Xi, Yi )の画素値 Viにより求める。図 36はこれらの座標の対応例であり,図 36 (a)は入力画 像 1310を,図 36(b)は補正画像 1320を示している。この図を用いて (Xm, Ym)と( Xi, Yi)の関係を説明する。
[0144] 図 36(b)の補正画像 1320〖こおいて, (Xm, Ym)を中心としてみたときの左上,右 上,左下の領域で,最も近い信号ユニットをそれぞれ U(x, y) (座標値は(Sx(x, y) , Sy(x, y)), 1360), U(x+1, y) (1370), U(x, y+1) (1380)とし,それらとの 距離をそれぞれ El, E2, E3とする(具体的には, Xは XmZTw+1を超えない最小 の整数, yは XmZTw+1を超えない最小の整数)。このとき,図 36 (a)の入力画像 1 310における U(x, y) (座標値は(Rx(x, y), Ry(x, y)), 1330), U(x+1, y) (13 40), U(x, y+1) (1350)と(Xi, Yi)との距離がそれぞれ Dl, D2, D3であって, D 1〜D3の比 Dl: D2: D3が El: E2: E3と等し!/、ときに(Xm, Ym)の画素値 Vmは, 入力画像 1310上の座標(Xi, Yi)の画素値 Viにより求める。
[0145] 図 37はこのような (Xi, Yi)の具体的な計算方法を示している。図 37 (a)の符号 14 30は(Xm, Ym)を U(x, y)と U(x+1, y)を結ぶ直線上に射影した点で Fx =Xm— Sx(x, y)である。また,符号 1440は(Xm, Ym)を U(x, y)と U(x, y+1)を結ぶ直 線上に射影した点で Fy=Ym— Sy(x, y)である。同様に,図 37 (b)の符号 1450は (Xm, Ym)を U(x, y)と U(x+1, )を結ぶ直線上に射影した点で0 = 1!1 3 ( x, y)である。同様に,符号 1460は (Xm, Ym)を U(x, y)と U(x, y+1)を結ぶ直線 上に射影した点で Gy=Ym— Sy(x, y)である。このとき,図 37 (a)の入力画像 141 0における Fxは, Fx/ (Rx(x+1, y)-Rx(x,
Figure imgf000030_0001
Fx = Ex/Tw X (Rx(x+1, y) -Rx(x, y))となる。同様に, Fy=Ey/ThX (Ry(x, y+1)— Ry (x, y))となる。これより, Xi=Fx+Rx(x, y), Yi=Fy+Ry(x, y)となる。 [0146] 以上により,図 37 (b)の補正画像 1420上の任意の点(Xm, Ym)の画素値には, 入力画像上の点 (Xi, Yi)の画素値をセットする。ただし, (Xi, Yi)は一般的に実数 値であるため,入力画像上で (Xi, Yi)に最も近い座標における画素値とするか,そ の近傍 4画素の画素値とそれらとの距離の比から画素値を計算する。
[0147] 以上,入力画像変形部 230の動作について説明した。
[0148] (改ざん判定部 240の動作)
図 38は改ざん判定の例を示して!/、る。
図 38 (a)の透力し情報力も復元した特徴画像 1510,図 38 (b)の改ざん検出情報( 透かし情報力 復元した特徴画像の位置情報) 1520,および Doutと Dinの比から, 特徴画像を Dout/Din倍に拡大または縮小し,補正画像 1530上の Bx, Byの位置 に重ね合わせる。ただし図 38において, Bx= Ax X Din/Dout, By = Ay X Din/ Dout, Bw=AwX Din/Dout, Bh= Ah X Din/Doutである。
[0149] 図 38 (c)の補正画像 1530は,適当な閾値で二値化し,拡大または縮小済みの特 徴画像(図 38 (a) )を,左上が補正画像の(Bx, By)に合うように重ね合わせたもので ある。このとき, 2つの画像間の差分を改ざんとみなす。
[0150] (第 3の実施形態の効果)
以上説明したように,本実施形態によれば,印刷時に埋め込んだ信号の位置情報 を元に,印刷書面を取り込んだ画像を補正するため,印刷物から取り込んだ画像か ら印刷前の画像を歪みや伸び縮みなく復元できるので,それらの画像間の位置の対 応付けを高精度で行うことができ,さらには高性能の改ざん検出を行うことができる。
[0151] 以上,添付図面を参照しながら本発明にかかる画像処理方法および画像処理装 置の好適な実施形態について説明したが,本発明は力かる例に限定されない。当業 者であれば,特許請求の範囲に記載された技術的思想の範疇内にぉ 、て各種の変 更例または修正例に想到し得ることは明らかであり,それらにっ ヽても当然に本発明 の技術的範囲に属するものと了解される。
産業上の利用可能性
[0152] 本発明は印刷された帳票に対して改ざんがあった場合に,帳票を受け取った側で 改ざんの検証を行うことができる画像処理方法および画像処理装置に利用可能であ /vu/ Osoozfcld-/-9ss900iAV θε

Claims

請求の範囲
[1] 元画像に識別可能なパターンを重畳したパターン重畳画像から,前記重畳したパ ターンの重畳位置を検出する検出部と,
検出した重畳位置情報を元にして,前記パターン重畳画像の補正画像を作成する 補正画像作成部と,
を備えたことを特徴とする,画像処理装置。
[2] 前記識別可能なパターンは,前記元画像の全体に既知の間隔に重畳されているこ とを特徴とする,請求項 1に記載の画像処理装置。
[3] 前記検出部は,
前記パターン重畳画像から検出した識別可能なパターンの位置情報について,水 平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位置情報の組を直 線近似し,
水平方向の近似直線と垂直方向の近似直線との交点を計算し,該交点を前記元 画像に重畳したパターンの重畳位置として検出することを特徴とする,請求項 2に記 載の画像処理装置。
[4] 前記検出部は,
前記パターン重畳画像から検出した識別可能なパターンの位置情報について,水 平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位置情報の組を直 線近似し,
水平方向の近似直線の傾きを,該近似直線とその近傍の他の水平方向の直線に よる平均値に置き換え,
垂直方向の近似直線の傾きを,該近似直線とその近傍の他の垂直方向の直線に よる平均値に置き換え,
水平方向の近似直線と垂直方向の近似直線との交点を計算し,該交点を前記元 画像に重畳したパターンの重畳位置として検出することを特徴とする,請求項 2に記 載の画像処理装置。
[5] 前記検出部は,
前記パターン重畳画像から検出した識別可能なパターンの位置情報について,水 平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位置情報の組を直 線近似し,
水平方向の近似直線の垂直方向の位置を,該近似直線とその近傍の他の水平方 向の直線の垂直方向の位置による平均値に置き換え,
垂直方向の近似直線の水平方向の位置を,該近似直線とその近傍の他の垂直方 向の直線の水平方向の位置による平均値に置き換え,
水平方向の近似直線と垂直方向の近似直線との交点を計算し,該交点を前記元 画像に重畳したパターンの重畳位置と検出することを特徴とする,請求項 2に記載の 画像処理装置。
[6] 前記補正画像作成部は,
前記検出部が検出した重畳位置が縦方向,横方向ともに既知の間隔に並ぶように
,前記パターン重畳画像の補正画像を作成して,前記パターン重畳画像を変形する ことを特徴とする,請求項 3〜5のいずれかに記載の画像処理装置。
[7] 前記元画像の任意の領域の画像特徴とその領域の位置情報とが,その元画像に 可視または不可視の情報として記録されており,
前記検出部は,前記パターン重畳画像から前記画像特徴と前記位置情報とを取り 出し,
前記取り出した画像特徴と,前記変形したパターン重畳画像の同じ位置の画像特 徴とを比較し,それらの間に違いがあればそれを改ざんと判定する改ざん判定部をさ らに備えたことを特徴とする,請求項 6に記載の画像処理装置。
[8] 前記元画像の任意の領域の画像特徴とその領域の位置情報とが,その元画像とは 別に保存されており,
前記保存されて 、る特徴画像と,前記変形したパターン重畳画像の同じ位置の画 像特徴とを比較し,それらの間に違いがあればそれを改ざんと判定する改ざん判定 部をさらに備えたことを特徴とする,請求項 6に記載の画像処理装置。
[9] 元画像に識別可能なパターンを重畳したパターン重畳画像から,前記重畳したパ ターンの重畳位置を検出する検出工程と,
検出した重畳位置情報を元にして,前記パターン重畳画像の補正画像を作成する 補正画像作成工程と,
を含むことを特徴とする,画像処理方法。
[10] 前記識別可能なパターンは,前記元画像の全体に既知の間隔に重畳されているこ とを特徴とする,請求項 9に記載の画像処理方法。
[11] 前記検出工程においては,
前記パターン重畳画像から検出した識別可能なパターンの位置情報について,水 平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位置情報の組を直 線近似し,
水平方向の近似直線と垂直方向の近似直線との交点を計算し,該交点を前記元 画像に重畳したパターンの重畳位置として検出することを特徴とする,請求項 10に 記載の画像処理方法。
[12] 前記検出工程においては,
前記パターン重畳画像から検出した識別可能なパターンの位置情報について,水 平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位置情報の組を直 線近似し,
水平方向の近似直線の傾きを,該近似直線とその近傍の他の水平方向の直線に よる平均値に置き換え,
垂直方向の近似直線の傾きを,該近似直線とその近傍の他の垂直方向の直線に よる平均値に置き換え,
水平方向の近似直線と垂直方向の近似直線との交点を計算し,該交点を前記元 画像に重畳したパターンの重畳位置として検出することを特徴とする,請求項 10に 記載の画像処理方法。
[13] 前記検出工程においては,
前記パターン重畳画像から検出した識別可能なパターンの位置情報について,水 平方向に並んだ位置情報の組を直線近似し,垂直方向に並んだ位置情報の組を直 線近似し,
水平方向の近似直線の垂直方向の位置を,該近似直線とその近傍の他の水平方 向の直線の垂直方向の位置による平均値に置き換え, 垂直方向の近似直線の水平方向の位置を,該近似直線とその近傍の他の垂直方 向の直線の水平方向の位置による平均値に置き換え,
水平方向の近似直線と垂直方向の近似直線との交点を計算し,該交点を前記元 画像に重畳したパターンの重畳位置と検出することを特徴とする,請求項 10に記載 の画像処理方法。
[14] 前記補正画像作成工程にぉ 、ては,
前記検出工程において検出した重畳位置が縦方向,横方向ともに既知の間隔に 並ぶように,前記パターン重畳画像の補正画像を作成して,前記パターン重畳画像 を変形することを特徴とする,請求項 11〜13のいずれかに記載の画像処理方法。
[15] 前記元画像の任意の領域の画像特徴とその領域の位置情報とが,その元画像に 可視または不可視の情報として記録されており,
前記検出工程にお!、て,前記パターン重畳画像から前記画像特徴と前記位置情 報とを取り出し,
前記取り出した画像特徴と,前記変形したパターン重畳画像の同じ位置の画像特 徴とを比較し,それらの間に違いがあればそれを改ざんと判定する改ざん判定工程 をさらに含むことを特徴とする,請求項 14に記載の画像処理方法。
[16] 前記元画像の任意の領域の画像特徴とその領域の位置情報とが,その元画像とは 別に保存されており,
前記保存されて 、る特徴画像と,前記変形したパターン重畳画像の同じ位置の画 像特徴とを比較し,それらの間に違いがあればそれを改ざんと判定する改ざん判定 工程をさらに含むことを特徴とする,請求項 14に記載の画像処理方法。
PCT/JP2005/017517 2004-09-29 2005-09-22 画像処理方法および画像処理装置 WO2006035677A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/663,922 US20080260200A1 (en) 2004-09-29 2005-09-22 Image Processing Method and Image Processing Device
EP05785784A EP1798950A4 (en) 2004-09-29 2005-09-22 IMAGE PROCESSING METHOD AND IMAGE PROCESSING DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004284389A JP3999778B2 (ja) 2004-09-29 2004-09-29 画像処理方法および画像処理装置
JP2004-284389 2004-09-29

Publications (1)

Publication Number Publication Date
WO2006035677A1 true WO2006035677A1 (ja) 2006-04-06

Family

ID=36118824

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/017517 WO2006035677A1 (ja) 2004-09-29 2005-09-22 画像処理方法および画像処理装置

Country Status (6)

Country Link
US (1) US20080260200A1 (ja)
EP (1) EP1798950A4 (ja)
JP (1) JP3999778B2 (ja)
KR (1) KR20070052332A (ja)
CN (1) CN100464564C (ja)
WO (1) WO2006035677A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252239A (ja) * 2007-03-29 2008-10-16 Oki Electric Ind Co Ltd 帳票処理装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4437756B2 (ja) * 2005-02-25 2010-03-24 株式会社リコー 情報抽出方法および情報抽出装置および情報抽出プログラムおよび記憶媒体
KR100942248B1 (ko) * 2008-06-23 2010-02-16 이화여자대학교 산학협력단 워터 마킹 패턴을 이용한 영상의 기하학적 왜곡 보정 방법
JP2011166402A (ja) * 2010-02-09 2011-08-25 Seiko Epson Corp 画像処理装置、方法及びコンピュータプログラム
US10628736B2 (en) * 2015-09-24 2020-04-21 Huron Technologies International Inc. Systems and methods for barcode annotations for digital images
US11042772B2 (en) 2018-03-29 2021-06-22 Huron Technologies International Inc. Methods of generating an encoded representation of an image and systems of operating thereof
WO2020093152A1 (en) 2018-11-05 2020-05-14 Hamid Reza Tizhoosh Systems and methods of managing medical images
WO2022094732A1 (en) 2020-11-24 2022-05-12 Huron Technologies International Inc. Systems and methods for generating encoded representations for multiple magnifications of image data

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09205542A (ja) * 1996-01-25 1997-08-05 Ricoh Co Ltd ディジタル複写機
JPH10155091A (ja) * 1996-11-22 1998-06-09 Fuji Photo Film Co Ltd 画像記録装置
JPH10164549A (ja) * 1996-11-28 1998-06-19 Ibm Japan Ltd 認証情報を画像に隠し込むシステム及び画像認証システム
JPH11355547A (ja) * 1998-05-22 1999-12-24 Internatl Business Mach Corp <Ibm> 幾何変換特定システム
JP2003244427A (ja) * 2001-12-10 2003-08-29 Canon Inc 画像処理装置及び画像処理方法
JP2003264685A (ja) * 2002-03-08 2003-09-19 Oki Electric Ind Co Ltd 文書画像出力方法及び装置、改ざん判定方法及びシステム、並びに改ざん判定システムの制御用プログラム
JP2004064516A (ja) * 2002-07-30 2004-02-26 Kyodo Printing Co Ltd 電子透かし挿入方法及びその装置並びに電子透かし検出方法及びその装置
JP2004179744A (ja) * 2002-11-25 2004-06-24 Oki Electric Ind Co Ltd 電子透かし埋め込み装置及び電子透かし検出装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3809297B2 (ja) * 1998-05-29 2006-08-16 キヤノン株式会社 画像処理方法、装置及び媒体
US6456727B1 (en) * 1999-09-02 2002-09-24 Hitachi, Ltd. Method of extracting digital watermark information and method of judging but value of digital watermark information
WO2002037418A1 (en) * 2000-11-02 2002-05-10 Markany Inc. Watermarking system and method for protecting a digital image from forgery or alteration
JP4005780B2 (ja) * 2001-07-12 2007-11-14 興和株式会社 電子透かしの埋め込みおよび検出
KR100456629B1 (ko) * 2001-11-20 2004-11-10 한국전자통신연구원 웨이블릿 기반에서 디지털 워터마크 삽입/추출장치 및 방법
US7065237B2 (en) * 2001-12-10 2006-06-20 Canon Kabushiki Kaisha Image processing apparatus and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09205542A (ja) * 1996-01-25 1997-08-05 Ricoh Co Ltd ディジタル複写機
JPH10155091A (ja) * 1996-11-22 1998-06-09 Fuji Photo Film Co Ltd 画像記録装置
JPH10164549A (ja) * 1996-11-28 1998-06-19 Ibm Japan Ltd 認証情報を画像に隠し込むシステム及び画像認証システム
JPH11355547A (ja) * 1998-05-22 1999-12-24 Internatl Business Mach Corp <Ibm> 幾何変換特定システム
JP2003244427A (ja) * 2001-12-10 2003-08-29 Canon Inc 画像処理装置及び画像処理方法
JP2003264685A (ja) * 2002-03-08 2003-09-19 Oki Electric Ind Co Ltd 文書画像出力方法及び装置、改ざん判定方法及びシステム、並びに改ざん判定システムの制御用プログラム
JP2004064516A (ja) * 2002-07-30 2004-02-26 Kyodo Printing Co Ltd 電子透かし挿入方法及びその装置並びに電子透かし検出方法及びその装置
JP2004179744A (ja) * 2002-11-25 2004-06-24 Oki Electric Ind Co Ltd 電子透かし埋め込み装置及び電子透かし検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1798950A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252239A (ja) * 2007-03-29 2008-10-16 Oki Electric Ind Co Ltd 帳票処理装置

Also Published As

Publication number Publication date
JP2006101161A (ja) 2006-04-13
EP1798950A1 (en) 2007-06-20
CN101032158A (zh) 2007-09-05
KR20070052332A (ko) 2007-05-21
JP3999778B2 (ja) 2007-10-31
US20080260200A1 (en) 2008-10-23
CN100464564C (zh) 2009-02-25
EP1798950A4 (en) 2007-11-07

Similar Documents

Publication Publication Date Title
JP4277800B2 (ja) 透かし情報検出方法
JP3628312B2 (ja) 透かし情報埋め込み装置,及び,透かし情報検出装置
JP3136061B2 (ja) ドキュメントコピー防止方法
JP5015540B2 (ja) 電子透かし埋め込み装置および検出装置
JP3964684B2 (ja) 電子透かし埋め込み装置,電子透かし検出装置,電子透かし埋め込み方法,及び,電子透かし検出方法
WO2006035677A1 (ja) 画像処理方法および画像処理装置
US20110052094A1 (en) Skew Correction for Scanned Japanese/English Document Images
US8275168B2 (en) Orientation free watermarking message decoding from document scans
WO2005094058A1 (ja) 印刷媒体の品質調整システム,検査用透かし媒体出力装置,透かし品質検査装置,調整済透かし媒体出力装置,印刷媒体の品質調整方法,および検査用透かし媒体
CN101119429A (zh) 一种数字水印嵌入与提取的方法及装置
JP4400565B2 (ja) 透かし情報埋め込み装置及び、透かし情報検出装置
Tan et al. Print-Scan Resilient Text Image Watermarking Based on Stroke Direction Modulation for Chinese Document Authentication.
JPWO2008035401A1 (ja) 電子透かし埋め込み装置および検出装置
JP2004128845A (ja) 透かし情報埋め込み方法,透かし情報検出方法,透かし情報埋め込み装置,及び,透かし情報検出装置
JP2007088693A (ja) 画像処理システム,改ざん検証装置,改ざん検証方法およびコンピュータプログラム
AU2006252223A1 (en) Tamper Detection of Documents using Encoded Dots
JP4192887B2 (ja) 改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法
JP2004147253A (ja) 画像処理装置及び画像処理方法
US20070074029A1 (en) Data embedding apparatus
JP4232676B2 (ja) 情報検出装置,画像処理システム,および情報検出方法
WO2006059681A1 (ja) 改ざん検出装置,透かし入り画像出力装置,透かし入り画像入力装置,透かし入り画像出力方法,および透かし入り画像入力方法
JP4192906B2 (ja) 透かし情報検出装置及び透かし情報検出方法
JP4672513B2 (ja) 情報処理システム,地紋重畳装置,回答抽出装置,地紋重畳方法,回答抽出方法
JP2006186509A (ja) 電子透かしシステム
JP2005228271A (ja) 文書画像照合装置、文書画像位置合わせ方法及びプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005785784

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077007218

Country of ref document: KR

Ref document number: 200580033076.3

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005785784

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11663922

Country of ref document: US