WO2012127578A1 - 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム - Google Patents

画像処理装置、画像処理方法及び画像処理用コンピュータプログラム Download PDF

Info

Publication number
WO2012127578A1
WO2012127578A1 PCT/JP2011/056615 JP2011056615W WO2012127578A1 WO 2012127578 A1 WO2012127578 A1 WO 2012127578A1 JP 2011056615 W JP2011056615 W JP 2011056615W WO 2012127578 A1 WO2012127578 A1 WO 2012127578A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
pixel
region
block
image
Prior art date
Application number
PCT/JP2011/056615
Other languages
English (en)
French (fr)
Inventor
高橋 潤
昌平 中潟
健介 倉木
阿南 泰三
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2011/056615 priority Critical patent/WO2012127578A1/ja
Priority to JP2013505638A priority patent/JP5614492B2/ja
Publication of WO2012127578A1 publication Critical patent/WO2012127578A1/ja
Priority to US14/030,629 priority patent/US9037871B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32224Replacing pixels of an image with other pixels from the same image, e.g. texture block coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32203Spatial or amplitude domain methods
    • H04N1/32229Spatial or amplitude domain methods with selective or adaptive application of the additional information, e.g. in selected regions of the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09CCIPHERING OR DECIPHERING APPARATUS FOR CRYPTOGRAPHIC OR OTHER PURPOSES INVOLVING THE NEED FOR SECRECY
    • G09C5/00Ciphering apparatus or methods not provided for in the preceding groups, e.g. involving the concealment or deformation of graphic data such as designs, written or printed messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32309Methods relating to embedding, encoding, decoding, detection or retrieval operations in colour image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/44Secrecy systems
    • H04N1/448Rendering the image unintelligible, e.g. scrambling

Definitions

  • the present invention relates to, for example, an image processing apparatus, an image processing method, and an image processing computer program that encrypt an image converted into electronic data.
  • Patent Document 1 provides a two-dimensional code in which a positioning symbol, a data area, a timing cell, and a vertex detection cell are two-dimensionally arranged in a predetermined order.
  • the encryption device replaces the arrangement of pixels included in the encryption target area on the input image in units of blocks according to a predetermined encryption key. Further, the encryption apparatus adds positioning markers for specifying the encrypted area to at least two of the four corners of the encrypted area. Further, the encryption apparatus attaches a check marker for verifying the validity of the decrypted image obtained by decrypting the encrypted area.
  • the decryption device reads a medium on which an image having an encrypted area is printed using a reading device such as a scanner or a digital camera, and converts it into electronic data. Then, the decryption apparatus obtains the original image by decrypting the encrypted area with reference to the positioning marker with respect to the image converted into electronic data.
  • the encrypted image printed on the medium by using the technology for encrypting and encoding the partial information of the image in this way can be read using a commonly used reading device such as a scanner or a camera attached to the mobile phone. It is preferable.
  • a commonly used reading device such as a scanner or a camera attached to the mobile phone. It is preferable.
  • each block must be identifiable on the re-digitized encrypted image. Therefore, a technique for adding information for identifying the position of a block to an encrypted image has been proposed (see, for example, Patent Documents 3 and 4).
  • a document includes a reference mark used for at least one of recording, scaling, rotation, shift, and defect compensation during the unscramble process. Yes.
  • the image processing apparatus divides an image into a plurality of small areas, rearranges the small areas, and then the pixel values included in some of the small areas. To make it easy to detect small areas.
  • the above-described known technology makes it possible to detect the position of each block by inverting the pixel values in a specific block, or inverting or shifting the values of at least some of the pixels in each block. .
  • the device that decrypts the encrypted image uses that pixel. Since the original pixel value cannot be reproduced, the image quality of the decrypted image obtained by decrypting the encrypted image deteriorates.
  • addition of block position specific information by pixel value conversion causes deterioration in image quality after decoding. Therefore, position specific information is not added as much as possible, or information addition is a part of the block. It is preferable.
  • the decryption apparatus cannot correctly detect the position of each block, resulting in a problem that the decrypted image deteriorates.
  • the present specification aims to provide an image processing device that generates an encrypted image capable of suppressing degradation of the image quality of a decrypted image while allowing the decryption device to specify the position of each block on the encrypted image.
  • an image processing apparatus includes a dividing unit that divides at least a part of an area converted into an electronic data into a plurality of blocks, and a scramble processing unit that generates an encrypted image by rearranging the plurality of blocks according to a predetermined rule.
  • a statistical representative value of the pixel value of the first area included in the block, and a block adjacent to the block and adjacent to the first area A pixel value determination unit that determines whether or not the difference between the pixel value of the second region and the statistical representative value is greater than or equal to a predetermined value; and a pixel in the first region among a plurality of blocks on the encrypted image
  • the value of the pixel in the first region is transformed, while the difference is A block that is greater than or equal to a predetermined value
  • having a pixel value conversion unit does not convert the value of a pixel in the first region.
  • the image processing device disclosed herein can generate an encrypted image that can suppress degradation of the image quality of the decrypted image while allowing the decryption device to specify the position of each block on the encrypted image.
  • FIG. 1 is a schematic configuration diagram of an image processing apparatus according to the first embodiment.
  • FIG. 2 is a block diagram illustrating functions of a processing unit realized for encrypting an original image according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of blocks set for the encryption area.
  • FIG. 4A is a diagram illustrating an example of the position of each block in the encryption area before the scramble process.
  • FIG. 4B is a diagram illustrating an example of the position of each block in the encrypted area after the scramble process.
  • FIG. 4C is a diagram illustrating an example of an original image before the scramble process is performed.
  • FIG. 4D is a diagram showing an encrypted image obtained by scrambling the original image shown in FIG. 4C according to the block replacement rule shown in FIGS.
  • FIG. 5 is a diagram illustrating an example of the arrangement of the minimal region and the neighboring region.
  • FIG. 6 is an operation flowchart of the pixel value determination process.
  • FIG. 7A is a diagram illustrating an example of a scrambled encrypted image and a minimum area set in each block.
  • FIG. 7B is a diagram illustrating an example of a determination result of pixel value conversion for each minimal region of the encrypted image illustrated in FIG.
  • FIG. 8 is an operation flowchart of image encryption processing controlled by a computer program executed on the processing unit of the image processing apparatus.
  • FIG. 9 is a functional block diagram of the processing unit of the image processing apparatus according to the second embodiment.
  • FIG. 10 is a diagram illustrating an example of the arrangement of the minimal region and the neighboring region according to the second embodiment.
  • FIG. 11 is a block diagram illustrating functions of the processing unit of the decryption apparatus regarding decryption processing of the encrypted image.
  • FIG. 12A and FIG. 12B are diagrams illustrating examples of edge detection filters, respectively.
  • FIG. 13 is a diagram illustrating an example of an interpolation filter.
  • This image processing apparatus divides an original image converted to electronic data into a plurality of blocks, and encrypts the original image by rearranging the positions of the respective blocks according to a predetermined rule.
  • this image processing apparatus is limited to a block in which a difference in pixel values between adjacent blocks is small and it is difficult to identify the boundary of each block in each block after scramble processing. Convert pixel values.
  • the image processing apparatus reduces the number of pixels subjected to pixel value conversion, thereby enabling the decoding apparatus to identify the position of each block and suppressing deterioration in image quality of the decoded image due to the pixel value conversion.
  • an encrypted image is simply referred to as an “encrypted image”.
  • FIG. 1 is a schematic configuration diagram of an image processing apparatus according to an embodiment.
  • the image processing apparatus 1 includes an interface unit 11, a user interface unit 12, a storage unit 13, and a processing unit 14. Then, the image processing apparatus 1 encrypts the original image acquired via the interface unit 11.
  • the interface unit 11 includes, for example, a communication interface for connecting the image processing device 1 to an image input device (not shown) such as a digital camera or a camera-equipped mobile phone and a control circuit for the communication interface.
  • a communication interface can be an interface according to a communication standard such as Universal Serial Bus (Universal Serial Bus, USB) or Small Computer System Interface (Scudge, SCSI).
  • the interface unit 11 may include a communication interface for connecting the image processing apparatus 1 to a communication network according to a communication standard such as Ethernet (registered trademark) and a control circuit for the communication interface.
  • the interface unit 11 acquires an image converted into electronic data from the image input device or another device connected to the communication network, and passes the image to the processing unit 14.
  • the image processing apparatus 1 may be connected to an output device such as a printer via the interface unit 11.
  • the interface unit 11 may receive, for example, an encrypted image obtained by encrypting the encryption area set for the original image from the processing unit 14 and output the encrypted image to the output device.
  • the interface unit 11 may transmit the encrypted image to another device connected to the image processing apparatus 1 via a communication network.
  • the user interface unit 12 has a pointing device such as a keyboard or a mouse, for example.
  • the user interface unit 12 may include a display device such as a liquid crystal display that displays an image.
  • the user interface unit 12 surrounds, for example, a partial region on the image displayed on the display device with a mouse, thereby representing information indicating a predetermined region on the image, for example, The coordinates of the upper left corner and the lower right corner of the predetermined area are acquired. Then, the user interface unit 12 notifies the processing unit 14 of information representing the predetermined area.
  • the storage unit 13 includes, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device.
  • the storage unit 13 stores a computer program executed on the processing unit 14 and various kinds of information used for encrypting the image.
  • the storage unit 13 stores an original image to be encrypted. Note that the original image may be acquired via the interface unit 11 as described above. Alternatively, the original image may be created by an application program executed by the processing unit 14.
  • the processing unit 14 includes one or a plurality of processors and their peripheral circuits. Then, the processing unit 14 encrypts the encryption area designated on the image converted into electronic data.
  • FIG. 2 is a block diagram illustrating functions of the processing unit 14 relating to image encryption processing.
  • the processing unit 14 includes an area specifying unit 21, a dividing unit 22, a scramble processing unit 23, a pixel value determination unit 24, and a pixel value conversion unit 25.
  • Each of these units included in the processing unit 14 is a functional module implemented by a computer program executed on a processor included in the processing unit 14. Note that each of these units included in the processing unit 14 may be mounted on the image processing apparatus 1 as a circuit that realizes the function of each unit or an integrated circuit in which these circuits are integrated.
  • the area specifying unit 21 sets an encryption area to be encrypted on the original image.
  • the area designating unit 21 receives, for example, information representing a predetermined area on the original image from the user interface unit 12, and sets the predetermined area as an encryption area.
  • the area designating unit 21 warns that the area outside the image is designated in the user interface unit 12. A message may be displayed.
  • the area designating unit 21 may set an area on the image indicated in the template set in advance and stored in the storage unit 13 as an encryption area.
  • the area designating unit 21 notifies the dividing unit 22 of information representing the encrypted area, for example, the coordinates of the upper left end and the lower right end of the encrypted area. If the encrypted area is the entire image, the area specifying unit 21 may be omitted.
  • the dividing unit 22 divides the encrypted area specified by the area specifying unit 21 into blocks having a plurality of rectangular shapes, and sets a unique number for each block.
  • Each block is an area serving as a unit in which positions are replaced by a scramble processing unit 23 described later.
  • FIG. 3 shows an example of a block set for the encryption area.
  • the encryption area 301 is divided into a total of 12 blocks of 3 vertical blocks and 4 horizontal blocks.
  • Each block is numbered 1 to 12 according to a predetermined order, for example, raster scan order. Therefore, for example, the upper left block number in the encryption area 301 is “1”, and the lower right block number is “12”.
  • a dotted line for visualizing the block boundary is added on the encryption area 301, but this dotted line is used only to illustrate the relationship between the encryption area and the block. In this process, this dotted line is not added to the encryption area.
  • the dividing unit 22 notifies the scramble processing unit 23 of the information indicating the range of each block or the boundary between the blocks, and the number of each block.
  • the scramble processing unit 23 executes a scramble process for rearranging the blocks according to a predetermined rearrangement rule determined using the encryption key.
  • the scramble processing unit 23 creates a correspondence table that represents the positional relationship between the blocks before and after conversion from the encryption key. For example, assume that the number of the block after conversion is represented by x, and the number of the block before conversion is represented by y.
  • the block conversion formula corresponding to the scramble processing is expressed by the following formula.
  • the scramble processing unit 23 moves the block having the block number y before conversion to the position of the block having the block number x after conversion of 1 by the scramble process.
  • FIG. 4B shows the position of each block in the encrypted area after the scramble process.
  • FIG. 4C shows an original image before the scramble process is performed, and
  • FIG. 4D shows the original image according to the block replacement rule shown in FIGS. 4A and 4B. It is a figure which shows the encryption image which carried out the scramble process of the original image shown by (C).
  • the number shown in each block of the encrypted area 401 before the scramble process is performed represents the block number.
  • the number shown in each block of the encrypted area 402 after being scrambled represents the block number. Therefore, the original image 403 shown in FIG. 4C is scrambled according to the positional relationship of the blocks before and after the scramble process shown in FIGS.
  • the scramble processing unit 23 passes the encrypted image including the encrypted area after the scramble process to the pixel value determination unit 24.
  • the pixel value determination unit 24 determines whether or not to convert the value of the pixel in the minimal area set close to the boundary with the adjacent block for each block on the encrypted image so that the position of the block can be detected. Determine whether.
  • the minimal region is, for example, a region of horizontal 1 pixel ⁇ vertical 1 pixel, or horizontal 2 pixels ⁇ vertical 2 pixels, which is located at any one corner (for example, the upper left corner) of each block. is there.
  • the pixel value determination unit 24 determines whether or not to convert the pixel value in the minimal region based on the difference between the statistical representative value of the pixel value in the minimal region and the statistical representative value of the pixel value in the neighboring region. judge.
  • the neighboring region is set to a region adjacent to the minimum region and the block boundary.
  • FIG. 5 is a diagram showing an example of the arrangement of the minimal area and the neighboring area.
  • the minimal region 501 is set at the upper left corner of the block 511 of interest. Therefore, two neighboring areas 502 and 503 are set.
  • the neighboring area 502 is adjacent to the upper end of the minimal area 501 and is included in the block 512 adjacent to the upper side of the block 511 of interest.
  • the neighboring region 503 is adjacent to the left end of the minimal region 501 and is included in the block 513 adjacent to the left side of the block 511 of interest.
  • the shape and size of the neighboring regions 502 and 503 are equal to the shape and size of the minimal region 501.
  • the shape and size of the neighboring regions 502 and 503 may be different from the shape and size of the minimal region 501.
  • the height of the neighboring region 502 may be half or twice the height of the minimal region 501.
  • the width of the neighboring region 503 may be half or twice the width of the minimal region 501.
  • FIG. 6 is an operation flowchart of pixel value determination processing executed by the pixel value determination unit 24.
  • the pixel value determination unit 24 executes this pixel value determination process for each block.
  • the pixel value determination unit 24 calculates the statistical representative value of the pixel value of the minimal region and the statistical representative value of the pixel value of the neighboring region in another block adjacent to the minimal region with a block boundary interposed therebetween (step S1). S101).
  • the statistical representative value of the pixel value of the region of interest can be, for example, the average pixel value, the mode value of the pixel value, the minimum value, or the maximum value of the region.
  • the pixel value determination unit 24 may obtain a statistical representative value based on the value of each pixel included in the region.
  • the statistical representative value of the pixel value is calculated using any one color component as the pixel value. it can.
  • the pixel value determination unit 24 uses one of the luminance value Y, the color differences C1, C2, the hue H, and the saturation S of each pixel in the minimal region and the neighboring region as a pixel value according to the following formula, A target representative value may be calculated.
  • R, G, and B are the values of the red component, the green component, and the blue component of the pixel, respectively, and R, G, and B are represented by values of 0 to 255, for example. .
  • the minimal region and the neighboring region include only one pixel
  • the statistical representative values of the pixel values of the minimal region and the neighboring region are the pixel values themselves of the minimal region and the neighboring region, respectively.
  • the pixel value determination unit 24 determines whether or not there is a difference between the statistical representative value of the pixel value of the minimal region and the statistical representative value of the pixel value of the neighboring region (step S102). For example, when the statistical representative value of the pixel value of the minimal region and the statistical representative value of the pixel value of the neighboring region satisfy the following expression, the pixel value determination unit 24 determines that there is a difference between the statistical representative values. Judge that there is. However, A is a statistical representative value of the pixel value of the minimal region. B is a statistical representative value of the pixel value of the neighboring region adjacent to the minimal region in the vertical direction, and C is a statistical representative value of the pixel value of the neighboring region adjacent to the minimal region in the horizontal direction. It is.
  • Th0 is a threshold value.
  • the threshold Th0 can be a preset fixed value. When the pixel value is represented by 0 to 255, the threshold value Th0 is set to 32, for example.
  • the pixel value determination unit 24 may dynamically set the threshold Th0 based on the original image. In this case, for example, the pixel value determination unit 24 sets a value obtained by multiplying the difference between the maximum pixel value and the minimum pixel value in the original image or the encrypted area by a predetermined coefficient (for example, 0.25) less than 1 as the threshold Th0. Also good.
  • the pixel value determination unit 24 sets a flag indicating that the pixel value is not converted for the minimal region (step S103).
  • the pixel value determination unit 24 determines whether the neighboring region is bright in order to determine how to convert the pixel value of the minimal region (step S104).
  • the pixel value determination unit 24 satisfies the condition represented by the following expression when the average value of the pixel values in the neighboring region is: It is determined that the neighboring area is bright.
  • B is an average value of pixel values in the neighboring area adjacent to the minimal area in the vertical direction
  • C is an average value of pixel values in the neighboring area adjacent to the minimal area in the horizontal direction.
  • Th1 is a threshold value.
  • the threshold value Th1 can be a preset fixed value. For example, when the pixel value is represented by 0 to 255, the threshold value Th1 is set to 160, for example.
  • the pixel value determination unit 24 may dynamically set the threshold Th1 based on the original image.
  • the pixel value determination unit 24 can set, for example, a value determined by applying the discriminant analysis method (Otsu's method) to the entire original image or the encrypted area as the threshold value Th1.
  • the pixel value determining unit 24 may use the average pixel value of the entire original image or the encrypted area as the threshold value Th1.
  • the pixel value determination unit 24 may use a statistical representative value such as an average value or a mode value of pixel values in the minimal region as the threshold value Th1.
  • the pixel value determination unit 24 sets a flag indicating that the pixel value is blackened for the minimal region (step S105).
  • the pixel value determining unit 24 sets a flag indicating that the pixel value is whitened for the minimal region (Step S106).
  • the pixel value determination unit 24 notifies the pixel value conversion unit 25 of the flag set for the minimal region and the position or number of the corresponding block, and then ends the pixel value determination process. .
  • the pixel value conversion unit 25 converts the pixel value in the minimal region notified by the pixel value determination unit 24 of a flag indicating that the pixel value is blackened or whitened. For example, when the pixel value is represented by 0 to 255 and the pixel approaches white as the pixel value increases, the pixel value conversion unit 25 applies the flag indicating that the pixel value is black to the minimum region to which the flag is notified.
  • the pixel value of each pixel in the minimum area is set to a value smaller than the threshold value Th1, for example, 0.
  • the pixel value conversion unit 25 sets the pixel value of each pixel in the minimum region to which the flag indicating whitening of the pixel value is notified, to a value larger than the threshold value Th1, for example, 255. To do.
  • the pixel value conversion unit 25 sets all the color components or specific one or two of the minimal regions to which the flag indicating that the pixel value is black is notified.
  • the color component may be 0.
  • the pixel value conversion unit 25 may set all color components or specific one or two color components to 255 for a minimal region to which a flag indicating whitening of the pixel value is notified.
  • the color component used by the pixel value determination unit 24 to compare the statistical representative value of the pixel value between the minimal region and the neighboring region is included in the specific color component. It is preferable that
  • FIG. 7A is an example of the scrambled encrypted image and the minimum area set for each block
  • FIG. 7B is the minimum of the encrypted image shown in FIG. 7A. It is a figure which shows an example of the determination result of the pixel value conversion with respect to an area
  • the encrypted image 700 shown in FIGS. 7A and 7B is divided into blocks of horizontal 3 ⁇ vertical 3. The boundaries of each block are indicated by dotted lines. A minimal region is set at the upper left corner of each block. Each minimum region is a region surrounded by a solid line. In this example, the three blocks 702 to 704 are blacker than the other blocks.
  • the difference between the pixel value of the minimal region 712 of the block 702 and the pixel value of the block adjacent to the left side is large.
  • the pixel value of the minimal region 712 is not converted.
  • the difference between the pixel value of the minimal region 713 of the block 703 and the pixel value of the block adjacent to the left and upper sides is large. Therefore, as shown in FIG. 7B, the pixel value of the minimal region 713 is not converted.
  • the block 703 adjacent to the left side of the minimal region 714 of the block 704 is also black as in the minimal region 714, so that it is difficult to identify the boundary between the block 703 and the block 704.
  • Block 703 is relatively black. Therefore, as shown in FIG. 7B, the pixel value of the minimal region 714 is converted to white.
  • the difference in pixel values from the block adjacent to the minimal region is small, and these adjacent blocks are relatively bright. Therefore, as shown in FIG. 7B, the pixel values of the minimum areas of other blocks are converted to black.
  • the pixel value conversion unit 25 does not have to perform pixel value conversion for all blocks.
  • the processing unit 14 stores the encrypted image generated as described above in the storage unit 13. Alternatively, the processing unit 14 may output the encrypted image to another device via the interface unit 11 or print it on a medium via a printer or the like.
  • FIG. 8 is an operation flowchart of an image encryption process controlled by a computer program executed on the processing unit 14.
  • the area specifying unit 21 of the processing unit 14 sets an encrypted area on the original image to be encrypted (step S201). Then, the area specifying unit 21 notifies the dividing unit 22 of the processing unit 14 of information representing the encrypted area.
  • the dividing unit 22 divides the encryption area into a plurality of blocks which are execution units of the scramble process, and assigns a unique number to each block (step S202). Then, the dividing unit 22 notifies the scramble processing unit 23 of the processing unit 14 of information indicating the range of each block or the boundary between the blocks and the number of each block.
  • the scramble processing unit 23 executes a scramble process for rearranging each block in the encryption area in accordance with a position replacement rule determined based on the encryption key (step S203).
  • the scramble processing unit 23 passes the encrypted image obtained by the scramble process to the pixel value determination unit 24 of the processing unit 14.
  • the pixel value determination unit 24 performs the above-described pixel value determination process for each block on the encrypted image (step S204). Then, the pixel value determination unit 24 displays a flag indicating whether or not to convert the pixel value in the minimum region set for each block, and whether or not to convert the pixel value to white when the pixel value is converted. 14 pixel value conversion units 25 are notified. Based on the flag, the pixel value conversion unit 25 converts only the value of the pixel in the minimum region set in the block determined to convert the pixel value (step S205). Thereafter, the processing unit 14 ends the image encryption process. A plurality of encryption areas may be set for one image. In this case, the processing unit 14 executes the processes of steps S202 to S205 for each encryption area.
  • the image processing apparatus checks the difference between the pixel values of two adjacent small areas across the block boundary in the scrambled encrypted area. And this image processing apparatus converts the value of the pixel in the small area
  • the image processing apparatus separately compares the minimum area of each block after scramble processing with the adjacent area horizontally adjacent to the minimum area and the adjacent area vertically adjacent to the minimum area. It is determined whether or not to convert the pixel value of the minimal area based on the result.
  • the image processing device differs from the image processing device according to the first embodiment in the processing of the pixel value determination unit of the processing unit. Therefore, in the following, processing of the pixel value determination unit and related portions will be described. For details of other components of the image processing apparatus, refer to the description of the corresponding components in the first embodiment.
  • FIG. 9 is a functional block diagram of the processing unit 14 of the image processing apparatus according to the second embodiment.
  • the processing unit 14 includes an area specifying unit 21, a dividing unit 22, a scramble processing unit 23, a pixel value determination unit 24, and a pixel value conversion unit 25.
  • the pixel value determination unit 24 includes a first pixel value determination unit 241 and a second pixel value determination unit 242.
  • the first pixel value determination unit 241 includes, for each block after being subjected to the scramble process, a statistical representative value of the pixel value of the minimum region, which is adjacent in the horizontal direction across the boundary between the minimum region and the block. Are compared with the statistical representative values of the pixel values in the neighboring area.
  • FIG. 10 is a diagram showing an example of the arrangement of the minimum area and the neighboring area according to the second embodiment.
  • the minimal region 1001 is set at the upper left corner of the block 1011 of interest.
  • the first neighboring region 1002 is included in the block 1012 adjacent to the left end of the minimal region 1001 and adjacent to the left side of the block 1011 of interest.
  • the first pixel value determination unit 241 divides the minimal region 1001 into two small regions 1022 and 1023 that are equally divided by the line 1021 that is equidistant from the left end and the upper end, and in the small region 1022 adjacent to the neighboring region 1002.
  • the statistical representative value of the pixel value may be obtained by Note that the pixel located on the line 1021 may be included in both the first small region and the second small region, or included in both the first small region and the second small region. You may not.
  • the first pixel value determination unit 241 determines that there is a difference between the values.
  • A0 is a statistical representative value of the pixel value of the minimal region.
  • the first pixel value determination unit 241 determines that A0 is not the entire minimal region, but a partial region in the minimal region adjacent to the first neighboring region, for example, the small region 1022 illustrated in FIG. May be calculated.
  • B is a statistical representative value of the pixel values of the first neighboring area.
  • Th00 is a threshold value. The threshold value Th00 is set to the same value as the threshold value Th0.
  • the second pixel value determination unit 242 sets, for each block after being subjected to the scramble processing, a statistical representative value of the pixel value of the minimum region, adjacent to the second region in the vertical direction across the boundary between the minimum region and the block. Are compared with the statistical representative values of the pixel values in the neighboring area.
  • the second neighboring region 1003 is included in the block 1013 adjacent to the upper end of the minimal region 1001 and adjacent to the upper side of the block 1011 of interest.
  • the second pixel value determination unit 242 divides the minimal region 1001 into two small regions 1022 and 1023 equally divided by a line 1021 that is equidistant from the left end and the upper end, and in the small region 1023 adjacent to the neighboring region 1003.
  • the statistical representative value of the pixel value may be obtained by
  • the second pixel value determination unit 242 determines that there is a difference between the statistical representative values.
  • A0 is a statistical representative value of the pixel value of the minimal region.
  • the second pixel value determination unit 242 determines that A0 is not the entire minimum region, for example, the second neighboring region like the small region 1023 illustrated in FIG. You may calculate about the one part area
  • B is a statistical representative value of the pixel values of the second neighboring area.
  • the pixel value determination unit 24 at least one of the first pixel value determination unit 241 and the second pixel value determination unit 242 has a statistical representative value of a pixel value in a minimal region and a statistical representative value of a pixel value in a neighboring region. If it is determined that there is a difference between the two, a flag that does not convert the pixel value is set for the minimal region. On the other hand, in the pixel value determination unit 24, both the first pixel value determination unit 241 and the second pixel value determination unit 242 convert the statistical value of the pixel value in the minimal region and the statistical representative value of the pixel value in the neighboring region. If it is determined that there is no difference, a flag for converting the pixel value is set for the minimal region.
  • the pixel value determination unit 24 determines whether or not to make the pixel value in the minimum area white according to the procedure of steps S104 to S106 in FIG. At that time, the pixel value determination unit 24 may determine whether or not the first and second neighboring regions are bright according to the above equation (4). Alternatively, the pixel value determination unit 24 determines whether or not to whiten the pixel value in the minimal region based on the pixel value included in one of the first and second neighboring regions of interest. May be.
  • the pixel value determination unit 24 satisfies the condition that the statistical representative value of the pixel value of the neighboring region of interest is expressed by the following equation: If the condition is satisfied, it is determined that the target neighboring area is bright. However, B is a statistical representative value of the pixel value of the neighboring region of interest, and Th11 is a threshold value. The threshold value Th11 is determined, for example, in the same manner as the threshold value Th1 in the first embodiment. The pixel value determination unit 24 sets a flag for blackening the pixel value for the minimal region when the neighboring region to be noticed is bright. On the other hand, when the condition of the expression (6) is not satisfied, If it is dark, a flag for whitening the pixel value is set for the minimal region.
  • the image processing apparatus has the pixel value of any one of the neighboring area adjacent in the horizontal direction and the neighboring area adjacent in the vertical direction with respect to the minimal area in the scrambled block. If there is a difference, the pixel value in the minimal region is not converted. For this reason, the image processing apparatus according to the second embodiment can further reduce the number of pixels to be subjected to pixel value conversion, and therefore can further suppress degradation in image quality of the decoded image.
  • the pixel value conversion unit shifts the value of the pixel included in the minimal region determined to convert the pixel value, and the statistical representative value of the pixel value of the neighboring region adjacent to the minimal region. You may decide by. For example, when the pixel value is represented by 0 to 255, the pixel value conversion unit may set a value obtained by adding 127, which is half the maximum pixel value, to the average pixel value in the neighboring region as the pixel value in the minimal region. . In addition, when the addition value exceeds 255, the pixel value conversion unit sets the value obtained by subtracting 256 from the addition value as the value of the pixel in the minimum region. In this case, the pixel value determination unit may omit steps S104 to S106 of the pixel value determination process shown in FIG. 6, and instead set a flag indicating pixel value conversion for the minimal region. Good.
  • the pixel value conversion unit is configured to determine whether a difference between a pixel value after conversion and a statistical representative value of a pixel value in a neighboring region is a pixel for a minimal region of a block that is determined to be converted. What is necessary is just to determine the pixel value after conversion so that it may become larger than the difference of the statistical representative value of the pixel value between the minimum area
  • the pixel value conversion unit sets a positive value to the statistical representative value of the pixel value of the minimal region.
  • a value obtained by adding a predetermined offset value is used as a pixel value after conversion.
  • the pixel value conversion unit offsets the predetermined offset from the statistical representative value of the pixel value of the minimal region. The value obtained by subtracting the value is used as the pixel value after conversion.
  • the pixel value conversion unit may increase the predetermined offset value as the absolute value of the difference between the statistical representative value of the pixel value in the minimal region and the statistical representative value of the pixel value in the neighboring region is small.
  • the processing unit represents the position and range of the encryption region after specifying the encryption region, after scramble processing, or after executing the pixel value conversion processing on each block by the pixel value conversion unit.
  • An encryption area detection marker may be attached to the encrypted image.
  • the processing unit attaches an encryption area detection marker close to each corner of the encryption area.
  • the encryption area detection marker has a shape and size known to the decryption device, and can be, for example, a pattern in which black areas and white areas having a predetermined width are alternately arranged.
  • the decoding device includes an interface unit, a user interface unit, a storage unit, and a processing unit, similarly to the image processing device shown in FIG. Then, the decryption device acquires the encrypted image from another device via the interface unit.
  • Another device is an apparatus that creates an encrypted image obtained by taking an encrypted image printed on a medium and converting it into electronic data, such as a digital camera or a camera-equipped mobile phone.
  • the other device may be a computer connected to the decoding device via a communication network.
  • the processing unit of the decryption device decrypts the encrypted image to generate a decrypted image, displays the decrypted image on the user interface unit, or outputs the decrypted image to other devices via the interface unit.
  • FIG. 11 is a block diagram showing functions of the processing unit of the decryption apparatus regarding the decryption process of the encrypted image.
  • the processing unit 30 includes an area detection unit 31, a block position detection unit 32, a descrambling processing unit 33, and a pixel value restoration unit 34.
  • Each of these units included in the processing unit 30 is a functional module implemented by a computer program executed on a processor included in the processing unit 30. Note that each of these units included in the processing unit 30 may be mounted on the decoding device as a circuit that realizes the function of each unit or an integrated circuit in which these circuits are integrated.
  • the area detector 31 detects an encrypted area.
  • the region detection unit 31 acquires information on a range specified by operating a pointing device such as a mouse while the user visually observes the encrypted image displayed on the display device of the user interface unit. Then, the area detection unit 31 sets the designated range as an encryption area.
  • the area detection unit 31 uses the general image recognition technology such as pattern matching or analysis of graphic connectivity to detect the encryption area detection marker. May be detected.
  • region detection part 31 specifies an encryption area
  • the area detecting unit 31 notifies the block position detecting unit 32 of information representing the encrypted area, for example, the coordinates of the upper left corner and the coordinates of the lower right corner of the encrypted area.
  • the block position detection unit 32 detects the position of each block from the encrypted area detected by the area detection unit 31. For this purpose, the block position detection unit 32 detects, for example, a minimal region whose pixel value has been converted by the image processing apparatus or a boundary between adjacent blocks.
  • the block position detection unit 32 generates a blurred image by filtering using, for example, a median filter having a size larger than the minimal region with respect to the encrypted region.
  • the median filter is a filter that outputs the median value of the pixels included in the region to which the filter is multiplied as the value of the pixel located at the center of the median filter.
  • the minimal region includes only one pixel or 2x2 pixels
  • the median filter has a size of 3x3 or 4x4 pixels.
  • the distribution of pixel values of individual blocks tends to be narrow. Therefore, when the pixel value of the minimum area is converted, the pixel value of the minimum area tends to be greatly different from the average value or the median value of the pixel values of the block to which the minimum area belongs. Therefore, by multiplying the encryption area by the median filter, the pixel value in the minimum area after the pixel value conversion is more likely to be replaced with the values of the pixels around the minimum area.
  • the block position detection unit 32 generates a difference image by obtaining an absolute value of a value obtained by subtracting the value of the corresponding pixel of the blurred image from the value of each pixel of the original encryption area.
  • pixels that have undergone pixel value conversion have relatively large pixel values, while pixels that have not undergone pixel value conversion have relatively small pixel values.
  • a minimal region including pixels whose pixel values have been converted is represented.
  • the block position detection unit 32 generates an edge image by filtering the blurred image using an edge detection filter.
  • an edge detection filter In general, in an encrypted image, there is no correlation between pixel values between adjacent blocks, and therefore pixel values may differ greatly at the boundary between adjacent blocks. Therefore, by multiplying the difference image by an edge detection filter, an edge image having a relatively large pixel value at the boundary between adjacent blocks can be obtained. Therefore, the block position detection unit 32 can easily detect the position of each block by analyzing such an edge image.
  • FIGS. 12A and 12B are diagrams illustrating examples of edge detection filters used by the block position detection unit 32, respectively.
  • the edge detection filter 1201 shown in FIG. 12A is a filter that detects an edge in the vertical direction (that is, an edge whose pixel value changes along the horizontal direction).
  • the edge detection filter 1202 shown in FIG. 12B is a filter that detects an edge in the horizontal direction (that is, an edge whose pixel value changes along the vertical direction).
  • the block position detection unit 32 generates a vertical edge image obtained by multiplying the blurred image by a vertical edge detection filter to detect a vertical edge, and multiplies the blurred image by a horizontal edge detection filter.
  • a horizontal edge image in which a horizontal edge is detected is generated.
  • a secondary differential filter such as a Laplacian filter may be used as the edge detection filter.
  • the block position detection unit 32 generates a composite image by adding pixel values between corresponding pixels of the difference image and the vertical edge image. Then, the block position detection unit 32 obtains the number of pixels having a pixel value equal to or greater than a predetermined threshold having a positive value for each column in the horizontal direction with respect to the composite image, and obtains a histogram of the number of pixels for each column. . In this case, there is a column having a larger number of pixels than a column in the vicinity thereof at a constant period. Therefore, the block position detection unit 32 detects a column having a large number of pixels as a block boundary in the vertical direction.
  • the block position detection unit 32 generates a composite image by adding pixel values between corresponding pixels of the difference image and the horizontal edge image.
  • the block position detection unit 32 obtains the number of pixels having a pixel value equal to or greater than a predetermined threshold for each row in the vertical direction with respect to the composite image, and obtains a histogram of the number of pixels for each row. Then, the block position detection unit 32 detects a row having a large number of pixels that exists at a constant period as a block boundary in the horizontal direction.
  • the block position detection unit 32 notifies the descrambling processing unit 33 of the horizontal and vertical coordinates of the boundary of each block on the encrypted image.
  • the descrambling processing unit 33 performs descrambling processing on the encrypted area.
  • the descrambling processing unit 33 uses the equation (1) to convert the encryption key and the block position when the image processing apparatus executes the scramble process, and the position conversion block position after the scramble process is x The original position y of the block within the conversion area can be determined. Then, the descrambling processing unit 33 moves each position conversion block in the encrypted image to the position of the obtained original position conversion block, so that the position of each position conversion block becomes the same as the position in the original image. An image can be generated.
  • the pixel value restoration unit 34 restores the value of the pixel included in the minimum area of each block with respect to the decrypted image obtained by performing the descrambling process on the encrypted image.
  • the pixel value restoration unit 34 can use, for example, any of various interpolation filters that interpolate the value of the target pixel to be interpolated using the values of the neighboring pixels of the target pixel.
  • the pixel value restoration unit 34 uses a filter that weights and averages the values of neighboring pixels by multiplying the value of the pixel closer to the target pixel by a larger weighting factor according to the following equation.
  • Vp is an estimate of the original value of the pixel of interest P in the minimal region
  • R i is a value representing the distance from the target pixel P to the neighboring pixel n i .
  • the interpolation filter 1300 is a filter that calculates a target pixel P to be interpolated using values of eight neighboring pixels n 0 to n 7 of the target pixel P.
  • the distance from the target pixel P to each of the neighboring pixels n 0 to n 7 is defined as follows, for example.
  • the estimated value Vp of the target pixel P is calculated as follows.
  • Vp (2 (Vn 0 + Vn 2 + Vn 4 + Vn 6 ) + (Vn 1 + Vn 3 + Vn 5 + Vn 7 )) / 12
  • the pixel value restoration unit 34 may also use the pixel value of the target pixel P itself in the decoded image before the pixel value restoration in order to obtain an estimated value of the original value for the target pixel P.
  • the pixel value restoration unit 34 may use a simple average value of pixels included in a 3 ⁇ 3 pixel area centered on the target pixel as an estimated value of the target pixel.
  • the decrypting device decrypts an image obtained by converting the encrypted image printed on the medium into electronic data
  • the original information of the minimal region that has undergone pixel value conversion is lost on the image.
  • the decoding apparatus can estimate the original value of the pixel value-converted pixel by interpolation.
  • the pixel value restoration unit 34 causes the display device of the user interface unit to display a decoded image obtained by restoring the pixel values in the minimum area of each block.
  • the pixel value restoration unit 34 may output the decoded image to another device via the interface unit, or store the decoded image in a storage unit.
  • a computer program that causes a computer to implement the functions of the processing unit of the image processing apparatus according to any one of the above-described embodiments or modifications thereof is recorded on a computer-readable medium such as a magnetic recording medium or an optical recording medium. It may be provided in the form.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Transmission Control (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

 画像処理装置は、電子データ化された画像上の少なくとも一部の領域を複数のブロックに分割する分割部と、複数のブロックを所定の規則に従って並び替えることにより暗号画像を生成するスクランブル処理部と、暗号画像上の複数のブロックのそれぞれについて、そのブロック内に含まれる第1の領域の画素値の統計的代表値と、そのブロックに隣接するブロックに含まれ、かつ第1の領域と隣接する第2の領域の画素値の統計的代表値との差が所定値以上であるか否かを判定する画素値判定部と、暗号画像上の複数のブロックのうち、第1の領域の画素値の統計的代表値と第2の領域の画素値の統計的代表値間の差が所定値未満であるブロックについて、その第1の領域内の画素の値を変換し、一方、その差が所定値以上であるブロックについて、第1の領域内の画素の値を変換しない画素値変換部を有する。

Description

画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
 本発明は、例えば、電子データ化された画像を暗号化する画像処理装置、画像処理方法及び画像処理用コンピュータプログラムに関する。
 近年、紙などの媒体に記載された秘密情報が漏洩することを防止するための技術が開発されている。特に、画像に符号化された情報を埋め込んだり、あるいは、不特定多数の人に見られたくない電子データ化された画像を予め暗号化し、その暗号化された画像を媒体に印刷する技術が提案されている(例えば、特許文献1及び2を参照)。例えば、特許文献1に開示された技術では、位置決め用シンボルと、データ領域と、タイミングセルと、頂点検出用セルとが予め定められた順序で2次元に配列された2次元コードが提供される。
 また、特許文献2に開示された技術では、暗号化装置は、入力画像上の暗号化対象領域に含まれる画素の配置を、所定の暗号鍵に従ってブロック単位で入れ替える。さらにその暗号化装置は、暗号化された領域の4隅のうちの少なくとも二つ以上に、暗号化された領域を特定するための位置決めマーカを付加する。またその暗号化装置は、暗号化された領域を復号することにより得られる復号画像の妥当性を検証するためのチェック用マーカを付す。一方、復号装置は、暗号化された領域を持つ画像が印刷された媒体を、スキャナまたはデジタルカメラなどの読取装置を用いて読み込んで電子データ化する。そして復号装置は、電子データ化された画像に対して位置決めマーカを参照して暗号化された領域を復号することにより、原画像を得る。
 このように画像の一部情報を暗号化・コード化する技術を利用して媒体に印刷された暗号画像は、スキャナや携帯電話に付属のカメラなど一般的に利用される読み取り機器を用いて読み取れることが好ましい。その際、読み取り機器で読み取られ、再デジタル化された暗号画像を復号するために、その再デジタル化された暗号画像上で各ブロックが識別可能でなければならない。そこで、暗号画像に、ブロックの位置を識別するための情報を付加する技術が提案されている(例えば、特許文献3及び4を参照)。
 例えば、特許文献3に開示された技術では、アンスクランブル処理中に、記録、スケーリング、回転、シフト及び欠陥補償の少なくとも一つの操作に対して使用される参照マークを書類に含めることが提案されている。
 さらに特許文献4に開示された技術では、画像処理装置は、画像を複数の小領域に分割し、各小領域を並べ替えた後、各小領域内の一部の領域に含まれる画素の値を変換して、小領域の検知を容易にする。
特開平7-254037号公報 特開2008-301044号公報 特表平9-504660号公報 特開2009-232129号公報
 上記の公知技術は、特定のブロック内の画素値を反転し、あるいは、各ブロック内の少なくとも一部の画素の値を反転したり、あるいはシフトさせることで、各ブロックの位置を検出可能とする。しかしながら、画像がJPEG等の画像圧縮規格に従って圧縮された場合、または印刷された画像をスキャンすることで元の画素値が変換された画素については、暗号化された画像を復号する装置がその画素の元の画素値を再現できないので、暗号化された画像を復号することにより得られた復号画像の画質は劣化してしまう。
 このように、画素値変換によるブロック位置の特定情報の付加は復号後の画質劣化の原因となるため、できるだけ位置の特定情報の付加をしないこと、または情報の付加はブロック内の一部であることが好ましい。一方、位置の特定情報が暗号画像に付加されなければ、復号装置は各ブロックの位置を正しく検出できず、結局、復号画像が劣化するという問題があった。
 そこで本明細書は、復号装置が暗号画像上の各ブロックの位置を特定することを可能にしつつ、復号画像の画質の劣化を抑制可能な暗号画像を生成する画像処理装置を提供することを目的とする。
 一つの実施形態によれば、画像処理装置が提供される。この画像処理装置は、電子データ化された画像上の少なくとも一部の領域を複数のブロックに分割する分割部と、複数のブロックを所定の規則に従って並び替えることにより暗号画像を生成するスクランブル処理部と、暗号画像上の複数のブロックのそれぞれについて、そのブロック内に含まれる第1の領域の画素値の統計的代表値と、そのブロックに隣接するブロックに含まれ、かつ第1の領域と隣接する第2の領域の画素値の統計的代表値との差が所定値以上であるか否かを判定する画素値判定部と、暗号画像上の複数のブロックのうち、第1の領域の画素値の統計的代表値と第2の領域の画素値の統計的代表値間の差が所定値未満であるブロックについて、その第1の領域内の画素の値を変換し、一方、その差が所定値以上であるブロックについて、第1の領域内の画素の値を変換しない画素値変換部を有する。
 本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
 上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
 ここに開示される画像処理装置は、復号装置が暗号画像上の各ブロックの位置を特定することを可能にしつつ、復号画像の画質の劣化を抑制可能な暗号画像を生成できる。
図1は、第1の実施形態による画像処理装置の概略構成図である。 図2は、第1の実施形態による、原画像を暗号化するために実現される処理部の機能を示すブロック図である。 図3は、暗号化領域について設定されたブロックの例を示す図である。 図4(A)は、スクランブル処理前の暗号化領域における各ブロックの位置の例を示す図である。図4(B)は、スクランブル処理後の暗号化領域における各ブロックの位置の例を示す図である。図4(C)は、スクランブル処理が施される前の原画像の一例を表す図である。図4(D)は、図4(A)及び図4(B)に示されたブロックの入れ替え規則に従って図4(C)に示された原画像をスクランブル処理した暗号画像を示す図である。 図5は、極小領域と近隣領域との配置の一例を示す図である。 図6は、画素値判定処理の動作フローチャートである。 図7(A)は、スクランブル処理が施された暗号画像及び各ブロックに設定された極小領域の一例を示す図である。図7(B)は、図7(A)に示された暗号画像の各極小領域に対する画素値変換の判定結果の一例を示す図である。 図8は、画像処理装置の処理部上で実行されるコンピュータプログラムにより制御される、画像暗号化処理の動作フローチャートである。 図9は、第2の実施形態による画像処理装置の処理部の機能ブロック図である。 図10は、第2の実施形態による、極小領域と近隣領域との配置の一例を示す図である。 図11は、暗号画像の復号処理に関する、復号装置の処理部の機能を示すブロック図である。 図12(A)及び図12(B)は、それぞれ、エッジ検出フィルタの一例を示す図である。 図13は、補間フィルタの一例を示す図である。
 以下、図を参照しつつ、様々な実施形態による、画像処理装置について説明する。この画像処理装置は、暗号化対象である、電子データ化された原画像を複数のブロックに分割し、各ブロックの位置を所定の規則に従って並び替えることにより原画像を暗号化する。その際、この画像処理装置は、スクランブル処理後の各ブロックについて、隣接するブロック間で画素値の差が小さく、ブロックの境界を識別することが困難なブロックに限り、そのブロック内の一部の画素の値を変換する。これにより、この画像処理装置は、画素値変換される画素の数を減らすことで、復号装置が各ブロックの位置を識別することを可能にしつつ、その画素値変換による復号画像の画質劣化を抑制する。
 なお、本明細書では、暗号化された画像を単に「暗号画像」と呼ぶ。
 図1は、一つの実施形態による画像処理装置の概略構成図である。画像処理装置1は、インターフェース部11と、ユーザインターフェース部12と、記憶部13と、処理部14とを有する。そして画像処理装置1は、インターフェース部11を介して取得した原画像を暗号化する。
 インターフェース部11は、例えば、画像処理装置1を、デジタルカメラまたはカメラ付き携帯電話などの画像入力装置(図示せず)と接続するための通信インターフェース及びその制御回路を有する。そのような通信インターフェースは、例えば、Universal Serial Bus(ユニバーサル・シリアル・バス、USB)またはSmall Computer System Interface(スカジー、SCSI)などの通信規格に従ったインターフェースとすることができる。あるいはインターフェース部11は、イーサネット(登録商標)などの通信規格に従った通信ネットワークに画像処理装置1を接続するための通信インターフェース及びその制御回路を有してもよい。
 インターフェース部11は、画像入力装置または通信ネットワークに接続された他の機器から、電子データ化された画像を取得し、その画像を処理部14へ渡す。
 また画像処理装置1は、インターフェース部11を介してプリンタなどの出力装置と接続されてもよい。そしてインターフェース部11は、例えば、原画像について設定された暗号化領域が暗号化された暗号画像を処理部14から受け取り、その暗号画像をその出力装置へ出力してもよい。あるいは、インターフェース部11は、暗号画像を通信ネットワークを介して画像処理装置1と接続された他の機器へ送信してもよい。
 ユーザインターフェース部12は、例えば、キーボード、またはマウスなどのポインティングデバイスを有する。またユーザインターフェース部12は、画像を表示する液晶ディスプレイなどの表示装置を有してもよい。そしてユーザインターフェース部12は、ユーザの操作に応じて、例えば、表示装置上に表示された画像上の一部の領域がマウスで囲まれることにより、画像上の所定の領域を表す情報、例えば、その所定の領域の左上端と右下端の座標を取得する。そしてユーザインターフェース部12は、その所定の領域を表す情報を処理部14へ通知する。
 記憶部13は、例えば、半導体メモリ、磁気ディスク装置、または光ディスク装置のうちの少なくとも何れか一つを有する。そして記憶部13は、処理部14上で実行されるコンピュータプログラム、及び画像を暗号化するために用いられる各種の情報を記憶する。また記憶部13は、暗号化対象となる原画像を記憶する。なお、原画像は、上記のように、インターフェース部11を介して取得されてもよい。あるいは、原画像は、処理部14により実行されるアプリケーションプログラムにより作成されてもよい。
 処理部14は、1個または複数個のプロセッサ及びその周辺回路を有する。そして処理部14は、電子データ化された画像上で指定された暗号化領域を暗号化する。
 図2は、画像の暗号化処理に関する処理部14の機能を示すブロック図である。処理部14は、領域指定部21と、分割部22と、スクランブル処理部23と、画素値判定部24と、画素値変換部25とを有する。処理部14が有するこれらの各部は、処理部14が有するプロセッサ上で実行されるコンピュータプログラムによって実装される機能モジュールである。なお、処理部14が有するこれらの各部は、その各部の機能を実現する回路またはそれらの回路を集積した集積回路として画像処理装置1に実装されてもよい。
 領域指定部21は、原画像上で暗号化対象となる暗号化領域を設定する。そのために、領域指定部21は、例えば、ユーザインターフェース部12から原画像上の所定の領域を表す情報を受け取り、その所定の領域を暗号化領域として設定する。また、ユーザインターフェース部12から受け取った所定の領域が、画像外の領域を含んでいる場合には、領域指定部21は、ユーザインターフェース部12に画像外の領域が指定されていることを表す警告メッセージを表示させてもよい。あるいは、領域指定部21は、予め設定され、記憶部13に記憶されたテンプレートに示された画像上の領域を暗号化領域としてもよい。
 領域指定部21は、暗号化領域を表す情報、例えば、暗号化領域の左上端と右下端の座標を分割部22へ通知する。
 なお、暗号化領域が画像全体となる場合には、領域指定部21は省略されてもよい。
 分割部22は、領域指定部21で指定された暗号化領域を複数の矩形状を有するブロックに分割し、各ブロックに固有の番号を設定する。各ブロックは、後述するスクランブル処理部23により位置の入れ替えが行われる単位となる領域である。
 図3に、暗号化領域について設定されたブロックの例を示す。例えば、暗号化領域301は、縦3ブロック、横4ブロックの合計12ブロックに分割される。それぞれのブロックには、所定の順序、例えば、ラスタスキャン順に従って、1~12の番号が付される。したがって、例えば、暗号化領域301内の左上端のブロックの番号は'1'であり、右下端のブロックの番号は'12'となる。なお、図3では、暗号化領域301上にブロック境界を可視化するための点線が付加されているが、この点線は、暗号化領域とブロックの関係を図示するためにのみ用いられており、実際の処理ではこの点線は暗号化領域に付加されない。
 分割部22は、各ブロックの範囲あるいはブロック間の境界を表す情報と、各ブロックの番号とをスクランブル処理部23へ通知する。
 スクランブル処理部23は、暗号鍵を用いて決定される所定の並び替え規則に従って、各ブロックを並び替えるスクランブル処理を実行する。そのために、スクランブル処理部23は、暗号鍵から変換前と変換後のブロックの位置関係を表す対応テーブルを作成する。例えば、変換後のブロックの番号がxで表され、変換前のブロックの番号がyで表されるとする。このとき、スクランブル処理に対応するブロックの変換式は次式で表される。
Figure JPOXMLDOC01-appb-M000001
(1)式において、p及びqは、それぞれ、暗号鍵が表す素数であり、p≠qである。例えば暗号鍵によりp=7、q=13と決定した場合、xとyの関係は表1のようになる。
Figure JPOXMLDOC01-appb-T000002
 この場合、表1に示されるように、xが1のとき、対応するyの値は7となる。したがって、スクランブル処理部23は、変換前のブロック番号yが7であるブロックを、スクランブル処理により、変換後のブロック番号xが1であるブロックの位置へ移動する。
 図4(A)は、暗号化領域を縦3個×横4個のブロックに分割し、(1)式においてp=7、q=13としたときの、スクランブル処理前の暗号化領域における各ブロックの位置を示し、図4(B)は、スクランブル処理後の暗号化領域における各ブロックの位置を示す。また図4(C)は、スクランブル処理が施される前の原画像を表し、図4(D)は、図4(A)及び図4(B)に示されたブロックの入れ替え規則に従って図4(C)に示された原画像をスクランブル処理した暗号画像を示す図である。
 図4(A)において、スクランブル処理が施される前の暗号化領域401の各ブロック内に示された番号はブロックの番号を表す。同様に、図4(B)において、スクランブル処理が施された後の暗号化領域402の各ブロック内に示された番号はブロックの番号を表す。
 したがって、図4(C)に示された原画像403は、図4(A)及び図4(B)に示されるスクランブル処理前後のブロックの位置関係に従ってスクランブル処理されることにより、図4(D)に示されるような暗号画像404となる。
 スクランブル処理部23は、スクランブル処理後の暗号化領域を含む暗号画像を画素値判定部24へ渡す。
 画素値判定部24は、暗号画像上の各ブロックについて、隣接するブロックとの境界に近接して設定される極小領域内の画素の値をブロックの位置検出を可能とするために変換するか否かを判定する。本実施形態では、極小領域は、例えば、各ブロックの何れか一つの角(例えば、左上端の角)に位置する、横1画素×縦1画素、あるいは横2画素×縦2画素の領域である。そして画素値判定部24は、極小領域内の画素値の統計的代表値と、近隣領域の画素値の統計的代表値との差に基づいて、極小領域内の画素値を変換するか否か判定する。なお近隣領域は、極小領域とブロックの境界を挟んで隣接する領域に設定される。
 図5は、極小領域と近隣領域との配置の一例を示す図である。図5において、極小領域501は、着目するブロック511の左上端の角に設定されている。そのため、二つの近隣領域502及び503が設定されている。近隣領域502は、極小領域501の上端に隣接しており、かつ、着目するブロック511の上側に隣接するブロック512に含まれる。また近隣領域503は、極小領域501の左端に隣接しており、かつ、着目するブロック511の左側に隣接するブロック513に含まれる。この例では、近隣領域502及び503の形状及びサイズは、極小領域501の形状及びサイズと等しい。しかし、近隣領域502及び503の形状及びサイズは、極小領域501の形状及びサイズと異なっていてもよい。例えば、近隣領域502の高さは、極小領域501の高さの半分または2倍であってもよい。同様に、近隣領域503の幅は、極小領域501の幅の半分または2倍であってもよい。
 図6は、画素値判定部24により実行される画素値判定処理の動作フローチャートである。画素値判定部24は、この画素値判定処理を各ブロックについて実行する。
 先ず、画素値判定部24は、極小領域の画素値の統計的代表値及び極小領域にプロック境界を挟んで隣接する他のブロック内の近隣領域の画素値の統計的代表値を算出する(ステップS101)。
 なお、着目する領域の画素値の統計的代表値は、例えば、その領域の平均画素値、画素値の最頻値、最小値あるいは最大値とすることができる。原画像がグレー画像であれば、画素値判定部24は、その領域内に含まれる各画素の値に基づいて統計的代表値を求めればよい。また、原画像がカラー画像であり、各画素の値が赤色成分、緑色成分及び青色成分ごとに規定される場合、画素値の統計的代表値は、何れか一つの色成分を画素値として算出できる。あるいは、画素値判定部24は、次式に従って、極小領域及び近隣領域の各画素の輝度値Y、色差C1、C2、色相H及び彩度Sのうちの何れか一つを画素値として、統計的代表値を算出してもよい。
Figure JPOXMLDOC01-appb-M000003
なお、(2)式において、R、G、Bは、それぞれ、画素の赤色成分、緑色成分及び青色成分の値であり、R、G、Bは、例えば、0~255の値で表される。なお、極小領域及び近隣領域が1画素のみを含む場合、極小領域及び近隣領域の画素値の統計的代表値は、それぞれ、極小領域及び近隣領域の画素値そのものである。
 画素値判定部24は、極小領域の画素値の統計的代表値と近隣領域の画素値の統計的代表値に差があるか否か判定する(ステップS102)。例えば、極小領域の画素値の統計的代表値と近隣領域の画素値の統計的代表値とが次式の条件を満たす場合、画素値判定部24は、それらの統計的代表値間に差があると判定する。
Figure JPOXMLDOC01-appb-M000004
ただしAは、極小領域の画素値の統計的代表値である。またBは、極小領域に対して垂直方向に隣接する近隣領域の画素値の統計的代表値であり、Cは、極小領域に対して水平方向に隣接する近隣領域の画素値の統計的代表値である。そしてTh0は閾値である。閾値Th0は、予め設定された固定値とすることができる。画素値が0~255で表される場合、閾値Th0は、例えば、32に設定される。あるいは、画素値判定部24は、閾値Th0を、原画像に基づいて動的に設定してもよい。この場合、例えば、画素値判定部24は、原画像若しくは暗号化領域内の最大画素値と最小画素値との差に1未満の所定の係数(例えば、0.25)を乗じた値を閾値Th0としてもよい。
 極小領域の画素値の統計的代表値と近隣領域の画素値の統計的代表値に差が有る場合(ステップS102-Yes)、着目するブロックと近隣領域が設定された隣接ブロックとの境界は、復号装置にとって識別可能であると推定される。そこで画素値判定部24は、極小領域に対して画素値を変換しないことを表すフラグを設定する(ステップS103)。
 一方、極小領域の画素値の統計的代表値と近隣領域の画素値の統計的代表値に差が無い場合(ステップS102-No)、着目するブロックと近隣領域が設定された隣接ブロックとの境界は、復号装置にとって識別が困難である可能性がある。そこで画素値判定部24は、極小領域の画素値をどのように変換するかを決定するために、近隣領域が明るいか否か判定する(ステップS104)。
 画素値判定部24は、例えば、画素値が大きいほどその画素が明るくなる場合(すなわち、その画素が白に近づく場合)、近隣領域の画素値の平均値が次式に示す条件を満たすと、近隣領域は明るいと判定する。
Figure JPOXMLDOC01-appb-M000005
ただしBは、極小領域に対して垂直方向に隣接する近隣領域内の画素値の平均値であり、Cは、極小領域に対して水平方向に隣接する近隣領域内の画素値の平均値である。そしてTh1は閾値である。閾値Th1は、予め設定された固定値とすることができる。例えば、画素値が0~255で表される場合、閾値Th1は、例えば、160に設定される。あるいは、画素値判定部24は、閾値Th1を、原画像に基づいて動的に設定してもよい。この場合、画素値判定部24は、原画像全体または暗号化領域に対して、例えば、判別分析法(大津の方法)を適用することにより決定される値を閾値Th1とすることができる。あるいは、画素値判定部24は、原画像全体または暗号化領域の平均画素値を閾値Th1としてもよい。さらにまた、画素値判定部24は、極小領域の画素値の平均値または最頻値といった統計的代表値を閾値Th1としてもよい。
 近隣領域が明るい場合(ステップS104-Yes)、画素値判定部24は、極小領域に対して画素値を黒くすることを示すフラグを設定する(ステップS105)。一方、近隣領域が暗い場合(ステップS104-No)、画素値判定部24は、極小領域に対して画素値を白くすることを示すフラグを設定する(ステップS106)。
 ステップS103、S105またはS106の後、画素値判定部24は、極小領域について設定されたフラグ及び対応するブロックの位置または番号を画素値変換部25へ通知し、その後、画素値判定処理を終了する。
 画素値変換部25は、画素値判定部24から画素値を黒く、または白くすることを表すフラグが通知された極小領域内の画素値を変換する。例えば、画素値が0~255で表され、画素値が大きいほどその画素が白に近づく場合、画素値変換部25は、画素値を黒くすることを表すフラグが通知された極小領域について、その極小領域内の各画素の画素値を、上記の閾値Th1より小さい値、例えば0に設定する。一方、画素値変換部25は、画素値を白くすることを表すフラグが通知された極小領域について、その極小領域内の各画素の画素値を、上記の閾値Th1より大きい値、例えば255に設定する。
 なお、暗号化しようとする画像がカラー画像である場合、画素値変換部25は、画素値を黒くすることを表すフラグが通知された極小領域について全ての色成分若しくは特定の一つまたは二つの色成分を0としてもよい。同様に、画素値変換部25は、画素値を白くすることを表すフラグが通知された極小領域について全ての色成分若しくは特定の一つまたは二つの色成分を255としてもよい。特定の色成分の値だけが変換される場合には、画素値判定部24が極小領域と近隣領域間の画素値の統計的代表値の比較に用いた色成分がその特定の色成分に含まれることが好ましい。
 図7(A)は、スクランブル処理が施された暗号画像及び各ブロックに設定された極小領域の一例であり、図7(B)は、図7(A)に示された暗号画像の各極小領域に対する画素値変換の判定結果の一例を示す図である。
 図7(A)及び図7(B)に示される暗号画像700は、横3×縦3のブロックに分割されている。各ブロックの境界は点線で示されている。そして各ブロックの左上端に極小領域が設定されている。各極小領域は、実線で囲われた領域である。この例では、3個のブロック702~704は、他のブロックよりも黒くなっている。ここで、ブロック702の極小領域712の画素値と、その左側に隣接するブロックの画素値との差は大きい。そのため、図7(B)に示されるように、極小領域712の画素値は変換されていない。同様に、ブロック703の極小領域713の画素値と、その左側及び上側に隣接するブロックの画素値との差は大きい。そのため、図7(B)に示されるように、極小領域713の画素値も変換されていない。
 一方、ブロック704の極小領域714の左側に隣接するブロック703も、極小領域714と同様に黒くなっているので、ブロック703とブロック704の境界を識別することは困難である。そしてブロック703は比較的黒い。そのため、図7(B)に示されるように、極小領域714の画素値は白く変換されている。また、他のブロック、例えば、中央のブロックに関しては、極小領域に隣接するブロックとの画素値の差が小さく、かつそれら隣接ブロックは比較的明るい。そのため、図7(B)に示されるように、他のブロックの極小領域の画素値は黒く変換される。
 このように、本実施形態によれば、画素値変換部25は、全てのブロックについて画素値変換しなくてもよい。
 処理部14は、上記のようにして生成された暗号画像を記憶部13に記憶する。あるいは処理部14は、暗号画像をインターフェース部11を介して他の機器に出力し、あるいはプリンタなどを介して媒体に印刷してもよい。
 図8は、処理部14上で実行されるコンピュータプログラムにより制御される画像暗号化処理の動作フローチャートである。
 処理部14の領域指定部21は、暗号化しようとする原画像上に暗号化領域を設定する(ステップS201)。そして領域指定部21は、暗号化領域を表す情報を処理部14の分割部22へ通知する。分割部22は、暗号化領域をスクランブル処理の実行単位となる複数のブロックに分割し、各ブロックに固有の番号を付す(ステップS202)。そして分割部22は、各ブロックの範囲あるいはブロック間の境界を表す情報と、各ブロックの番号とを処理部14のスクランブル処理部23へ通知する。スクランブル処理部23は、暗号鍵に基づいて決定される位置の入れ替え規則に従って、暗号化領域の各ブロックを並び替えるスクランブル処理を実行する(ステップS203)。そしてスクランブル処理部23は、スクランブル処理が施されることにより得られた暗号画像を処理部14の画素値判定部24へ渡す。
 画素値判定部24は、暗号画像上で、ブロックごとに上述した画素値判定処理を実行する(ステップS204)。そして画素値判定部24は、ブロックごとに設定される極小領域内の画素値を変換するか否か、及び画素値を変換する場合には画素値を白くするか否かを表すフラグを処理部14の画素値変換部25へ通知する。画素値変換部25は、そのフラグに基づいて、画素値を変換すると判定されたブロックに設定される極小領域内の画素の値のみを変換する(ステップS205)。
 その後、処理部14は、画像暗号化処理を終了する。なお、一つの画像に対して複数の暗号化領域が設定されてもよい。この場合、処理部14は、暗号化領域ごとに、ステップS202~S205の処理を実行する。
 以上に説明してきたように、第1の実施形態に係る画像処理装置は、スクランブル処理後の暗号化領域内でブロックの境界を挟んで隣接する二つの小領域の画素値の差を調べる。そしてこの画像処理装置は、その差が小さいブロックについてのみ、そのブロック内の小領域内の画素の値を変換し、その画素値が変換された画素をブロック位置検出用のマーカとする。このように、この画像処理装置は、画素値変換しなくてもブロックの位置を識別できるブロックについては画素値を変換せず、画素値変換するブロックについても画素値変換する領域を小さくした。そのため、この画像処理装置は、復号装置が各ブロックの位置を検出できるとともに、暗号画像を復号することにより得られる復号画像の画質の劣化を抑制できる。
 次に、第2の実施形態による、画像処理装置について説明する。
 第2の実施形態による画像処理装置は、スクランブル処理後の各ブロックの極小領域を、極小領域に対して水平方向に隣接する近隣領域と、垂直方向に隣接する近隣領域と、それぞれ別個に比較した結果に基づいて極小領域の画素値を変換するか否か判定する。
 第2の実施形態による画像処理装置は、第1の実施形態による画像処理装置と比較して、処理部の画素値判定部の処理が異なる。そこで以下では、画素値判定部及び関連部分の処理について説明する。画像処理装置のその他の構成要素の詳細については、第1の実施形態における対応する構成要素の説明を参照されたい。
 図9は、第2の実施形態による画像処理装置の処理部14の機能ブロック図である。処理部14は、領域指定部21と、分割部22と、スクランブル処理部23と、画素値判定部24と、画素値変換部25とを有する。そして画素値判定部24は、第1画素値判定部241と第2画素値判定部242とを有する。
 第1画素値判定部241は、スクランブル処理が施された後の各ブロックについて、極小領域の画素値の統計的代表値を、その極小領域とブロックの境界を挟んで水平方向に隣接する第1の近隣領域の画素値の統計的代表値と比較する。
 図10は、第2の実施形態による、極小領域と近隣領域との配置の一例を示す図である。図10において、極小領域1001は、着目するブロック1011の左上端の角に設定されている。この場合、第1の近隣領域1002は、極小領域1001の左端に隣接しており、かつ、着目するブロック1011の左側に隣接するブロック1012に含まれる。また、第1画素値判定部241は、極小領域1001を左端及び上端から等距離となる線1021で2等分した二つの小領域1022、1023のうち、近隣領域1002と隣接する小領域1022内で画素値の統計的代表値を求めてもよい。なお、線1021上に位置する画素は、第1の小領域と第2の小領域の両方に含まれるとしてもよく、あるいは、第1の小領域と第2の小領域の何れにも含まれないとしてもよい。
 第1画素値判定部241は、例えば、極小領域の画素値の統計的代表値と第1の近隣領域の画素値の統計的代表値とが次式の条件を満たす場合、それらの統計的代表値間に差があると判定する。
Figure JPOXMLDOC01-appb-M000006
ただしA0は、極小領域の画素値の統計的代表値である。なお第1画素値判定部241は、A0を、極小領域全体でなく、例えば、図10に示された小領域1022のように、第1の近隣領域と隣接する極小領域内の一部の領域について算出してもよい。またBは、第1の近隣領域の画素値の統計的代表値である。そしてTh00は閾値である。閾値Th00は、閾値Th0と同様の値に設定される。
 第2画素値判定部242は、スクランブル処理が施された後の各ブロックについて、極小領域の画素値の統計的代表値を、その極小領域とブロックの境界を挟んで垂直方向に隣接する第2の近隣領域の画素値の統計的代表値と比較する。
 再度図10を参照すると、第2の近隣領域1003は、極小領域1001の上端に隣接しており、かつ、着目するブロック1011の上側に隣接するブロック1013に含まれる。また、第2画素値判定部242は、極小領域1001を左端及び上端から等距離となる線1021で2等分した二つの小領域1022、1023のうち、近隣領域1003と隣接する小領域1023内で画素値の統計的代表値を求めてもよい。
 第2画素値判定部242は、例えば、極小領域の画素値の統計的代表値と第2の近隣領域の画素値の統計的代表値とが上述した(5)式の条件を満たす場合、それらの統計的代表値間に差があると判定する。この場合、A0は、極小領域の画素値の統計的代表値である。第2画素値判定部242は、第1画素値判定部241と同様に、A0を、極小領域全体でなく、例えば、図10に示された小領域1023のように、第2の近隣領域と隣接する極小領域内の一部の領域について算出してもよい。またBは、第2の近隣領域の画素値の統計的代表値である。
 画素値判定部24は、第1画素値判定部241及び第2画素値判定部242のうちの少なくとも一方が、極小領域の画素値の統計的代表値と近隣領域の画素値の統計的代表値とに差があると判定すれば、極小領域に対して画素値を変換しないフラグを設定する。一方、画素値判定部24は、第1画素値判定部241及び第2画素値判定部242の両方が極小領域の画素値の統計的代表値と近隣領域の画素値の統計的代表値とに差が無いと判定すれば、極小領域に対して画素値を変換するフラグを設定する。
 画素値判定部24は、極小領域に対して画素値を変換するフラグを設定する場合、図6のステップS104~S106の手順に従って極小領域内の画素値を白くするか否か決定する。その際、画素値判定部24は、上記の(4)式に従って第1及び第2の近隣領域が明るいか否か判定してもよい。あるいは、画素値判定部24は、第1及び第2の近隣領域のうちの一方の注目する近隣領域に含まれる画素値に基づいて、極小領域内の画素値を白くするか否かを決定してもよい。画素値判定部24は、例えば、画素値が大きいほどその画素が明るくなる場合(すなわち、その画素が白に近づく場合)、注目する近隣領域の画素値の統計的代表値が次式に示す条件を満たす場合、注目する近隣領域は明るいと判定する。
Figure JPOXMLDOC01-appb-M000007
ただしBは、注目する近隣領域の画素値の統計的代表値であり、Th11は閾値である。閾値Th11は、例えば、第1の実施形態における閾値Th1と同様に決定される。
 画素値判定部24は、注目する近隣領域が明るい場合、極小領域に対して画素値を黒くするフラグを設定し、一方、(6)式の条件が満たされない場合、すなわち、注目する近隣領域が暗い場合、極小領域に対して画素値を白くするフラグを設定する。
 このように、第2の実施形態による画像処理装置は、スクランブル処理後のブロック内の極小領域に対して水平方向に隣接する近隣領域及び垂直方向に隣接する近隣領域の何れか一方でも画素値の差が有れば、極小領域の画素値を変換しない。そのため、第2の実施形態による画像処理装置は、画素値変換する画素の数をさらに減らせるので、復号画像の画質劣化をより抑制できる。
 変形例によれば、画素値変換部は、画素値を変換すると判定された極小領域に含まれる画素の値を、極小領域と隣接する近隣領域の画素値の統計的代表値をシフト演算することにより決定してもよい。例えば、画素値変換部は、画素値が0~255で表される場合、近隣領域の平均画素値に最大画素値の半分である127を加算した値を極小領域内の画素の値としてもよい。なお、画素値変換部は、その加算値が255を超える場合には、その加算値から256を減算した値を極小領域内の画素の値とする。この場合、画素値判定部は、図6に示された画素値判定処理のステップS104~S106の手順を省略し、代わりに、極小領域に対して画素値変換することを表すフラグを設定すればよい。
 また他の変形例によれば、画素値変換部は、画素値を変換すると判定されたブロックの極小領域について、変換後の画素値と近隣領域の画素値の統計的代表値との差が画素値変換前の極小領域と近隣領域間の画素値の統計的代表値の差よりも大きくなるように、変換後の画素値を決定すればよい。例えば、画素値変換部は、変換後の画素値をその極小領域内の画素値の統計的代表値に基づいて決定してもよい。この場合、画素値変換部は、極小領域の画素値の統計的代表値が近隣領域の画素値の統計的代表値よりも明るければ、極小領域の画素値の統計的代表値に正の値を持つ所定のオフセット値を加算した値を変換後の画素値とする。一方、画素値変換部は、極小領域の画素値の統計的代表値が近隣領域の画素値の統計的代表値よりも暗ければ、極小領域の画素値の統計的代表値からその所定のオフセット値を減算した値を変換後の画素値とする。さらに、画素値変換部は、極小領域の画素値の統計的代表値と近隣領域の画素値の統計的代表値間の差の絶対値が小さいほど、所定のオフセット値を大きくしてもよい。
 さらに他の変形例によれば、処理部は、暗号化領域の指定後、スクランブル処理後、あるいは画素値変換部による各ブロックに対する画素値変換処理の実行後に、暗号化領域の位置及び範囲を表す暗号化領域検出用マーカを暗号画像に対して付してもよい。処理部は、例えば、暗号化領域の各コーナーに近接して暗号化領域検出用マーカを付す。暗号化領域検出用マーカは、復号装置も既知である形状及びサイズを有し、例えば、所定幅を持つ黒領域と白領域が交互に配置されたパターンとすることができる。
 次に、上記の各実施形態またはその変形例による画像処理装置により作成された暗号画像を復号する復号装置について説明する。
 この実施形態による復号装置は、図1に示される画像処理装置と同様に、インターフェース部と、ユーザインターフェース部と、記憶部と、処理部とを有する。そして復号装置は、インターフェース部を介して他の機器から暗号画像を取得する。他の機器は、例えば、デジタルカメラまたはカメラ付き携帯電話といった、媒体に印刷された暗号画像を撮影して電子データ化した暗号画像を作成する装置である。あるいは、他の機器は、通信ネットワークを介して復号装置と接続されるコンピュータであってもよい。そして復号装置の処理部は、暗号画像を復号して復号画像を生成し、その復号画像をユーザインターフェース部に表示させ、あるいは、インターフェース部を介して他の機器へ出力する。
 図11は、暗号画像の復号処理に関する、復号装置の処理部の機能を示すブロック図である。処理部30は、領域検出部31と、ブロック位置検出部32と、逆スクランブル処理部33と、画素値復元部34とを有する。処理部30が有するこれらの各部は、処理部30が有するプロセッサ上で実行されるコンピュータプログラムによって実装される機能モジュールである。なお、処理部30が有するこれらの各部は、その各部の機能を実現する回路またはそれらの回路を集積した集積回路として復号装置に実装されてもよい。
 領域検出部31は、暗号化領域を検出する。例えば、領域検出部31は、ユーザインターフェース部の表示装置に表示された暗号画像を、ユーザが目視しつつ、マウスなどのポインティングデバイスを操作することによって指定した範囲の情報をそのデバイスから取得する。そして領域検出部31は、その指定範囲を暗号化領域に設定する。あるいは、暗号画像に暗号化領域検出用マーカが付されている場合、領域検出部31は、パターンマッチングあるいは図形の連結性に関する解析など一般的な画像認識技術を用いてその暗号化領域検出用マーカを検出してもよい。そして領域検出部31は、検出したマーカと暗号化領域との位置関係から暗号化領域を特定する。
 領域検出部31は、暗号化領域を表す情報、例えば、暗号化領域の左上端の座標と右下端の座標をブロック位置検出部32へ通知する。
 ブロック位置検出部32は、領域検出部31にて検出された暗号化領域から各ブロックの位置を検出する。そのために、ブロック位置検出部32は、例えば、画像処理装置により画素値変換された極小領域、あるいは隣接するブロック間の境界を検出する。
 ブロック位置検出部32は、例えば、暗号化領域に対して極小領域よりも大きなサイズを持つメディアンフィルタを用いてフィルタリングすることにより、ボケ画像を生成する。なお、メディアンフィルタは、そのフィルタが乗じられる領域に含まれる画素の値の中央値を、そのメディアンフィルタの中心に位置する画素の値として出力するフィルタである。この例では、極小領域が1画素のみ、あるいは2x2画素を含む場合、メディアンフィルタは、3x3あるいは4x4画素のサイズを持つ。一般に、個々のブロックの画素値の分布は、狭い範囲に偏る傾向にある。そのため、極小領域の画素値が変換されていると、その極小領域の画素値は、その極小領域が属するブロックの画素値の平均値あるいは中央値と大きく異なる傾向がある。したがって、暗号化領域にメディアンフィルタを乗じることにより、画素値変換された極小領域内の画素の値は、極小領域の周囲の画素の値で置換される可能性が高くなる。
 そこで、ブロック位置検出部32は、元の暗号化領域の各画素の値から、ボケ画像の対応する画素の値を減じた値の絶対値を求めることで差分画像を生成する。この差分画像では、画素値変換された画素については相対的に大きな画素値を持ち、一方、画素値変換されていない画素については相対的に小さな画素値を持つ。その結果、差分画像には、画素値変換された画素を含む極小領域が表される。
 さらにブロック位置検出部32は、ボケ画像に対してエッジ検出フィルタを用いてフィルタリングすることによりエッジ画像を生成する。一般に、暗号画像において、隣接するブロック同士に画素値の相関性は無いので、隣接するブロックの境界で画素値が大きく異なることがある。そのため、差分画像に対してエッジ検出フィルタを乗じることにより、隣接するブロック間の境界において画素値が相対的に大きくなるエッジ画像が得られる。そのため、ブロック位置検出部32は、そのようなエッジ画像を解析することによって各ブロックの位置を容易に検出できる。
 図12(A)及び図12(B)は、それぞれ、ブロック位置検出部32が用いるエッジ検出フィルタの一例を示す図である。図12(A)に示されたエッジ検出フィルタ1201は、垂直方向のエッジ(すなわち、水平方向に沿って画素値が変化するエッジ)を検出するフィルタである。また図12(B)に示されたエッジ検出フィルタ1202は、水平方向のエッジ(すなわち、垂直方向に沿って画素値が変化するエッジ)を検出するフィルタである。本実施形態では、ブロック位置検出部32は、ボケ画像に対して垂直エッジ検出フィルタを乗じて垂直方向のエッジを検出した垂直エッジ画像を生成し、ボケ画像に対して水平エッジ検出フィルタを乗じて水平方向のエッジを検出した水平エッジ画像を生成する。
 なお、エッジ検出フィルタとして、例えば、ラプラシアンフィルタのような2次微分フィルタが用いられてもよい。
 上記のように、差分画像では、画素値変換された極小領域内の画素が比較的大きな値を持ち、一方、エッジ画像では、隣接する画素との画素値の差が大きいブロック境界に位置する画素が比較的大きな値を持つ。
 そこでブロック位置検出部32は、差分画像と垂直エッジ画像の対応する画素間で画素値を加算することで合成画像を生成する。そしてブロック位置検出部32は、その合成画像に対して水平方向の各列について正の値を持つ所定の閾値以上の画素値を持つ画素の数を求め、列ごとのその画素数のヒストグラムを求める。この場合、一定周期で画素数がその近傍の列よりも多い列が存在する。そこでブロック位置検出部32は、その画素数の多い列を垂直方向のブロックの境界として検出する。
 同様に、ブロック位置検出部32は、差分画像と水平エッジ画像の対応する画素間で画素値を加算することで合成画像を生成する。そしてブロック位置検出部32は、その合成画像に対して垂直方向の各行について所定の閾値以上の画素値を持つ画素の数を求め、行ごとのその画素数のヒストグラムを求める。そしてブロック位置検出部32は、一定周期で存在する画素数の多い行を水平方向のブロックの境界として検出する。
 ブロック位置検出部32は、暗号画像上のそれぞれのブロックの境界の水平方向及び垂直方向の座標を逆スクランブル処理部33へ通知する。
 逆スクランブル処理部33は、暗号化領域に対して逆スクランブル処理を実行する。逆スクランブル処理部33は、画像処理装置がスクランブル処理を実行したときの暗号鍵及びブロック位置を変換する(1)式を用いて、スクランブル処理実行後の位置変換ブロックの位置がxとなる、暗号化領域内のブロックの元の位置yを決定できる。そして逆スクランブル処理部33は、暗号画像内の各位置変換ブロックを、得られた元の位置変換ブロックの位置へ移動させることにより、各位置変換ブロックの位置が原画像における位置と同一となる復号画像を生成できる。
 画素値復元部34は、暗号画像を逆スクランブル処理することにより得られた復号画像に対して、各ブロックの極小領域に含まれる画素の値を復元する。そのために、画素値復元部34は、例えば、補間対象となる注目画素の値を、注目画素の近傍画素の値を用いて補間する様々な補間フィルタの何れかを用いることができる。例えば、画素値復元部34は、次式に従って、注目画素に近い画素ほど、その画素の値に大きい重み係数を乗じることにより、近傍画素の値を加重平均するフィルタを用いる。
Figure JPOXMLDOC01-appb-M000008
ここでVpは、極小領域内の注目画素Pの元の値の推定値であり、Vni(i=0,1,2,...,k-1)は、それぞれ、復号画像における注目画素の近傍画素niの画素値である。またriは、注目画素Pから近傍画素niまでの距離を表す値である。
 図13は、(7)式においてk=8としたときの補間フィルタの一例を示す図である。補間フィルタ1300は、補間対象となる注目画素Pを、注目画素Pの8近傍画素n0~n7の値を用いて算出するフィルタである。ここで、注目画素Pから各近傍画素n0~n7までの距離は、例えば、以下のように定義される。
  r0 = r2 = r4 = r6 = 1
  r1 = r3 = r5 = r7 = 2
この場合、注目画素Pの推定値Vpは以下のように算出される。
  Vp=(2(Vn0+Vn2+Vn4+Vn6)+(Vn1+Vn3+Vn5+Vn7)) / 12
 なお、画素値復元部34は、注目画素Pについての元の値の推定値を求めるために、画素値復元前の復号画像における注目画素Pの画素値自体も用いてもよい。例えば、画素値復元部34は、注目画素を中心とする3x3画素の領域に含まれる画素の単純平均値を、その注目画素の推定値としてもよい。
 復号装置が、媒体に印刷された暗号画像を電子データ化して得られた画像を復号する場合、その画像上では画素値変換された極小領域の元の情報は失われている。そのため、復号装置は、極小領域内の画素の値を反転させても、その画素の元の値を復元することは困難である。一方、逆スクランブル処理によって復元された復号画像では、極小領域の周囲の画素の値は、極小領域内の画素の元の値と比較的相関性がある。そこで上記のように、復号装置は、補間によって、画素値変換された画素についての元の値を推定できる。
 画素値復元部34は、各ブロックの極小領域内の画素値を復元した復号画像をユーザインターフェース部の表示装置に表示させる。あるいは、画素値復元部34は、その復号画像をインターフェース部を介して他の機器へ出力したり、あるいは記憶部に記憶してもよい。
 さらに、上記の何れかの実施形態またはその変形例による画像処理装置の処理部が有する各機能をコンピュータに実現させるコンピュータプログラムは、磁気記録媒体、光記録媒体などコンピュータによって読み取り可能な媒体に記録された形で提供されてもよい。
 ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
 1  画像処理装置
 11  インターフェース部
 12  ユーザインターフェース部
 13  記憶部
 14、30  処理部
 21  領域指定部
 22  分割部
 23  スクランブル処理部
 24  画素値判定部
 241  第1画素値判定部
 242  第2画素値判定部
 25  画素値変換部
 31  領域検出部
 32  ブロック位置検出部
 33  逆スクランブル処理部
 34  画素値復元部

Claims (8)

  1.  電子データ化された画像上の少なくとも一部の領域を複数のブロックに分割する分割部と、
     前記複数のブロックを所定の規則に従って並び替えることにより暗号画像を生成するスクランブル処理部と、
     前記暗号画像上の前記複数のブロックのそれぞれについて、当該ブロック内に含まれる第1の領域の画素値の統計的代表値と、当該ブロックに隣接するブロックに含まれ、かつ前記第1の領域と隣接する第2の領域の画素値の統計的代表値との差が所定値以上であるか否かを判定する画素値判定部と、
     前記暗号画像上の前記複数のブロックのうち、前記差が前記所定値未満であるブロックについて前記第1の領域内の画素の値を変換し、一方、前記差が前記所定値以上であるブロックについて前記第1の領域内の画素の値を変換しない画素値変換部と、
    を有する画像処理装置。
  2.  前記複数のブロックのそれぞれは矩形形状を有し、かつ、前記第1の領域は、当該第1の領域が含まれるブロックの4隅の何れかに配置され、前記第2の領域は、前記第1の領域に対して第1の方向に沿って隣接する第1隣接領域と、前記第1の領域に対して前記第1の方向と直交する第2の方向に沿って隣接する第2隣接領域とを含み、
     前記画素値判定部は、前記第1の領域の画素値の統計的代表値と前記第1隣接領域の画素値の統計的代表値との第1の差を前記所定値と比較し、かつ、前記第1の領域の画素値の統計的代表値と前記第2隣接領域の画素値の統計的代表値との第2の差を前記所定値と比較し、
     前記画素値変換部は、前記第1の差及び前記第2の差のうちの少なくとも一方が前記所定値以上であるブロックについて、前記第1の領域内の画素の値を変換せず、一方、前記第1の差及び前記第2の差の両方が前記所定値未満であるブロックについて、前記第1の領域内の画素の値を変換する、請求項1に記載の画像処理装置。
  3.  前記画素値判定部は、前記第1の領域の画素値の統計的代表値を、当該第1の領域に含まれる画素の輝度値または該画素の複数の色成分のうちの少なくとも何れか一つに基づいて算出する、請求項1または2に記載の画像処理装置。
  4.  前記画素値変換部は、前記暗号画像上の前記複数のブロックのうち、前記第1の領域と前記第2の領域の画素値間の前記統計的代表値の差が前記所定値未満であるブロックについて、前記第1の領域内の画素の輝度値または該画素の複数の色成分のうちの少なくとも何れか一つを、前記第2の領域の画素値の統計的代表値に基づいて決定された値に変換する、請求項1~3の何れか一項に記載の画像処理装置。
  5.  前記画素値変換部は、前記暗号画像上の前記複数のブロックのうち、前記差が前記所定値未満であるブロックについて、前記第2の領域の画素値の統計的代表値が第2の所定値以上である場合、前記第1の領域内の画素の輝度値または該画素の複数の色成分のうちの少なくとも何れか一つを、前記第2の所定値より小さい値に変換し、一方、前記第2の領域の画素値の統計的代表値が前記第2の所定値未満である場合、前記第1の領域内の画素の輝度値または該画素の複数の色成分のうちの少なくとも何れか一つを、前記第2の所定値より大きい値に変換する、請求項4に記載の画像処理装置。
  6.  前記画素値変換部は、前記暗号画像上の前記複数のブロックのうち、前記第1の領域と前記第2の領域の画素値間の前記統計的代表値の差が前記所定値未満であるブロックについて、前記第1の領域内の画素の輝度値または該画素の複数の色成分のうちの少なくとも何れか一つを、変換後の値と前記第2の領域の画素値の統計的代表値との差が前記第1の領域と前記第2の領域の画素値間の前記統計的代表値の差よりも大きくなる値に変換する、請求項1~3の何れか一項に記載の画像処理装置。
  7.  電子データ化された画像上の少なくとも一部の領域を複数のブロックに分割し、
     前記複数のブロックを所定の規則に従って並び替えることにより暗号画像を生成し、
     前記暗号画像上の前記複数のブロックのそれぞれについて、当該ブロック内に含まれる第1の領域の画素値の統計的代表値と、当該ブロックに隣接するブロックに含まれ、かつ前記第1の領域と隣接する第2の領域の画素値の統計的代表値との差が所定値以上であるか否かを判定し、
     前記暗号画像上の前記複数のブロックのうち、前記差が前記所定値未満であるブロックについて前記第1の領域内の画素の値を変換し、一方、前記差が前記所定値以上であるブロックについて前記第1の領域内の画素の値を変換しない、
    ことを含む画像処理方法。
  8.  電子データ化された画像上の少なくとも一部の領域を複数のブロックに分割し、
     前記複数のブロックを所定の規則に従って並び替えることにより暗号画像を生成し、
     前記暗号画像上の前記複数のブロックのそれぞれについて、当該ブロック内に含まれる第1の領域の画素値の統計的代表値と、当該ブロックに隣接するブロックに含まれ、かつ前記第1の領域と隣接する第2の領域の画素値の統計的代表値との差が所定値以上であるか否かを判定し、
     前記暗号画像上の前記複数のブロックのうち、前記差が前記所定値未満であるブロックについて前記第1の領域内の画素の値を変換し、一方、前記差が前記所定値以上であるブロックについて前記第1の領域内の画素の値を変換しない、
    ことをコンピュータに実行させる画像処理用コンピュータプログラム。
PCT/JP2011/056615 2011-03-18 2011-03-18 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム WO2012127578A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2011/056615 WO2012127578A1 (ja) 2011-03-18 2011-03-18 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
JP2013505638A JP5614492B2 (ja) 2011-03-18 2011-03-18 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
US14/030,629 US9037871B2 (en) 2011-03-18 2013-09-18 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/056615 WO2012127578A1 (ja) 2011-03-18 2011-03-18 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/030,629 Continuation US9037871B2 (en) 2011-03-18 2013-09-18 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2012127578A1 true WO2012127578A1 (ja) 2012-09-27

Family

ID=46878775

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/056615 WO2012127578A1 (ja) 2011-03-18 2011-03-18 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム

Country Status (3)

Country Link
US (1) US9037871B2 (ja)
JP (1) JP5614492B2 (ja)
WO (1) WO2012127578A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016118909A (ja) * 2014-12-19 2016-06-30 コニカミノルタ株式会社 文字画像処理システム、文字画像処理システムの制御プログラム、情報処理装置、および情報処理装置の制御プログラム
CN106028063A (zh) * 2016-06-14 2016-10-12 广州小百合信息技术有限公司 传输显示屏显示的视频的方法及装置
US20210201498A1 (en) * 2018-05-24 2021-07-01 Nippon Telegraph And Telephone Corporation Statistical data processing apparatus, statistical data processing method and computer program
CN115601217A (zh) * 2022-12-09 2023-01-13 成都工业职业技术学院(Cn) 一种监控视频加密方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3167911A1 (en) 2015-11-10 2017-05-17 Oniris Si-hpmc-encapsulated insulin-producing cells for the treatment of type 1 diabetes
US10295575B2 (en) * 2016-04-29 2019-05-21 Palcells Technology, Inc. Current sensor and battery current monitoring system
CN111031193B (zh) * 2020-01-06 2021-08-06 中国矿业大学 基于立体复合置乱模型和混沌的图像加密方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232129A (ja) * 2008-03-21 2009-10-08 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2009244775A (ja) * 2008-03-31 2009-10-22 Fujitsu Ltd 画像暗号装置及び画像復号化装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2502175B2 (ja) * 1990-08-18 1996-05-29 富士通株式会社 原画像パタ―ンデ―タ再生方法及び装置
US5491563A (en) 1992-02-04 1996-02-13 Aliroo Ltd. Apparatus for scrambling and unscrambling documents
JPH06113147A (ja) * 1992-09-29 1994-04-22 Canon Inc ノイズ除去装置
AU7478594A (en) 1993-08-02 1995-02-28 Aliroo Ltd. Apparatus and method for creating and transmitting confidential documents
US5726435A (en) 1994-03-14 1998-03-10 Nippondenso Co., Ltd. Optically readable two-dimensional code and method and apparatus using the same
JP2938338B2 (ja) 1994-03-14 1999-08-23 株式会社デンソー 二次元コード
EP2320661B8 (en) * 2001-11-29 2015-09-02 Godo Kaisha IP Bridge 1 Coding distortion removal method
EP1978747B1 (en) * 2001-11-29 2014-05-21 Panasonic Corporation Coding distortion removal method
US7840007B2 (en) * 2001-12-03 2010-11-23 Fuso Precision Co., Ltd. Digital data false alteration detection program and digital data false alteration detection apparatus
KR101126384B1 (ko) * 2004-01-06 2012-06-13 톰슨 라이센싱 시각적 인증 패턴을 검출하고 분석하여 사용하는 개선된기술
KR100530224B1 (ko) * 2004-04-20 2005-11-22 삼성전자주식회사 이미지 변환 장치 및 그 방법
CN101253536B (zh) * 2005-06-30 2010-10-13 日本电气株式会社 指纹图像背景检测设备及方法
JP4771804B2 (ja) * 2005-12-20 2011-09-14 富士通株式会社 レイアウト解析プログラム、レイアウト解析装置、レイアウト解析方法
JP4348381B2 (ja) 2007-05-30 2009-10-21 富士通株式会社 画像暗号化/復号化装置、方法およびプログラム
JP4577583B2 (ja) * 2007-12-04 2010-11-10 ソニー株式会社 画像処理装置および画像処理方法、プログラム、並びに、記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009232129A (ja) * 2008-03-21 2009-10-08 Fujitsu Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP2009244775A (ja) * 2008-03-31 2009-10-22 Fujitsu Ltd 画像暗号装置及び画像復号化装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016118909A (ja) * 2014-12-19 2016-06-30 コニカミノルタ株式会社 文字画像処理システム、文字画像処理システムの制御プログラム、情報処理装置、および情報処理装置の制御プログラム
CN106028063A (zh) * 2016-06-14 2016-10-12 广州小百合信息技术有限公司 传输显示屏显示的视频的方法及装置
US20210201498A1 (en) * 2018-05-24 2021-07-01 Nippon Telegraph And Telephone Corporation Statistical data processing apparatus, statistical data processing method and computer program
US11886450B2 (en) * 2018-05-24 2024-01-30 Nippon Telegraph And Telephone Corporation Statistical data processing apparatus, statistical data processing method and computer program
CN115601217A (zh) * 2022-12-09 2023-01-13 成都工业职业技术学院(Cn) 一种监控视频加密方法
CN115601217B (zh) * 2022-12-09 2023-02-28 成都工业职业技术学院 一种监控视频加密方法

Also Published As

Publication number Publication date
JPWO2012127578A1 (ja) 2014-07-24
JP5614492B2 (ja) 2014-10-29
US20140016775A1 (en) 2014-01-16
US9037871B2 (en) 2015-05-19

Similar Documents

Publication Publication Date Title
JP5614492B2 (ja) 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
JP5505007B2 (ja) 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
KR100982616B1 (ko) 화상 복호화 장치, 화상 암호화 장치, 화상 복호화 방법 및화상 복호화 프로그램을 기록한 기록 매체
EP2104331B1 (en) Image processing apparatus and image processing method for partial encryption of image blocks
JP5472471B2 (ja) 電子透かし埋め込み装置、電子透かし埋め込み方法及び電子透かし埋め込み用コンピュータプログラムならびに電子透かし検出装置
US8306221B2 (en) Image encryption apparatus and image decryption apparatus
JP5435142B2 (ja) 画像暗号化システムおよび画像復号システム
US8339677B2 (en) Image processing system, image processing apparatus, and image processing method
US20120328095A1 (en) Image decryption apparatus and image decryption method
JP2018195262A (ja) 画像処理装置、画像処理方法、プログラム
JP5664181B2 (ja) 画像処理装置、画像処理方法及び画像処理用コンピュータプログラム
JP6296319B1 (ja) 情報処理装置、表示方法、読取方法、およびコンピュータ読み取り可能な非一時的記憶媒体
Prabagar et al. HSCT-An Efficient Framework for Security in Medical Imaging using Hybrid Stego-Crypt Technique

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11861426

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013505638

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11861426

Country of ref document: EP

Kind code of ref document: A1