WO2018061189A1 - Information processing device, display method, reading method, and computer-readable non-transitory storage medium - Google Patents
Information processing device, display method, reading method, and computer-readable non-transitory storage medium Download PDFInfo
- Publication number
- WO2018061189A1 WO2018061189A1 PCT/JP2016/079054 JP2016079054W WO2018061189A1 WO 2018061189 A1 WO2018061189 A1 WO 2018061189A1 JP 2016079054 W JP2016079054 W JP 2016079054W WO 2018061189 A1 WO2018061189 A1 WO 2018061189A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- code
- background image
- cpu
- information processing
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
Definitions
- the present invention relates to an information processing apparatus, a display method, a reading method, and a computer-readable non-transitory storage medium.
- Two-dimensional codes that can hold more information than barcodes are known. Two-dimensional codes are often formed in black and white, but in order to hold more information, two-dimensional codes in which data areas are formed in colors such as red, green, and blue are also used (for example, Patent Document 1).
- the two-dimensional code when a two-dimensional code is embedded in an image, the two-dimensional code becomes conspicuous and the design of the image is impaired. For example, when an image in which a two-dimensional code is embedded is displayed on a terminal device in order to exchange account information of messenger software or account information of a social networking service, the two-dimensional code affects the image design.
- the present invention provides an information processing apparatus, a display method, a reading method, and a computer-readable non-transitory device that can reduce the influence of the two-dimensional code on the design of the background image when the two-dimensional code is embedded in the background image.
- An object is to provide a temporary storage medium.
- An acquisition unit that acquires a background image, an image processing unit that performs image processing on the background image acquired by the acquisition unit, and the background image that has been subjected to image processing by the image processing unit include code information
- An information processing apparatus comprising: a generation unit that generates a code image embedded at least partially in an invisible state.
- the influence of the two-dimensional code on the design of the background image can be reduced.
- 1 is a diagram illustrating an overall configuration of an information processing system according to a first embodiment.
- 1 is a block diagram showing a desktop computer 10, a mobile terminal device 20, and a server 30 according to a first embodiment.
- the flowchart which shows the display process of the code image 60 which concerns on 1st Embodiment. 6 is a flowchart illustrating a code image generation process according to the first embodiment. 6 is a flowchart showing a reading process of a code image 60 according to the first embodiment.
- FIG. 10 is a flowchart showing display image switching processing according to the third embodiment.
- FIG. 10 is a diagram illustrating an example of a color space according to a fourth embodiment.
- FIG. 10 is a diagram illustrating an example of a color space according to a fourth embodiment.
- FIG. 10 is a diagram illustrating an example of a color space according to a fourth embodiment.
- generation process of the code image 60 which concerns on 4th Embodiment. 10 is a flowchart showing a reading process of a code image 60 according to the fourth embodiment.
- generation process of the code image 60 which concerns on 5th Embodiment. 10 is a flowchart showing a reading process of a code image 60 according to the fifth embodiment.
- the figure which shows an example of the marker for position detection which concerns on other embodiment The figure which shows an example of the marker for position detection which concerns on other embodiment.
- the figure which shows an example of the marker for position detection which concerns on other embodiment The figure which shows an example of the marker for position detection which concerns on other embodiment.
- the figure which shows an example of the marker for position detection which concerns on other embodiment The figure which shows an example of the marker for position detection which concerns on other embodiment.
- the figure which shows an example of the embedding process of the marker which concerns on other embodiment The figure which shows an example of the embedding process of the marker which concerns on other embodiment.
- the figure which shows an example of the embedding process of the marker which concerns on other embodiment The figure which shows an example of the frame 104 of the horizontal direction which concerns on other embodiment.
- FIG. 1 is a diagram illustrating an overall configuration of an information processing system according to the first embodiment.
- the information processing system includes a desktop computer 10, a plurality of mobile terminal devices 20 a and 20 b, and a server 30.
- the desktop computer 10, the plurality of mobile terminal devices 20 a and 20 b, and the server 30 are connected to each other via a network N so as to communicate with each other.
- the network N includes, for example, a part or all of a WAN (Wide Area Network), a LAN (Local Area Network), the Internet, a provider device, a wireless base station, a dedicated line, and the like.
- the mobile terminal devices 20a and 20b are, for example, tablet computers or smartphones.
- the mobile terminal devices 20a and 20b communicate with the desktop computer 10 and the server 30 via the network N by performing wireless communication W.
- the desktop computer 10 is connected to a display D1 for displaying images. Although details will be described later, the camera provided in the mobile terminal device 20a captures the two-dimensional code displayed on the display D2 of the mobile terminal device 20b.
- the portable terminal devices 20a and 20b have the same configuration. Hereinafter, when the mobile terminal devices 20a and 20b are not distinguished, they are simply referred to as the mobile terminal device 20.
- a computer that requests information is called a client
- a computer that sends information in response to a request for information is called a server.
- the desktop computer 10 functions as a server or a client
- the mobile terminal devices 20a and 20b mainly function as a client
- the server 30 mainly functions as a server.
- FIG. 2 is a block diagram showing the desktop computer 10, the mobile terminal device 20, and the server 30 according to the first embodiment.
- the desktop computer 10 includes a CPU (Central Processing Unit) 11, a memory 12, a bus 13, and a storage 14.
- CPU Central Processing Unit
- the CPU 11 and the memory 12 are connected to each other via a bus 13.
- the CPU 11 accesses information stored in the memory 12 via the bus 13 according to a program.
- the memory 12 is a RAM (Random Access Memory), but is not limited thereto.
- the memory 12 may be another type of memory such as a flash memory.
- the memory 12 temporarily stores information processed by the CPU 11.
- the CPU 11 reads and writes various information to and from storage 14.
- the storage 14 is, for example, an HDD (Hard Disk Drive), but is not limited to this.
- the storage 14 may be an external device accessible by the desktop computer 10 such as NAS (Network Attached Storage) or an external storage server.
- the desktop computer 10 may store information in the storage 14 instead of the memory 12. Further, alternatives such as memory and storage may be used in accordance with changes in the architecture of the desktop computer 10.
- the portable terminal device 20 includes a CPU 21, a memory 22, a bus 23, a camera 24, and a display D2 (see FIG. 1).
- the CPU 21 accesses information stored in the memory 22 via the bus 23 according to a program.
- the memory 22 is a RAM, but is not limited to this.
- the memory 22 may be another type of memory such as a flash memory.
- the memory 22 temporarily stores information processed by the CPU 11.
- the camera 24 reads (scans) an image displayed on the display of another portable terminal device, and outputs the read image to the CPU 21 via the bus 23. Although details will be described later, the CPU 21 performs image processing on the image output from the camera 24.
- the server 30 includes a CPU 31, a memory 32, a bus 33, and a storage 34.
- the CPU 31 accesses information stored in the memory 32 via the bus 33 according to the program.
- the memory 32 is a RAM, but is not limited to this.
- the memory 32 may be another type of memory such as a flash memory.
- the memory 32 temporarily stores information processed by the CPU 31.
- the CPU 31 reads and writes various information to and from storage 34.
- the storage 34 is, for example, an HDD, but is not limited to this.
- the storage 34 may be an external device accessible by the server 30 such as a NAS or an external storage server.
- the desktop computer 10 and the server 30 may be connected to a camera that captures an image, as with the mobile terminal device 20.
- the server 30 may include a display, like the desktop computer 10 and the mobile terminal device 20.
- ⁇ Invisible code> In general, blinking of an image of less than 0.03 [seconds] is difficult to recognize with the naked eye. In other words, blinking of an image having a frequency exceeding 33 [Hz] is difficult to recognize with the naked eye. When an image blinks at a frequency exceeding 33 [Hz], it is difficult to recognize with the naked eye even when an image with a large difference in brightness is easily blinking. For this reason, if the difference between brightness and darkness is small, even if the blinking frequency is slightly lower than 33 [Hz], it is possible to create a state in which blinking of an image is difficult to be recognized with the naked eye. Such a state that is difficult to be recognized with the naked eye is referred to as “invisible” in the present embodiment.
- FIG. 3 is a diagram illustrating an example of the code image 60 in which the invisible code according to the first embodiment is embedded.
- the code image 60 is an image in which the first frame image 60a and the second frame image 60b are alternately switched.
- the code image 60 is generated by embedding the code information 50 in the background image 40 in an invisible state.
- the code information 50 embedded in the background image 40 in the invisible state is referred to as “invisible code”.
- the background image 40 is an arbitrary image designated by the user, but is not limited thereto.
- the background image 40 may be an image displayed as an operation screen of application software.
- the code information 50 is a QR code (registered trademark), but is not limited thereto.
- the code information 50 may be another two-dimensional code such as DataMatrix (registered trademark) or VeriCode (registered trademark), or may be a one-dimensional code such as a barcode.
- the code information 50 is information in which data designated by the user (for example, account information of messenger software or account information of a social networking service) is coded.
- the code information 50 includes a position detection marker 51, an attitude correction marker 52, and a data dot 53.
- the position detection marker 51 is a marker used to detect the position of the code information 50 and is arranged at three corners of the code information 50.
- the posture correction marker 52 is a marker used to correct the posture of the code information 50 read by the camera 24 as a reading unit.
- the data dot 53 is a dot that holds information specified by the user such as account information.
- the data dot 53 includes an error correction code such as a Reed-Solomon code.
- an error correction code having an error correction rate of 15% or more is employed. It is preferable to employ an error correction code having an error correction rate of 30% or more.
- the CPU 21 of the mobile terminal device 20 acquires the background image 40 and the code information 50. Based on the acquired background image 40 and code information 50, the CPU 21 generates a first frame image 60a and a second frame image 60b. For example, the CPU 21 generates the first frame image 60 a by reducing the brightness of the pixels of the background image 40 at the position overlapping the code information 50. Further, the CPU 21 generates the second frame image 60b by increasing the brightness of the pixel of the background image 40 at the position overlapping the code information 50. The CPU 21 generates, as the code image 60, an image in which the first frame image 60a and the second frame image 60b are alternately switched at intervals of less than 0.03 [seconds].
- the code information 50 becomes conspicuous and the design of the image is impaired. Therefore, the CPU 21 alternately switches the first frame image 60a and the second frame image 60b at intervals of less than 0.03 [seconds]. As a result, the code information 50 becomes invisible to the naked eye. In other words, although the first frame image 60a and the second frame image 60b are alternately displayed, the background image 40 and the code image 60 cannot be distinguished with the naked eye.
- FIG. 4 is a flowchart showing the display processing of the code image 60 according to the first embodiment. The display processing of the code image 60 generated by the mobile terminal device 20 will be described in detail using FIG.
- the CPU 21 of the mobile terminal device 20 acquires data designated by the user (S101).
- the data specified by the user is messenger software account information, social networking service account information, server URL, own contact data, and the like.
- the CPU 21 generates code information 50 based on the acquired data (S102). The generated code may or may not be presented to the user.
- the CPU 21 as the acquisition unit acquires the background image 40.
- the CPU 21 acquires the background image 40 from the memory 22 or the camera 24 (S103).
- CPU21 calculates the frequency characteristic of the background image 40 by performing a Fourier transform with respect to the background image 40 (S104). Thereafter, the CPU 21 determines whether or not the calculated spatial frequency of the background image 40 is equal to or higher than a predetermined value (S105). If the CPU 21 determines that the calculated spatial frequency of the background image 40 is not equal to or greater than a predetermined value, the CPU 21 proceeds to S107 described later.
- the CPU 21 determines that the calculated frequency of the background image 40 is equal to or higher than a predetermined value
- the CPU 21 removes a component whose spatial frequency included in the background image 40 is equal to or higher than the predetermined value (S106). Note that the CPU 21 may hold both the background image 40 from which the high frequency component has been removed and the background image 40 from which the high frequency component has been removed, in the memory 22.
- the CPU 21 performs a filtering process on the background image 40 to remove components whose spatial frequency included in the background image 40 is a predetermined value or more. Specifically, the CPU 21 performs a filtering process on the coordinates (i, j) of the background image 40 based on the following equation (1).
- X i, j represents a pixel value before filtering
- Y i, j represents a pixel value after filtering.
- the background image 40 includes a component having a high spatial frequency
- the background image 40 is susceptible to camera shake when the background image 40 is captured. For this reason, if the background image 40 is blurred, it becomes difficult to extract an invisible code. For this reason, the CPU 21 performs a filtering process on the background image 40 to remove components having a spatial frequency equal to or higher than a predetermined value. Thereby, the influence of camera shake can be reduced.
- the CPU 21 performs a code image generation process to be described later using the code information 50 and the background image 40 (S107).
- the CPU 21 as the generation unit generates the code image 60 by embedding the code information 50 in the background image 40 in an invisible state.
- the CPU 21 embeds the code information 50 in the background image 40 in an invisible state by changing the pixel value of the background image 40 at a position overlapping the code information 50.
- the CPU 21 displays the generated code image 60 on the display D2 as a display unit (S108), and ends the processing according to this flowchart.
- FIG. 5 is a flowchart showing a code image generation process according to the first embodiment.
- the flowchart shown in FIG. 5 shows the process of S107 of FIG. 4 in detail.
- the CPU 21 analyzes the background image 40 and the code information 50 (S201). For example, the CPU 21 acquires the color data of the background image 40 at the position where the code information 50 is arranged, and acquires the RGB value of the acquired color data. The CPU 21 determines whether the code information 50 is suitable for embedding in the background image 40 based on the acquired RGB values. For example, when the majority of the color data of the background image 40 at the position where the code information 50 is arranged is not suitable for embedding the code information 50, the CPU 21 determines that the code information 50 is not suitable for embedding in the background image 40. judge.
- the color data that is not suitable for embedding the code information 50 means a pixel value that cannot afford to change the color.
- the pixel value is expressed in 8-bit RGB, (255, 255, 255), (0, 0, 0), and the like correspond to color data that is not suitable for embedding the code information 50.
- the saturation direction is set as the variation direction of the pixel value
- the pixel value whose saturation is the limit value also corresponds to color data that is not suitable for embedding the code information 50.
- the code information 50 is suitably used for the background image 40 if the sum of differences between the RGB values and the limit value (0 or 255) can be secured. Can be embedded.
- the CPU 21 determines that the code information 50 is not suitable for embedding in the background image 40, the CPU 21 regenerates the code information 50 in consideration of the background image 40 (S202). For example, the CPU 21 uses the margin bits of the error correction code of the code information 50 to change the arrangement of the data dots 53 while maintaining the identity of the information held by the data dots 53. As a result, the CPU 21 regenerates the code information 50. The CPU 21 repeats the generation of the code image 60 until the code information 50 can be suitably embedded in the background image 40.
- the CPU 21 determines the fluctuation direction and fluctuation width of the pixel value of the code information 50 (S203).
- the CPU 21 changes the pixel value to two complementary colors on the hue with the pixel value of the code information 50 as the center.
- CPU21 acquires the image value of the background image 40 of the position which overlaps with the code information 50 (S204).
- the CPU 21 performs image processing on the acquired image value under the conditions determined in S203 (S205).
- the CPU 21 converts the pixel values (R, G, B) acquired in S204 into pixel values (H, S, V) in the HSV model.
- H Hue
- S saturated Chroma
- V Value Lightness Brightness
- the CPU 21 converts the pixel values (R, G, B) into pixel values (H, S, V) based on the following formulas (2) to (4).
- MAX indicates the maximum value of RGB
- MIN indicates the minimum value of RGB.
- the CPU 21 converts color data A obtained by subtracting 5 from the pixel value in the saturation direction to the converted pixel value (H, S, V), and color data B obtained by adding 5 to the pixel value in the saturation direction. Is generated. That is, the color data A is (H, S-5, V), and the color data B is (H, S + 5, V).
- the fluctuation range of the pixel value is set to 5, but the present invention is not limited to this.
- the CPU 21 generates the first frame image and the second frame image by changing the pixel value of the background image 40 at the position overlapping the code information 50.
- the CPU 21 generates the code image 60 (moving image) in which the invisible code is embedded by alternately switching the generated first frame image and second frame image at intervals of less than 0.03 [seconds] ( S206).
- the CPU 21 generates the code image 60 (moving image) in which the invisible code is embedded by alternately switching the generated first frame image and second frame image at a frequency higher than 30 [Hz]. .
- the CPU 21 advances the process to S108 of FIG.
- the CPU 21 displays the code image 60 (moving image) in which the generated invisible code is embedded on the display D2.
- the code information 50 can be embedded in the background image 40 in an invisible state.
- the CPU 21 generates the code image 60 in which the code information 50 is embedded in the invisible state in the background image 40 subjected to the filter processing. Specifically, the CPU 21 generates the code image 60 by changing the pixel value of the background image 40 at a position overlapping with the code information 50 in a predetermined direction around the pixel value. Accordingly, it is possible to prevent the code image 60 from being copied using a method of capturing a still image such as a screen shot.
- RGB pixel values and HSV model pixel values are used.
- the present invention is not limited to this.
- a pixel value in the HSL color space or a pixel value of L * a * b * may be used.
- FIG. 6 is a flowchart showing a reading process of the code image 60 according to the first embodiment. The reading process of the code image 60 generated by the mobile terminal device 20 will be described in detail with reference to FIG.
- the camera 24 of the mobile terminal device 20 acquires the code image 60 by photographing the code image 60 displayed on the display D2 of another mobile terminal device (S301).
- the acquired code image 60 includes a plurality of frame images in which the pixel values of the background image 40 at positions overlapping the code information 50 are changed.
- the CPU 21 extracts a frame image with high sharpness from a plurality of frame images included in the acquired code image 60 (S302). For example, the CPU 21 calculates a spatial frequency by performing Fourier transform on each of a plurality of frame images, and extracts a frame image having the highest calculated spatial frequency.
- the CPU 21 detects the position detection marker 51 and the posture correction marker 52 from the extracted frame image (S303). Next, the CPU 21 normalizes a plurality of frame images using the detected position detection marker 51 and posture correction marker 52. Specifically, the CPU 21 performs projective transformation (homography transformation) on a plurality of frame images using the position detection marker 51 and the posture correction marker 52 (S304).
- projective transformation homoography transformation
- the CPU 21 performs projection conversion such as homography conversion on a plurality of frame images. As a result, distortion of a plurality of frame images due to yaw, pitch, roll, axis deviation, etc. is corrected.
- the CPU 21 performs homography conversion based on the following equation (5).
- (x 1 , y 1 ) indicates coordinates before homography conversion
- (x 2 , y 2 ) indicates coordinates after homography conversion.
- a, b, c, d, e, f, g, h, and i represent conversion coefficients.
- the CPU 21 as the extraction unit calculates a difference between pixel values of a plurality of frame images whose distortion has been corrected, and extracts an invisible code (code information 50) based on the calculated difference (S305). Thereafter, the CPU 21 decodes the extracted invisible code (S306) and ends the processing according to this flowchart.
- the mobile terminal device 20 includes the camera 24 that reads the code image 60 and the CPU 21 that extracts the code information 50 from the code image 60 read by the camera 24.
- the camera 24 reads a code image including a plurality of frame images in which pixel values of the background image 40 at a position overlapping the code information 50 are changed.
- the CPU 21 extracts code information 50 (invisible code) based on the difference between the plurality of frame images read by the camera 24.
- the CPU 21 of the mobile terminal device 20 performs a process (spatial frequency adjustment) for removing a component whose spatial frequency included in the background image 40 is a predetermined value or more.
- the CPU 21 performs processing (expression width adjustment) for narrowing the expression width of the pixel value in the background image 40 in addition to the spatial frequency adjustment.
- processing expression width adjustment
- FIG. 7 is a diagram illustrating image processing performed on the background image 40 according to the second embodiment.
- the CPU 21 as the image processing unit performs image processing for converting the background image 40 into a format suitable for embedding the invisible code.
- the CPU 21 specifies a color having a pixel value range of 5 to 250 in the background image 40 out of RGB, and changes the specified color.
- the CPU 21 when there is no color having a pixel value range of 5 to 250 in the background image 40, the CPU 21 performs a process of narrowing the expression width of the pixel value in the background image 40 (expression width adjustment). For example, the CPU 21 narrows the expression width of 0 to 255 to 5 to 250 in the expression width adjustment. In this case, the CPU 21 forcibly sets the pixel value less than 5 to 5 and forcibly sets the pixel value exceeding 250 to 250.
- the CPU 21 performs image processing such as spatial frequency adjustment and expression width adjustment on the entire background image 40, but is not limited thereto.
- the CPU 21 may perform image processing such as spatial frequency adjustment and expression width adjustment only at the position where the code information 50 is embedded. Thereby, the calculation time of the CPU 21 can be shortened.
- the CPU 21 performs a process of narrowing the expression width of the pixel value in the background image 40 (expression width adjustment).
- the background image 40 can be converted into a format suitable for embedding the invisible code.
- the CPU 21 may perform one of the spatial frequency adjustment and the expression width adjustment on the background image 40, or perform both the spatial frequency adjustment and the expression width adjustment on the background image 40. Also good. In addition to these image processes, the CPU 21 may perform other image processes on the background image 40.
- the CPU 21 of the mobile terminal device 20 displays the code image 60 on the display D2.
- the CPU 21 switches the image displayed on the display D2 in accordance with a user operation on the display D2.
- the user operation on the display D2 is, for example, a tap operation on the display D2.
- the CPU 21 displays the background image 40 (still image) on which the frame image is not switched on the display D2 or switches the frame image according to the user's operation on the display D2.
- the displayed code image 60 (moving image) is switched to the image displayed on the display D2.
- FIGS. 8 to 10 are diagrams illustrating examples of images displayed on the display D2 of the mobile terminal device 20 according to the third embodiment.
- the CPU 21 does not perform image processing on the background image 40 and does not add the code information 50 to the background image 40. That is, the display D2 displays the background image 40 (still image) having an expression width of 0 to 255.
- the CPU 21 when an operation is performed on the display D2 by the user, the CPU 21 performs image processing on the background image 40 and assigns code information 50 to the background image 40 as shown in FIG. Specifically, the CPU 21 may perform the above-described expression width adjustment on the background image 40 (background A), or may perform the above-described spatial frequency adjustment on the background image 40 (background B). Further, the expression width (variation width) of the code information 50 embedded in the background image 40 may be ⁇ 5. That is, when a user operation is performed on the display D2, the display D2 displays a code image 60 (moving image) in which the code information 50 is embedded in the background image 40 in an invisible state instead of the background image 40. .
- the CPU 21 does not perform image processing on the background image 40 as shown in FIG.
- the code information 50 is not given to. That is, the display D2 displays the background image 40 (still image) having an expression width of 0 to 255 instead of the code image 60 (moving image).
- the CPU 21 When the display D2 displays the code image 60, the CPU 21 outputs a command to switch the frame image at a high speed to the display D2, so that power consumption increases.
- the display D2 since the display D2 displays the code image 60 only for a predetermined time after the user performs an operation on the display D2, the power consumption can be reduced. Further, it is possible to reduce a sense of incongruity due to switching (flashing) of images.
- FIG. 11 is a flowchart showing display image switching processing according to the third embodiment.
- the CPU 21 of the mobile terminal device 20 displays only the original background image 40 on the display D2 (S401).
- the CPU 21 determines whether or not the display D2 has been operated by the user (S402).
- CPU21 repeats the process of above-mentioned S402, when it determines with the display D2 not being operated by the user. On the other hand, when the CPU 21 determines that the display D2 has been operated by the user, the CPU 21 performs image processing (for example, expression width adjustment, spatial frequency adjustment, etc.) on the background image 40. Thereafter, the CPU 21 displays the background image 40 subjected to the image processing (S403).
- image processing for example, expression width adjustment, spatial frequency adjustment, etc.
- the CPU 21 adjusts the screen brightness of the display D2 (S404). Specifically, the CPU 21 makes it easy to read the invisible code (code information 50) embedded in the background image 40 by increasing the screen brightness of the display D2.
- the CPU 21 embeds an invisible code (code information 50) in the background image 40 (S405).
- the code image 60 in which the first frame image 60a and the second frame image 60b are alternately switched is displayed on the display D2.
- the display D2 displays the code image 60 instead of the background image 40.
- the CPU 21 displays the original background image 40 on the display D2 (S406), and ends the processing according to this flowchart. Thereby, it is possible to reduce a sense of incongruity due to switching (flashing) of images and to reduce power consumption. Note that the reading process of the code image 60 is the same as that in the first embodiment (FIG. 6), and thus the description thereof is omitted.
- the display D2 when the user does not perform an operation on the display D2, the display D2 displays the background image 40.
- the display D2 displays the code image 60 instead of the background image 40.
- the display D2 displays the background image 40 instead of the code image 60.
- the CPU 21 of the mobile terminal device 20 changes the pixel value only in one axial direction.
- the CPU 21 varies the pixel value in two or more axial directions.
- the color space includes a cylindrical shaft 70, a ring-shaped band 71, and a fan-shaped region 72.
- the cylindrical axis 70 is an axis indicating a zero-saturation region connecting white and black, and the brightness increases as it goes upward.
- the ring-shaped band 71 shows a hue.
- the sector-shaped area 72 has higher saturation as it goes outward.
- FIG. 13 shows a Munsell color sphere 73.
- the uppermost part of the Munsell color sphere 73 indicates white, and the lowermost part of the Munsell color sphere 73 indicates black. That is, the lightness is higher toward the upper part of the Munsell color sphere 73, and the lightness (Lightness) is lower toward the lower part of the Munsell color sphere 73.
- the outer peripheral direction of the Munsell color sphere 73 indicates a hue (Hue) direction. Furthermore, the farther from the center of the Munsell color sphere 73, the higher the saturation.
- FIG. 14 is a view showing the inside of the Munsell color sphere 73. A color space of the background image 40 suitable for embedding an invisible code will be described with reference to FIG.
- the CPU 21 changes the pixel value of the background image 40 at the position overlapping the code information 50 in a predetermined direction. For example, the CPU 21 changes the pixel value around the Base shown in FIG. When the CPU 21 changes the pixel value at a frequency higher than 30 [Hz], the average of the changed pixel values is recognized by the naked eye. For this reason, even if the CPU 21 changes the pixel value in the arrow direction (two directions) around BASE, the color of this pixel is recognized by the naked eye as the color of Base (intersection of two arrows).
- the CPU 21 can change the pixel value not only in the brightness direction but also in the saturation direction by arranging the color data (Base) in the inner area.
- the direction in which the pixel value is changed can be sufficiently secured, so that the amount of data that can be held by the invisible code can be increased.
- the CPU 21 changes the pixel value in the biaxial direction, the amount of data that can be held in the same area can be increased as compared with an encoding method that changes the pixel value in the uniaxial direction. In other words, the data density of the code image 60 can be improved.
- the CPU 21 increases the frequency of the pixel value variation, if the variation range of the pixel value is large, it is easily recognized with the naked eye. In particular, changes in the brightness direction are more easily recognized by the naked eye than changes in the saturation direction and changes in the hue direction. For this reason, the CPU 21 makes the variation width in the brightness direction smaller than the variation width in the hue direction and the variation width in the saturation direction.
- the CPU 21 always sets the absolute value of the variation range in the hue direction to be larger than the absolute value of the variation range in the other direction. That is, the CPU 21 sets the absolute value of the fluctuation range in each direction so that hue> saturation> lightness.
- the CPU 21 may change the pixel value in the B (Blue) direction and may change the pixel value in the G (Green) direction.
- the CPU 21 changes the pixel value in the B direction (20, 20, 15) and (20, 20, 25) may be switched at a frequency exceeding 30 [Hz].
- the CPU 21 changes the pixel value in the G direction (20, 15, 20) and (20, 25, 20) may be switched at a frequency exceeding 30 [Hz].
- the CPU 21 preferably makes the fluctuation range of the G pixel value smaller than the fluctuation range of the B pixel value.
- FIG. 15 is a flowchart showing a generation process of the code image 60 according to the fourth embodiment. The generation process of the code image 60 performed by the mobile terminal device 20 will be described in detail with reference to FIG.
- the CPU 21 analyzes the background image 40 (S501). For example, the CPU 21 acquires the color data of the background image 40 at the position where the code information 50 is arranged. Further, the CPU 21 determines whether or not the color data of the background image 40 at the position where the code information 50 is arranged exists in the inner area shown in FIG. When the color data of the background image 40 at the position where the code information 50 is arranged does not exist in the inner area, the CPU 21 performs image processing on the background image 40 so that the color data is arranged in the inner area. Do. As a result, a sufficient fluctuation range for changing the pixel value can be secured, so that the invisible code can be easily read.
- the CPU 21 determines the fluctuation direction of the pixel value (for example, the angle ⁇ shown in FIG. 14) and the fluctuation width in the fluctuation direction (S502).
- the CPU 21 determines a plurality of variation directions and variation ranges. Thereafter, the CPU 21 generates an index including information indicating the determined variation direction (S503).
- the CPU 21 acquires the color data of the background image 40 at the position overlapping with the code information 50 (S504). Thereafter, the CPU 21 adds the index generated in S503 to the background image 40 in a visible state (S505).
- the CPU 21 embeds the code information 50 in the background image 40 in an invisible state (S506). Specifically, the CPU 21 changes the pixel value of the background image 40 at the position overlapping with the code information 50 based on the determined change direction and change width with the pixel value as the center. As a result, the code image 60 can be generated.
- FIG. 16 is a flowchart showing a reading process of the code image 60 according to the fourth embodiment. The reading process of the code image 60 generated by the mobile terminal device 20 will be described in detail with reference to FIG.
- the camera 24 of the mobile terminal device 20 acquires the code image 60 by photographing the code image 60 displayed on the display D2 of the other mobile terminal device. Further, the CPU 21 acquires an index embedded in the acquired code image 60 (S511). As described above, the index includes information indicating the variation direction of the pixel value. Further, the acquired code image 60 includes a plurality of frame images in which the pixel values of the background image 40 at positions overlapping the code information 50 are changed.
- the CPU 21 obtains a difference between a plurality of frame images in the variation direction designated by the index (S512). Thereafter, the CPU 21 decodes the invisible code based on the acquired difference (S513), and ends the processing according to this flowchart.
- the CPU 21 adds an index including information indicating the variation direction of the pixel value to the background image 40 in a visible state.
- data can be assigned in the direction of fluctuation of the pixel value, so that the data density of the code image 60 can be improved.
- the code information 50 can be embedded in the background image 40 in a more invisible state.
- the CPU 21 of the mobile terminal device 20 embeds one frame set in the background image 40.
- the CPU 21 embeds two or more frame sets in the background image 40.
- the frame set is a set including a plurality of frame images. Two or more frame sets embedded in the background image 40 are displayed while being switched over time.
- FIG. 17 is a diagram illustrating frame set switching processing according to the fifth embodiment.
- the CPU 21 displays the code image 60 including the three frame sets 80a to 80c on the display D2. Specifically, the CPU 21 switches the frame set 80a, the frame set 80b, and the frame set 80c in order and displays them on the display D2 as the time t elapses. In each of the frame sets 80a to 80c, the key frame image 81 and the frame image 82 are alternately displayed at a frequency higher than 30 [Hz].
- the CPU 21 displays the frame set 80a on the display D2. At this time, the CPU 21 embeds the position detection marker 83 a in the visible state in the key frame image 81 and the frame image 82. When a predetermined time elapses after the frame set 80a is displayed on the display D2, the CPU 21 displays the frame set 80b on the display D2 instead of the frame set 80a. At this time, the CPU 21 embeds the position detection marker 83b in the visible state in the key frame image 81 and the frame image 82. When a predetermined time elapses after the frame set 80b is displayed on the display D2, the CPU 21 displays the frame set 80c on the display D2 instead of the frame set 80b. At this time, the CPU 21 embeds the position detection marker 83 c in the key frame image 81 and the frame image 82 in a visible state. The CPU 21 repeats these processes.
- the CPU 21 when decoding the code image 60, the CPU 21 extracts an invisible code (code information 50) based on the difference between the key frame image 81 and the frame image 82 for each frame set.
- the CPU 21 detects frame set switching in response to switching of the position detection marker embedded in the visible state. In this way, a large amount of data can be held in the code image 60 by switching a plurality of frame sets and sequentially displaying them on the display D2.
- FIG. 18 is a flowchart showing a generation process of the code image 60 according to the fifth embodiment. The generation process of the code image 60 performed by the mobile terminal device 20 will be described in detail with reference to FIG.
- the CPU 21 determines a plurality of frame sets to be generated as the code image 60 (S601). Next, the CPU 21 switches the position detection marker according to the determined frame set and embeds it in the background image 40 (S602).
- the CPU 21 switches the invisible code (code information 50) for each position detection marker embedded in the background image 40 (S603). Thereafter, the CPU 21 embeds an invisible code (code information 50) in the background image 40 (S604). As a result, the code image 60 including a plurality of frame sets can be generated.
- FIG. 19 is a flowchart showing a reading process of the code image 60 according to the fifth embodiment. The reading process of the code image 60 generated by the mobile terminal device 20 will be described in detail with reference to FIG.
- the camera 24 of the mobile terminal device 20 acquires a moving image for a predetermined period by photographing the code image 60 (moving image) displayed on the display D2 of another mobile terminal device (S611).
- CPU21 detects the frequency
- the CPU 21 divides the acquired moving image into a plurality of frame sets according to the switching of the position detection marker (S613). Thereafter, the CPU 21 extracts a key frame image 81 from each divided frame set (S614). In addition, the CPU 21 extracts a frame image 82 other than the key frame image 81 from each divided frame set.
- the CPU 21 calculates the difference between the key frame image 81 and the frame image 82 for each frame set. Thereafter, the CPU 21 decodes the invisible code based on the calculated difference for each frame set (S615), and ends the process according to the flowchart.
- the camera 24 reads the code image 60 including a plurality of frame sets 80a to 80c.
- Each of the plurality of frame sets 80a to 80c includes a key frame image 81 and a frame image 82.
- the CPU 21 extracts an invisible code (code information 50) based on the difference between the key frame image 81 and the frame image 82 for each of the frame sets 80a to 80c.
- code information 50 code information 50
- the fifth embodiment and the fourth embodiment may be combined. As a result, a larger amount of data can be held in the code image 60.
- ⁇ Another embodiment of position detection marker> 20 to 27 are diagrams showing examples of position detection markers according to other embodiments.
- both the position detection marker 51 and the data dot 53 are embedded in the background image 40 in an invisible state.
- the present invention is not limited to this.
- the CPU 21 may embed the position detection marker 51 in the background image 40 in a visible state and embed the data dots 53 in the background image 40 in an invisible state.
- the position detection marker is used for keystone correction and homography conversion.
- QR code registered trademark
- position detection markers are arranged at three corners, and the QR code (registered trademark) can be read at high speed from any direction of 360 °. Therefore, the position detection marker may be embedded in the background image 40 in a visible state so that the invisible code can be read at high speed from any direction of 360 °. As a result, the position of the data dot in the code image can be detected with higher accuracy, and the code image can be read from any direction of 360 ° at high speed.
- the position detection marker is not limited to a rectangle.
- a triangular position detection marker 91 may be embedded in the background image 40.
- a position detecting bezel 92 or 93 may be displayed. By displaying the position detection bezel 92 or 93, it is possible to guide the user to photograph the code image 60 according to the bezel.
- a line type position detection marker 94 or 95 may be displayed.
- a frame type position detection marker 96 or 97 may be displayed.
- FIG. 28 to FIG. 30 are diagrams illustrating an example of marker embedding processing according to another embodiment.
- the position detection marker is preferably embedded in the background image 40 in a visible state.
- markers 100 to 103 with low brightness may be embedded in the background image 40.
- markers 100 to 103 with high brightness may be embedded in the background image 40 as shown in FIG.
- the brightness of the markers 100 and 101 may be lowered and the brightness of the markers 102 and 103 may be increased.
- the marker detection accuracy can be improved by changing the brightness of the marker according to the brightness of the background image.
- a horizontal frame 104 may be embedded in the background image 40 in place of the position detection marker.
- a vertical frame 105 may be embedded in the background image 40 instead of the position detection marker.
- the CPU 21 may detect the position of the data dot based on the frame 104 or 105 embedded in the background image 40.
- the CPU 21 may extract the feature point 106 from the background image 40 instead of the position detection marker.
- the CPU 21 may correct the distortion of the code image 60 based on the extracted feature points.
- the CPU 21 may use SIFT (Scale-Invariant Feature Transform) or “Harris corner response function” as a feature point extraction method. Further, the CPU 21 may extract feature points by performing a blob analysis on the background image 40.
- the CPU 21 may embed a position detection marker when it is difficult to extract a feature point from the background image 40, and may not embed a position detection marker when it is easy to extract a feature point from the background image 40.
- FIGS. 34 to 41 are diagrams showing examples of the shape of data dots according to other embodiments.
- the CPU 21 may generate square data dots 110 and 111.
- the CPU 21 may generate triangular data dots 112 and 113.
- the CPU 21 may generate circular data dots 114 and 115.
- the CPU 21 may generate a star-shaped data dot 116.
- the CPU 21 may generate concentric data dots 117.
- the CPU 21 acquires the background image 40 and performs image processing (spatial frequency adjustment or expression width adjustment) on the acquired background image 40. Further, the CPU 21 generates a code image 60 in which at least a part of the code information 50 is embedded in an invisible state in the background image 40 that has been subjected to image processing. As a result, when the two-dimensional code is embedded in the background image, the influence of the two-dimensional code on the design of the background image can be reduced.
- the desktop computer 10, the mobile terminal device 20, and the server 30 in the above-described embodiment have a computer system therein.
- the processes of the desktop computer 10, the mobile terminal device 20, and the server 30 described above are stored in a computer-readable recording medium in the form of a program, and the computer reads and executes the program.
- the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like.
- the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
- a part of processing executed on a specific computer may be shared by other computers. For this reason, the entire information processing system may be regarded as an information processing apparatus. Even if an element that performs characteristic information processing is intentionally installed outside the country, if the region that refers to the processing result is in Japan, the information processing is considered to have been executed in the country.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
An information processing device having: an acquisition unit that obtains background images; an image processing unit that performs image processing on the background images obtained by the acquisition unit; and a generation unit that generates code images having at least some code information that is invisible and embedded in the background images that have been subjected to image processing by the image processing unit.
Description
本発明は、情報処理装置、表示方法、読取方法、およびコンピュータ読み取り可能な非一時的記憶媒体に関する。
The present invention relates to an information processing apparatus, a display method, a reading method, and a computer-readable non-transitory storage medium.
近年、バーコードよりも多くの情報を保持可能な2次元コードが知られている。2次元コードは白黒で形成されることが多いが、より多くの情報を保持するために、データ領域が赤、緑、青等のカラーで形成された2次元コードも用いられている(例えば、特許文献1参照)。
In recent years, two-dimensional codes that can hold more information than barcodes are known. Two-dimensional codes are often formed in black and white, but in order to hold more information, two-dimensional codes in which data areas are formed in colors such as red, green, and blue are also used (for example, Patent Document 1).
しかしながら、画像に2次元コードが埋め込まれると、2次元コードが目立ってしまい画像のデザイン性が損なわれる。例えば、メッセンジャーソフトウェアのアカウント情報や、ソーシャルネットワーキングサービスのアカウント情報を交換するために、端末装置に2次元コードが埋め込まれた画像を表示すると、2次元コードが画像のデザインに影響を及ぼしてしまう。
However, when a two-dimensional code is embedded in an image, the two-dimensional code becomes conspicuous and the design of the image is impaired. For example, when an image in which a two-dimensional code is embedded is displayed on a terminal device in order to exchange account information of messenger software or account information of a social networking service, the two-dimensional code affects the image design.
そこで、本発明は、2次元コードを背景画像に埋め込む際に、2次元コードが背景画像のデザインに及ぼす影響を低減することができる情報処理装置、表示方法、読取方法、およびコンピュータ読み取り可能な非一時的記憶媒体を提供することを目的とする。
Therefore, the present invention provides an information processing apparatus, a display method, a reading method, and a computer-readable non-transitory device that can reduce the influence of the two-dimensional code on the design of the background image when the two-dimensional code is embedded in the background image. An object is to provide a temporary storage medium.
背景画像を取得する取得部と、前記取得部によって取得された前記背景画像に対して画像処理を行う画像処理部と、前記画像処理部によって画像処理が行われた前記背景画像に、コード情報の少なくとも一部が不可視状態で埋め込まれたコード画像を生成する生成部と、を有する情報処理装置。
An acquisition unit that acquires a background image, an image processing unit that performs image processing on the background image acquired by the acquisition unit, and the background image that has been subjected to image processing by the image processing unit include code information An information processing apparatus comprising: a generation unit that generates a code image embedded at least partially in an invisible state.
本発明の更なる特徴及び態様は、添付図面を参照し、以下に述べる実施形態の詳細な説明から明らかとなるであろう。
Further features and aspects of the present invention will become apparent from the detailed description of embodiments set forth below, taken in conjunction with the accompanying drawings.
本発明によれば、2次元コードを背景画像に埋め込む際に、2次元コードが背景画像のデザインに及ぼす影響を低減することができる。
According to the present invention, when the two-dimensional code is embedded in the background image, the influence of the two-dimensional code on the design of the background image can be reduced.
以下、実施形態の情報処理装置、表示方法、読取方法、およびコンピュータ読み取り可能な非一時的記憶媒体を、図面を参照して説明する。
Hereinafter, an information processing apparatus, a display method, a reading method, and a computer-readable non-transitory storage medium according to embodiments will be described with reference to the drawings.
(第1の実施形態)
<情報処理システムの全体構成>
図1は、第1の実施形態に係る情報処理システムの全体構成を示す図である。情報処理システムは、デスクトップコンピュータ10と、複数の携帯端末装置20aおよび20bと、サーバ30とを備える。デスクトップコンピュータ10、複数の携帯端末装置20aおよび20b、およびサーバ30は、ネットワークNを介して互いに通信可能に接続されている。 (First embodiment)
<Overall configuration of information processing system>
FIG. 1 is a diagram illustrating an overall configuration of an information processing system according to the first embodiment. The information processing system includes adesktop computer 10, a plurality of mobile terminal devices 20 a and 20 b, and a server 30. The desktop computer 10, the plurality of mobile terminal devices 20 a and 20 b, and the server 30 are connected to each other via a network N so as to communicate with each other.
<情報処理システムの全体構成>
図1は、第1の実施形態に係る情報処理システムの全体構成を示す図である。情報処理システムは、デスクトップコンピュータ10と、複数の携帯端末装置20aおよび20bと、サーバ30とを備える。デスクトップコンピュータ10、複数の携帯端末装置20aおよび20b、およびサーバ30は、ネットワークNを介して互いに通信可能に接続されている。 (First embodiment)
<Overall configuration of information processing system>
FIG. 1 is a diagram illustrating an overall configuration of an information processing system according to the first embodiment. The information processing system includes a
ネットワークNは、例えば、WAN(Wide Area Network)、LAN(Local Area Network)、インターネット、プロバイダ装置、無線基地局、専用回線などのうちの一部または全部を含む。携帯端末装置20aおよび20bは、例えば、タブレットコンピュータまたはスマートフォンである。携帯端末装置20aおよび20bは、ワイヤレス通信W行うことで、ネットワークNを介してデスクトップコンピュータ10およびサーバ30と通信する。
The network N includes, for example, a part or all of a WAN (Wide Area Network), a LAN (Local Area Network), the Internet, a provider device, a wireless base station, a dedicated line, and the like. The mobile terminal devices 20a and 20b are, for example, tablet computers or smartphones. The mobile terminal devices 20a and 20b communicate with the desktop computer 10 and the server 30 via the network N by performing wireless communication W.
デスクトップコンピュータ10には、画像を表示するディスプレイD1が接続されている。詳細は後述するが、携帯端末装置20aに設けられたカメラは、携帯端末装置20bのディスプレイD2に表示された2次元コードを撮影する。携帯端末装置20aおよび20bは、同じ構成を備えている。以下、携帯端末装置20aおよび20bを区別しない場合は、単に携帯端末装置20と称する。
The desktop computer 10 is connected to a display D1 for displaying images. Although details will be described later, the camera provided in the mobile terminal device 20a captures the two-dimensional code displayed on the display D2 of the mobile terminal device 20b. The portable terminal devices 20a and 20b have the same configuration. Hereinafter, when the mobile terminal devices 20a and 20b are not distinguished, they are simply referred to as the mobile terminal device 20.
便宜上、情報を要求するコンピュータをクライアント、情報の要求に応じて情報を送信するコンピュータをサーバと称する。本実施形態においては、デスクトップコンピュータ10はサーバまたはクライアントとして機能し、携帯端末装置20aおよび20bは主にクライアントとして機能し、サーバ30は主にサーバとして機能する。
For convenience, a computer that requests information is called a client, and a computer that sends information in response to a request for information is called a server. In the present embodiment, the desktop computer 10 functions as a server or a client, the mobile terminal devices 20a and 20b mainly function as a client, and the server 30 mainly functions as a server.
図2は、第1の実施形態に係るデスクトップコンピュータ10、携帯端末装置20、およびサーバ30を示すブロック図である。デスクトップコンピュータ10は、CPU(Central Processing Unit)11と、メモリ12と、バス13と、ストレージ14とを備える。
FIG. 2 is a block diagram showing the desktop computer 10, the mobile terminal device 20, and the server 30 according to the first embodiment. The desktop computer 10 includes a CPU (Central Processing Unit) 11, a memory 12, a bus 13, and a storage 14.
CPU11およびメモリ12は、互いにバス13で接続されている。CPU11は、プログラムに従ってバス13を介してメモリ12に格納された情報にアクセスする。メモリ12は、RAM(Random Access Memory)であるが、これに限られない。例えば、メモリ12は、フラッシュメモリ等の他の種類のメモリであってもよい。メモリ12は、CPU11によって処理される情報を一時的に格納する。
The CPU 11 and the memory 12 are connected to each other via a bus 13. The CPU 11 accesses information stored in the memory 12 via the bus 13 according to a program. The memory 12 is a RAM (Random Access Memory), but is not limited thereto. For example, the memory 12 may be another type of memory such as a flash memory. The memory 12 temporarily stores information processed by the CPU 11.
CPU11は、ストレージ14に対して各種情報の読み出しおよび書き込みを行う。ストレージ14は、例えば、HDD(Hard Disk Drive)であるが、これに限られない。例えば、ストレージ14は、NAS(Network Attached Storage)や外部のストレージサーバなど、デスクトップコンピュータ10がアクセス可能な外部装置であってもよい。
CPU 11 reads and writes various information to and from storage 14. The storage 14 is, for example, an HDD (Hard Disk Drive), but is not limited to this. For example, the storage 14 may be an external device accessible by the desktop computer 10 such as NAS (Network Attached Storage) or an external storage server.
デスクトップコンピュータ10は、メモリ12に代えてストレージ14に情報を記憶してもよい。また、デスクトップコンピュータ10のアーキテクチャーの変化に応じて、メモリおよびストレージ等の代替物が用いられてもよい。
The desktop computer 10 may store information in the storage 14 instead of the memory 12. Further, alternatives such as memory and storage may be used in accordance with changes in the architecture of the desktop computer 10.
携帯端末装置20は、CPU21と、メモリ22と、バス23と、カメラ24と、ディスプレイD2(図1参照)とを備える。CPU21は、プログラムに従ってバス23を介してメモリ22に格納された情報にアクセスする。メモリ22はRAMであるが、これに限られない。例えば、メモリ22は、フラッシュメモリ等の他の種類のメモリであってもよい。メモリ22は、CPU11によって処理される情報を一時的に格納する。
The portable terminal device 20 includes a CPU 21, a memory 22, a bus 23, a camera 24, and a display D2 (see FIG. 1). The CPU 21 accesses information stored in the memory 22 via the bus 23 according to a program. The memory 22 is a RAM, but is not limited to this. For example, the memory 22 may be another type of memory such as a flash memory. The memory 22 temporarily stores information processed by the CPU 11.
カメラ24は、他の携帯端末装置のディスプレイに表示される画像を読み取り(スキャン)、読み取った画像を、バス23を介してCPU21に出力する。詳細は後述するが、CPU21は、カメラ24から出力された画像に対して画像処理を行う。
The camera 24 reads (scans) an image displayed on the display of another portable terminal device, and outputs the read image to the CPU 21 via the bus 23. Although details will be described later, the CPU 21 performs image processing on the image output from the camera 24.
サーバ30は、CPU31と、メモリ32と、バス33と、ストレージ34とを備える。CPU31は、プログラムに従ってバス33を介してメモリ32に格納された情報にアクセスする。メモリ32はRAMであるが、これに限られない。例えば、メモリ32は、フラッシュメモリ等の他の種類のメモリであってもよい。メモリ32は、CPU31によって処理される情報を一時的に格納する。
The server 30 includes a CPU 31, a memory 32, a bus 33, and a storage 34. The CPU 31 accesses information stored in the memory 32 via the bus 33 according to the program. The memory 32 is a RAM, but is not limited to this. For example, the memory 32 may be another type of memory such as a flash memory. The memory 32 temporarily stores information processed by the CPU 31.
CPU31は、ストレージ34に対して各種情報の読み出しおよび書き込みを行う。ストレージ34は、例えば、HDDであるが、これに限られない。例えば、ストレージ34は、NASや外部のストレージサーバなど、サーバ30がアクセス可能な外部装置であってもよい。
CPU 31 reads and writes various information to and from storage 34. The storage 34 is, for example, an HDD, but is not limited to this. For example, the storage 34 may be an external device accessible by the server 30 such as a NAS or an external storage server.
なお、デスクトップコンピュータ10およびサーバ30は、携帯端末装置20と同様に、画像を撮影するカメラが接続されてもよい。また、サーバ30は、デスクトップコンピュータ10および携帯端末装置20と同様に、ディスプレイを備えてもよい。
The desktop computer 10 and the server 30 may be connected to a camera that captures an image, as with the mobile terminal device 20. The server 30 may include a display, like the desktop computer 10 and the mobile terminal device 20.
<不可視コード>
一般に、0.03[秒]未満の画像の点滅は、肉眼では認識され難い。言い換えると、33[Hz]を超える周波数の画像の点滅は、肉眼では認識され難い。33[Hz]を超える周波数で画像が点滅する場合、明暗の差が大きな目立ちやすい画像が点滅する場合であっても、肉眼で認識され難い。このため、明暗の差が小さければ、点滅の周波数が33[Hz]よりも少し低くても、画像の点滅を肉眼で認識され難い状態を作り出すことができる。このように、肉眼で認識され難い状態を、本実施形態において「不可視」と称する。 <Invisible code>
In general, blinking of an image of less than 0.03 [seconds] is difficult to recognize with the naked eye. In other words, blinking of an image having a frequency exceeding 33 [Hz] is difficult to recognize with the naked eye. When an image blinks at a frequency exceeding 33 [Hz], it is difficult to recognize with the naked eye even when an image with a large difference in brightness is easily blinking. For this reason, if the difference between brightness and darkness is small, even if the blinking frequency is slightly lower than 33 [Hz], it is possible to create a state in which blinking of an image is difficult to be recognized with the naked eye. Such a state that is difficult to be recognized with the naked eye is referred to as “invisible” in the present embodiment.
一般に、0.03[秒]未満の画像の点滅は、肉眼では認識され難い。言い換えると、33[Hz]を超える周波数の画像の点滅は、肉眼では認識され難い。33[Hz]を超える周波数で画像が点滅する場合、明暗の差が大きな目立ちやすい画像が点滅する場合であっても、肉眼で認識され難い。このため、明暗の差が小さければ、点滅の周波数が33[Hz]よりも少し低くても、画像の点滅を肉眼で認識され難い状態を作り出すことができる。このように、肉眼で認識され難い状態を、本実施形態において「不可視」と称する。 <Invisible code>
In general, blinking of an image of less than 0.03 [seconds] is difficult to recognize with the naked eye. In other words, blinking of an image having a frequency exceeding 33 [Hz] is difficult to recognize with the naked eye. When an image blinks at a frequency exceeding 33 [Hz], it is difficult to recognize with the naked eye even when an image with a large difference in brightness is easily blinking. For this reason, if the difference between brightness and darkness is small, even if the blinking frequency is slightly lower than 33 [Hz], it is possible to create a state in which blinking of an image is difficult to be recognized with the naked eye. Such a state that is difficult to be recognized with the naked eye is referred to as “invisible” in the present embodiment.
図3は、第1の実施形態に係る不可視コードが埋め込まれたコード画像60の一例を示す図である。以下、図3を参照して、コード画像60の生成方法について説明する。コード画像60は、第1のフレーム画像60aと第2のフレーム画像60bが交互に切り替わる画像である。コード画像60は、背景画像40にコード情報50を不可視状態で埋め込むことで生成される。以下、不可視状態で背景画像40に埋め込まれたコード情報50を、「不可視コード」と称する。
FIG. 3 is a diagram illustrating an example of the code image 60 in which the invisible code according to the first embodiment is embedded. Hereinafter, a method for generating the code image 60 will be described with reference to FIG. The code image 60 is an image in which the first frame image 60a and the second frame image 60b are alternately switched. The code image 60 is generated by embedding the code information 50 in the background image 40 in an invisible state. Hereinafter, the code information 50 embedded in the background image 40 in the invisible state is referred to as “invisible code”.
背景画像40は、ユーザによって指定された任意の画像であるが、これに限られない。例えば、背景画像40は、アプリケーションソフトの操作画面として表示される画像であってもよい。コード情報50は、QRコード(登録商標)であるが、これに限られない。例えば、コード情報50は、DataMatrix(登録商標)やVeriCode(登録商標)などの他の2次元コードであってもよいし、バーコード等の一次元コードであってもよい。コード情報50は、ユーザによって指定されたデータ(例えば、メッセンジャーソフトウェアのアカウント情報や、ソーシャルネットワーキングサービスのアカウント情報)がコード化された情報である。
The background image 40 is an arbitrary image designated by the user, but is not limited thereto. For example, the background image 40 may be an image displayed as an operation screen of application software. The code information 50 is a QR code (registered trademark), but is not limited thereto. For example, the code information 50 may be another two-dimensional code such as DataMatrix (registered trademark) or VeriCode (registered trademark), or may be a one-dimensional code such as a barcode. The code information 50 is information in which data designated by the user (for example, account information of messenger software or account information of a social networking service) is coded.
コード情報50には、位置検出用マーカ51と、姿勢補正用マーカ52と、データドット53とが含まれる。位置検出用マーカ51は、コード情報50の位置を検出するために用いられるマーカであり、コード情報50の3つの角に配置される。姿勢補正用マーカ52は、読取部としてのカメラ24によって読み取られたコード情報50の姿勢を補正するために用いられるマーカである。データドット53は、アカウント情報等のユーザによって指定された情報を保持するドットである。
The code information 50 includes a position detection marker 51, an attitude correction marker 52, and a data dot 53. The position detection marker 51 is a marker used to detect the position of the code information 50 and is arranged at three corners of the code information 50. The posture correction marker 52 is a marker used to correct the posture of the code information 50 read by the camera 24 as a reading unit. The data dot 53 is a dot that holds information specified by the user such as account information.
カメラ24は携帯端末装置20に設けられているため、カメラ24によって撮影された画像には手ぶれが発生する可能性がある。このため、データドット53には、リードソロモン符号等の誤り訂正符号が含まれる。ロバスト性を確保するため、15%以上の誤り訂正率を有する誤り訂正符号を採用する。なお、30%以上の誤り訂正率を有する誤り訂正符号を採用することが好ましい。
Since the camera 24 is provided in the mobile terminal device 20, camera shake may occur in an image taken by the camera 24. For this reason, the data dot 53 includes an error correction code such as a Reed-Solomon code. In order to ensure robustness, an error correction code having an error correction rate of 15% or more is employed. It is preferable to employ an error correction code having an error correction rate of 30% or more.
携帯端末装置20のCPU21は、背景画像40とコード情報50とを取得する。CPU21は、取得した背景画像40およびコード情報50に基づき、第1のフレーム画像60aおよび第2のフレーム画像60bを生成する。例えば、CPU21は、コード情報50と重なる位置の背景画像40の画素の明度を低くすることで、第1のフレーム画像60aを生成する。また、CPU21は、コード情報50と重なる位置の背景画像40の画素の明度を高くすることで、第2のフレーム画像60bを生成する。CPU21は、第1のフレーム画像60aおよび第2のフレーム画像60bが0.03[秒]未満の間隔で交互に切り替わる画像を、コード画像60として生成する。
The CPU 21 of the mobile terminal device 20 acquires the background image 40 and the code information 50. Based on the acquired background image 40 and code information 50, the CPU 21 generates a first frame image 60a and a second frame image 60b. For example, the CPU 21 generates the first frame image 60 a by reducing the brightness of the pixels of the background image 40 at the position overlapping the code information 50. Further, the CPU 21 generates the second frame image 60b by increasing the brightness of the pixel of the background image 40 at the position overlapping the code information 50. The CPU 21 generates, as the code image 60, an image in which the first frame image 60a and the second frame image 60b are alternately switched at intervals of less than 0.03 [seconds].
前述したように、0.03[秒]未満の画像の点滅は、肉眼で認識され難い。このため、第1のフレーム画像60aおよび第2のフレーム画像60bが0.03[秒]未満の間隔で交互に切り替わると、第1のフレーム画像60aおよび第2のフレーム画像60bの明度の平均がコード画像60の明度として肉眼によって認識される。このため、コード情報50が背景画像40に埋め込まれても、背景画像40のデザイン性が損なわれることが低減される。
As described above, blinking of an image of less than 0.03 [seconds] is difficult to recognize with the naked eye. For this reason, when the first frame image 60a and the second frame image 60b are alternately switched at intervals of less than 0.03 [seconds], the average brightness of the first frame image 60a and the second frame image 60b is obtained. The lightness of the code image 60 is recognized by the naked eye. For this reason, even if the code information 50 is embedded in the background image 40, it is reduced that the designability of the background image 40 is impaired.
単純に背景画像40にコード情報50が重畳されると、コード情報50が目立ってしまい画像のデザイン性が損なわれる。このため、CPU21は、第1のフレーム画像60aと第2のフレーム画像60bとを0.03[秒]未満の間隔で交互に切り替える。これによって、コード情報50が肉眼では不可視な状態となる。言い換えると、第1のフレーム画像60aと第2のフレーム画像60bとが交互に表示されているにも関わらず、肉眼では背景画像40とコード画像60とを区別することができないこととなる。
If the code information 50 is simply superimposed on the background image 40, the code information 50 becomes conspicuous and the design of the image is impaired. Therefore, the CPU 21 alternately switches the first frame image 60a and the second frame image 60b at intervals of less than 0.03 [seconds]. As a result, the code information 50 becomes invisible to the naked eye. In other words, although the first frame image 60a and the second frame image 60b are alternately displayed, the background image 40 and the code image 60 cannot be distinguished with the naked eye.
<コード画像の表示処理>
図4は、第1の実施形態に係るコード画像60の表示処理を示すフローチャートである。図4を用いて、携帯端末装置20によって生成されるコード画像60の表示処理を詳細に説明する。 <Code image display processing>
FIG. 4 is a flowchart showing the display processing of the code image 60 according to the first embodiment. The display processing of the code image 60 generated by the mobileterminal device 20 will be described in detail using FIG.
図4は、第1の実施形態に係るコード画像60の表示処理を示すフローチャートである。図4を用いて、携帯端末装置20によって生成されるコード画像60の表示処理を詳細に説明する。 <Code image display processing>
FIG. 4 is a flowchart showing the display processing of the code image 60 according to the first embodiment. The display processing of the code image 60 generated by the mobile
携帯端末装置20のCPU21は、ユーザによって指定されたデータを取得する(S101)。例えば、ユーザによって指定されたデータは、メッセンジャーソフトウェアのアカウント情報、ソーシャルネットワーキングサービスのアカウント情報、サーバのURL、自身の連絡先データ等である。CPU21は、取得したデータに基づきコード情報50を生成する(S102)。生成されるコードは、ユーザに提示してもしなくてもよい。
The CPU 21 of the mobile terminal device 20 acquires data designated by the user (S101). For example, the data specified by the user is messenger software account information, social networking service account information, server URL, own contact data, and the like. The CPU 21 generates code information 50 based on the acquired data (S102). The generated code may or may not be presented to the user.
次に、取得部としてのCPU21は、背景画像40を取得する。例えば、CPU21は、メモリ22またはカメラ24から背景画像40を取得する(S103)。
Next, the CPU 21 as the acquisition unit acquires the background image 40. For example, the CPU 21 acquires the background image 40 from the memory 22 or the camera 24 (S103).
背景画像40に高周波成分が多く含まれると、不可視コードの抽出が困難になる。このため、CPU21は、背景画像40に対してフーリエ変換を行うことにより、背景画像40の周波数特性を算出する(S104)。その後、CPU21は、算出した背景画像40の空間周波数が所定値以上か否かを判定する(S105)。CPU21は、算出した背景画像40の空間周波数が所定値以上でないと判定した場合、後述するS107に処理を進める。
If the background image 40 contains many high-frequency components, it is difficult to extract invisible codes. For this reason, CPU21 calculates the frequency characteristic of the background image 40 by performing a Fourier transform with respect to the background image 40 (S104). Thereafter, the CPU 21 determines whether or not the calculated spatial frequency of the background image 40 is equal to or higher than a predetermined value (S105). If the CPU 21 determines that the calculated spatial frequency of the background image 40 is not equal to or greater than a predetermined value, the CPU 21 proceeds to S107 described later.
一方、CPU21は、算出した背景画像40の周波数が所定値以上であると判定した場合、背景画像40に含まれる空間周波数が所定値以上の成分を除去する(S106)。なお、CPU21は、高周波成分が除去された背景画像40と、高周波成分が除去される前の背景画像40の両方を、メモリ22に保持してもよい。
On the other hand, when the CPU 21 determines that the calculated frequency of the background image 40 is equal to or higher than a predetermined value, the CPU 21 removes a component whose spatial frequency included in the background image 40 is equal to or higher than the predetermined value (S106). Note that the CPU 21 may hold both the background image 40 from which the high frequency component has been removed and the background image 40 from which the high frequency component has been removed, in the memory 22.
例えば、CPU21は、背景画像40に対してフィルタ処理を行うことによって、背景画像40に含まれる空間周波数が所定値以上の成分を除去する。具体的に、CPU21は、以下の式(1)に基づいて、背景画像40の座標(i,j)に対してフィルタ処理を行う。ここで、Xi,jはフィルタ処理前の画素値を示し、Yi,jはフィルタ処理後の画素値を示す。
For example, the CPU 21 performs a filtering process on the background image 40 to remove components whose spatial frequency included in the background image 40 is a predetermined value or more. Specifically, the CPU 21 performs a filtering process on the coordinates (i, j) of the background image 40 based on the following equation (1). Here, X i, j represents a pixel value before filtering, and Y i, j represents a pixel value after filtering.
背景画像40に空間周波数が高い成分が含まれていると、背景画像40の撮影時に手ぶれの影響を受けやすい。このため、背景画像40がぶれてしまうと、不可視コードを抽出するのが困難となる。このため、CPU21は、背景画像40に対してフィルタ処理を行うことにより、空間周波数が所定値以上の成分が除去する。これによって、手ぶれの影響を低減することができる。
If the background image 40 includes a component having a high spatial frequency, the background image 40 is susceptible to camera shake when the background image 40 is captured. For this reason, if the background image 40 is blurred, it becomes difficult to extract an invisible code. For this reason, the CPU 21 performs a filtering process on the background image 40 to remove components having a spatial frequency equal to or higher than a predetermined value. Thereby, the influence of camera shake can be reduced.
その後、CPU21は、コード情報50と背景画像40とを用いて、後述するコード画像生成処理を行う(S107)。コード画像生成処理において、生成部としてのCPU21は、背景画像40にコード情報50を不可視状態で埋め込むことで、コード画像60を生成する。詳細は後述するが、CPU21は、コード情報50と重なる位置の背景画像40の画素値を変動させることで、背景画像40にコード情報50を不可視状態で埋め込む。CPU21は、生成したコード画像60を表示部としてのディスプレイD2に表示し(S108)、本フローチャートによる処理を終了する。
Thereafter, the CPU 21 performs a code image generation process to be described later using the code information 50 and the background image 40 (S107). In the code image generation process, the CPU 21 as the generation unit generates the code image 60 by embedding the code information 50 in the background image 40 in an invisible state. Although details will be described later, the CPU 21 embeds the code information 50 in the background image 40 in an invisible state by changing the pixel value of the background image 40 at a position overlapping the code information 50. The CPU 21 displays the generated code image 60 on the display D2 as a display unit (S108), and ends the processing according to this flowchart.
図5は、第1の実施形態に係るコード画像生成処理を示すフローチャートである。図5に示されるフローチャートは、図4のS107の処理を詳細に示す。
FIG. 5 is a flowchart showing a code image generation process according to the first embodiment. The flowchart shown in FIG. 5 shows the process of S107 of FIG. 4 in detail.
まず、CPU21は、背景画像40およびコード情報50を解析する(S201)。例えば、CPU21は、コード情報50が配置される位置の背景画像40の色データを取得するとともに、取得した色データのRGB値を取得する。CPU21は、取得したRGB値に基づき、コード情報50が背景画像40への埋め込みに適するか否かを判定する。例えば、CPU21は、コード情報50が配置される位置の背景画像40の色データのうち、過半数がコード情報50を埋め込むのに適さない場合、コード情報50が背景画像40への埋め込みに適さないと判定する。
First, the CPU 21 analyzes the background image 40 and the code information 50 (S201). For example, the CPU 21 acquires the color data of the background image 40 at the position where the code information 50 is arranged, and acquires the RGB value of the acquired color data. The CPU 21 determines whether the code information 50 is suitable for embedding in the background image 40 based on the acquired RGB values. For example, when the majority of the color data of the background image 40 at the position where the code information 50 is arranged is not suitable for embedding the code information 50, the CPU 21 determines that the code information 50 is not suitable for embedding in the background image 40. judge.
コード情報50を埋め込むのに適さない色データとは、色を変動させる余裕がない画素値を意味する。具体的には、画素値を8ビットRGBで表現した場合、(255,255,255)や(0,0,0)等が、コード情報50を埋め込むのに適さない色データに該当する。なお、画素値の変動方向として彩度方向を設定した場合には、彩度が限界値である画素値も、コード情報50を埋め込むのに適さない色データに該当する。
The color data that is not suitable for embedding the code information 50 means a pixel value that cannot afford to change the color. Specifically, when the pixel value is expressed in 8-bit RGB, (255, 255, 255), (0, 0, 0), and the like correspond to color data that is not suitable for embedding the code information 50. When the saturation direction is set as the variation direction of the pixel value, the pixel value whose saturation is the limit value also corresponds to color data that is not suitable for embedding the code information 50.
画素値が表現範囲の限界値近傍である場合、画素値を変動させるための変動幅を十分に確保できない。このため、画素値を8ビットRGB(256諧調)で表現した場合、各RGB値と限界値(0または255)との差の総和が10程度確保できれば、コード情報50を背景画像40に好適に埋め込むことができる。
When the pixel value is near the limit value of the expression range, it is not possible to secure a sufficient fluctuation range for changing the pixel value. For this reason, when the pixel value is expressed in 8-bit RGB (256 gradations), the code information 50 is suitably used for the background image 40 if the sum of differences between the RGB values and the limit value (0 or 255) can be secured. Can be embedded.
CPU21は、コード情報50が背景画像40への埋め込みに適さないと判定した場合、背景画像40を考慮してコード情報50を再生成する(S202)。例えば、CPU21は、コード情報50の誤り訂正符号の余裕ビットを利用して、データドット53によって保持される情報の同一性を維持した状態で、データドット53の配置を変更する。これによって、CPU21は、コード情報50を再生成する。CPU21は、コード情報50を背景画像40に好適に埋め込むことができるまで、コード画像60の生成を繰り返す。
When the CPU 21 determines that the code information 50 is not suitable for embedding in the background image 40, the CPU 21 regenerates the code information 50 in consideration of the background image 40 (S202). For example, the CPU 21 uses the margin bits of the error correction code of the code information 50 to change the arrangement of the data dots 53 while maintaining the identity of the information held by the data dots 53. As a result, the CPU 21 regenerates the code information 50. The CPU 21 repeats the generation of the code image 60 until the code information 50 can be suitably embedded in the background image 40.
次に、CPU21は、コード情報50の画素値の変動方向および変動幅を決定する(S203)。本実施形態においては、CPU21は、コード情報50の画素値を中心として色相上で相補的な二色に画素値を変動させる。
Next, the CPU 21 determines the fluctuation direction and fluctuation width of the pixel value of the code information 50 (S203). In this embodiment, the CPU 21 changes the pixel value to two complementary colors on the hue with the pixel value of the code information 50 as the center.
CPU21は、コード情報50と重なる位置の背景画像40の画像値を取得する(S204)。CPU21は、取得した画像値に対して、S203において決定された条件で画像処理を行う(S205)。
CPU21 acquires the image value of the background image 40 of the position which overlaps with the code information 50 (S204). The CPU 21 performs image processing on the acquired image value under the conditions determined in S203 (S205).
例えば、CPU21は、S204において取得された画素値(R,G,B)を、HSVモデルにおける画素値(H,S,V)に変換する。ここで、H(Hue)は色相を示し、S(Saturation Chroma)は彩度を示し、V(Value Lightness Brightness)は明度を示す。なお、CPU21は、以下の式(2)~式(4)に基づいて、画素値(R,G,B)を画素値(H,S,V)に変換する。ここで、MAXはRGBのうちの最大の値を示し、MINはRGBのうちの最小の値を示す。
For example, the CPU 21 converts the pixel values (R, G, B) acquired in S204 into pixel values (H, S, V) in the HSV model. Here, H (Hue) represents a hue, S (Saturation Chroma) represents saturation, and V (Value Lightness Brightness) represents lightness. The CPU 21 converts the pixel values (R, G, B) into pixel values (H, S, V) based on the following formulas (2) to (4). Here, MAX indicates the maximum value of RGB, and MIN indicates the minimum value of RGB.
CPU21は、変換した画素値(H,S,V)に対し、彩度方向の画素値から5が減算された色データAと、彩度方向の画素値に5が加算された色データBとを生成する。すなわち、色データAは(H,S-5,V)であり、色データBは(H,S+5,V)である。なお、本実施形態においては画素値の変動幅を5としたが、これに限られない。
The CPU 21 converts color data A obtained by subtracting 5 from the pixel value in the saturation direction to the converted pixel value (H, S, V), and color data B obtained by adding 5 to the pixel value in the saturation direction. Is generated. That is, the color data A is (H, S-5, V), and the color data B is (H, S + 5, V). In the present embodiment, the fluctuation range of the pixel value is set to 5, but the present invention is not limited to this.
CPU21は、コード情報50と重なる位置の背景画像40の画素値を変動させることによって、第1のフレーム画像と第2のフレーム画像とを生成する。CPU21は、生成した第1のフレーム画像と第2のフレーム画像とを0.03[秒]未満の間隔で交互に切り替えることにより、不可視コードが埋め込まれたコード画像60(動画)を生成する(S206)。言い換えると、CPU21は、生成した第1のフレーム画像と第2のフレーム画像とを30[Hz]より高い周波数で交互に切り替えることにより、不可視コードが埋め込まれたコード画像60(動画)を生成する。
The CPU 21 generates the first frame image and the second frame image by changing the pixel value of the background image 40 at the position overlapping the code information 50. The CPU 21 generates the code image 60 (moving image) in which the invisible code is embedded by alternately switching the generated first frame image and second frame image at intervals of less than 0.03 [seconds] ( S206). In other words, the CPU 21 generates the code image 60 (moving image) in which the invisible code is embedded by alternately switching the generated first frame image and second frame image at a frequency higher than 30 [Hz]. .
その後、CPU21は、前述の図4のS108に処理を進める。CPU21は、生成した不可視コードが埋め込まれたコード画像60(動画)をディスプレイD2に表示する。これによって、コード情報50を不可視状態で背景画像40に埋め込むことができる。
Thereafter, the CPU 21 advances the process to S108 of FIG. The CPU 21 displays the code image 60 (moving image) in which the generated invisible code is embedded on the display D2. Thereby, the code information 50 can be embedded in the background image 40 in an invisible state.
以上説明したように、CPU21は、フィルタ処理が行われた背景画像40に、コード情報50が不可視状態で埋め込まれたコード画像60を生成する。具体的に、CPU21は、コード情報50と重なる位置の背景画像40の画素値を、この画素値を中心として所定の方向に変動させることで、コード画像60を生成する。これによって、スクリーンショットのような静止画をキャプチャーする方法を用いて、コード画像60を複製することを防止することができる。
As described above, the CPU 21 generates the code image 60 in which the code information 50 is embedded in the invisible state in the background image 40 subjected to the filter processing. Specifically, the CPU 21 generates the code image 60 by changing the pixel value of the background image 40 at a position overlapping with the code information 50 in a predetermined direction around the pixel value. Accordingly, it is possible to prevent the code image 60 from being copied using a method of capturing a still image such as a screen shot.
なお、本実施形態においては、RGBの画素値や、HSVモデルの画素値を用いることとしたが、これに限られない。例えば、HSL色空間の画素値や、L*a*b*(JIS Z 8730)の画素値を用いてもよい。
In the present embodiment, RGB pixel values and HSV model pixel values are used. However, the present invention is not limited to this. For example, a pixel value in the HSL color space or a pixel value of L * a * b * (JIS Z 8730) may be used.
<コード画像の読取処理>
図6は、第1の実施形態に係るコード画像60の読取処理を示すフローチャートである。図6を用いて、携帯端末装置20によって生成されるコード画像60の読取処理を詳細に説明する。 <Code image reading process>
FIG. 6 is a flowchart showing a reading process of the code image 60 according to the first embodiment. The reading process of the code image 60 generated by the mobileterminal device 20 will be described in detail with reference to FIG.
図6は、第1の実施形態に係るコード画像60の読取処理を示すフローチャートである。図6を用いて、携帯端末装置20によって生成されるコード画像60の読取処理を詳細に説明する。 <Code image reading process>
FIG. 6 is a flowchart showing a reading process of the code image 60 according to the first embodiment. The reading process of the code image 60 generated by the mobile
まず、携帯端末装置20のカメラ24は、他の携帯端末装置のディスプレイD2に表示されたコード画像60を撮影することで、コード画像60を取得する(S301)。取得されたコード画像60には、コード情報50と重なる位置の背景画像40の画素値が変動された複数のフレーム画像が含まれる。
First, the camera 24 of the mobile terminal device 20 acquires the code image 60 by photographing the code image 60 displayed on the display D2 of another mobile terminal device (S301). The acquired code image 60 includes a plurality of frame images in which the pixel values of the background image 40 at positions overlapping the code information 50 are changed.
CPU21は、取得したコード画像60に含まれる複数のフレーム画像の中から、シャープネスが高いフレーム画像を抽出する(S302)。例えば、CPU21は、複数のフレーム画像の各々に対してフーリエ変換を行うことによって空間周波数を算出し、算出した空間周波数が最も高いフレーム画像を抽出する。
The CPU 21 extracts a frame image with high sharpness from a plurality of frame images included in the acquired code image 60 (S302). For example, the CPU 21 calculates a spatial frequency by performing Fourier transform on each of a plurality of frame images, and extracts a frame image having the highest calculated spatial frequency.
CPU21は、抽出したフレーム画像から位置検出用マーカ51および姿勢補正用マーカ52を検出する(S303)。次に、CPU21は、検出した位置検出用マーカ51および姿勢補正用マーカ52を用いて、複数のフレーム画像を正規化する。具体的には、CPU21は、位置検出用マーカ51および姿勢補正用マーカ52を用いて、複数のフレーム画像に対して射影変換(ホモグラフィー変換)を行う(S304)。
The CPU 21 detects the position detection marker 51 and the posture correction marker 52 from the extracted frame image (S303). Next, the CPU 21 normalizes a plurality of frame images using the detected position detection marker 51 and posture correction marker 52. Specifically, the CPU 21 performs projective transformation (homography transformation) on a plurality of frame images using the position detection marker 51 and the posture correction marker 52 (S304).
もし、コード画像60が表示されるディスプレイD2と正対するようにカメラ24を配置しなければ、正方形の2次元コードが歪んで撮像されてしまう。このため、CPU21は、複数のフレーム画像に対してホモグラフィー変換等の射影変換を行う。これによって、ヨー、ピッチ、ロール、軸ずれ等に起因する複数のフレーム画像の歪みが補正される。
If the camera 24 is not arranged so as to face the display D2 on which the code image 60 is displayed, a square two-dimensional code is distorted and imaged. For this reason, the CPU 21 performs projection conversion such as homography conversion on a plurality of frame images. As a result, distortion of a plurality of frame images due to yaw, pitch, roll, axis deviation, etc. is corrected.
CPU21は、以下の式(5)に基づいてホモグラフィー変換を行う。ここで、(x1、y1)はホモグラフィー変換前の座標を示し、(x2、y2)はホモグラフィー変換後の座標を示す。a、b、c、d、e、f、g、h、およびiは、変換係数を示す。
The CPU 21 performs homography conversion based on the following equation (5). Here, (x 1 , y 1 ) indicates coordinates before homography conversion, and (x 2 , y 2 ) indicates coordinates after homography conversion. a, b, c, d, e, f, g, h, and i represent conversion coefficients.
次に、抽出部としてのCPU21は、歪みが補正された複数のフレーム画像の画素値の差分を算出し、算出した差分に基づいて不可視コード(コード情報50)を抽出する(S305)。その後、CPU21は、抽出した不可視コードをデコードし(S306)、本フローチャートによる処理を終了する。
Next, the CPU 21 as the extraction unit calculates a difference between pixel values of a plurality of frame images whose distortion has been corrected, and extracts an invisible code (code information 50) based on the calculated difference (S305). Thereafter, the CPU 21 decodes the extracted invisible code (S306) and ends the processing according to this flowchart.
以上説明したように、携帯端末装置20は、コード画像60を読み取るカメラ24と、カメラ24によって読み取られたコード画像60からコード情報50を抽出するCPU21とを有する。具体的に、カメラ24は、コード情報50と重なる位置の背景画像40の画素値が変動された複数のフレーム画像を含むコード画像を読み取る。CPU21は、カメラ24によって読み取られた複数のフレーム画像の差分に基づき、コード情報50(不可視コード)を抽出する。
As described above, the mobile terminal device 20 includes the camera 24 that reads the code image 60 and the CPU 21 that extracts the code information 50 from the code image 60 read by the camera 24. Specifically, the camera 24 reads a code image including a plurality of frame images in which pixel values of the background image 40 at a position overlapping the code information 50 are changed. The CPU 21 extracts code information 50 (invisible code) based on the difference between the plurality of frame images read by the camera 24.
これによって、手ぶれが発生しやすい携帯端末装置20を用いた場合であっても、不可視コードの表示の精度および読み取りの精度を向上することができる。また、手ぶれによる読み取りエラーを低減できるため、不可視コードとして採用されるコード情報50のデータドットのサイズを小型化することができる。このため、携帯端末装置20のディスプレイD2のサイズが小さい場合であっても、読み取りに十分なデータ密度を確保することができる。
This makes it possible to improve the accuracy of displaying and reading the invisible code even when the mobile terminal device 20 that is likely to be shaken is used. Moreover, since reading errors due to camera shake can be reduced, the size of the data dots of the code information 50 employed as the invisible code can be reduced. For this reason, even when the size of the display D2 of the mobile terminal device 20 is small, a data density sufficient for reading can be ensured.
(第2の実施形態)
第1の実施形態において、携帯端末装置20のCPU21は、背景画像40に含まれる空間周波数が所定値以上の成分を除去する処理(空間周波数調整)を行うこととした。これに対し、第2の実施形態において、CPU21は、空間周波数調整に加えて、背景画像40における画素値の表現幅を狭くする処理(表現幅調整)を行うこととする。以下、第2の実施形態について詳細に説明する。 (Second Embodiment)
In the first embodiment, theCPU 21 of the mobile terminal device 20 performs a process (spatial frequency adjustment) for removing a component whose spatial frequency included in the background image 40 is a predetermined value or more. On the other hand, in the second embodiment, the CPU 21 performs processing (expression width adjustment) for narrowing the expression width of the pixel value in the background image 40 in addition to the spatial frequency adjustment. Hereinafter, the second embodiment will be described in detail.
第1の実施形態において、携帯端末装置20のCPU21は、背景画像40に含まれる空間周波数が所定値以上の成分を除去する処理(空間周波数調整)を行うこととした。これに対し、第2の実施形態において、CPU21は、空間周波数調整に加えて、背景画像40における画素値の表現幅を狭くする処理(表現幅調整)を行うこととする。以下、第2の実施形態について詳細に説明する。 (Second Embodiment)
In the first embodiment, the
<背景画像に対する画像処理>
図7は、第2の実施形態に係る背景画像40に対して行われる画像処理を示す図である。ユーザによって指定される背景画像40は多種多様であり、不可視コードを埋め込むのに適していない背景画像40が指定される場合もある。このため、画像処理部としてのCPU21は、背景画像40に対して不可視コードを埋め込むのに適した形式に変換する画像処理を行う。 <Image processing for background image>
FIG. 7 is a diagram illustrating image processing performed on thebackground image 40 according to the second embodiment. There are various background images 40 specified by the user, and a background image 40 that is not suitable for embedding an invisible code may be specified. For this reason, the CPU 21 as the image processing unit performs image processing for converting the background image 40 into a format suitable for embedding the invisible code.
図7は、第2の実施形態に係る背景画像40に対して行われる画像処理を示す図である。ユーザによって指定される背景画像40は多種多様であり、不可視コードを埋め込むのに適していない背景画像40が指定される場合もある。このため、画像処理部としてのCPU21は、背景画像40に対して不可視コードを埋め込むのに適した形式に変換する画像処理を行う。 <Image processing for background image>
FIG. 7 is a diagram illustrating image processing performed on the
背景画像40の画素値を8ビットRGBで表現した場合、RGBの各値が0近傍や255近傍の画素に不可視コードを埋め込むのは困難である。これは、コード情報50の画素値の変動幅を大きくすることができないためである。このため、CPU21は、RGBのうち、背景画像40における画素値の範囲が5~250以内の色を特定し、特定した色を変動させる。
When the pixel value of the background image 40 is expressed in 8-bit RGB, it is difficult to embed an invisible code in a pixel where each RGB value is near 0 or 255. This is because the fluctuation range of the pixel value of the code information 50 cannot be increased. For this reason, the CPU 21 specifies a color having a pixel value range of 5 to 250 in the background image 40 out of RGB, and changes the specified color.
一方、背景画像40における画素値の範囲が5~250以内の色が存在しない場合、CPU21は、背景画像40における画素値の表現幅を狭くする処理(表現幅調整)を行う。例えば、CPU21は、表現幅調整において、0~255の表現幅を5~250まで狭くする。この場合、CPU21は、5未満の画素値を強制的に5にするとともに、250を超える画素値を強制的に250にする。
On the other hand, when there is no color having a pixel value range of 5 to 250 in the background image 40, the CPU 21 performs a process of narrowing the expression width of the pixel value in the background image 40 (expression width adjustment). For example, the CPU 21 narrows the expression width of 0 to 255 to 5 to 250 in the expression width adjustment. In this case, the CPU 21 forcibly sets the pixel value less than 5 to 5 and forcibly sets the pixel value exceeding 250 to 250.
CPU21は、背景画像40の全体に空間周波数調整および表現幅調整等の画像処理を行うが、これに限られない。例えば、CPU21は、コード情報50を埋め込む位置のみに、空間周波数調整および表現幅調整等の画像処理を行ってもよい。これによって、CPU21の計算時間を短縮することができる。
The CPU 21 performs image processing such as spatial frequency adjustment and expression width adjustment on the entire background image 40, but is not limited thereto. For example, the CPU 21 may perform image processing such as spatial frequency adjustment and expression width adjustment only at the position where the code information 50 is embedded. Thereby, the calculation time of the CPU 21 can be shortened.
以上説明したように、本実施形態において、CPU21は、空間周波数調整に加えて、背景画像40における画素値の表現幅を狭くする処理(表現幅調整)を行う。これによって、不可視コードを埋め込むのに適した形式に背景画像40を変換することができる。
As described above, in the present embodiment, in addition to the spatial frequency adjustment, the CPU 21 performs a process of narrowing the expression width of the pixel value in the background image 40 (expression width adjustment). As a result, the background image 40 can be converted into a format suitable for embedding the invisible code.
なお、本実施形態において、CPU21は、空間周波数調整および表現幅調整の一方を背景画像40に対して行ってもよいし、空間周波数調整および表現幅調整の両方を背景画像40に対して行ってもよい。また、CPU21は、これらの画像処理に加えて、他の画像処理を背景画像40に対して行ってもよい。
In the present embodiment, the CPU 21 may perform one of the spatial frequency adjustment and the expression width adjustment on the background image 40, or perform both the spatial frequency adjustment and the expression width adjustment on the background image 40. Also good. In addition to these image processes, the CPU 21 may perform other image processes on the background image 40.
(第3の実施形態)
第1および第2の実施形態において、携帯端末装置20のCPU21は、コード画像60をディスプレイD2に表示することとした。これに対し、第3の実施形態において、CPU21は、ディスプレイD2に対するユーザの操作に応じてディスプレイD2に表示される画像を切り替えることとする。ディスプレイD2に対するユーザの操作は、例えばディスプレイD2に対するタップ操作である。以下、第3の実施形態について詳細に説明する。 (Third embodiment)
In the first and second embodiments, theCPU 21 of the mobile terminal device 20 displays the code image 60 on the display D2. On the other hand, in the third embodiment, the CPU 21 switches the image displayed on the display D2 in accordance with a user operation on the display D2. The user operation on the display D2 is, for example, a tap operation on the display D2. Hereinafter, the third embodiment will be described in detail.
第1および第2の実施形態において、携帯端末装置20のCPU21は、コード画像60をディスプレイD2に表示することとした。これに対し、第3の実施形態において、CPU21は、ディスプレイD2に対するユーザの操作に応じてディスプレイD2に表示される画像を切り替えることとする。ディスプレイD2に対するユーザの操作は、例えばディスプレイD2に対するタップ操作である。以下、第3の実施形態について詳細に説明する。 (Third embodiment)
In the first and second embodiments, the
<ディスプレイD2に表示される画像の切替処理>
第1のフレーム画像60aと第2のフレーム画像60bが交互に切り替わるコード画像60(動画)を高い周波数でディスプレイD2に表示し続けると、消費電力が大きくなる。一方、消費電力を小さくするために第1のフレーム画像60aと第2のフレーム画像60bを切り替える周波数を低くすると、第1のフレーム画像60aと第2のフレーム画像60bの切り替わり(点滅)が肉眼で認識される可能性がある。画像の切り替え(点滅)が肉眼で認識されると、ディスプレイD2に表示されたコード画像60に対して違和感が生じる。 <Switching process of images displayed on display D2>
If the code image 60 (moving image) in which thefirst frame image 60a and the second frame image 60b are alternately switched is continuously displayed on the display D2 at a high frequency, the power consumption increases. On the other hand, when the frequency for switching between the first frame image 60a and the second frame image 60b is lowered in order to reduce the power consumption, the switching (flashing) between the first frame image 60a and the second frame image 60b is made with the naked eye. May be recognized. When the switching (flashing) of the image is recognized with the naked eye, the code image 60 displayed on the display D2 is uncomfortable.
第1のフレーム画像60aと第2のフレーム画像60bが交互に切り替わるコード画像60(動画)を高い周波数でディスプレイD2に表示し続けると、消費電力が大きくなる。一方、消費電力を小さくするために第1のフレーム画像60aと第2のフレーム画像60bを切り替える周波数を低くすると、第1のフレーム画像60aと第2のフレーム画像60bの切り替わり(点滅)が肉眼で認識される可能性がある。画像の切り替え(点滅)が肉眼で認識されると、ディスプレイD2に表示されたコード画像60に対して違和感が生じる。 <Switching process of images displayed on display D2>
If the code image 60 (moving image) in which the
このため、本実施形態において、CPU21は、ディスプレイD2に対するユーザの操作に応じて、フレーム画像の切り替えが行われない背景画像40(静止画)をディスプレイD2に表示するか、フレーム画像の切り替えが行われるコード画像60(動画)をディスプレイD2に表示される画像を切り替える。
Therefore, in the present embodiment, the CPU 21 displays the background image 40 (still image) on which the frame image is not switched on the display D2 or switches the frame image according to the user's operation on the display D2. The displayed code image 60 (moving image) is switched to the image displayed on the display D2.
図8~図10は、第3の実施形態に係る携帯端末装置20のディスプレイD2に表示される画像の一例を示す図である。ユーザによってディスプレイD2に対する操作が行われていない場合、図8に示されるように、CPU21は、背景画像40に画像処理を行わず、背景画像40にコード情報50を付与しない。すなわち、ディスプレイD2は、表現幅が0~255の背景画像40(静止画)を表示する。
8 to 10 are diagrams illustrating examples of images displayed on the display D2 of the mobile terminal device 20 according to the third embodiment. When the user does not perform an operation on the display D2, as illustrated in FIG. 8, the CPU 21 does not perform image processing on the background image 40 and does not add the code information 50 to the background image 40. That is, the display D2 displays the background image 40 (still image) having an expression width of 0 to 255.
一方、ユーザによってディスプレイD2に対する操作が行われた場合、図9に示されるように、CPU21は、背景画像40に画像処理を行うとともに、背景画像40にコード情報50を付与する。具体的に、CPU21は、背景画像40に前述の表現幅調整を行ってもよいし(背景A)、背景画像40に前述の空間周波数調整を行ってもよい(背景B)。また、背景画像40に埋め込まれるコード情報50の表現幅(変動幅)は、±5としてもよい。すなわち、ディスプレイD2に対してユーザの操作が行われた場合、ディスプレイD2は、背景画像40に代えて、背景画像40にコード情報50が不可視状態で埋め込まれたコード画像60(動画)を表示する。
On the other hand, when an operation is performed on the display D2 by the user, the CPU 21 performs image processing on the background image 40 and assigns code information 50 to the background image 40 as shown in FIG. Specifically, the CPU 21 may perform the above-described expression width adjustment on the background image 40 (background A), or may perform the above-described spatial frequency adjustment on the background image 40 (background B). Further, the expression width (variation width) of the code information 50 embedded in the background image 40 may be ± 5. That is, when a user operation is performed on the display D2, the display D2 displays a code image 60 (moving image) in which the code information 50 is embedded in the background image 40 in an invisible state instead of the background image 40. .
また、コード画像60を表示してから所定時間以上、ユーザによってディスプレイD2に対する操作が行われない場合、図10に示されるように、CPU21は、背景画像40に画像処理を行わず、背景画像40にコード情報50を付与しない。すなわち、ディスプレイD2は、コード画像60(動画)に代えて、表現幅が0~255の背景画像40(静止画)を表示する。
If the user does not perform an operation on the display D2 for a predetermined time or longer after the code image 60 is displayed, the CPU 21 does not perform image processing on the background image 40 as shown in FIG. The code information 50 is not given to. That is, the display D2 displays the background image 40 (still image) having an expression width of 0 to 255 instead of the code image 60 (moving image).
ディスプレイD2がコード画像60を表示する場合、CPU21がディスプレイD2に対して高速でフレーム画像を切り替える命令を出力するため、消費電力が増大する。これに対し、本実施形態によれば、ユーザによってディスプレイD2に対する操作が行われてから所定時間だけ、ディスプレイD2がコード画像60を表示するため、消費電力を低減することができる。また、画像の切り替え(点滅)による違和感を低減することもできる。
When the display D2 displays the code image 60, the CPU 21 outputs a command to switch the frame image at a high speed to the display D2, so that power consumption increases. On the other hand, according to the present embodiment, since the display D2 displays the code image 60 only for a predetermined time after the user performs an operation on the display D2, the power consumption can be reduced. Further, it is possible to reduce a sense of incongruity due to switching (flashing) of images.
<表示画像の切替処理の具体的なフローチャート>
図11は、第3の実施形態に係る表示画像の切替処理を示すフローチャートである。まず、携帯端末装置20のCPU21は、オリジナルの背景画像40のみをディスプレイD2に表示する(S401)。次に、CPU21は、ディスプレイD2がユーザによって操作されたか否かを判定する(S402)。 <Specific Flowchart of Display Image Switching Process>
FIG. 11 is a flowchart showing display image switching processing according to the third embodiment. First, theCPU 21 of the mobile terminal device 20 displays only the original background image 40 on the display D2 (S401). Next, the CPU 21 determines whether or not the display D2 has been operated by the user (S402).
図11は、第3の実施形態に係る表示画像の切替処理を示すフローチャートである。まず、携帯端末装置20のCPU21は、オリジナルの背景画像40のみをディスプレイD2に表示する(S401)。次に、CPU21は、ディスプレイD2がユーザによって操作されたか否かを判定する(S402)。 <Specific Flowchart of Display Image Switching Process>
FIG. 11 is a flowchart showing display image switching processing according to the third embodiment. First, the
CPU21は、ディスプレイD2がユーザによって操作されていないと判定した場合、前述のS402の処理を繰り返す。一方、CPU21は、ディスプレイD2がユーザによって操作されたと判定した場合、背景画像40に対して画像処理(例えば、表現幅調整や空間周波数調整等)を行う。その後、CPU21は、画像処理された背景画像40を表示する(S403)。
CPU21 repeats the process of above-mentioned S402, when it determines with the display D2 not being operated by the user. On the other hand, when the CPU 21 determines that the display D2 has been operated by the user, the CPU 21 performs image processing (for example, expression width adjustment, spatial frequency adjustment, etc.) on the background image 40. Thereafter, the CPU 21 displays the background image 40 subjected to the image processing (S403).
次に、CPU21は、ディスプレイD2の画面輝度を調整する(S404)。具体的に、CPU21は、ディスプレイD2の画面輝度を高くすることで、背景画像40に埋め込まれる不可視コード(コード情報50)を読み取り易くする。
Next, the CPU 21 adjusts the screen brightness of the display D2 (S404). Specifically, the CPU 21 makes it easy to read the invisible code (code information 50) embedded in the background image 40 by increasing the screen brightness of the display D2.
次に、CPU21は、背景画像40に不可視コード(コード情報50)を埋め込む(S405)。これによって、第1のフレーム画像60aと第2のフレーム画像60bが交互に切り替わるコード画像60が、ディスプレイD2に表示される。このように、ディスプレイD2は、背景画像40に代えてコード画像60を表示する。
Next, the CPU 21 embeds an invisible code (code information 50) in the background image 40 (S405). Thereby, the code image 60 in which the first frame image 60a and the second frame image 60b are alternately switched is displayed on the display D2. Thus, the display D2 displays the code image 60 instead of the background image 40.
コード画像60が表示されてから所定時間以上、ユーザによってディスプレイD2に対する操作が行われない場合、CPU21は、オリジナルの背景画像40をディスプレイD2に表示し(S406)、本フローチャートによる処理を終了する。これによって、画像の切り替え(点滅)による違和感を低減することができるとともに、消費電力を小さくすることができる。なお、コード画像60の読取処理は、第1の実施形態(図6)と同様であるので説明を省略する。
When the user does not perform any operation on the display D2 for a predetermined time or longer after the code image 60 is displayed, the CPU 21 displays the original background image 40 on the display D2 (S406), and ends the processing according to this flowchart. Thereby, it is possible to reduce a sense of incongruity due to switching (flashing) of images and to reduce power consumption. Note that the reading process of the code image 60 is the same as that in the first embodiment (FIG. 6), and thus the description thereof is omitted.
以上説明したように、本実施形態において、ユーザによってディスプレイD2に対する操作が行われていない場合、ディスプレイD2は背景画像40を表示する。また、ユーザによってディスプレイD2に対する操作が行われた場合、ディスプレイD2は背景画像40に代えてコード画像60を表示する。また、コード画像60が表示されてから所定時間以上、ユーザによってディスプレイD2に対する操作が行われない場合、ディスプレイD2は、コード画像60に代えて背景画像40を表示する。これによって、消費電力を低減することができるとともに、画像の切り替え(点滅)による違和感を低減することができる。
As described above, in this embodiment, when the user does not perform an operation on the display D2, the display D2 displays the background image 40. When the user performs an operation on the display D2, the display D2 displays the code image 60 instead of the background image 40. When the user does not perform an operation on the display D2 for a predetermined time or longer after the code image 60 is displayed, the display D2 displays the background image 40 instead of the code image 60. Thereby, power consumption can be reduced, and uncomfortable feeling due to switching (flashing) of images can be reduced.
(第4の実施形態)
第1~第3の実施形態において、携帯端末装置20のCPU21は、1つの軸方向にのみ画素値を変動させることとした。これに対し、第4の実施形態において、CPU21は2つ以上の軸方向に画素値を変動させることとする。以下、第4の実施形態について詳細に説明する。 (Fourth embodiment)
In the first to third embodiments, theCPU 21 of the mobile terminal device 20 changes the pixel value only in one axial direction. On the other hand, in the fourth embodiment, the CPU 21 varies the pixel value in two or more axial directions. Hereinafter, the fourth embodiment will be described in detail.
第1~第3の実施形態において、携帯端末装置20のCPU21は、1つの軸方向にのみ画素値を変動させることとした。これに対し、第4の実施形態において、CPU21は2つ以上の軸方向に画素値を変動させることとする。以下、第4の実施形態について詳細に説明する。 (Fourth embodiment)
In the first to third embodiments, the
<背景画像の色情報操作に関するイメージ図>
前述したように、CPU21が背景画像40に不可視コードを埋め込む際、背景画像40の色データによっては画像処理を行う必要がある。このため、まず、画像処理を行う必要がある理由について説明する。 <Image of color information manipulation for background image>
As described above, when theCPU 21 embeds an invisible code in the background image 40, it is necessary to perform image processing depending on the color data of the background image 40. For this reason, first, the reason why it is necessary to perform image processing will be described.
前述したように、CPU21が背景画像40に不可視コードを埋め込む際、背景画像40の色データによっては画像処理を行う必要がある。このため、まず、画像処理を行う必要がある理由について説明する。 <Image of color information manipulation for background image>
As described above, when the
図12~図14は、第4の実施形態に係る色空間の一例を示す図である。図12に示されるように、色空間には、円筒形の軸70と、リング状の帯71と、扇形の領域72とが含まれる。円筒形の軸70は、白と黒をつなぐ彩度ゼロの領域を示す軸であり、上に行くほど明度が高くなる。リング状の帯71は、色相を示す。扇形の領域72は、外に行くほど彩度が高い。
12 to 14 are diagrams showing an example of the color space according to the fourth embodiment. As shown in FIG. 12, the color space includes a cylindrical shaft 70, a ring-shaped band 71, and a fan-shaped region 72. The cylindrical axis 70 is an axis indicating a zero-saturation region connecting white and black, and the brightness increases as it goes upward. The ring-shaped band 71 shows a hue. The sector-shaped area 72 has higher saturation as it goes outward.
図13は、マンセルの色彩球73を示す図である。図13に示されるように、マンセルの色彩球73の最上部は白を示し、マンセルの色彩球73の最下部は黒を示す。すなわち、マンセルの色彩球73の上の方ほど明度が高く、マンセルの色彩球73の下の方ほど明度(Lightness)が低い。また、マンセルの色彩球73の外周方向は、色相(Hue)方向を示す。更に、マンセルの色彩球73の中心から遠いほど彩度が高い。
FIG. 13 shows a Munsell color sphere 73. As shown in FIG. 13, the uppermost part of the Munsell color sphere 73 indicates white, and the lowermost part of the Munsell color sphere 73 indicates black. That is, the lightness is higher toward the upper part of the Munsell color sphere 73, and the lightness (Lightness) is lower toward the lower part of the Munsell color sphere 73. Further, the outer peripheral direction of the Munsell color sphere 73 indicates a hue (Hue) direction. Furthermore, the farther from the center of the Munsell color sphere 73, the higher the saturation.
図14は、マンセルの色彩球73の内部を示す図である。図14を用いて、不可視コードを埋め込むのに適した背景画像40の色空間を説明する。
FIG. 14 is a view showing the inside of the Munsell color sphere 73. A color space of the background image 40 suitable for embedding an invisible code will be described with reference to FIG.
前述したように、CPU21は、コード情報50と重なる位置の背景画像40の画素値を所定方向に変動させる。例えば、CPU21は、図14に示されるBaseを中心として画素値を変動させる。CPU21が30[Hz]より高い周波数で画素値を変動させると、変動された画素値の平均が肉眼によって認識される。このため、CPU21がBASEを中心として矢印方向(2方向)に画素値を変動させたとしても、この画素の色はBase(2つの矢印の交点)の色であると肉眼によって認識される。
As described above, the CPU 21 changes the pixel value of the background image 40 at the position overlapping the code information 50 in a predetermined direction. For example, the CPU 21 changes the pixel value around the Base shown in FIG. When the CPU 21 changes the pixel value at a frequency higher than 30 [Hz], the average of the changed pixel values is recognized by the naked eye. For this reason, even if the CPU 21 changes the pixel value in the arrow direction (two directions) around BASE, the color of this pixel is recognized by the naked eye as the color of Base (intersection of two arrows).
このことから、図14に示されるTop、Out、またはBottomにBaseが位置すると、画素値を変動させることが難しい(言い換えると、十分な変動幅を確保することができない)。このため、オリジナルの背景画像40の色データ(Base)がInner以外の領域に含まれる場合、CPU21は、背景画像40の見え方を損なわないように、色データ(Base)をInnerの領域内に配置する。これによって、画素値を変動させるための変動幅を十分に確保することができるため、不可視コードを読み取り易くすることができる。
For this reason, it is difficult to change the pixel value when the Base is positioned at Top, Out, or Bottom shown in FIG. 14 (in other words, a sufficient fluctuation range cannot be secured). Therefore, when the color data (Base) of the original background image 40 is included in an area other than the Inner, the CPU 21 places the color data (Base) in the Inner area so as not to impair the appearance of the background image 40. Deploy. As a result, a sufficient fluctuation range for changing the pixel value can be secured, so that the invisible code can be easily read.
CPU21は、色データ(Base)をInnerの領域内に配置することで、明度方向のみ画素値を変動させるだけではなく、彩度方向にも画素値を変動させることができる。CPU21が色データ(Base)をInnerの領域内に配置すると、画素値を変動させる方向を十分に確保することができるため、不可視コードが保持できるデータ量を引き上げることができる。例えば、CPU21が2軸方向に画素値を変動させると、1軸方向に画素値を変動させるエンコード方式と比べて、同一面積において保持できるデータ量を増加させることができる。言い換えると、コード画像60のデータ密度を向上させることができる。
The CPU 21 can change the pixel value not only in the brightness direction but also in the saturation direction by arranging the color data (Base) in the inner area. When the CPU 21 arranges the color data (Base) in the Inner area, the direction in which the pixel value is changed can be sufficiently secured, so that the amount of data that can be held by the invisible code can be increased. For example, when the CPU 21 changes the pixel value in the biaxial direction, the amount of data that can be held in the same area can be increased as compared with an encoding method that changes the pixel value in the uniaxial direction. In other words, the data density of the code image 60 can be improved.
例えば、CPU21が明度方向(θ=0°)と、明度方向に直交する方向(θ=90°)に画素値を変動させる場合、明度方向(θ=0°)の変動に「0」をデータとして割り当てることができるとともに、明度方向に直交する方向(θ=90°)の変動に「1」をデータとして割り当てることができる。このため、コード画像60のデータ密度を向上させることができる。
For example, when the CPU 21 changes the pixel value in the lightness direction (θ = 0 °) and the direction orthogonal to the lightness direction (θ = 90 °), “0” is used for the change in the lightness direction (θ = 0 °). And “1” can be assigned as data to fluctuations in the direction orthogonal to the brightness direction (θ = 90 °). For this reason, the data density of the code image 60 can be improved.
なお、CPU21は、3軸方向(例えば、明度方向と、明度方向に60°交差する方向と、明度方向に120°交差する方向)に画素値を変動させてもよい。この場合、θ=0°、60°、および120°である。また、CPU21は、4軸以上の方向に画素値を変動させてもよい。CPU21は、画素値を彩度方向に変動させることもでき、彩度方向、明度方向、および色相方向を適宜組み合わせて画素値を変動させてもよい。
Note that the CPU 21 may change the pixel value in three axis directions (for example, a direction in which the brightness direction intersects with the brightness direction by 60 ° and a direction in which the brightness direction intersects by 120 °). In this case, θ = 0 °, 60 °, and 120 °. Further, the CPU 21 may change the pixel value in directions of four axes or more. The CPU 21 can change the pixel value in the saturation direction, and may change the pixel value by appropriately combining the saturation direction, the brightness direction, and the hue direction.
なお、CPU21が画素値の変動の周波数を高くしても、画素値の変動幅が大きいと肉眼で認識されやすくなる。特に、明度方向における変動は、彩度方向の変動および色相方向の変動よりも、肉眼によって認識されやすい。このため、CPU21は、明度方向における変動幅を、色相方向における変動幅および彩度方向における変動幅よりも小さくする。
Note that even if the CPU 21 increases the frequency of the pixel value variation, if the variation range of the pixel value is large, it is easily recognized with the naked eye. In particular, changes in the brightness direction are more easily recognized by the naked eye than changes in the saturation direction and changes in the hue direction. For this reason, the CPU 21 makes the variation width in the brightness direction smaller than the variation width in the hue direction and the variation width in the saturation direction.
なお、CPU21は、色相方向の変動幅の絶対値を、他の方向の変動幅の絶対値よりも必ず大きく設定する。つまり、CPU21は、色相>彩度>明度となるように、各方向の変動幅の絶対値を設定する。
Note that the CPU 21 always sets the absolute value of the variation range in the hue direction to be larger than the absolute value of the variation range in the other direction. That is, the CPU 21 sets the absolute value of the fluctuation range in each direction so that hue> saturation> lightness.
一例として、明度(輝度)、彩度、色相について説明したが、RGBや他の色表現に本実施形態を適用してもよい。(R,G,B)=(20,20,20)の場合、CPU21は、B(Blue)方向に画素値を変動するとともに、G(Green)方向に画素値を変動してもよい。言い換えると、CPU21がB方向に画素値を変動する場合、30[Hz]を超える周波数で、(20,20,15)と(20,20,25)を切り替えてもよい。また、CPU21がG方向に画素値を変動する場合、30[Hz]を超える周波数で、(20,15,20)と(20,25,20)を切り替えてもよい。
As an example, brightness (luminance), saturation, and hue have been described. However, the present embodiment may be applied to RGB and other color expressions. When (R, G, B) = (20, 20, 20), the CPU 21 may change the pixel value in the B (Blue) direction and may change the pixel value in the G (Green) direction. In other words, when the CPU 21 changes the pixel value in the B direction, (20, 20, 15) and (20, 20, 25) may be switched at a frequency exceeding 30 [Hz]. Further, when the CPU 21 changes the pixel value in the G direction, (20, 15, 20) and (20, 25, 20) may be switched at a frequency exceeding 30 [Hz].
RGB表現を用いる場合、Greenの諧調変化が最も明度変化(輝度変化)に影響を与え、Blueの諧調変化はGreenの諧調変化よりも明度変化(輝度変化)に影響を与えない。このため、CPU21は、Gの画素値の変動幅を、Bの画素値の変動幅よりも小さくするのが好ましい。例えば、CPU21は、(R,G,B)=(20,20±3,20),(20,20,20±5)と設定するのが好ましい。
When RGB expression is used, the gradation change of Green has the most influence on the brightness change (luminance change), and the gradation change of Blue does not affect the brightness change (luminance change) more than the gradation change of Green. For this reason, the CPU 21 preferably makes the fluctuation range of the G pixel value smaller than the fluctuation range of the B pixel value. For example, the CPU 21 preferably sets (R, G, B) = (20, 20 ± 3, 20), (20, 20, 20 ± 5).
<コード画像の生成処理>
図15は、第4の実施形態に係るコード画像60の生成処理を示すフローチャートである。図15を用いて、携帯端末装置20によって行われるコード画像60の生成処理を詳細に説明する。 <Code image generation processing>
FIG. 15 is a flowchart showing a generation process of the code image 60 according to the fourth embodiment. The generation process of the code image 60 performed by the mobileterminal device 20 will be described in detail with reference to FIG.
図15は、第4の実施形態に係るコード画像60の生成処理を示すフローチャートである。図15を用いて、携帯端末装置20によって行われるコード画像60の生成処理を詳細に説明する。 <Code image generation processing>
FIG. 15 is a flowchart showing a generation process of the code image 60 according to the fourth embodiment. The generation process of the code image 60 performed by the mobile
まず、CPU21は、背景画像40を解析する(S501)。例えば、CPU21は、コード情報50が配置される位置の背景画像40の色データを取得する。また、CPU21は、コード情報50が配置される位置の背景画像40の色データが、図14に示されるInnerの領域内に存在するか否かを判定する。CPU21は、コード情報50が配置される位置の背景画像40の色データがInnerの領域内に存在しない場合、この色データがInnerの領域内に配置するように背景画像40に対して画像処理を行う。これによって、画素値を変動させるための変動幅を十分に確保することができるため、不可視コードを読み取り易くすることができる。
First, the CPU 21 analyzes the background image 40 (S501). For example, the CPU 21 acquires the color data of the background image 40 at the position where the code information 50 is arranged. Further, the CPU 21 determines whether or not the color data of the background image 40 at the position where the code information 50 is arranged exists in the inner area shown in FIG. When the color data of the background image 40 at the position where the code information 50 is arranged does not exist in the inner area, the CPU 21 performs image processing on the background image 40 so that the color data is arranged in the inner area. Do. As a result, a sufficient fluctuation range for changing the pixel value can be secured, so that the invisible code can be easily read.
次に、CPU21は、画素値の変動方向(例えば、図14に示される角度θ)と、変動方向における変動幅とを決定する(S502)。CPU21は、画素値を複数方向に変動させる場合、複数の変動方向と変動幅とを決定する。その後、CPU21は、決定した変動方向を示す情報を含むインデックスを生成する(S503)。
Next, the CPU 21 determines the fluctuation direction of the pixel value (for example, the angle θ shown in FIG. 14) and the fluctuation width in the fluctuation direction (S502). When the pixel value varies in a plurality of directions, the CPU 21 determines a plurality of variation directions and variation ranges. Thereafter, the CPU 21 generates an index including information indicating the determined variation direction (S503).
次に、CPU21は、コード情報50と重なる位置の背景画像40の色データを取得する(S504)。その後、CPU21は、S503において生成したインデックスを背景画像40に可視状態で付加する(S505)。
Next, the CPU 21 acquires the color data of the background image 40 at the position overlapping with the code information 50 (S504). Thereafter, the CPU 21 adds the index generated in S503 to the background image 40 in a visible state (S505).
次に、CPU21は、背景画像40にコード情報50を不可視状態で埋め込む(S506)。具体的に、CPU21は、コード情報50と重なる位置の背景画像40の画素値を、この画素値を中心として、決定した変動方向および変動幅に基づいて変動させる。これによって、コード画像60を生成することができる。
Next, the CPU 21 embeds the code information 50 in the background image 40 in an invisible state (S506). Specifically, the CPU 21 changes the pixel value of the background image 40 at the position overlapping with the code information 50 based on the determined change direction and change width with the pixel value as the center. As a result, the code image 60 can be generated.
<コード画像の読取処理>
図16は、第4の実施形態に係るコード画像60の読取処理を示すフローチャートである。図16を用いて、携帯端末装置20によって生成されるコード画像60の読取処理を詳細に説明する。 <Code image reading process>
FIG. 16 is a flowchart showing a reading process of the code image 60 according to the fourth embodiment. The reading process of the code image 60 generated by the mobileterminal device 20 will be described in detail with reference to FIG.
図16は、第4の実施形態に係るコード画像60の読取処理を示すフローチャートである。図16を用いて、携帯端末装置20によって生成されるコード画像60の読取処理を詳細に説明する。 <Code image reading process>
FIG. 16 is a flowchart showing a reading process of the code image 60 according to the fourth embodiment. The reading process of the code image 60 generated by the mobile
まず、携帯端末装置20のカメラ24は、他の携帯端末装置のディスプレイD2に表示されたコード画像60を撮影することで、コード画像60を取得する。また、CPU21は、取得したコード画像60に埋め込まれたインデックスを取得する(S511)。前述したように、インデックスには、画素値の変動方向を示す情報が含まれる。また、取得されたコード画像60には、コード情報50と重なる位置の背景画像40の画素値が変動された複数のフレーム画像が含まれる。
First, the camera 24 of the mobile terminal device 20 acquires the code image 60 by photographing the code image 60 displayed on the display D2 of the other mobile terminal device. Further, the CPU 21 acquires an index embedded in the acquired code image 60 (S511). As described above, the index includes information indicating the variation direction of the pixel value. Further, the acquired code image 60 includes a plurality of frame images in which the pixel values of the background image 40 at positions overlapping the code information 50 are changed.
次に、CPU21は、インデックスによって指定された変動方向における、複数のフレーム画像の差分を取得する(S512)。その後、CPU21は、取得した差分に基づき、不可視コードをデコードし(S513)、本フローチャートによる処理を終了する。
Next, the CPU 21 obtains a difference between a plurality of frame images in the variation direction designated by the index (S512). Thereafter, the CPU 21 decodes the invisible code based on the acquired difference (S513), and ends the processing according to this flowchart.
以上説明したように、本実施形態において、CPU21は、画素値の変動方向を示す情報を含むインデックスを、背景画像40に可視状態で付加する。本実施形態によれば、画素値の変動方向にデータを割り当てることができるため、コード画像60のデータ密度を向上させることができる。また、本実施形態によれば、肉眼によって認識され難い画素値の変動方向と変動幅を設定することができるため、コード情報50をより確実に不可視状態で背景画像40に埋め込むことができる。
As described above, in this embodiment, the CPU 21 adds an index including information indicating the variation direction of the pixel value to the background image 40 in a visible state. According to the present embodiment, data can be assigned in the direction of fluctuation of the pixel value, so that the data density of the code image 60 can be improved. Further, according to the present embodiment, since it is possible to set the fluctuation direction and fluctuation width of pixel values that are difficult to be recognized by the naked eye, the code information 50 can be embedded in the background image 40 in a more invisible state.
(第5の実施形態)
第1~第4の実施形態において、携帯端末装置20のCPU21は、1つのフレームセットを背景画像40に埋め込むこととした。これに対し、第5の実施形態において、CPU21は2つ以上のフレームセットを背景画像40に埋め込むこととする。ここで、フレームセットとは、複数のフレーム画像が含まれるセットである。背景画像40に埋め込まれた2つ以上のフレームセットは、時間経過に応じて切り替えて表示される。以下、第5の実施形態について詳細に説明する。 (Fifth embodiment)
In the first to fourth embodiments, theCPU 21 of the mobile terminal device 20 embeds one frame set in the background image 40. In contrast, in the fifth embodiment, the CPU 21 embeds two or more frame sets in the background image 40. Here, the frame set is a set including a plurality of frame images. Two or more frame sets embedded in the background image 40 are displayed while being switched over time. Hereinafter, the fifth embodiment will be described in detail.
第1~第4の実施形態において、携帯端末装置20のCPU21は、1つのフレームセットを背景画像40に埋め込むこととした。これに対し、第5の実施形態において、CPU21は2つ以上のフレームセットを背景画像40に埋め込むこととする。ここで、フレームセットとは、複数のフレーム画像が含まれるセットである。背景画像40に埋め込まれた2つ以上のフレームセットは、時間経過に応じて切り替えて表示される。以下、第5の実施形態について詳細に説明する。 (Fifth embodiment)
In the first to fourth embodiments, the
<フレームセットの切替処理>
図17は、第5の実施形態に係るフレームセットの切替処理を示す図である。CPU21は、3つのフレームセット80a~80cを含むコード画像60をディスプレイD2に表示する。具体的には、CPU21は、時間tが経過するとともに、フレームセット80a、フレームセット80b、およびフレームセット80cを順に切り替えてディスプレイD2に表示する。フレームセット80a~80cの各々において、キーフレーム画像81と、フレーム画像82とが30[Hz]より高い周波数で交互に表示される。 <Frame set switching processing>
FIG. 17 is a diagram illustrating frame set switching processing according to the fifth embodiment. TheCPU 21 displays the code image 60 including the three frame sets 80a to 80c on the display D2. Specifically, the CPU 21 switches the frame set 80a, the frame set 80b, and the frame set 80c in order and displays them on the display D2 as the time t elapses. In each of the frame sets 80a to 80c, the key frame image 81 and the frame image 82 are alternately displayed at a frequency higher than 30 [Hz].
図17は、第5の実施形態に係るフレームセットの切替処理を示す図である。CPU21は、3つのフレームセット80a~80cを含むコード画像60をディスプレイD2に表示する。具体的には、CPU21は、時間tが経過するとともに、フレームセット80a、フレームセット80b、およびフレームセット80cを順に切り替えてディスプレイD2に表示する。フレームセット80a~80cの各々において、キーフレーム画像81と、フレーム画像82とが30[Hz]より高い周波数で交互に表示される。 <Frame set switching processing>
FIG. 17 is a diagram illustrating frame set switching processing according to the fifth embodiment. The
まず、CPU21は、フレームセット80aをディスプレイD2に表示する。このとき、CPU21は、キーフレーム画像81およびフレーム画像82に、位置検出用マーカ83aを可視状態で埋め込む。フレームセット80aがディスプレイD2に表示されてから所定時間が経過すると、CPU21は、フレームセット80aに代えてフレームセット80bをディスプレイD2に表示する。このとき、CPU21は、キーフレーム画像81およびフレーム画像82に、位置検出用マーカ83bを可視状態で埋め込む。フレームセット80bがディスプレイD2に表示されてから所定時間が経過すると、CPU21は、フレームセット80bに代えてフレームセット80cをディスプレイD2に表示する。このとき、CPU21は、キーフレーム画像81およびフレーム画像82に、位置検出用マーカ83cを可視状態で埋め込む。CPU21は、これらの処理を繰り返す。
First, the CPU 21 displays the frame set 80a on the display D2. At this time, the CPU 21 embeds the position detection marker 83 a in the visible state in the key frame image 81 and the frame image 82. When a predetermined time elapses after the frame set 80a is displayed on the display D2, the CPU 21 displays the frame set 80b on the display D2 instead of the frame set 80a. At this time, the CPU 21 embeds the position detection marker 83b in the visible state in the key frame image 81 and the frame image 82. When a predetermined time elapses after the frame set 80b is displayed on the display D2, the CPU 21 displays the frame set 80c on the display D2 instead of the frame set 80b. At this time, the CPU 21 embeds the position detection marker 83 c in the key frame image 81 and the frame image 82 in a visible state. The CPU 21 repeats these processes.
一方、コード画像60をデコードする際、CPU21は、フレームセットごとに、キーフレーム画像81とフレーム画像82との差分に基づいて不可視コード(コード情報50)を抽出する。なお、CPU21は、可視状態で埋め込まれた位置検出用マーカの切り替わりに応じて、フレームセットの切り替わりを検出する。このように、複数のフレームセットを切り替えてディスプレイD2に順番に表示することで、コード画像60により多くのデータ量を保持することができる。
On the other hand, when decoding the code image 60, the CPU 21 extracts an invisible code (code information 50) based on the difference between the key frame image 81 and the frame image 82 for each frame set. The CPU 21 detects frame set switching in response to switching of the position detection marker embedded in the visible state. In this way, a large amount of data can be held in the code image 60 by switching a plurality of frame sets and sequentially displaying them on the display D2.
<コード画像の生成処理>
図18は、第5の実施形態に係るコード画像60の生成処理を示すフローチャートである。図18を用いて、携帯端末装置20によって行われるコード画像60の生成処理を詳細に説明する。 <Code image generation processing>
FIG. 18 is a flowchart showing a generation process of the code image 60 according to the fifth embodiment. The generation process of the code image 60 performed by the mobileterminal device 20 will be described in detail with reference to FIG.
図18は、第5の実施形態に係るコード画像60の生成処理を示すフローチャートである。図18を用いて、携帯端末装置20によって行われるコード画像60の生成処理を詳細に説明する。 <Code image generation processing>
FIG. 18 is a flowchart showing a generation process of the code image 60 according to the fifth embodiment. The generation process of the code image 60 performed by the mobile
まず、CPU21は、コード画像60として生成する複数のフレームセットを決定する(S601)。次に、CPU21は、決定したフレームセットに応じて、位置検出用マーカを切り替えて背景画像40に埋め込む(S602)。
First, the CPU 21 determines a plurality of frame sets to be generated as the code image 60 (S601). Next, the CPU 21 switches the position detection marker according to the determined frame set and embeds it in the background image 40 (S602).
また、CPU21は、背景画像40に埋め込まれた位置検出用マーカごとに、不可視コード(コード情報50)を切り替える(S603)。その後、CPU21は、不可視コード(コード情報50)を背景画像40に埋め込む(S604)。これによって、複数のフレームセットが含まれるコード画像60を生成することができる。
Further, the CPU 21 switches the invisible code (code information 50) for each position detection marker embedded in the background image 40 (S603). Thereafter, the CPU 21 embeds an invisible code (code information 50) in the background image 40 (S604). As a result, the code image 60 including a plurality of frame sets can be generated.
<コード画像の読取処理>
図19は、第5の実施形態に係るコード画像60の読取処理を示すフローチャートである。図19を用いて、携帯端末装置20によって生成されるコード画像60の読取処理を詳細に説明する。 <Code image reading process>
FIG. 19 is a flowchart showing a reading process of the code image 60 according to the fifth embodiment. The reading process of the code image 60 generated by the mobileterminal device 20 will be described in detail with reference to FIG.
図19は、第5の実施形態に係るコード画像60の読取処理を示すフローチャートである。図19を用いて、携帯端末装置20によって生成されるコード画像60の読取処理を詳細に説明する。 <Code image reading process>
FIG. 19 is a flowchart showing a reading process of the code image 60 according to the fifth embodiment. The reading process of the code image 60 generated by the mobile
まず、携帯端末装置20のカメラ24は、他の携帯端末装置のディスプレイD2に表示されたコード画像60(動画)を撮影することで、所定期間の動画を取得する(S611)。CPU21は、取得した所定期間の動画に基づき、位置検出用マーカの切替回数を検出する(S612)。これによって、コード画像60に含まれるフレームセットの数を検出することができる。
First, the camera 24 of the mobile terminal device 20 acquires a moving image for a predetermined period by photographing the code image 60 (moving image) displayed on the display D2 of another mobile terminal device (S611). CPU21 detects the frequency | count of switching of the marker for position detection based on the acquired moving image of the predetermined period (S612). Thereby, the number of frame sets included in the code image 60 can be detected.
次に、CPU21は、位置検出用マーカの切替に応じて、取得した動画を複数のフレームセットに分割する(S613)。その後、CPU21は、分割した各フレームセットから、キーフレーム画像81を抽出する(S614)。また、CPU21は、分割した各フレームセットから、キーフレーム画像81以外のフレーム画像82についても抽出する。
Next, the CPU 21 divides the acquired moving image into a plurality of frame sets according to the switching of the position detection marker (S613). Thereafter, the CPU 21 extracts a key frame image 81 from each divided frame set (S614). In addition, the CPU 21 extracts a frame image 82 other than the key frame image 81 from each divided frame set.
次に、CPU21は、フレームセットごとに、キーフレーム画像81とフレーム画像82との差分を算出する。その後、CPU21は、フレームセットごとに、算出した差分に基づいて不可視コードをデコードし(S615)、本フローチャートによる処理を終了する。
Next, the CPU 21 calculates the difference between the key frame image 81 and the frame image 82 for each frame set. Thereafter, the CPU 21 decodes the invisible code based on the calculated difference for each frame set (S615), and ends the process according to the flowchart.
以上説明したように、本実施形態において、カメラ24は、複数のフレームセット80a~80cが含まれるコード画像60を読み取る。複数のフレームセット80a~80cの各々は、キーフレーム画像81およびフレーム画像82を含む。CPU21は、フレームセット80a~80cごとに、キーフレーム画像81およびフレーム画像82の差分に基づいて不可視コード(コード情報50)を抽出する。これによって、より多くのデータ量をコード画像60に保持することができる。なお、第5の実施形態と第4の実施形態とを組み合わせてもよい。これによって、更に多くのデータ量をコード画像60に保持することができる。
As described above, in the present embodiment, the camera 24 reads the code image 60 including a plurality of frame sets 80a to 80c. Each of the plurality of frame sets 80a to 80c includes a key frame image 81 and a frame image 82. The CPU 21 extracts an invisible code (code information 50) based on the difference between the key frame image 81 and the frame image 82 for each of the frame sets 80a to 80c. As a result, a larger amount of data can be held in the code image 60. Note that the fifth embodiment and the fourth embodiment may be combined. As a result, a larger amount of data can be held in the code image 60.
(他の実施形態)
以下、位置検出用マーカ、マーカの埋め込み処理、およびデータドットの形状についての他の実施形態について説明する。 (Other embodiments)
Hereinafter, other embodiments of the position detection marker, the marker embedding process, and the data dot shape will be described.
以下、位置検出用マーカ、マーカの埋め込み処理、およびデータドットの形状についての他の実施形態について説明する。 (Other embodiments)
Hereinafter, other embodiments of the position detection marker, the marker embedding process, and the data dot shape will be described.
<位置検出用マーカについての他の実施形態>
図20~図27は、他の実施形態に係る位置検出用マーカの一例を示す図である。第1~第5の実施形態においては、位置検出用マーカ51およびデータドット53の両方を背景画像40に不可視状態で埋め込むこととしたが、これに限られない。例えば、図20に示されるように、CPU21は、位置検出用マーカ51を背景画像40に可視状態で埋め込むとともに、データドット53を背景画像40に不可視状態で埋め込んでもよい。 <Another embodiment of position detection marker>
20 to 27 are diagrams showing examples of position detection markers according to other embodiments. In the first to fifth embodiments, both the position detection marker 51 and the data dot 53 are embedded in thebackground image 40 in an invisible state. However, the present invention is not limited to this. For example, as illustrated in FIG. 20, the CPU 21 may embed the position detection marker 51 in the background image 40 in a visible state and embed the data dots 53 in the background image 40 in an invisible state.
図20~図27は、他の実施形態に係る位置検出用マーカの一例を示す図である。第1~第5の実施形態においては、位置検出用マーカ51およびデータドット53の両方を背景画像40に不可視状態で埋め込むこととしたが、これに限られない。例えば、図20に示されるように、CPU21は、位置検出用マーカ51を背景画像40に可視状態で埋め込むとともに、データドット53を背景画像40に不可視状態で埋め込んでもよい。 <Another embodiment of position detection marker>
20 to 27 are diagrams showing examples of position detection markers according to other embodiments. In the first to fifth embodiments, both the position detection marker 51 and the data dot 53 are embedded in the
位置検出用マーカは、台形補正およびホモグラフィー変換に利用される。QRコード(登録商標)においては、三つの角に位置検出用マーカが配置されており、360°どの方向からでもQRコード(登録商標)を高速に読み取ることができる。したがって、不可視コードを360°どの方向からでも高速に読み取ることができるようにするために、位置検出用マーカを可視状態で背景画像40に埋め込んでもよい。これによって、コード画像内のデータドットの位置をより精度よく検出することができるとともに、コード画像を360°どの方向からでも高速に読み取ることができる。
The position detection marker is used for keystone correction and homography conversion. In the QR code (registered trademark), position detection markers are arranged at three corners, and the QR code (registered trademark) can be read at high speed from any direction of 360 °. Therefore, the position detection marker may be embedded in the background image 40 in a visible state so that the invisible code can be read at high speed from any direction of 360 °. As a result, the position of the data dot in the code image can be detected with higher accuracy, and the code image can be read from any direction of 360 ° at high speed.
また、位置検出用マーカは四角形に限られない。例えば、図21に示されるように、三角形の位置検出用マーカ91が背景画像40に埋め込まれてもよい。
Also, the position detection marker is not limited to a rectangle. For example, as shown in FIG. 21, a triangular position detection marker 91 may be embedded in the background image 40.
また、図22および図23に示されるように、位置検出用ベゼル92または93を表示してもよい。位置検出用ベゼル92または93を表示することで、ユーザに対してベゼルに合わせてコード画像60を撮影するよう誘導することができる。
Further, as shown in FIGS. 22 and 23, a position detecting bezel 92 or 93 may be displayed. By displaying the position detection bezel 92 or 93, it is possible to guide the user to photograph the code image 60 according to the bezel.
また、図24および図25に示されるように、ラインタイプの位置検出用マーカ94または95が表示されてもよい。また、図26および図27に示されるように、枠タイプの位置検出用マーカ96または97が表示されてもよい。
Further, as shown in FIGS. 24 and 25, a line type position detection marker 94 or 95 may be displayed. In addition, as shown in FIGS. 26 and 27, a frame type position detection marker 96 or 97 may be displayed.
<マーカの埋込処理についての他の実施形態>
図28~図30は、他の実施形態に係るマーカの埋込処理の一例を示す図である。前述したように、位置検出用マーカは、可視状態で背景画像40に埋め込まれるのが好ましい。このため、図28に示されるように、明度の低いマーカ100~103を背景画像40に埋め込んでもよい。逆に、図29に示されるように、明度の高いマーカ100~103を背景画像40に埋め込んでもよい。 <Another embodiment of marker embedding process>
FIG. 28 to FIG. 30 are diagrams illustrating an example of marker embedding processing according to another embodiment. As described above, the position detection marker is preferably embedded in thebackground image 40 in a visible state. For this reason, as shown in FIG. 28, markers 100 to 103 with low brightness may be embedded in the background image 40. Conversely, markers 100 to 103 with high brightness may be embedded in the background image 40 as shown in FIG.
図28~図30は、他の実施形態に係るマーカの埋込処理の一例を示す図である。前述したように、位置検出用マーカは、可視状態で背景画像40に埋め込まれるのが好ましい。このため、図28に示されるように、明度の低いマーカ100~103を背景画像40に埋め込んでもよい。逆に、図29に示されるように、明度の高いマーカ100~103を背景画像40に埋め込んでもよい。 <Another embodiment of marker embedding process>
FIG. 28 to FIG. 30 are diagrams illustrating an example of marker embedding processing according to another embodiment. As described above, the position detection marker is preferably embedded in the
しかしながら、図28に示されるように、マーカ102および103は明度の低い背景画像40の領域に埋め込まれているため、マーカ102および103を検出することは難しい。また、図29に示されるように、マーカ100および101は明度の高い背景画像40の領域に埋め込まれているため、マーカ100および101を検出することは難しい。
However, as shown in FIG. 28, since the markers 102 and 103 are embedded in the region of the background image 40 with low brightness, it is difficult to detect the markers 102 and 103. Further, as shown in FIG. 29, since the markers 100 and 101 are embedded in the region of the background image 40 with high brightness, it is difficult to detect the markers 100 and 101.
このため、図30に示されるように、マーカ100および101の明度を低くするとともに、マーカ102および103の明度を高くしてもよい。このように、背景画像の明度に応じてマーカの明度を変更することで、マーカの検出精度を向上させることができる。
For this reason, as shown in FIG. 30, the brightness of the markers 100 and 101 may be lowered and the brightness of the markers 102 and 103 may be increased. Thus, the marker detection accuracy can be improved by changing the brightness of the marker according to the brightness of the background image.
また、図31に示されるように、位置検出用マーカに代えて、水平方向の枠104を背景画像40に埋め込んでもよい。また、図32に示されるように、位置検出用マーカに代えて、垂直方向の枠105を背景画像40に埋め込んでもよい。また、CPU21は、背景画像40に埋め込まれた枠104または105に基づいて、データドットの位置を検出してもよい。
Further, as shown in FIG. 31, a horizontal frame 104 may be embedded in the background image 40 in place of the position detection marker. In addition, as shown in FIG. 32, a vertical frame 105 may be embedded in the background image 40 instead of the position detection marker. Further, the CPU 21 may detect the position of the data dot based on the frame 104 or 105 embedded in the background image 40.
また、図33に示されるように、CPU21は、位置検出用マーカに代えて、特徴点106を背景画像40から抽出してもよい。CPU21は、抽出した特徴点に基づいて、コード画像60の歪みを補正してもよい。なお、CPU21は、特徴点の抽出方法として、SIFT(Scale-Invariant Feature Transform)や、「Harris corner response function」を用いてもよい。また、CPU21は、背景画像40に対してブロブ解析を行うことにより、特徴点を抽出してもよい。また、CPU21は、背景画像40から特徴点を抽出し難い場合は位置検出用マーカを埋め込み、背景画像40から特徴点を抽出しやすい場合は位置検出用マーカを埋め込まないようにしてもよい。
33, the CPU 21 may extract the feature point 106 from the background image 40 instead of the position detection marker. The CPU 21 may correct the distortion of the code image 60 based on the extracted feature points. The CPU 21 may use SIFT (Scale-Invariant Feature Transform) or “Harris corner response function” as a feature point extraction method. Further, the CPU 21 may extract feature points by performing a blob analysis on the background image 40. The CPU 21 may embed a position detection marker when it is difficult to extract a feature point from the background image 40, and may not embed a position detection marker when it is easy to extract a feature point from the background image 40.
<データドットの形状についての他の実施形態>
図34~図41は、他の実施形態に係るデータドットの形状の一例を示す図である。例えば、図34および図35に示されるように、CPU21は、四角形のデータドット110および111を生成してもよい。また、図36および図37に示されるように、CPU21は、三角形のデータドット112および113を生成してもよい。また、図38および図39に示されるように、CPU21は、円形のデータドット114および115を生成してもよい。また、図40に示されるように、CPU21は、星形のデータドット116を生成してもよい。更に、図41に示されるように、CPU21は、同心円形状のデータドット117を生成してもよい。 <Other Embodiments Regarding Data Dot Shape>
34 to 41 are diagrams showing examples of the shape of data dots according to other embodiments. For example, as shown in FIGS. 34 and 35, theCPU 21 may generate square data dots 110 and 111. Further, as shown in FIGS. 36 and 37, the CPU 21 may generate triangular data dots 112 and 113. Also, as shown in FIGS. 38 and 39, the CPU 21 may generate circular data dots 114 and 115. Further, as shown in FIG. 40, the CPU 21 may generate a star-shaped data dot 116. Furthermore, as shown in FIG. 41, the CPU 21 may generate concentric data dots 117.
図34~図41は、他の実施形態に係るデータドットの形状の一例を示す図である。例えば、図34および図35に示されるように、CPU21は、四角形のデータドット110および111を生成してもよい。また、図36および図37に示されるように、CPU21は、三角形のデータドット112および113を生成してもよい。また、図38および図39に示されるように、CPU21は、円形のデータドット114および115を生成してもよい。また、図40に示されるように、CPU21は、星形のデータドット116を生成してもよい。更に、図41に示されるように、CPU21は、同心円形状のデータドット117を生成してもよい。 <Other Embodiments Regarding Data Dot Shape>
34 to 41 are diagrams showing examples of the shape of data dots according to other embodiments. For example, as shown in FIGS. 34 and 35, the
以上説明したように、CPU21は、背景画像40を取得し、取得した背景画像40に対して画像処理(空間周波数調整または表現幅調整)を行う。また、CPU21は、画像処理が行われた背景画像40に、コード情報50の少なくとも一部が不可視状態で埋め込まれたコード画像60を生成する。これによって、2次元コードを背景画像に埋め込む際に、2次元コードが背景画像のデザインに及ぼす影響を低減することができる。
As described above, the CPU 21 acquires the background image 40 and performs image processing (spatial frequency adjustment or expression width adjustment) on the acquired background image 40. Further, the CPU 21 generates a code image 60 in which at least a part of the code information 50 is embedded in an invisible state in the background image 40 that has been subjected to image processing. As a result, when the two-dimensional code is embedded in the background image, the influence of the two-dimensional code on the design of the background image can be reduced.
なお、上記実施形態におけるデスクトップコンピュータ10、携帯端末装置20、およびサーバ30は、内部にコンピュータシステムを有している。そして、上述したデスクトップコンピュータ10、携帯端末装置20、およびサーバ30の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって上記各種処理が行われる。ここで、コンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
In addition, the desktop computer 10, the mobile terminal device 20, and the server 30 in the above-described embodiment have a computer system therein. The processes of the desktop computer 10, the mobile terminal device 20, and the server 30 described above are stored in a computer-readable recording medium in the form of a program, and the computer reads and executes the program. The above various processes are performed. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
また、特定のコンピュータで実行される処理の一部を、他のコンピュータによって分担してもよい。このため、情報処理システム全体を、情報処理装置としてみなしてもよい。また、特徴的な情報処理を行う要素が意図的に国外に設置されたとしても、処理結果を参照する地域が国内であれば、情報処理が国内で実行されたものとみなす。
Also, a part of processing executed on a specific computer may be shared by other computers. For this reason, the entire information processing system may be regarded as an information processing apparatus. Even if an element that performs characteristic information processing is intentionally installed outside the country, if the region that refers to the processing result is in Japan, the information processing is considered to have been executed in the country.
以上、本発明の好ましい実施形態を説明したが、本発明はこれらの実施形態に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. Additions, omissions, substitutions, and other modifications can be made without departing from the spirit of the present invention. The present invention is not limited by the above description, but only by the scope of the appended claims.
10 デスクトップコンピュータ
11 CPU
12 メモリ
13 バス
14 ストレージ
20 携帯端末装置
21 CPU
22 メモリ
23 バス
24 カメラ
30 サーバ
31 CPU
32 メモリ
33 バス
34 ストレージ 10Desktop computer 11 CPU
12memory 13 bus 14 storage 20 portable terminal device 21 CPU
22memory 23 bus 24 camera 30 server 31 CPU
32memory 33 bus 34 storage
11 CPU
12 メモリ
13 バス
14 ストレージ
20 携帯端末装置
21 CPU
22 メモリ
23 バス
24 カメラ
30 サーバ
31 CPU
32 メモリ
33 バス
34 ストレージ 10
12
22
32
Claims (20)
- 背景画像を取得する取得部と、
前記取得部によって取得された前記背景画像に対して画像処理を行う画像処理部と、
前記画像処理部によって画像処理が行われた前記背景画像に、コード情報の少なくとも一部が不可視状態で埋め込まれたコード画像を生成する生成部と、
を有する情報処理装置。 An acquisition unit for acquiring a background image;
An image processing unit that performs image processing on the background image acquired by the acquisition unit;
A generating unit that generates a code image in which at least a part of code information is embedded in an invisible state in the background image subjected to image processing by the image processing unit;
An information processing apparatus. - 前記画像処理部は、前記取得部によって取得された前記背景画像に含まれる、空間周波数が所定値以上の成分を除去する
請求項1記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the image processing unit removes a component having a spatial frequency greater than or equal to a predetermined value included in the background image acquired by the acquisition unit. - 前記画像処理部は、前記取得部によって取得された前記背景画像における画素値の表現幅を狭くする
請求項1記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the image processing unit narrows a representation width of a pixel value in the background image acquired by the acquisition unit. - 前記生成部は、前記コード情報の少なくとも一部と重なる位置の前記背景画像の画素値を、前記画素値を中心として所定の方向に変動させることで、前記コード画像を生成する
請求項1記載の情報処理装置。 The said generation part produces | generates the said code image by changing the pixel value of the said background image of the position which overlaps with at least one part of the said code information to a predetermined direction centering | focusing on the said pixel value. Information processing device. - 前記生成部は、前記画素値を中心として色相上で相補的な二色に前記画素値を変動させることで、前記コード画像を生成する
請求項4記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the generation unit generates the code image by changing the pixel value to two complementary colors on the hue with the pixel value as a center. - 前記生成部は、前記画素値に対する明度方向における変動幅を、前記画素値に対する色相方向における変動幅および彩度方向における変動幅よりも小さくする
請求項4記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the generation unit makes a variation width in a brightness direction with respect to the pixel value smaller than a variation width in a hue direction and a variation width in a saturation direction with respect to the pixel value. - 前記コード画像を表示する表示部を更に有し、
前記表示部は、ユーザによって前記表示部に対する操作が行われていない場合、前記背景画像を表示し、前記ユーザによって前記表示部に対する操作が行われた場合、前記背景画像に代えて前記コード画像を表示する
請求項1乃至6のいずれか一項に記載の情報処理装置。 A display unit for displaying the code image;
The display unit displays the background image when an operation is not performed on the display unit by a user, and the code image is displayed instead of the background image when the operation is performed on the display unit by the user. The information processing apparatus according to any one of claims 1 to 6. - 前記表示部は、前記コード画像が表示されてから所定時間以上、前記ユーザによって前記表示部に対する操作が行われない場合、前記コード画像に代えて前記背景画像を表示する
請求項7記載の情報処理装置。 The information processing according to claim 7, wherein the display unit displays the background image instead of the code image when the user does not perform an operation on the display unit for a predetermined time or longer after the code image is displayed. apparatus. - 前記生成部は、前記所定の方向を示す情報を含むインデックスを、前記背景画像に可視状態で付加する
請求項4記載の情報処理装置。 The information processing apparatus according to claim 4, wherein the generation unit adds an index including information indicating the predetermined direction to the background image in a visible state. - 前記コード画像を読み取る読取部と、
前記読取部によって読み取られた前記コード画像から前記コード情報を抽出する抽出部と、
を更に有する請求項1乃至9のいずれか一項に記載の情報処理装置。 A reading unit for reading the code image;
An extraction unit for extracting the code information from the code image read by the reading unit;
The information processing apparatus according to any one of claims 1 to 9, further comprising: - 前記読取部は、前記コード情報の少なくとも一部と重なる位置の前記背景画像の画素値が変動された複数のフレーム画像を含むコード画像を読み取り、
前記抽出部は、前記読取部によって読み取られた前記複数のフレーム画像の差分に基づき、前記コード情報を抽出する
請求項10記載の情報処理装置。 The reading unit reads a code image including a plurality of frame images in which pixel values of the background image at positions overlapping with at least a part of the code information are changed;
The information processing apparatus according to claim 10, wherein the extraction unit extracts the code information based on a difference between the plurality of frame images read by the reading unit. - 前記読取部は、複数のフレームセットが含まれる前記コード画像を読み取り、
前記複数のフレームセットの各々は、前記複数のフレーム画像を含み、
前記抽出部は、前記フレームセットごとに、前記複数のフレーム画像の差分に基づいて前記コード情報を抽出する、
請求項11記載の情報処理装置。 The reading unit reads the code image including a plurality of frame sets,
Each of the plurality of frame sets includes the plurality of frame images;
The extraction unit extracts the code information based on the difference between the plurality of frame images for each frame set.
The information processing apparatus according to claim 11. - 前記抽出部は、前記背景画像から特徴点を抽出し、抽出した特徴点に基づいて前記読取部によって読み取られた前記コード画像の歪みを補正する
請求項10乃至12のいずれか一項に記載の情報処理装置。 13. The extraction unit according to claim 10, wherein the extraction unit extracts a feature point from the background image, and corrects distortion of the code image read by the reading unit based on the extracted feature point. Information processing device. - 前記コード画像には、歪み補正のために用いられるマーカと、情報を保持するデータドットとが含まれる
請求項1乃至13のいずれか一項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 13, wherein the code image includes a marker used for distortion correction and a data dot that holds information. - 前記生成部は、前記マーカおよび前記データドットの両方を、前記背景画像に不可視状態で埋め込む
請求項14記載の情報処理装置。 The information processing apparatus according to claim 14, wherein the generation unit embeds both the marker and the data dot in the background image in an invisible state. - 前記生成部は、前記マーカを前記背景画像に可視状態で埋め込むとともに、前記データドットを前記背景画像に不可視状態で埋め込む
請求項14記載の情報処理装置。 The information processing apparatus according to claim 14, wherein the generation unit embeds the marker in the background image in a visible state and embeds the data dot in the background image in an invisible state. - 前記生成部は、前記コード情報が前記背景画像への埋め込みに適さない場合、前記データドットによって保持される情報の同一性を維持した状態で、前記データドットの配置を変更する
請求項14記載の情報処理装置。 The said generation part changes arrangement | positioning of the said data dot in the state which maintained the identity of the information hold | maintained by the said data dot, when the said code information is not suitable for embedding in the said background image. Information processing device. - 請求項1乃至17のいずれか一項に記載の前記コード画像を、前記情報処理装置によって表示する表示方法。 A display method for displaying the code image according to any one of claims 1 to 17 by the information processing apparatus.
- 請求項1乃至17のいずれか一項に記載の前記コード画像を、前記情報処理装置によって読み取る読取方法。 A reading method for reading the code image according to any one of claims 1 to 17 by the information processing apparatus.
- 請求項1乃至17のいずれか一項に記載の前記コード画像を、前記情報処理装置に読み取らせる、または表示させるプログラムを記憶するコンピュータ読み取り可能な非一時的記憶媒体。 A computer-readable non-transitory storage medium for storing a program that causes the information processing apparatus to read or display the code image according to any one of claims 1 to 17.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/079054 WO2018061189A1 (en) | 2016-09-30 | 2016-09-30 | Information processing device, display method, reading method, and computer-readable non-transitory storage medium |
JP2017522698A JP6296319B1 (en) | 2016-09-30 | 2017-01-12 | Information processing apparatus, display method, reading method, and computer-readable non-transitory storage medium |
PCT/JP2017/000786 WO2018061232A1 (en) | 2016-09-30 | 2017-01-12 | Information processing device, display method, reading method, and computer-readable non-transitory storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/079054 WO2018061189A1 (en) | 2016-09-30 | 2016-09-30 | Information processing device, display method, reading method, and computer-readable non-transitory storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018061189A1 true WO2018061189A1 (en) | 2018-04-05 |
Family
ID=61759382
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/079054 WO2018061189A1 (en) | 2016-09-30 | 2016-09-30 | Information processing device, display method, reading method, and computer-readable non-transitory storage medium |
PCT/JP2017/000786 WO2018061232A1 (en) | 2016-09-30 | 2017-01-12 | Information processing device, display method, reading method, and computer-readable non-transitory storage medium |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/000786 WO2018061232A1 (en) | 2016-09-30 | 2017-01-12 | Information processing device, display method, reading method, and computer-readable non-transitory storage medium |
Country Status (1)
Country | Link |
---|---|
WO (2) | WO2018061189A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020032930A1 (en) | 2018-08-07 | 2020-02-13 | Hewlett-Packard Development Company, L.P. | Combination of image and machine readable graphic code |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012084987A (en) * | 2010-10-07 | 2012-04-26 | Canon Inc | Image composition processing device, and control method of the same |
JP2012088823A (en) * | 2010-10-18 | 2012-05-10 | Casio Comput Co Ltd | Image processing device and program |
JP2013004024A (en) * | 2011-06-21 | 2013-01-07 | Kobayashi Create Co Ltd | Two-dimensional code for preventing duplication |
JP2016095603A (en) * | 2014-11-13 | 2016-05-26 | カシオ計算機株式会社 | Electronic device and program |
-
2016
- 2016-09-30 WO PCT/JP2016/079054 patent/WO2018061189A1/en active Application Filing
-
2017
- 2017-01-12 WO PCT/JP2017/000786 patent/WO2018061232A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012084987A (en) * | 2010-10-07 | 2012-04-26 | Canon Inc | Image composition processing device, and control method of the same |
JP2012088823A (en) * | 2010-10-18 | 2012-05-10 | Casio Comput Co Ltd | Image processing device and program |
JP2013004024A (en) * | 2011-06-21 | 2013-01-07 | Kobayashi Create Co Ltd | Two-dimensional code for preventing duplication |
JP2016095603A (en) * | 2014-11-13 | 2016-05-26 | カシオ計算機株式会社 | Electronic device and program |
Non-Patent Citations (1)
Title |
---|
SHIGEYUKI KOMURO ET AL.: "Iro Seibun no Jikan hencho ni motozuku fukashi QR code", SYMPOSIUM ON MULTIMEDIA, DISTRIBUTED, COOPERATIVE AND MOBILE SYSTEM, DICOMO 2 013, vol. 2013, no. 2, 3 July 2013 (2013-07-03), pages 1690 - 1694 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018061232A1 (en) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11475238B2 (en) | Keypoint unwarping for machine vision applications | |
JP4591211B2 (en) | Image processing apparatus, image processing method, medium, code reading apparatus, and program | |
US10469701B2 (en) | Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor | |
JP5547243B2 (en) | Image processing apparatus, program, and recording medium | |
US10404912B2 (en) | Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium | |
CN104683634A (en) | Determining Apparatus, Mobile Terminal Apparatus, And Recording Medium | |
JP2008283649A (en) | Image processing method, image region detecting method, image processing program, image region detection program, image processing apparatus, and image region detecting apparatus | |
CN107018407B (en) | Information processing device, evaluation chart, evaluation system, and performance evaluation method | |
US20180309926A1 (en) | Image processing apparatus and image processing method | |
JP5878451B2 (en) | Marker embedding device, marker detecting device, marker embedding method, marker detecting method, and program | |
JP6564136B2 (en) | Image processing apparatus, image processing method, and program | |
US9361500B2 (en) | Image processing apparatus, image processing method, and recording medium | |
US9361708B2 (en) | Image processing device, image processing method | |
WO2018061189A1 (en) | Information processing device, display method, reading method, and computer-readable non-transitory storage medium | |
JP5042251B2 (en) | Image processing apparatus and image processing method | |
JP6296319B1 (en) | Information processing apparatus, display method, reading method, and computer-readable non-transitory storage medium | |
JP4966260B2 (en) | Image processing method, image processing apparatus, program, and computer-readable storage medium | |
JP2007087218A (en) | Image processor | |
JP2006303935A (en) | Watermark detector, method therefor and memory medium | |
JP6118295B2 (en) | Marker embedding device, marker detection device, method, and program | |
CN113822785A (en) | Resource copyright setting method, resource copyright checking device and electronic equipment | |
JP2007257360A (en) | Two-dimensional code, two-dimensional code reader and two-dimensional code-reading program | |
JP2017072958A (en) | Image processing device, method and program for decoding information multiplexed on image | |
CN113393358A (en) | Image processing method and system, storage medium, and computing device | |
CN110796136A (en) | Mark and image processing method and related device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16917739 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16917739 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |