WO2014098133A1 - 情報コード、情報コード生成方法、情報コード読取装置、及び情報コード利用システム - Google Patents

情報コード、情報コード生成方法、情報コード読取装置、及び情報コード利用システム Download PDF

Info

Publication number
WO2014098133A1
WO2014098133A1 PCT/JP2013/083909 JP2013083909W WO2014098133A1 WO 2014098133 A1 WO2014098133 A1 WO 2014098133A1 JP 2013083909 W JP2013083909 W JP 2013083909W WO 2014098133 A1 WO2014098133 A1 WO 2014098133A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
information code
code
information
Prior art date
Application number
PCT/JP2013/083909
Other languages
English (en)
French (fr)
Inventor
田中 正己
卓也 依田
伊藤 邦彦
渡部 元秋
吉田 賢一
隆雄 牛嶋
Original Assignee
株式会社デンソーウェーブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013239366A external-priority patent/JP6079579B2/ja
Priority claimed from JP2013255485A external-priority patent/JP6252150B2/ja
Application filed by 株式会社デンソーウェーブ filed Critical 株式会社デンソーウェーブ
Priority to EP13864756.5A priority Critical patent/EP2937818B1/en
Priority to CN201380073366.5A priority patent/CN105074732B/zh
Priority to US14/654,119 priority patent/US9704081B2/en
Publication of WO2014098133A1 publication Critical patent/WO2014098133A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/06056Constructional details the marking comprising a further embedded marking, e.g. a 1D bar code with the black bars containing a smaller sized coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K1/00Methods or arrangements for marking the record carrier in digital fashion
    • G06K1/12Methods or arrangements for marking the record carrier in digital fashion otherwise than by punching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/06103Constructional details the marking being embedded in a human recognizable image, e.g. a company logo with an embedded two-dimensional code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/06112Constructional details the marking being simulated using a light source, e.g. a barcode shown on a display or a laser beam with time-varying intensity profile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/06075Constructional details the marking containing means for error correction

Definitions

  • the present invention relates to an information code such as a two-dimensional code, an information code generation method for generating the information code, an information code reading device for reading the information code, and an information code using system using the information code.
  • the present invention has been made to solve the above-described problems, and an information code, an information code generation method, and an information code reading device that can use an image other than a cell attached to the information code. And an information code utilization system.
  • an information code for generating an information code in which cells serving as units for displaying information are arranged in a predetermined code area of a medium by an information code generating device.
  • a generation method is provided. In this generation method, data is recorded in a specific pattern area in which a specific pattern having a predetermined shape including a pattern indicating the position of the code area is arranged inside the code area, and a plurality of types of the cells.
  • a data recording area is provided, and an image area to be subjected to predetermined image recognition processing by the information code reader is configured to be represented in the code area.
  • the second aspect of the present invention provides an information code in which cells serving as units for displaying information are arranged in a predetermined code area of a medium.
  • This information code records data in a specific pattern area in which a specific pattern having a predetermined shape including a pattern indicating the position of the code area is arranged inside the code area, and a plurality of types of the cells.
  • a data recording area, and an image area to be subjected to a predetermined image recognition process by the information code reader is represented in the code area.
  • an information code reader for reading an information code in which cells serving as units for displaying information are arranged in a predetermined code area of a medium.
  • the information code includes a specific pattern area in which a specific pattern having a predetermined shape including a pattern indicating a position of the code area is arranged inside the code area, and a plurality of types of the cells.
  • An imaging unit capable of imaging the information code; Data recording area reading for reading the data recorded in the data recording area based on the contents of the data recording area in the code image of the imaged information code when the information code is imaged by the imaging unit And And an image processing unit that performs an image recognition process on an image in the image area in the code image by a method different from a decoding process of the data by the data recording area reading unit.
  • a fourth aspect according to the present invention is an information code generation device that generates an information code in which cells serving as units for displaying information are arranged in a predetermined code area of a medium;
  • An information code utilization system comprising: an information code reader that reads the information code generated by the information code generator.
  • the information code generator is A specific pattern area in which a specific pattern having a predetermined shape including a pattern indicating the position of the code area is arranged inside the code area, a data recording area for recording data by a plurality of types of the cells, And an image region showing an image different from the image of the cell is represented in the code region
  • the information code reader is An imaging unit capable of imaging the information code generated by the information code generation device; Data recording area reading for reading the data recorded in the data recording area based on the contents of the data recording area in the code image of the imaged information code when the information code is imaged by the imaging unit And An image processing unit that performs an image recognition process on the image of the image area in the code image by a method different from the decoding process of the data by the data recording area reading unit; It is characterized by having.
  • the present invention further provides fifth and sixth aspects.
  • the fifth aspect relates to an information code reader for reading an information code in which cells serving as units for displaying information are arranged in a predetermined code area of a medium.
  • the information code includes a specific pattern area in which a specific pattern having a predetermined shape including a pattern indicating a position of the code area is arranged inside the code area, and a plurality of types of the cells.
  • a data recording area for recording data, and an image area showing an image different from the cell is represented in the code area
  • An imaging unit capable of imaging the information code
  • a data recording area reading unit for reading data recorded in the data recording area when the information code is imaged by the imaging unit
  • An image processing unit that performs predetermined image processing on a code image of the information code imaged by the imaging unit with respect to an image of the image area by a method different from the data decoding process by the data recording area reading unit; With Usage data used when the image processing unit performs the image processing is recorded in the data recording area, The image processing unit performs the image processing on the image in the image area using the usage data read by the data recording area reading unit.
  • a sixth aspect is an information code generation device that generates an information code in which cells serving as units for displaying information are arranged in a predetermined code area of a medium;
  • the present invention relates to an information code utilization system comprising: an information code reader that reads the information code generated by the information code generator.
  • the information code generator is A specific pattern area in which a specific pattern having a predetermined shape including a pattern indicating the position of the code area is arranged inside the code area, a data recording area for recording data by a plurality of types of the cells, And an image region showing an image different from the cell is represented in the code region
  • the information code reader is An imaging unit capable of imaging the information code; A data recording area reading unit for reading data recorded in the data recording area when the information code is imaged by the imaging unit; An image processing unit that performs predetermined image processing on a code image of the information code imaged by the imaging unit with respect to an image of the image area by a method different from the data decoding process by the data recording area reading unit; Have The information code generation device records usage data used when the image processing unit performs the image processing in the data recording area, The image processing unit of the information code reading device performs the image processing on an image in the image area using the usage data read by the data recording area reading unit.
  • the image of the image area represented in the code area can be acquired as a recognition target, and the image area An information code that can use the image for purposes other than decoding the data recording area can be generated.
  • the second aspect of the present invention not only the information recorded in the data recording area but also the image of the image area represented in the code area can be acquired as a recognition target, and the image area An information code that can use an image for purposes other than decoding the data recording area can be realized.
  • the third aspect of the present invention not only the information recorded by each cell in the data recording area, but also an image formed in the image area can be acquired as a recognition target. It can be used for purposes other than decoding the data recording area.
  • a special display is obtained in which a predetermined display appears when an image is captured by a predetermined imaging method, and a predetermined display does not appear when an image is captured by a method different from the predetermined imaging method.
  • An information code having a portion is set as a reading target, data can be read from the information code, and a predetermined display on the special display portion can be recognized. And if it becomes the structure which can recognize the predetermined display of a special display part in this way, it will become possible to authenticate based on the recognition possibility of a predetermined display.
  • the information code reading apparatus displays not only the information recorded by each cell in the data recording area, but also an image of the image area represented in the code area (an image different from the cell).
  • the image other than the cell added in the information code can be used for purposes other than the decoding of the data recording area by the reading device.
  • the information code to be read has a configuration in which usage data used when performing image processing is recorded in the data recording area, and the reading device stores the usage data read by the data recording area reading unit. Since it is configured to process the image in the image area, it is possible not only to recognize the image in the image area but also to perform processing associated with the data recorded in the data recording area. Therefore, the degree of freedom in using the image in the image area is increased, and the use of the image in the image area can be greatly enhanced.
  • the usage data is compared with at least a part of the image in the image area or analysis data obtained by analyzing the image in the image area. Comparison data can be recorded. Then, the image processing unit of the reading apparatus can determine whether or not the image in the image area corresponds to a predetermined regular image based on the comparison data read by the data recording area reading unit. According to this configuration, since the image to be used and the comparison data for performing the comparison can be acquired at the same time by one imaging, the image (image region image) and the data (comparison data) to be associated with each other can be obtained. Accurate acquisition is possible, and working time and processing time can be shortened easily.
  • Patent Document 2 after reading a two-dimensional code affixed to an article, the palm of the person to be authenticated is read, and the data recorded in the two-dimensional code and the data of the feature points of the palm print are recorded.
  • a configuration for matching is disclosed.
  • the two-dimensional code and the authentication target are different as described above, for example, after reading the two-dimensional code, some circumstances (speak to other people) Or forgetting to read or cancel the authentication target (the palm of the person to be authenticated) depending on circumstances such as circumstances where priority should be given to the surroundings).
  • the authentication itself may be interrupted while the two-dimensional code is being read, or the authentication may fail due to the reading of another object that is intended. .
  • the two-dimensional code and the authentication target the palm of the authentication target
  • the space of the entire medium to be read increases, leading to an increase in the size of the medium. Will end up.
  • the image of the image area and the comparison data to be used in association with this image can be represented by the same information code, and these are imaged and used at the same time. Therefore, the problem that occurs in Patent Document 2 can be more reliably suppressed, and the size of the medium to be read can be easily reduced.
  • the information code reader when the information code reader reads the information code, not only the information recorded by each cell in the data recording area, but also the image (cell) of the image area represented in the code area.
  • the image other than the cell added in the information code can be used for purposes other than the decoding of the data recording area.
  • the information code when the information code is generated, the information code is generated in a configuration in which usage data used for image processing is recorded in the data recording area, and the reading device is read by the data recording area reading unit. Therefore, it is possible not only to recognize the image in the image area but also to perform processing associated with the data recorded in the data recording area. Therefore, the degree of freedom in using the image in the image area is increased, and the use of the image in the image area can be greatly enhanced.
  • FIG. 1 is a schematic diagram schematically illustrating an information code utilization system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating an electrical configuration of an information code reading device that constitutes the information code utilization system of FIG.
  • FIG. 3 is an explanatory diagram for conceptually explaining the data configuration of the information code used in the information code utilization system of FIG.
  • FIG. 4 is an explanatory diagram for explaining another type of code corresponding to the information code used in the information code utilization system of FIG.
  • FIG. 5 illustrates the correspondence between the arrangement of each data word in the information code generated by the information code generation apparatus constituting the information code utilization system in FIG. 1 and the arrangement of each data word in another type of code. It is explanatory drawing to do.
  • FIG. 1 is a schematic diagram schematically illustrating an information code utilization system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating an electrical configuration of an information code reading device that constitutes the information code utilization system of FIG.
  • FIG. 3
  • FIG. 6 is an explanatory diagram conceptually illustrating the format data of the information code used in the information code utilization system of FIG.
  • FIG. 7 illustrates the correspondence between the arrangement of each data word in the information code generated by the information code generation apparatus constituting the information code utilization system in FIG. 1 and the arrangement of each data word in another type of code.
  • FIG. 6 is a diagram illustrating a correspondence relationship different from that in FIG. 5.
  • FIG. 8 is a flowchart illustrating a flow of information code generation in the information code generation device constituting the information code utilization system of FIG.
  • FIG. 9 is a flowchart illustrating the flow of reading an information code in the information code reading device constituting the information code utilization system of FIG. FIG.
  • FIG. 10A is an explanatory diagram showing a state in which no image is formed in an empty area in the information code used in the information code utilization system of FIG. 1, and FIG. 10B shows that the information code is empty. It is explanatory drawing which shows the state in which the image was formed in the area
  • FIG. 11A is an explanatory diagram for explaining registration of a signature image in the information code utilization system of FIG. 1, and FIG. 11B is an explanatory diagram for explaining an information code to be authenticated.
  • (C) is explanatory drawing explaining collation with the registered signature image and the image of authentication object.
  • FIG. 11A is an explanatory diagram showing a state in which no image is formed in an empty area in the information code used in the information code utilization system of FIG. 1, and FIG. 10B shows that the information code is empty.
  • FIG. 12A is an explanatory diagram illustrating an image example of the original image
  • FIG. 12B is an explanatory diagram illustrating an image example of an image deformed due to inclination or the like.
  • FIG. 13 is a flowchart illustrating the flow of reading an information code in the information code reading device constituting the information code utilization system of the second embodiment.
  • FIG. 14 is an explanatory diagram illustrating an information code on which a followogram image is formed.
  • FIG. 15 is an explanatory diagram illustrating an information code on which a fingerprint image is formed.
  • FIG. 16 is an explanatory diagram for explaining an information code used in the information code utilization system according to the fifth embodiment
  • FIG. 16 (A) is a diagram showing a state in which an empty area is left blank, and FIG.
  • FIG. 17 is an explanatory diagram for explaining an information code used in the information code utilization system according to the sixth embodiment
  • FIG. 17 (A) is a diagram showing a state in which an empty area is left blank
  • FIG. B) is a diagram illustrating a state in which a design is added to the empty area.
  • 18A is an explanatory diagram conceptually showing the data structure of the data to be decoded in the information code of FIG. 16, and
  • FIG. 18B conceptually shows the data structure of the data to be decoded in the information code of FIG.
  • FIG. 19 is an explanatory diagram for explaining an information code used in the information code utilization system according to the seventh embodiment, and FIG.
  • FIG. 19A is a plan view of the formation target medium as viewed from the front side.
  • (B) is a schematic cross-sectional view schematically showing a cross-section obtained by cutting the formation target medium in the horizontal direction at the center position in the vertical direction.
  • FIG. 20 is an explanatory diagram for explaining a formation target medium on which an information code is formed and a subject to be covered with the medium.
  • FIG. 21A is an explanatory diagram showing a state in which the formation target medium on which the information code is formed is placed on the subject
  • FIG. 21B is a formation on the subject as shown in FIG. It is explanatory drawing explaining a mode that a target medium etc. are imaged with a reader.
  • FIG. 22A is an explanatory diagram illustrating an image obtained by cutting out the code area from the captured image obtained by capturing the imaging target as illustrated in FIG. 21A
  • FIG. 22B is an image of the image area. It is explanatory drawing explaining a mode that was displayed with the external device of the transmission destination.
  • FIG. 23 is an explanatory diagram illustrating a state in which a subject (background) that is visually recognized through a window portion is imaged together with a formation target medium, in Modification 1 of the seventh embodiment.
  • FIG. 24A is an explanatory diagram illustrating an image obtained by cutting out the code area from the captured image obtained by imaging as illustrated in FIG. 23, and FIG. 24B illustrates an image in the image area as a transmission destination.
  • FIG. 25A is an explanatory diagram illustrating a formation target medium on which an information code is formed and a subject (measuring instrument) to be covered with the information code, with respect to the second modification of the seventh embodiment, and FIG.
  • FIG. 26A is an explanatory diagram illustrating a state in which the formation target medium or the like placed on the subject is imaged by the reading device as illustrated in FIG. 25B
  • FIG. 26B is a diagram illustrating FIG.
  • FIG. 27A is an explanatory diagram for explaining a formation target medium on which an information code is formed and a subject (printed material) on which the information code is applied, with respect to Modification 3 of the seventh embodiment
  • FIG. 3 is an explanatory diagram showing a state where a formation target medium is put on the subject.
  • FIG. 28A is an explanatory diagram illustrating a state in which the formation target medium or the like placed on the subject is imaged by the reading device as illustrated in FIG. 27B
  • FIG. 28B is a diagram illustrating FIG.
  • FIG. 29A is an explanatory diagram illustrating a formation target medium on which an information code is formed and a subject (observation target) to be covered with the information code, with respect to Modification 4 of the seventh embodiment
  • FIG. () Is an explanatory view showing a state in which the formation target medium is put on the subject.
  • FIG. 30A is an explanatory diagram illustrating a state in which the formation target medium or the like placed on the subject is imaged by the reading device as illustrated in FIG. 29B
  • FIG. 30B is a diagram illustrating FIG.
  • FIG. 31A is an explanatory diagram illustrating a plurality of color samples that are candidates for a subject in Modification 5 of the seventh embodiment
  • FIG. 32A is an explanatory diagram illustrating a state in which the formation target medium or the like placed on the subject is imaged by the reading device as illustrated in FIG. 31B
  • FIG. 32B is a diagram illustrating FIG.
  • FIG. 33A is an explanatory diagram for explaining an information code used in the information code utilization system according to the eighth embodiment
  • FIG. 33B is a device for reading the formation target medium to which the information code is attached. It is explanatory drawing explaining a mode that it images by.
  • FIG. 34A illustrates a state in which an image obtained by cutting out a code area from a captured image obtained by imaging as illustrated in FIG. 33B is transmitted to an external device and displayed on the transmission destination external device.
  • FIG. 34A illustrates a state in which an image obtained by cutting out a code area from a captured image obtained by imaging as illustrated in FIG. 33B is transmitted to an external device and displayed on the transmission destination external device.
  • FIG. 34B is an explanatory diagram conceptually illustrating a data configuration in which data transmitted in this way is stored in an external device.
  • FIG. 35 is a flowchart illustrating the flow of a reading process performed by the information code utilization system according to the ninth embodiment.
  • FIG. 36 is an explanatory diagram for conceptually explaining the method for generating comparison data in the ninth embodiment.
  • FIG. 37 is an explanatory diagram conceptually illustrating comparison data used in the ninth embodiment.
  • FIG. 38A is an explanatory diagram illustrating an information code generated by the generation device of the information code utilization system according to the ninth embodiment, and FIG. 38B is a state where a fingerprint is attached to the information code. It is explanatory drawing which shows.
  • FIG. 38A is an explanatory diagram illustrating an information code generated by the generation device of the information code utilization system according to the ninth embodiment
  • FIG. 38B is a state where a fingerprint is attached to the information code. It is explanatory drawing which shows.
  • FIG. 38A is an explanatory diagram
  • FIG. 39 is an explanatory diagram conceptually illustrating a method for generating comparison data in the first modification of the ninth embodiment.
  • FIG. 40A is an explanatory diagram illustrating an information code generated by the generating device of the information code utilization system according to the first modification of the ninth embodiment, and FIG. 40B shows that the information code is signed. It is explanatory drawing which shows the state written.
  • FIG. 41 is an explanatory diagram conceptually illustrating a method for generating comparison data in the second modification of the ninth embodiment.
  • FIG. 42A is an explanatory diagram illustrating an information code generated by the generation device of the information code utilization system according to the second modification of the ninth embodiment, and FIG. 42B shows an imprint on the information code. It is explanatory drawing which shows the attached
  • FIG. 40A is an explanatory diagram illustrating an information code generated by the generating device of the information code utilization system according to the first modification of the ninth embodiment, and FIG. 40B shows that the information code is signed. It is explanatory drawing which shows
  • FIG. 43 is an explanatory diagram for conceptually explaining a state of reading a delivery form handled by the information code utilization system according to the tenth embodiment.
  • FIG. 44 (A) is an explanatory diagram conceptually illustrating a receipt handled by the information code utilization system according to the first modification of the tenth embodiment, and FIG. 44 (B) shows a sign of the receipt. It is explanatory drawing which shows the state.
  • FIG. 45 is an explanatory diagram conceptually illustrating a state of registration of a seal stamp in the information code utilization system according to the second modification of the tenth embodiment.
  • FIG. 46 is an explanatory diagram conceptually illustrating a state of seal authentication in the information code utilization system according to the second modification of the tenth embodiment.
  • FIG. 44 (A) is an explanatory diagram conceptually illustrating a receipt handled by the information code utilization system according to the first modification of the tenth embodiment
  • FIG. 44 (B) shows a sign of the receipt. It is explanatory drawing which shows the state.
  • FIG. 47 is an explanatory diagram conceptually illustrating a state of fingerprint registration in the information code utilization system according to the third modification of the tenth embodiment.
  • FIG. 48 is an explanatory diagram conceptually illustrating a state of fingerprint matching in the information code utilization system according to Modification 3 of the tenth embodiment.
  • FIG. 49A is an explanatory diagram for explaining an information code used in the information code utilization system according to the eleventh embodiment.
  • FIG. 49B shows an example of data recorded in the data recording area of the information code. It is explanatory drawing explaining these.
  • FIG. 50 is an explanatory diagram conceptually illustrating an application example of the information code utilization system according to the eleventh embodiment.
  • FIG. 51 is an explanatory diagram for explaining a state of reading in the information code utilization system according to the eleventh embodiment.
  • FIG. 52 is an explanatory diagram illustrating a state of reading in the information code utilization system according to the first modification of the eleventh embodiment.
  • FIG. 53A is an explanatory diagram for explaining an information code used in the information code utilization system according to the second modification of the eleventh embodiment.
  • FIG. 53B shows the information code in FIG. It is explanatory drawing explaining the image obtained when it images with the predetermined imaging method.
  • FIG. 54 is an explanatory diagram for explaining an information code used in the information code utilization system according to the twelfth embodiment.
  • FIG. 55 is an explanatory diagram conceptually illustrating an application example of the information code utilization system according to the twelfth embodiment.
  • FIG. 56 is an explanatory diagram for conceptually explaining the AR display in the application example of FIG. FIG.
  • FIG. 57 is an explanatory diagram for explaining information codes used in an information code utilization system according to another embodiment.
  • FIG. 58 is an explanatory diagram illustrating another example of an information code used in an information code utilization system according to another embodiment.
  • FIG. 59 is an explanatory diagram illustrating another example 2 of the information code used in the information code utilization system according to another embodiment.
  • An information code utilization system 1 shown in FIG. 1 is generated by an information code generation device 2 that generates an information code 100 in which cells serving as units for displaying information are arranged in a predetermined code area, and an information code generation device 2.
  • the information code reading device 10 for reading the information code 100 is provided.
  • the information code generation device 2 is configured as an information processing device such as a personal computer, for example, and includes a control unit 3 including a CPU, an operation unit 4 including a keyboard, a mouse, and other input devices, a ROM, a RAM, and an HDD.
  • a storage unit 5 including a storage device such as a nonvolatile memory, a display unit 6 including a known display device (liquid crystal display or other display device), and a communication interface for performing wired communication or wireless communication with an external device.
  • a printing unit 8 printing apparatus that has the same hardware configuration as a known printer and can print the information code 100 or the like based on print data from the control unit 3. Yes.
  • the information code reader 10 is configured as a code reader capable of reading a two-dimensional code in hardware, and an outer case is configured by a case (housing) not shown. In which various electronic components are accommodated.
  • the information code reader 10 mainly includes an optical system such as an illumination light source 21, a light receiving sensor 23, a filter 25, and an imaging lens 27, and a micro memory such as a memory 35, a control circuit 40, an operation switch 42, and a liquid crystal display 46. It is composed of a computer (hereinafter referred to as “microcomputer”) system and a power supply system such as a power switch 41 and a battery 49. These components are mounted on a printed wiring board (not shown) or built in a case (not shown), and are integrally assembled to the case (housing).
  • a computer hereinafter referred to as “microcomputer”
  • a power supply system such as a power switch 41 and a battery 49.
  • the optical system includes an illumination light source 21, a light receiving sensor 23, a filter 25, an imaging lens 27, and the like.
  • the illumination light source 21 functions as an illumination light source capable of emitting illumination light Lf, and includes, for example, a red LED and a diffusion lens, a condensing lens, and the like provided on the emission side of the LED.
  • the illumination light source 21 is provided on both sides of the light receiving sensor 23, and the reading object R (that is, a medium carrying an information code or a medium through a reading port (not shown) formed in the case)
  • the illumination light Lf can be irradiated toward a medium as a target for forming the information code.
  • the reading object R medium carrying an information code or a medium on which an information code is arranged
  • various objects such as a resin material and a metal material are conceivable.
  • the information code 100 (described later) is formed by printing or the like.
  • the light receiving sensor 23 corresponds to an example of an “imaging unit” that can image the information code 100 (described later), and is configured to receive the reflected light Lr irradiated and reflected on the reading object R and the information code 100.
  • an area sensor in which light receiving elements which are solid-state imaging elements such as C-MOS and CCD are two-dimensionally arranged corresponds to this.
  • the light receiving sensor 23 is mounted on a printed wiring board (not shown) so that incident light incident through the imaging lens 27 can be received by the light receiving surface 23a.
  • the filter 25 is an optical low-pass filter that allows passage of light having a wavelength less than or equal to the wavelength of the reflected light Lr and blocks passage of light exceeding the wavelength, for example, and is a reading port (not shown) formed in the case.
  • the imaging lens 27 includes, for example, a lens barrel and a plurality of condensing lenses housed in the lens barrel.
  • the imaging lens 27 is provided in a reading port (not shown) formed in the case. The incident reflected light Lr is collected, and a code image of the information code 100 is formed on the light receiving surface 23 a of the light receiving sensor 23.
  • the microcomputer system includes an amplification circuit 31, an A / D conversion circuit 33, a memory 35, an address generation circuit 36, a synchronization signal generation circuit 38, a control circuit 40, an operation switch 42, an LED 43, a buzzer 44, a liquid crystal display 46, and a communication interface 48.
  • This microcomputer system is configured around a control circuit 40 and a memory 35 that can function as a microcomputer (information processing apparatus), and the image signal of the information code 100 captured by the optical system described above is signaled in hardware and software. It can be processed.
  • An image signal (analog signal) output from the light receiving sensor 23 of the optical system is input to the amplification circuit 31 and amplified by a predetermined gain, and then input to the A / D conversion circuit 33, and the digital signal is converted from the analog signal. Is converted to The digitized image signal, that is, image data (image information) is input to the memory 35 and stored in the image data storage area of the memory 35.
  • the synchronization signal generation circuit 38 is configured to generate a synchronization signal for the light receiving sensor 23 and the address generation circuit 36.
  • the address generation circuit 36 is based on the synchronization signal supplied from the synchronization signal generation circuit 38. Thus, the storage address of the image data stored in the memory 35 can be generated.
  • the memory 35 is constituted by a semiconductor memory device or the like, for example, RAM (DRAM, SRAM, etc.), ROM (EPROM, EEPROM, etc.) and the like.
  • the RAM of the memory 35 is configured to be able to secure a work area and a reading condition table used by the control circuit 40 in each processing such as arithmetic operation and logical operation.
  • the ROM stores in advance a predetermined program that can execute a reading process and the like that will be described later, and a system program that can control each piece of hardware such as the illumination light source 21 and the light receiving sensor 23.
  • the control circuit 40 is a microcomputer that can control the entire information code reader 10, and includes a CPU, a system bus, an input / output interface, and the like, and has an information processing function.
  • Various input / output devices peripheral devices
  • the control circuit 40 via a built-in input / output interface.
  • the power switch 41, the operation switch 42, the LED 43, the buzzer 44, A liquid crystal display 46, a communication interface 48, and the like are connected.
  • a host computer HST corresponding to the host system of the information code reader 10 can be connected to the communication interface 48.
  • the power supply system includes a power switch 41, a battery 49, and the like.
  • the power switch 41 managed by the control circuit 40 is turned on and off, the conduction of the drive voltage supplied from the battery 49 to each device and each circuit described above is established. And shut-off are controlled.
  • the battery 49 is a secondary battery that can generate a predetermined DC voltage, and corresponds to, for example, a lithium ion battery.
  • FIG. 1 a two-dimensional information code 100 used in the information code utilization system of FIG. 1 will be described with reference to FIGS.
  • the example of FIG. 1 and the example of the right side of FIG. 5 are slightly different in the cell arrangement and the size of the specific pattern, but the basic idea is the same and has the same characteristics.
  • the information code 100 shown in FIG. 1, FIG. 5 and the like is generated by, for example, the information code generation device 2 described above, and has a configuration in which cells 102 serving as units for displaying information are arranged inside a predetermined code area. It has become.
  • the “code region” is a rectangular region REG that can include all the arranged dark cells, and is the smallest that includes all the cells constituting the information code 100. It is a square area or a rectangular area. Specifically, it is a minimum square area or rectangular area including all three position detection patterns (cutout symbols) 104.
  • the upper surface of the reading object R (medium carrying an information code or a medium carrying an information code) is formed by a series of contours outside the cells.
  • a code area REG a square or rectangular area drawn from the background inside is called a code area REG.
  • the plurality of cells 102 are configured by either a rectangular (for example, a square outer diameter) light (for example, white) cell or a dark (for example, black) cell.
  • the cells 102 are arranged in a matrix around the empty area (or canvas area) 110 described later in the code area REG.
  • the light color cell and the dark color cell are not limited to the white cell and the black cell, respectively.
  • the dark color cell is configured with a predetermined lightness, it is sufficient that the light color cell has a lightness higher than that.
  • a light or dark margin area is formed around the code area REG so as to surround the code area REG. In the examples of FIGS.
  • a margin area of a color (for example, another color having a brightness higher than that of a white or dark cell) is arranged adjacent to the periphery of the code area.
  • the definition of light and dark colors is described in, for example, “International standard ISO / IEC18004, second edition 2006-09-01, page 109, Annex M,“ M1 Symbol contrast ”” and the like.
  • the information code 100 includes data in a specific pattern area in which a specific pattern having a predetermined shape is arranged inside a rectangular code area (for example, a square shape or a rectangular shape), and a plurality of types of cells 102.
  • a data recording area for recording and an error correction code recording area for recording an error correction code by a plurality of types of cells 102 are provided.
  • the specific pattern of the information code 100 is, for example, a known predetermined model number of a QR code (registered trademark) (in the example of FIG. 5, a predetermined model number of a QR code standardized by JIS or the like).
  • the position detection pattern (cutout symbol) 104 as the specific pattern is arranged at each of the three corners of the code area in the examples of FIGS. ing. Further, a timing pattern 106 and an alignment pattern 108 as specific patterns are also provided at predetermined positions in the predetermined model number. Thus, in the information code 100, a specific pattern (position detection pattern 104, timing pattern 106, alignment pattern 108 (not shown in FIG. 5)) having a predetermined shape is arranged at a predetermined position. . It should be noted that, within the code area, positions other than the empty area 110, which will be described later, are configured by such specific pattern areas, recording areas (areas consisting of either data recording areas or error correction code recording areas), and the like. Yes.
  • a plurality of model numbers may be provided in the type of the information code 100.
  • the candidate position (address) may be determined in advance. If the model number information for specifying the model number is arranged at a predetermined position (reserved area) in the code area, the reader device can determine the number of rows and columns of cells of the information code 100 based on the model number information.
  • the area other than the specific pattern area, the data recording area, and the error correction code recording area is an area where data is not recorded by the cell 102 and is not subject to error correction by the error correction code.
  • a certain empty area 110 is provided in a size larger than the size of the single cell 102.
  • the data recording area and the error correction code recording area are arranged in a circular and rectangular shape (that is, a rectangular frame shape) along the periphery of the code area REG.
  • An empty area 110 is formed in the central portion (a predetermined area including the center of the code area).
  • the “area in which no data is recorded by the cell 102” means an area in which a code word such as a data code word or an error correction code word to be described later is not recorded, and an area in which format information is not recorded. To do.
  • the “region not subject to error correction by the error correction code” means a region where error correction using the error correction code recorded in the error correction code recording region is not performed. Therefore, even if some information (additional information to be described later) is recorded in the empty area 110, the error correction for the information is performed by the error correction code in the error correction code recording area existing around the empty area 110. Absent.
  • a configuration corresponding to the predetermined model number as shown in the right diagram of FIG. 5 is associated with another model number (Ver. Number) having a smaller size than the predetermined model number as illustrated in the left diagram of FIG.
  • Ver. Number a model number having a smaller size than the predetermined model number as illustrated in the left diagram of FIG.
  • An example in which the position of each code word of the information code 100 in the right diagram of FIG. 5 and the position of each code word of the other code 120 in the left diagram of FIG. 5 are associated by the arrangement conversion table as shown in the lower diagram of FIG. Will be described as a representative example.
  • the amount of data that can be stored in the other type code 120 in the left diagram of FIG. 5 can be expressed with the empty area 110 provided by the information code 100 as shown in the right diagram of FIG.
  • each code word of the information code 100 can be read as a code word of another type code 120 as shown in the left diagram of FIG. .
  • each code word area arranged around the empty area 110 is conceptually shown by a broken line frame or the like.
  • the area (predetermined position 105) for recording the format information is conceptually indicated by a predetermined type of hatching.
  • the interior of the empty area 110 (the central part of the code area) is also assigned to correspond to the cell arrangement, but the configuration of the empty area 110 is free, and FIG. It may be configured as described above, or may be other configurations.
  • the format information (format information) is configured as shown in FIG. 6, for example, and is recorded at a predetermined position 105 (a predetermined type of hatching position) in the information code 100 with a specific format configuration.
  • This format information includes correction level information for specifying an error correction level and mask number information for specifying a mask number.
  • the correction level information is information for specifying an error correction level used in the information code 100, and corresponds to an error correction level used in the other type code 120 in the case of being converted into the other type code 120 and read, for example.
  • the mask number is information for specifying which mask type is the mask applied to the codeword area of the information code 100 (area in which the data codeword and error correction codeword are recorded).
  • the format information is recorded in a state reflecting a predetermined type of mask pattern (specific mask), and the format information is identified by identifying the mask type of the format information in the same manner as a known QR code. 5 It is possible to detect a specific code type (type provided with a free area 110) as shown in the right figure.
  • a specific code type type provided with a free area 110
  • data (cell array) expressed when the model 1 mask is applied to the format information as shown in FIG. 6 is recorded at a predetermined position.
  • data (cell array) expressed when the model 2 mask is applied to the format information as shown in FIG. 6 is recorded at a predetermined position.
  • the two-dimensional information code 100 (a special type code having a free area 110) of the present embodiment shown in FIG.
  • the data (cell array) expressed when the frame QR (quick response) is used in FIG. 6 is recorded at a predetermined position 105.
  • a check digit corresponding to the correction level (correction level information) and mask number (mask number information) to be recorded is added.
  • Format information is configured, on which various types of masks can be applied. Specifically, mask processing is performed by a known method using various types of mask patterns, and the bit pattern after the mask processing is recorded at a predetermined position 105.
  • the format information is recorded at the predetermined position 105 after applying a specific mask (example for frame QR in FIG. 6) to the format information like the information code 100, the information recorded at the predetermined position 105 in this way is recorded. If the mask process is canceled and decoded based on the specific mask, the check digit is matched, so that the type of the information code 100 can be specified. On the contrary, even if the data at the predetermined position 105 of the information code 100 is removed based on the mask of the model 1 or model 2, the check digit does not match. be able to.
  • a specific mask example for frame QR in FIG. 6
  • this information code 100 a specific pattern (position detection pattern 104, etc.) is detected, the code area, the direction of the code, and the position of each cell are specified by the same method as the known QR code, and then the same as the known QR code.
  • the predetermined position 105 where the format information is recorded by the method it is possible to identify the type of the information code 100 (special type having the empty area 110) according to the type of the mask that has been successfully decoded.
  • the error correction level used in the information code 100 can be specified by the decoded format information, and applied to the code word area of the information code 100 (the area where the data code word and the error correction code word are recorded by the cell). It is possible to specify the mask type.
  • an identification display (mark 121 a) indicating the range of the image area 121 is provided inside the empty area 110, and writing can be performed later in the image area 121.
  • a portion in the mark 121a in the image area 121 is configured by one or a plurality of predetermined colors (for example, white color), and the mark 121a is a predetermined color (a color constituting an area in the mark in the image area 121). ) Is indicated as an identification display by a different color (for example, black). Since it is configured in this way, it is possible to write in the image area 121 with another color different from the predetermined color (the background color constituting the area in the mark in the image area 121). When written in different colors, the information code reader 10 can recognize the writing.
  • the mark 121 a made up of a rectangular figure is illustrated, and the inside of the mark 121 a is configured as the image area 121.
  • the shape and configuration of the identification display may be any.
  • the image region 121 is configured with a predetermined color (for example, white)
  • the background adjacent to the periphery of the image region 121 is other than the predetermined color, the image region and the background are classified by different colors. become. In this case, the background adjacent to the periphery of the image area corresponds to the identification display.
  • the content recorded in the information code 100 has, for example, a configuration as shown in FIG. 3, header data (frame QR header) is set at the beginning of the data array, and input data (decryption target data) after the header data. ) Continues.
  • input data data to be decoded
  • the header data used in the information code 100 is also referred to as a “frame QR header” in the following description. Further, in this specification, such an area for recording data words (data code words) of header data and input data (data to be decoded) and an area for recording the above-described format information correspond to “data recording areas”. To do.
  • header data frame QR header
  • another type code 120 a code type used for decoding the information code 100, which will be described later
  • the information code 100 according to the arrangement conversion table (FIG. 5).
  • Information identified as Ver. Number in FIG. 3
  • identification information that can specify the format in the empty area are recorded.
  • the format of the empty area 110 is the image format shown in FIGS.
  • Information first information
  • information that can specify the position of the image (image area position) in the empty area 110 (“image area position information” corresponding to the second information) are recorded.
  • the information (first information) for specifying that the format of the empty area 110 is an image format corresponds to an example of “identification information” indicating the presence of the image area.
  • the information (second information) that can specify the position of the image in the empty area (image area position) corresponds to an example of “position data” indicating the position of the image area in the code area.
  • image area position information information that can specify the column position and row position of the image area 121 configured as the information input area is recorded as image area position information (position data). More specifically, a combination of the upper left row position and column position of the image area 121 when the information code 100 configured in a rectangular shape as shown in FIG. 5 is divided into a plurality of rows and columns in a grid pattern, A combination of a row position and a column position in the lower right of the image area 121 is recorded as image area position information (position data).
  • the combination of the upper left row position and the column position of the image area 121 and the lower right row position and the column position of the image area 121 are used as the image area position information (position data).
  • a combination of the row position and the column position at each of the four corners may be used as image area position information (position data).
  • the width of each row and each column when the information code 100 is divided in a lattice shape as shown in FIG. 5 corresponds to the width in the row direction and the width in the column direction of a single cell, respectively.
  • an area for recording the error correction code is an error correction code recording area.
  • a method of generating an error correction code (error correction code word) based on a data word is a known two-dimensional code (such as a QR code).
  • a method defined in the standard can be used.
  • an error correction codeword generation method JISX0510: 2004, 8.5 error correction
  • JISX0510: 2004 is used. be able to.
  • the method of generating the error correction codeword is not limited to this, and various known methods can be used.
  • each data word (data code word) representing the data to be decoded (data code word) and an error correction code word are arranged in the code area based on predetermined arrangement position information.
  • the arrangement candidate positions of the respective code words are determined in advance in the code area of the information code 100, and a number (address) is assigned to each arrangement candidate position.
  • the arrangement position information is information for specifying which arrangement candidate position each code word constituting the recording contents shown in FIG. 3 should be arranged.
  • the arrangement candidate positions Nos. 1 to 25 are schematically illustrated. At each arrangement candidate position, the top and last bit portions are numbered and clearly shown. In the right diagram of FIG. 5, the arrangement candidate positions after the 26th are omitted.
  • the code word in each order is included in the other type code 120.
  • the code words in each order are decoded based on the arrangement determined in this way.
  • the 0th code word is arranged at the lower right, the first code word is arranged thereon, and the second code word is arranged thereon.
  • the arrangement position of each code word is determined in advance. Therefore, when decoding this other type code 120, the 0th code word, the 1st code word, the 2nd code word, the 3rd code word, etc. based on the arrangement determined in this way. It will be deciphered in order.
  • each number is associated with a number of a determined candidate position (position candidate position of each code word).
  • the arrangement position of the first code word in the other type code 120 corresponds to the first arrangement candidate position of the information code 100
  • the arrangement position of the second code word in the other type code 120 is information.
  • Information such as “corresponding to the second arrangement candidate position of the code 100” and “the arrangement position of the third code word in the other type code 120 corresponds to the third arrangement candidate position of the information code 100” is, for example, table data
  • Each code word is recorded, and the arrangement position of each numbered code word in the other type code 120 is associated with each arrangement candidate position of the information code 100.
  • the code word (code word at each address) in each placement candidate position in the code area is associated with the placement position information (placement conversion table).
  • the other-type code 120 may be rearranged at each arrangement position, and the other-type code 120 rearranged in this way may be decoded by a known method. For example, when the information code 100 is decoded using the arrangement conversion table shown in the lower part of FIG. 5, the code word at the first arrangement candidate position of the information code 100 is changed to the arrangement position of the first code word in the other type code 120.
  • the code word at the second placement candidate position of the information code 100 is placed at the placement position of the second code word in the other code 120, and the code word at the Nth placement candidate position of the information code 100 is placed in the other kind.
  • the code 120 is rearranged in such a manner that it is arranged at the arrangement position of the M-th code word associated with the N-th arrangement candidate position, and other types of codes (re-arranged in this way ( QR code) may be decoded by a known method.
  • arrangement position information arrangement conversion table
  • data common arrangement conversion table
  • common to the information code generation apparatus 2 that generates the information code 100 and the information code reading apparatus 10 that reads the information code 100 is respectively provided. It is desirable to be provided.
  • the other type code 120 is a QR code (registered trademark) and the information code 100 has a specific pattern similar to the QR code as shown in FIG. 5 will be described as an example.
  • the information code 100 having the empty area 110 is also referred to as “frame QR (quick response) (or frame QR)”.
  • the frame QR is a kind of two-dimensional information code.
  • the step of the process related to this generation is indicated by a symbol “S”. This description method is the same in the subsequent processing.
  • the information code generation process in FIG. 8 is a process performed by the information code generation apparatus 2 and is started by a predetermined operation on the operation unit 4, for example.
  • data to be encoded from the outside data to be decoded
  • attribute data code type data
  • code type data information code 100 according to the present invention
  • a general two-dimensional code for example, a general (QR code)
  • the control unit 3 and the operation unit 4 correspond to an example of a “data acquisition unit” and function to acquire data to be decoded (input data from the outside).
  • the present invention is not limited to such an example.
  • the control unit 3 and the communication unit 7 may be configured as a “data acquisition unit” and function to acquire data input from outside through communication as decryption target data. Good.
  • a method for compressing the acquired data is determined by a known method (S2), and the compressed data (decoded data) is expressed by a plurality of data words (data code words). (S3). Then, after S3, it is determined whether or not the code type data acquired in S1 is the type (frame QR) of the information code 100 having the free space 110. If the code type data acquired in S1 is the type of the information code 100 having the free area 110 (frame QR), the process proceeds to Yes in S4, and the type of the information code 100 having the free area 110 (frame QR). ) To generate the unique header data (described above) and set it at the head of the data array including a plurality of data words as shown in FIG. 3 (S5).
  • information that can specify the type (model number) of the other type code 120 shown in the right diagram of FIG.
  • Information specifying the presence (first information) and information that can specify an image area (writable position) in the empty area 110 (“image area position information” corresponding to the second information) are recorded. It will be.
  • the code type data acquired in S1 is not the type (frame QR) of the information code 100 having the free area 110 (data for selecting a general two-dimensional code (for example, model 1 or model 2 is selected). If (data), the process proceeds to No in S4.
  • an error correction code is generated by a known method based on the configuration of the data word (data code word) generated in S3, and a plurality of error correction words (error correction) representing the error correction code are generated.
  • Codeword is generated (S6).
  • an error correction code is generated by a known method based on the configuration of the final data word (a plurality of data code words representing header data and input data) generated in S3 and S5. Then, a plurality of error correction words (error correction code words) representing the error correction code are generated (S6).
  • the model number of the two-dimensional code having a size capable of storing the data word (data code word) generated in S3 and the error correction word (error correction code word) generated in S6 (in this example, In a plurality of standardized known QR code model numbers, a model number of a size that can store the data word generated in S3 and the error correction word generated in S6) is determined, and the arrangement predetermined by the model number is determined. According to the pattern, the data word generated in S3 and the error correction word generated in S6 are arranged (S9).
  • the process proceeds to Yes in S7, and the data word (data) generated in S3 and S5 (Code word), the error correction word (error correction code word) generated in S6, and the empty area, the model number of the information code 100 that can be stored is determined (S10).
  • the size of the empty area may be a predetermined fixed size, or may be designated by an input or the like by the user before S10. Further, the size of the empty area may be specified by the number of rows and the number of columns, or may be specified by information such as how many words it corresponds to, or how many cells it corresponds. In the example of FIGS.
  • model numbers sizes determined in advance by the type of the information code 100
  • the data word (data code word) generated in S3 and S5 and the error correction generated in S6 A model number of a size that can store a word (error correction code word) and an empty area is determined.
  • the arrangement candidate positions of the respective code words are determined in order from the outer circumference side as shown in the right diagram of FIG.
  • the placement candidate position of each code word is determined so that the placement candidate position with a smaller number is located outside, and a portion where the code word is not placed (that is, a portion that is not used) among the prepared placement candidate positions. If it uses, it becomes easy to ensure a large empty area
  • model numbers having a size capable of storing the data word (data code word) generated in S3 and S5, the error correction word (error correction code word) generated in S6, and the empty area
  • the smallest model number (size) may be determined from among them, or the user may be able to specify any model number (size) from among them.
  • a predetermined size number of rows and columns
  • a specific pattern arrangement and each arrangement position position of the codeword are used in the model number thus determined.
  • the arrangement position of each code word is determined according to the above-described arrangement conversion table. In the following, an example in which the model number as shown in the right diagram of FIG. 5 is determined in S10 will be specifically described.
  • the data word (data code word) generated in S3 and S5 and the error correction word (error correction code word) generated in S6 are arranged based on the arrangement position information (arrangement conversion table) described above. It will be.
  • the above-described arrangement position information (arrangement conversion table) is stored in the storage unit 5, and in this arrangement conversion table, as described above, each arrangement position (each (Order position of code word) is associated with a predetermined candidate position (position candidate position of each code word) in information code 100, respectively.
  • the code words to be recorded (the data words (data code words) generated in S3 and S5 and the error correction words (error correction code words) generated in S6) are shown in the left of FIGS.
  • Is represented by another code 120 (a two-dimensional code having a size smaller than that of the information code 100 and a size capable of storing the data word generated in S3 and S5 and the error correction word generated in S6).
  • the code word in each order is associated with the arrangement position of the code word in each order by arrangement position information (arrangement conversion table). It arrange
  • FIG. For example, in the arrangement position information (arrangement conversion table) in FIG. 5, the arrangement position of the first code word in the other type code 120 is associated with the first arrangement candidate position of the information code 100.
  • the first code word of the code words to be recorded (the data word generated in S3 and S5 and the error correction word generated in S6) is arranged at the first arrangement candidate position in the information code 100.
  • the second code word arrangement position in the other-type code 120 and the second arrangement candidate position of the information code 100 are associated with each other, the second code word in the code words to be recorded Is placed at the second candidate position in the information code 100.
  • the arrangement position (an arrangement position of the Nth code word) in the other type code 120 in which the Nth code word is arranged in the codeword to be recorded and the Mth arrangement candidate position of the information code 100 are as follows. If they are associated, the Nth codeword among the codewords to be recorded is arranged at the Mth arrangement candidate position in the information code 100.
  • the data word generated in S3 and S5 and the error correction word generated in S6 can be expressed by another type code 120 (configured as a known QR code) smaller than the information code 100.
  • another type code 120 configured as a known QR code
  • the data word generated in S3, S5, the error correction word generated in S6, and the empty area 110 are stored, it must be expressed by the information code 100 having a larger size. Therefore, in the present embodiment, the data word generated in S3 and S5, the error correction word generated in S6, and the empty area 110 are represented by the information code 100 having a size larger than the other type code 120, and S3 and S5.
  • the data word generated in step S6 and the error correction word generated in step S6 are stored in the arrangement of the code words when expressed by another type code 120 (known QR code) and the information code 100 having a size larger than this.
  • the correspondence relationship with each arrangement of codewords can be specified by a predetermined arrangement conversion table.
  • the “arrangement conversion table” as shown in FIG. 5 corresponds to an example of “arrangement position information for specifying each arrangement position when a plurality of data words expressing the data to be decoded are arranged in the code area”.
  • the arrangement conversion table includes data words in each order when the data to be decoded is expressed by a plurality of data words, and each arrangement position in the code area of the data words in each order. Are configured as information determined in association with each other.
  • the storage unit 5 corresponds to an example of an “arrangement position information recording unit” and functions to record data (arrangement position information) of such an arrangement conversion table.
  • a mask pattern to be applied to the code word whose placement location has been determined in S9 or S11 is determined by a known predetermined method (for example, a known method used in QR code), and the determined mask.
  • Masking is performed by a known mask processing method so that the pattern is reflected in the code word whose location is determined in S9 or S11 (S12).
  • the check digit is calculated based on the mask pattern information (mask number) and error correction level information set in S12, and the format information including the error correction level, mask number, and check digit is generated as shown in FIG. (S13). Note that data such as a mask number and an error correction level to be recorded as format information may be input in S1.
  • the process proceeds to Yes in S14, and the format information generated in S13 includes the above-described format information.
  • Mask processing is performed to reflect the specific mask (frame QR mask) (see FIG. 6).
  • the process proceeds to No in S14, and the mask pattern is different from the mask pattern set in S16.
  • Set the mask model 1 mask or model 2 mask.
  • the constituent elements of the empty area 110 are arranged (S18).
  • the graphic data of the image area 121 is arranged at the designated position, and the outer edge of the image area 121 is set.
  • each graphic is arranged so that the upper left position and lower right position of the graphic determined in this way are the positions specified by the header data. Further, a frame (mark 121a) indicating the outer edge of the image area 121 is determined in advance as a rectangular frame (for example, a rectangular dark frame). In S18, the frame thus determined is the image area 121. Each figure is arranged so as to be arranged along the outer edge of the.
  • the position of the image area (position of the image area), the shape and color, the shape and color of the identification display, etc. included in the header data of FIG. 3 are determined in advance.
  • the user may be able to specify by input, and the user may be able to specify the shape and color of the image area or the shape and color of the identification display by input.
  • an image area of the shape and color specified by the user is formed at the position specified by the user, and the range is indicated by the identification display of the shape and color specified by the user.
  • symbols or figures such as letters and numbers may be arranged in the image area 121 or outside the image area. In this case, for example, the user can input the symbol or graphic to be displayed and the position of the symbol or graphic. What is necessary is just to arrange.
  • the code is printed by the printing unit 8 (S19).
  • the display unit 6 may display the information code 100 or the like, and the data of the information code 100 generated by the processing up to S17 is stored in an external device (for example, a portable terminal or a computer). Or other information equipment).
  • the other type code 120 corresponds to the position detection pattern 104 of the information code 100, and includes a position detection pattern 124 that is automatically generated at three corners.
  • the control unit 3 of the information code generation device 2 corresponds to an example of a “data recording area generation unit”.
  • the control section 3 is located at a predetermined position in the code area.
  • the format information is recorded in a specific format configuration, and each data word representing the decoding target data (input data) acquired by the data acquisition unit is expressed.
  • a data recording area is generated so as to be arranged.
  • the “data recording area generation unit” configured by the control unit 3 when the empty area 110 is provided inside the code area, the cell array at the predetermined position 105 reflects a predetermined type of mask pattern (specific mask). Is configured.
  • the reading process in FIG. 9 is executed when a predetermined operation (for example, operation of the operation switch 42) is performed by the user, for example.
  • a predetermined operation for example, operation of the operation switch 42
  • a two-dimensional code in the imaging area of the light receiving sensor 23 is imaged to obtain a captured image of the two-dimensional code, and the shape of the two-dimensional code is detected.
  • a known method is used to recognize the position detection pattern 104 and detect the outer shape of the two-dimensional code.
  • the position detection pattern 104 is detected by a known method for detecting a 1: 1: 3: 1: 1 waveform, which is performed with a QR code (registered trademark), and the outer shape of the imaged two-dimensional code is displayed as a QR code. Detection is performed by a known method performed by (registered trademark).
  • the outer shape detection method may be another method as long as it can detect the shape of the specific pattern and the outer shape of the two-dimensional code.
  • the light receiving sensor 23 corresponds to an example of an “imaging unit” and functions to image the information code 100 generated by the information code generation device 2.
  • the information (format information) at the predetermined position 105 of the information code 100 is decoded, and the type and mask correction of the captured information code A level is acquired (S40). Specifically, for example, as described above, the information recorded at the predetermined position 105 is attempted to be decrypted by canceling the mask processing based on the above-described specific mask (frame QR mask).
  • the process proceeds to Yes in S41.
  • the mask processing can be canceled by a mask other than a specific mask (frame QR mask), such as the model 1 mask and the model 2 mask shown in FIG. 6, the process proceeds to No in S41.
  • the two-dimensional code imaged in S40 is a case of a known QR code (registered trademark). Will be decoded and the decoding result will be output. In FIG. 9, the process in the case of No in S41 is omitted.
  • the data recorded in the data recording area is decoded (S42). Specifically, the mask of the entire code (specifically, the area of the code word) is released based on the mask number included in the format information acquired in S40. Then, based on the header data (frame QR header) provided at the beginning of the data word, the original code size (the model number and format of the other type code 120) is specified, and the diagram is converted according to the same layout conversion table as in FIG. 5 Return from the information code 100 as shown in the right figure to the original code (another code 120) as shown in the left figure.
  • the code word (data code word and error correction code word) of each arrangement candidate position of the information code 100 is arranged in the other type code 120 associated with each arrangement candidate position in the arrangement conversion table. Reposition to the position.
  • another type code 120 in which the data code word and the error correction code word arranged in the information code 100 are recorded is obtained. Since the other type code 120 is a known QR code, the data is decoded by a method similar to the known QR code (that is, error correction calculation is performed by a known method based on the error correction code word). Decode the data code word).
  • control circuit 40 corresponds to an example of a “determination unit”, and when the information code 100 is captured by the imaging unit, it is determined whether or not the predetermined position 105 in the code area has a specific format configuration. To function. Specifically, it functions to determine whether or not a predetermined type of mask pattern (specific mask) is reflected at the predetermined position 105.
  • the control circuit 40 corresponds to an example of a “data recording area reading unit” and a “decoding unit”.
  • the data recording area in the code image of the captured information code 100 And functions to read data recorded in the data recording area based on the contents of the error correction code recording area.
  • the determination unit determines that the predetermined position 105 has a specific format configuration (more specifically, when a predetermined type of mask pattern is reflected at the predetermined position 105)
  • the correspondence information recording unit The position of each data word in the code area is specified based on the correspondence information (arrangement conversion table) recorded in (1), and the decoding target data is decrypted.
  • the arrangement conversion table corresponds to an example of “correspondence information”, and a data word in each order represented by each arrangement position in the code area is determined in advance in another type code 120 different from the information code 100. It is configured as information for determining each corresponding position in the other type code 120 when expressed in (for example, a method defined in a known standard or the like). Then, when the determination unit determines that the predetermined position 105 has a specific format configuration, the control circuit 40 corresponding to the decoding unit converts the data word in each order represented by each arrangement position of the code area to the correspondence information
  • the other-type code 120 functions in such a manner as to be replaced with each corresponding position in the other-type code 120 defined in (1).
  • the format information included in the header data is read. If the format information is format information indicating "image format", the process proceeds to Yes in S44. For other formats, the process proceeds to No in S44. In FIG. 9, the process in the case where the process proceeds to No in S44 is omitted.
  • the image area position information (position data) included in the header data is read. (S45). Then, the position of the image area in the information code 100 is specified (S46). Specifically, in this configuration, it is assumed that a rectangular image region is formed, and in S46, the code image is analyzed to specify the positions of the four corners of the image region in the code image. For example, when position information (for example, a combination of a column position and a row position at each position of the four corners) of the image area is recorded as the image area position information (position data), the position data of the four corners of the image area is recorded. The position can be specified. In this case, the position data corresponds to position specifying data indicating the position of a region to be recognized by the image processing unit.
  • position data corresponds to position specifying data indicating the position of a region to be recognized by the image processing unit.
  • processing for normalizing the image area is performed (S47).
  • This normalization process uses, for example, a well-known projective transformation process, and an image tilted as shown in FIG. 12B is converted into an image having a prescribed shape as shown in FIG. 12A (square in FIG. 12A). Convert.
  • a distortion correction technique and a shape correction technique well known in the image processing field can be used. For example, a square image that is not a square as shown in FIG.
  • Various known techniques can be applied as long as the technique can convert to a square image.
  • the coordinates of each pixel are transformed by the following publicly known expression.
  • the coordinates before conversion are T1 to T4 (coordinates of the four corners specified in S46 and known values) as shown in FIG. 12B, and this range is a square shape as shown in FIG.
  • the coordinates after conversion of each pixel can be easily specified by the above arithmetic expression.
  • the coordinates S1 to S4 may be obtained by setting the coordinates S2 to S4 so that each side is a square of “predetermined length” with S1 being the same coordinate as T1 and S1 being the upper left position. Note that the length (predetermined length) of each side after conversion may be adjusted to the length of the longest side of each side of the image before conversion in FIG.
  • the information of the fixed value is normalized size information (information for specifying a size to be normalized for image processing or image output) ) In advance in the data recording area.
  • the length of each side after conversion is the length of the longest side of each side of the image before conversion, information specifying that fact is recorded in advance as normalized size information. Record it in the area.
  • the positions of the four corners are specified in S46, the image in the image area can be converted into a square normalized image having a “predetermined length” on one side.
  • S47 and S48 can be performed in the bitmap format by extracting the image area specified in S46, for example, as a bitmap image.
  • various known formats can be adopted, and may be a GIF format, a JPEG format, or the like. Alternatively, other image file formats may be used.
  • pattern matching processing is performed in S48.
  • the registration method of the master image is not limited as long as it is a method capable of registering the signature image as shown in the upper part of FIG. 11C. You may register like C).
  • the processing of FIG. 9 is performed in advance on the information code 100 on which the signature is drawn by the user as shown in FIG. 11A, and the image normalized in S47 is shown in FIG. It may be registered as a master image.
  • the figure to be normalized in S47 may be a prescribed square shape or rectangular shape.
  • the signature image registered as described above is compared with the image of the image area 121 normalized in S47 by known pattern matching, and in S49, it is determined whether or not the matching result is the same. . If they match, the process proceeds to Yes in S49, and the data recording area information decoded in S42 and the determination result in S49 (if they match, information indicating “match”) are displayed. Output. If it is determined in S49 that they do not match, a predetermined failure process is performed. In this case, error information or the like may be displayed, and the data decoded in S42 and the determination result in S49 (information indicating that they do not match) may be output.
  • the output may be displayed on the liquid crystal display 46, for example, or may be transmitted as data to an external device.
  • the method of comparing the image normalized in S47 and the registered image (master image) by pattern matching is exemplified, but other known methods such as a method of comparing feature points of both images It may be determined whether or not the images match.
  • the memory 35 corresponds to an example of a registration unit, and functions to register a pattern image for comparison with the image in the image area 121. Specifically, a handwritten character is represented as image data as a pattern image. Sign image is registered.
  • control circuit 40 corresponds to an example of an “image processing unit”, and the position of the image area in the code image is determined based on the position data obtained from the reading result of the data recording area by the data recording area reading unit.
  • the image is identified and functions to perform an image recognition process on the image in the image area by a method different from the data decoding process by the data recording area reading unit.
  • the image area 121 included in the code image It is determined whether or not the image in the image area 121 corresponds to the sign image registered in the memory 35 (registration unit) by pattern matching based on the image and the sign image registered in the memory 35 (registration unit). To work.
  • control circuit 40 corresponding to the “image recognition unit” is configured to display the image in the image area 121 on the condition that identification information is recorded in the data recording area based on the reading result of the data recording area by the data recording area reading unit. Is extracted as a bitmap image and functions to perform image processing. Further, based on the specific pattern image of the specific pattern area, the data recording area, and the cell image of the error correction code recording area in the code image of the information code 100 captured by the light receiving sensor 23 (imaging unit), the code It also functions to correct the image of the image area 121 included in the image and generate a normalized image of the image area.
  • control circuit 40 and the communication interface 48 correspond to an example of an “output unit”, and output the information read by the data recording area reading unit and the recognition result of the image area by the image processing unit. Function.
  • control circuit 40 and the liquid crystal display 46 correspond to an output unit.
  • the information code reader 10 can acquire not only information recorded by each cell in the data recording area but also an image formed in the image area 121 as a recognition target. Thus, it is possible to analyze and use an image other than the cells attached to.
  • an area other than the data recording area, error correction code recording area, and specific pattern area can be secured as an empty area inside the code area, and this area can be used as the image area 121. Therefore, it is more advantageous in performing error correction in the data recording area.
  • the information code generation device generates an information code so as to record predetermined identification information in the data recording area, and the image processing unit of the information code reading device 10 reads the result of reading the data recording area by the data recording area reading unit.
  • the image recognition processing is performed on the image in the image area 121 on the condition that the identification information is recorded in the data recording area. In this configuration, unless the identification information is recorded in the data recording area, the image area recognition process is not performed. That is, when recognition of the image area is unnecessary, unnecessary recognition processing can be omitted by not recording identification information in the data recording area. On the other hand, if the image area is to be recognized, it is possible to recognize the image area by recording the identification information in the data recording area.
  • the image processing unit of the information code reading device 10 bits the image in the image area 121 on the condition that the identification information is recorded in the data recording area based on the reading result of the data recording area by the data recording area reading unit.
  • the image is extracted as a map image and processed.
  • the data recording area or the like may be analyzed in an image format suitable for decoding. 121 can be recognized based on finer pixel data on the condition that the identification information is detected.
  • the information code reading device 10 includes a registration unit that registers a pattern image for comparison with the image in the image area 121, and the image processing unit registers the image in the image area 121 included in the code image and the registration unit. Pattern matching is performed based on the obtained pattern image, and it is determined whether or not the image in the image area 121 is an image registered in the registration unit. According to this configuration, it is possible to determine whether an image formed in the information code corresponds to a pattern image registered in advance. Therefore, it is possible to cope with an existing information code mechanism that “determines whether an image in a code corresponds to a prescribed image and responds according to the determination result”.
  • the registration unit registers a signature image as a pattern image
  • the image processing unit performs image matching by pattern matching based on the image of the image area 121 included in the code image and the signature image registered in the registration unit. It is configured to determine whether or not the image in the area 121 is a sign image registered in the registration unit. According to this configuration, it is possible to determine whether an image drawn in the information code corresponds to a pre-registered sign image. Therefore, for example, signature authentication or the like can be performed using the information code and the information code reader 10.
  • the image processing unit based on the specific pattern image of the specific pattern area in the code image of the information code imaged by the imaging unit, the cell image of at least one of the data recording area and the error correction code recording area, the code image
  • the image in the image area 121 included in the image area 121 is corrected to generate a normalized image of the image area 121.
  • the normalized image is obtained after correcting the image in the image area 121 based on the other image using the other image (specific pattern image, recording area cell image, etc.) constituting the code area. Can be recognized.
  • the image area 121 is converted into an appropriate image and the recognition process is performed on the image area 121. It is possible to increase the accuracy of the recognition process.
  • the information code generator is configured to generate an information code so as to record position data indicating the position of an area to be recognized by the image processing unit in the code area in the data recording area.
  • the image processing unit identifies the position of the region to be recognized in the code image based on the position data obtained from the reading result of the data recording region by the data recording region reading unit, and the image of the region to be recognized Is configured to perform image recognition processing. In this configuration, even if the data specifying the position of the image area 121 does not exist in the information code reading apparatus 10 in advance, the image processing unit of the information code reading apparatus 10 can change the position of the image area 121 in the code image. It becomes possible to specify accurately.
  • the information code reading device 10 includes an output unit that outputs information read by the data recording region reading unit and a recognition result of the image region 121 by the image processing unit. According to this configuration, not only the information recorded in the data recording area in advance but also the recognition result of the image area can be output by the reading device, and a response that cannot be realized by the existing information code mechanism (image recognition) Result output).
  • FIG. 9 is changed as shown in FIG. Therefore, description of the same parts as those of the first embodiment will be omitted, and FIGS. 1 to 12 will be referred to as appropriate.
  • the processes of S68 and S69 of FIG. 13 are performed instead of the processes of S48 to S50 of FIG.
  • the processing of S60 to S67 is the same as S40 to S47 of FIG.
  • the data decoded in S62 is output.
  • This output method can be performed similarly to the first embodiment.
  • the image of the image area 121 normalized in S67 (the image of the image area recognized by the image processing unit) is output in a predetermined image file format.
  • the predetermined image file format various known formats can be adopted. For example, a bitmap file format, a GIF format, a JPEG format, or the like may be used. Alternatively, other image file formats may be used.
  • the recognition result of the image area 121 can be output in an image file format, which is a correspondence that cannot be realized with the existing information code mechanism (decryption data and image Both files can be output).
  • the third embodiment is different from the first embodiment only in the specific contents of the image area 121 in the information code 100 and the specific comparison method in S49, and is otherwise the same as the first embodiment. Therefore, description of the same parts as those of the first embodiment will be omitted, and FIGS. 1 to 12 will be referred to as appropriate.
  • the information code 100 is configured as a code as shown in FIG. 14, and a known followogram is attached to the image area 121 to form a followogram image. Then, the reading process of FIG. 9 (specifically, the processes of S40 to S47) is performed in advance using such an information code 100 as a master code, and the normalized image of the image area 121 (mastergram follower image) and data Data in the recording area (master code recording data (for example, serial number)) is registered in the memory 35. That is, as a pattern image registered in the memory 35 (registration unit), a follower image such as the image region 121 in FIG. 14 is registered instead of the sign image in the upper part of FIG. Recorded data (reference number etc.) will be registered.
  • a follower image such as the image region 121 in FIG. 14 is registered instead of the sign image in the upper part of FIG. Recorded data (reference number etc.) will be registered.
  • the process of FIG. 9 performed after such registration is performed it can be authenticated whether or not the information code is the same as the master code.
  • the processing of S40 to S47 is performed as in the first embodiment. It is determined whether or not the registered followogram image and the image in the image region 121 normalized in S47 match. If they match, the process proceeds to Yes in S49 and the process of S50 is performed in the same manner as in the first embodiment. If they do not match, the process proceeds to No in S49 and the process at the time of reading failure is performed. Similar to the first embodiment.
  • the image processing unit registers the image region image in the registration unit by pattern matching based on the image region image included in the code image and the followogram image registered in the registration unit. It is configured to determine whether the image is a followogram image. According to this configuration, it is possible to determine whether or not an image drawn in the information code corresponds to a pre-registered followogram image. Accordingly, for example, it is possible to perform follower authentication using an information code and an information code reader. In this example, for example, a follower image when the information code 100 is imaged in one predetermined direction (for example, a direction perpendicular to the code forming surface) at the time of registration is registered in the memory 35, and the predetermined code is registered at the time of authentication.
  • a follower image when the information code 100 is imaged in one predetermined direction (for example, a direction perpendicular to the code forming surface) at the time of registration is registered in the memory 35, and the predetermined code is registered at the time of authentication.
  • the fourth embodiment differs from the first embodiment only in the specific contents of the image area 121 in the information code 100 and the specific comparison method in S49, and is otherwise the same as the first embodiment. Therefore, description of the same parts as those of the first embodiment will be omitted, and FIGS. 1 to 12 will be referred to as appropriate.
  • the information code 100 is configured as a code as shown in FIG. 15, and a fingerprint image is formed in the image area 121.
  • the reading process of FIG. 9 (specifically, the process of S40 to S47) is performed in advance using such an information code 100 as a master code, and the image of the normalized image area 121 (the fingerprint image of the master code) and the data Data in the recording area (master code recording data (eg, authentication number)) is registered in the memory 35. That is, as a pattern image registered in the memory 35 (registration unit), a fingerprint image such as the image area 121 in FIG. 15 is registered instead of the sign image in the upper part of FIG. Recorded data (reference number etc.) will be registered. As a result, the fingerprint image of the registrant is stored in the memory 35 in advance.
  • the processing of S40 to S47 is performed as in the first embodiment. It is determined whether or not the registered fingerprint image matches the image in the image area 121 normalized in S47 (match determination processing).
  • Any known fingerprint comparison method can be used to determine the match between fingerprint images.
  • the match can be determined using a pattern matching method, a feature point extraction method (maneuver method), a frequency analysis method, or the like. .
  • the fingerprint image is registered as a pattern image in the memory 35 (registration unit), and the image processing unit is registered in the registration unit and the image of the image area 121 included in the code image. Based on the fingerprint image, it is determined whether the image in the image area is a fingerprint image registered in the registration unit. According to this configuration, it is possible to determine whether an image drawn in the information code corresponds to a fingerprint image registered in advance. Therefore, for example, fingerprint authentication or the like can be performed using an information code and an information code reader.
  • the information code 200 as shown in FIG. 16B is generated by the information code generator 2 (see FIG. 1 and the like). Even in this configuration, a specific pattern area in which a specific pattern (position detection pattern 204) having a predetermined shape is arranged inside the code area, a data recording area in which data is recorded by a plurality of types of cells, and information code reading An image area 121 to be subjected to predetermined image recognition processing by the apparatus 10 is provided.
  • a configuration other than the configuration in the empty area 210 is configured as a known QR code (registered trademark).
  • QR code registered trademark
  • FIG. 1 A recording area and an error correction code recording area for recording an error correction code by a plurality of types of cells are provided.
  • the recording method of the data code word in the data recording area and the recording method of the error correction code word in the error correction code recording area are the same as the known QR code (registered trademark).
  • the arrangement of the position detection pattern 204 in the code area, the arrangement of the data code word in the data recording area, and the arrangement of the error correction code word in the error correction code recording area are determined.
  • an information code 200 ′ in which a code word of a partial area is configured as a code word represented only by white cells is generated, and thus an area represented only by white cells.
  • AR as a free area 210
  • an image area 121 is provided in this free area 210 as shown in FIG.
  • a sign image recording area similar to that of the first embodiment is provided in the empty area 210, and a sign is shown in the sign image recording area.
  • a known error correction may be performed using a code.
  • the position of the empty area 210 is specified in advance, so that when the design and information are added and displayed in the empty area 210, the error position by this display is set in advance. I know that. Therefore, the error correction code in the error correction code recording area can be configured to perform erasure correction using the position of the empty area 210 as the error position.
  • information indicating the position of the vacant area 210 is recorded in the data recording area in advance, or stored in the reading apparatus 10 (FIG. 1) in advance, so that the reading apparatus 10 is vacant in reading.
  • the position of 210 (that is, the position of the data code word in which an error has occurred) can be specified, and the reader 10 can determine the position of the data code word existing in the empty area 210 where the position is specified.
  • erasure correction may be performed using the error correction code recorded in the error correction code recording area.
  • FIG. 18A conceptually shows the structure of the data to be decrypted recorded in the data recording area.
  • data of a predetermined structure (%% IMAGE %%) is present at the beginning of the data to be decrypted. It is attached.
  • the reader 10 detects the image recognition processing for the image area 121 when detecting the identification information (%% IMAGE%%) from the data to be decoded recorded in the data recording area.
  • the data in the data recording area includes position data for specifying the position of the image area and other accompanying information in addition to the normal data.
  • the data shown in FIG. 18 (A) indicates the data to be decoded that is arranged before the end terminal in the data recorded in the data recording area, and the padding that is arranged after the end terminal. The code is omitted. In this configuration, for example, all of the padding code area can be displayed with only white cells, and this area can be handled as the empty area 210.
  • the example of the identification information is not limited to this example.
  • a dedicated mode number may be used as the mode number.
  • 1: numerical mode, 2: alphanumeric mode, 3: concatenation mode, etc. are defined, and 14: image recognition mode may be provided as one of such mode numbers. Good.
  • the mode number “14” when the mode number “14” is set, the image recognition processing of the image area 121 may be performed.
  • FIG. 16 shows an example in which a signature image is displayed in the image area
  • image recognition processing using the signature image can be performed by the same method as in the first embodiment and the second embodiment.
  • the image in the image area 121 may be a followogram image as shown in FIG. 14, and in this case, the image recognition process using the followogram image can be performed by the same method as in the third embodiment.
  • the image in the image area 121 may be a fingerprint image as shown in FIG. In this case, the image recognition process using the fingerprint image can be performed by the same method as in the fourth embodiment.
  • the basic configuration of the information code 200 can be applied to the other embodiments described above or below.
  • the information code 300 as shown in FIG. 17B is generated by the information code generation device 2 (see FIG. 1 and the like). Even in this configuration, a specific pattern having a predetermined shape (L-shaped alignment pattern 304a and light cells and dark cells are alternately arranged one by one inside the code region, and L along the boundary of the code region.
  • a specific pattern area in which a timing pattern (timing cell) 304b) constituting a character-shaped area is arranged, and a data recording area in which data is recorded by a plurality of types of cells are provided.
  • the empty area 310 in which at least one of data recording and design display can be performed at a position different from the method of recording data in the data recording area is set to a predetermined size larger than the size of a single cell. Is provided.
  • the empty area 310 is configured as a known data matrix code.
  • a specific pattern area, a data recording area, An error correction code recording area for recording an error correction code by a plurality of types of cells is provided.
  • the recording method of the data code word in the data recording area and the recording method of the error correction code word in the error correction code recording area are the same as the known data matrix code, and the alignment pattern 304a and timing pattern 304b in the code area are the same.
  • the arrangement of the data code word in the data recording area and the arrangement of the error correction code word in the error correction code recording area are determined in accordance with, for example, the ECC200 version.
  • an information code 300 ′ in which a code word in a partial area is configured as a code word expressed only by white cells is generated, and thus an area expressed only by white cells.
  • the AR is a free area 310, and an image area 121 is provided in the free area 310 as shown in FIG.
  • the configuration is different from the original data display as shown in FIG. 17A.
  • a known error correction may be performed using the error correction code recorded in the error correction code recording area.
  • the position of the empty area 310 is specified in advance. Therefore, when the design and information are added and displayed in the empty area 310, the error position by this display is set in advance. I know that. Therefore, the error correction code in the error correction code recording area can be configured to perform erasure correction using the position of the empty area 310 as the error position. In this case, information indicating the position of the empty area 310 is recorded in the data recording area in advance, or is stored in advance in the reading apparatus 10 (FIG. 1), so that the reading apparatus 10 can read the empty area at the time of reading.
  • the position of 310 (that is, the position of the data code word in which an error has occurred) can be specified, and the reader 10 can determine the position of the data code word existing in the empty area 310 in which the position is specified.
  • erasure correction may be performed using the error correction code recorded in the error correction code recording area.
  • FIG. 18B conceptually shows the structure of the data to be decrypted recorded in the data recording area.
  • data of a predetermined structure (%% IMAGE %%) is present at the beginning of the data to be decrypted. It is attached.
  • the reader 10 detects the image recognition processing for the image area 121 when detecting the identification information (%% IMAGE%%) from the data to be decoded recorded in the data recording area.
  • the identification information (%% IMAGE %%) cannot be detected, a normal decoding process is performed.
  • the data in the data recording area includes position data for specifying the position of the image area and other accompanying information in addition to the normal data.
  • the example of the identification information is not limited to this example, and for example, a dedicated code word may be used.
  • a dedicated code word may be used as the specification of the data matrix code.
  • the data matrix code for example, when 0 to 128 are defined as ASCII characters and 233 as a connection mode, “234” may be newly defined as a special code word for image recognition.
  • the image recognition process for the image area 121 may be performed.
  • an unused code word is included as identification information, and when an unused code word is included in data in the data recording area, an image in the image area 121 is displayed. Recognition processing may be performed.
  • FIG. 17 shows an example in which a sign image is displayed in the image area
  • image recognition processing using the sign image can be performed by a method similar to that in the first embodiment or the second embodiment.
  • the image in the image area 121 may be a followogram image as shown in FIG. 14, and in this case, the image recognition process using the followogram image can be performed by the same method as in the third embodiment.
  • the image in the image area 121 may be a fingerprint image as shown in FIG. In this case, the image recognition process using the fingerprint image can be performed by the same method as in the fourth embodiment.
  • the basic configuration of the information code 300 can be applied to the other embodiments described above or below.
  • the information code utilization system of the seventh embodiment is the same as that of the first embodiment in terms of hardware configuration, and the configuration as shown in FIGS. 1 and 2 is used.
  • the hardware configurations of the generation device 2 and the reading device 10 are the same as those in the first embodiment, and therefore will be described with reference to FIGS. 1 and 2 as appropriate.
  • the information code 400 used in the seventh embodiment is different from the information code 100 of the first embodiment only in the contents of the empty area 410, and other specific pattern areas and data recording areas are configured in the first embodiment. Is the same as the information code.
  • the configuration of the specific pattern arrangement area and the data recording area may be exactly the same as in the first embodiment, or the arrangement may be slightly different.
  • the position of the empty area 410 is not particularly limited, and may be provided at the same position as the empty area 110 of the information code 100 of the first embodiment, or may be a position different from the empty area 110.
  • the information code 400 generated by the generation device 2 has a predetermined shape inside a rectangular code area (for example, a square shape or a rectangular shape).
  • a specific pattern area in which a specific pattern is arranged, a data recording area in which data is recorded by a plurality of types of cells 102, and an error correction code recording area in which an error correction code is recorded by a plurality of types of cells 102 are provided.
  • the specific pattern is the same as that of the first embodiment, for example, the same shape and position as a specific pattern of a known predetermined model number of QR code (registered trademark), and FIG.
  • a position detection pattern (cutout symbol) 104 as a specific pattern is arranged at each of the three corners of the code area.
  • the information code 400 is formed by a configuration in which the position detection pattern 104 and other cell graphics are printed on the predetermined formation target medium 401 by the generating device 2, for example.
  • the formation target medium 401 is made of a paper material, a resin material, a metal material, or other known materials, and is, for example, a sheet or plate having a predetermined thickness.
  • the formation target medium 401 may have any configuration in which the information code 400 can be formed on one surface side and a window can be formed, and the specific shape is not particularly limited. For example, a configuration in which a plurality of materials are stacked may be used.
  • the information code 400 formed by the generating device 2 is expressed by a known forming method such as printing or direct marking in a specific pattern area, a data recording area, and a correction code recording area in a predetermined area on the surface 401a of the formation target medium 401, for example.
  • a known forming method such as printing or direct marking in a specific pattern area, a data recording area, and a correction code recording area in a predetermined area on the surface 401a of the formation target medium 401, for example.
  • the specific pattern area, the data recording area, and the correction code recording area formed on the formation target medium 401 may be formed so as to be visible from the surface 401a side, and the formation position is not limited to the surface 401a. Absent.
  • a specific pattern area, a data recording area, and a correction code recording area are formed on the surface of a member made of paper material, resin material, metal material, etc., and a transparent sheet-like or plate-like member is arranged thereon to cover it. You may do it.
  • the surface of the transparent member is the front surface 401a, and the specific pattern area, the data recording area, the correction code recording area, and the like are formed at positions on the back side (back side) from the front surface 401a.
  • the specific pattern area, the data recording area, and the correction code recording area can be visually recognized from the surface 401a side of the forming target medium 401, and the specific pattern area, the data recording area, and the correction code recording area are formed on the formation target medium 401. Should just be formed.
  • a window portion 403 for visually recognizing the back surface 401b side from the front surface 401a side is provided inside the outer edge portion of the code area.
  • the window portion 403 is formed as a rectangular through hole, and this through hole is configured to continue between the front surface 401a and the back surface 401b.
  • the medium to be formed paper material, resin material, metal material, other material before forming the window portion 403 by the generating device 2) 19
  • a specific pattern area, a data recording area, and a correction code recording area are formed.
  • a portion in the window 403 is cut out from the formation target medium, and the information code as shown in FIG. 400 may be obtained.
  • a window 403 is formed on a sheet-like or plate-like member made of a paper material, a resin material, a metal material, or other materials, and a formation target medium 401 is created in advance, and the generation target medium 401 is generated.
  • the apparatus 2 may form a specific pattern area, a data recording area, and a correction code recording area to obtain an information code 400 as shown in FIG.
  • the information code 400 configured in this manner is such that an image area to be subjected to a predetermined image recognition process by the information code reader 10 is represented in the code area.
  • the formation target medium 401 is set so that the area to be used as an image is within the window 403.
  • the image region to be subjected to image recognition processing (the region arranged in the window 403 in the subject 430, that is, the window from the front surface 401a side).
  • the area visually recognized via the section 403) is represented in the code area of the information code 400.
  • the inside of the window 403 is an empty area in the information code 400.
  • data is not recorded in the data recording area and is not subject to error correction by the error correction area.
  • . 20 illustrates the subject 430 as an example of the subject, but the example of the subject is not limited to this, and various images such as the image of the image area shown in the above-described embodiment may be the subject. Can do.
  • the information code 400 and the subject 430 represented as shown in FIG. 21A are picked up by the reading device 10 as shown in FIG. 21B, thereby obtaining a picked-up image as shown in FIG. It is done.
  • the image in FIG. 22A is obtained by cutting out only the image in the code area from the image captured by the reading device 10.
  • the information code 400 can be read by the same method as in the first embodiment from the image in the code region thus obtained, and the image 410 ′ of the empty region 410 is extracted by the same method as in the first embodiment. be able to.
  • the light receiving sensor 23 shown in FIG. 2 corresponds to an example of an imaging unit, and images a specific pattern area and a data recording area and an area in the window 403 from the surface 401a side of the formation target medium 401.
  • the control circuit 40 in FIG. 2 corresponds to an example of an image processing unit, and an image of the area in the window 403 imaged by the imaging unit is used as an image of the image area, and a data decoding process by the data recording area reading unit It functions to perform image recognition processing in a different way.
  • a characteristic information code in which the specific pattern area, the data recording area, and the window portion are formed can be formed on the formation target medium by the information code generation device.
  • the information code reader images the formation target medium and reads the information code
  • the contents grasped from the surface side of the formation target medium through the window portion can be recognized as an image.
  • an image of a subject (a subject grasped through the window) that has not been previously displayed on the formation target medium is used.
  • An image utilization method is possible, and the convenience for the user can be improved.
  • reading the information code if the position is adjusted so that only the necessary range of the subject located behind the medium to be formed can be seen through the window, the image in the required area is selectively used. As a result, the convenience in using the image is further enhanced.
  • any of the processing methods of the above-described embodiments may be used as the image processing method for the image after extracting the image of the image area (image 410 'of the empty area 410).
  • the generating device 2 when the generating device 2 generates the information code 400, address information for specifying the transmission destination of the image in the image area in the data recording area (for example, an e-mail address specifying an e-mail destination or an address on the Internet).
  • the information code 400 is generated so as to record the specified URL), and the control circuit 40 corresponding to the image processing unit obtains the code image when the code image as shown in FIG. 22A is obtained.
  • a part or all of the image in the image area may be cut out, and the cut out image may be processed so as to be transmitted to the transmission destination specified by the address information recorded in the data recording area.
  • various processing using the extracted image display processing, analysis processing, image storage processing, other image processing, etc., as shown in FIG.
  • the extracted image is displayed on the external device 90 of the transmission destination, it can be displayed on a blog, a homepage, other sites, and the like.
  • the information code reader 10 reads the information code 400, the image in the recognized image area is automatically transmitted to the transmission destination specified by the address information recorded in the data recording area. Processing is possible. In this way, every time the information code is read, it is not necessary to perform an input operation of address information for specifying a transmission destination to which an image in the image area is to be sent. Can be suppressed.
  • the window part 403 comprised as a through-hole
  • the window part 403 should just be a structure which can visually recognize a back side.
  • the transparent member transparent resin sheet etc.
  • the shape of the window portion 403 is not limited to a square shape, and may be a circular shape, an elliptical shape, a triangular shape, another polygonal shape, or the like.
  • an information code 400 configured as shown in FIG. 19 is arranged in front of a landscape or landscape to be imaged as shown in FIG. 23, and a part of the landscape or landscape is represented in the information code 400. I am doing so.
  • an image area area indicating a landscape or landscape image
  • predetermined image recognition processing by the information code reader 10 is represented in the code area.
  • a region to be used as an image of the landscape or landscape to be imaged is formed in the window 403 as shown in FIG. The positional relationship between the target medium 401 and the landscape or scenery may be adjusted.
  • an image area to be subjected to image recognition processing (an area that is visually recognized through the window 403 in a landscape or landscape to be imaged) is represented in the code area of the information code 400.
  • the inner side of the window 403 (open area in the window) is a vacant area 410.
  • data is not recorded by the data recording area, and error correction by the error correction area is performed. It is a non-target area.
  • the information code 400 and the subject (landscape or scenery) whose positions are adjusted as shown in FIG. 23 are picked up by the reading device 10, whereby a picked-up image as shown in FIG. 24A is obtained.
  • the image in FIG. 24A is obtained by cutting out only the image in the code area from the image captured by the reading device 10.
  • the information code 400 can be read by the same method as in the first embodiment from the image in the code region thus obtained, and the image 410 ′ of the empty region 410 is extracted by the same method as in the first embodiment. be able to.
  • This extracted image 410 ′ is an image in which the scenery or scenery behind the formation target medium 401 is reflected on the light receiving sensor 23 through the window 403, and is an image of a part of the scenery or scenery.
  • the image 410 ′ thus extracted can be used in the same manner as in the above-described embodiments and representative examples.
  • address information that specifies the transmission destination of the image in the image area in the data recording area (for example, an e-mail address that specifies the destination of the e-mail or on the Internet)
  • the information code 400 is generated so as to record the URL specifying the address), and the control circuit 40 corresponding to the image processing unit obtains the code image as shown in FIG.
  • a part or all of the image area image (image 410 ′ of the empty area 410) is extracted from the code image, and the extracted image is processed so as to be transmitted to the transmission destination specified by the address information recorded in the data recording area May be.
  • various processing using the extracted image (display processing, analysis processing, image storage processing, other image processing, etc., as shown in FIG. 24B) can be performed at the transmission destination.
  • the measurement device 92 as shown on the left side of FIG. 25A is an object to be imaged, and the information code 400 configured as shown in FIG. 19 is used so as to cover the measurement device 92. ing.
  • an image area (measurement value display area 92a which is a partial area of the measuring device 92) that is subjected to predetermined image recognition processing by the information code reader 10 is displayed in the code area. It has come to be.
  • a known radiometer is illustrated as the measuring instrument 92, the radioactivity in the space where the measuring instrument 92 exists is measured, and the measured value is displayed in the measured value display area 92a. It is configured to display.
  • the formation target is set so that the measurement value display area 92a to be used as an image is within the window 403 as shown in FIG.
  • the image area (measurement value display area 92a) to be subjected to the image recognition process is represented in the code area of the information code 400.
  • the opening area inside the window 403 is a vacant area 410. For example, data is not recorded by the data recording area and is not subject to error correction by the error correction area. It has become.
  • the information code 400 and the measuring device 92 whose positions are adjusted as shown in FIG. 25B are imaged by the reading device 10 as shown in FIG. A captured image is obtained.
  • the image in FIG. 26B is obtained by cutting out only the image in the code area from the image captured by the reading device 10 as shown in FIG.
  • the information code 400 can be read by the same method as in the first embodiment from the image in the code region thus obtained, and the image 410 ′ of the empty region 410 is extracted by the same method as in the first embodiment. be able to.
  • the method of using the extracted image 410 ′ is the same as in the above-described embodiment and representative examples.
  • the generation apparatus 2 when the generation apparatus 2 generates the information code 400, address information that specifies the transmission destination of the image in the image area in the data recording area (for example, an e-mail address that specifies the destination of the e-mail or on the Internet)
  • the information code 400 is generated so as to record the URL specifying the address), and the control circuit 40 corresponding to the image processing unit obtains the code image as shown on the left side of FIG.
  • a part or all of the image in the image area may be cut out from the code image, and the cut out image may be processed so as to be transmitted to the transmission destination specified by the address information recorded in the data recording area.
  • various processes using the extracted image (display processing and analysis processing as shown on the right side of FIG. 26B, image storage processing, and other image processing) can be performed.
  • Modification 3 of the seventh embodiment Next, Modification 3 of the seventh embodiment will be described. Note that the third modification is the same as the representative example except that only the target (subject) to be imaged through the window 403 is different from the representative example described above (examples in FIGS. 19 to 22).
  • the printed matter 94 as shown in the left side of FIG. 27A is the imaging target, and the information code 400 configured as shown in FIG. 19 is used so as to cover the printed matter 94. .
  • an image area (a description area 94a that is a partial area of the printed matter 94) to be subjected to predetermined image recognition processing by the information code reader 10 is included in the code area. It can be expressed.
  • magazines, catalogs, newspapers, advertisement media, and other printed materials are shown as the printed material 94, and various contents can be described.
  • the formation target medium 401 is arranged so that the description area 94 a desired to be used as an image is within the window 403 as shown in FIG.
  • the image area (description area 94a) to be subjected to the image recognition process is represented in the code area of the information code 400.
  • the opening area inside the window 403 is a vacant area 410. For example, data is not recorded by the data recording area and is not subject to error correction by the error correction area. It has become.
  • the information code 400 and the printed matter 94 whose positions are adjusted as shown in FIG. 27B are imaged by the reading device 10 as shown in FIG. 28A, so that they are shown on the left side of FIG. A captured image can be obtained.
  • the image in FIG. 28B is obtained by cutting out only the image in the code area from the image captured by the reading device 10 as shown in FIG.
  • the information code 400 can be read by the same method as in the first embodiment from the image in the code region thus obtained, and the image 410 ′ of the empty region 410 is extracted by the same method as in the first embodiment. be able to.
  • the method of using the extracted image 410 ′ is the same as in the above-described embodiment and representative examples.
  • the generation apparatus 2 when the generation apparatus 2 generates the information code 400, address information that specifies the transmission destination of the image in the image area in the data recording area (for example, an e-mail address that specifies the destination of the e-mail or on the Internet)
  • the information code 400 is generated so as to record the URL specifying the address), and the control circuit 40 corresponding to the image processing unit obtains the code image as shown on the left side of FIG.
  • a part or all of the image in the image area may be cut out from the code image, and the cut out image may be processed so as to be transmitted to the transmission destination specified by the address information recorded in the data recording area.
  • various processes using the extracted image (display processing, analysis processing, image registration processing, other image processing, etc. as shown on the right side of FIG. 28B) can be performed.
  • Modification 4 of the seventh embodiment Next, Modification 4 of the seventh embodiment will be described. Note that the modification 4 is the same as the representative example except that only the target (subject) to be imaged through the window portion 403 is different from the representative example described above (examples of FIGS. 19 to 22).
  • the living thing 96a as shown in the left side of FIG. 29A is set as the imaging target, and the information code 400 configured as shown in FIG. 19 is used for the imaging target (the observation target living thing 96a and its container 96).
  • the imaging target the observation target living thing 96a and its container 96.
  • FIG. 29 (B) an image region (region where the observation target organism 96a is visually recognized) to be subjected to predetermined image recognition processing by the information code reader 10 is represented in the code region. Be able to.
  • the living thing 96a is illustrated as an observation target, but various animals, plants, and the like can be the observation target.
  • an image region region where the living thing 96a is shown
  • the opening area inside the window portion 403 is an empty area, and for example, data is not recorded by the data recording area and is not subject to error correction by the error correction area. It has become.
  • the information code 400 and the living thing 96a whose positions are adjusted as shown in FIG. 29B are imaged by the reading device 10 as shown in FIG. A captured image can be obtained.
  • the image in FIG. 30B is obtained by cutting out only the image in the code area from the image captured by the reading apparatus 10 as shown in FIG.
  • the information code 400 can be read by the same method as in the first embodiment from the image in the code region thus obtained, and the image 410 ′ of the empty region 410 is extracted by the same method as in the first embodiment. be able to.
  • the method of using the extracted image 410 ′ is the same as in the above-described embodiment and representative examples.
  • the generation apparatus 2 when the generation apparatus 2 generates the information code 400, address information for specifying the transmission destination of the image in the image area in the data recording area (for example, an e-mail address specifying the transmission destination by e-mail or on the Internet)
  • the information code 400 is generated so as to record the URL specifying the address), and the control circuit 40 corresponding to the image processing unit obtains the code image as shown on the left side of FIG.
  • a part or all of the image in the image area may be cut out from the code image, and the cut out image may be processed so as to be transmitted to the transmission destination specified by the address information recorded in the data recording area.
  • various processes using the extracted image (display processing, analysis processing, image registration processing, other image processing, etc., as shown on the right side of FIG. 30B) can be performed.
  • Modification 5 of the seventh embodiment Next, Modification 5 of the seventh embodiment will be described. Note that Modification 5 is the same as the representative example except that only the target (subject) to be imaged through the window 403 is different from the representative example described above (examples of FIGS. 19 to 22).
  • the information code 400 configured as shown in FIG. 19 is used, and the information code 400 is arranged so as to cover the imaging target (the color sample 98b in the example of FIG. 31B).
  • An image area (color sample 98b in the example of FIG. 31B) to be subjected to predetermined image recognition processing by the code reader 10 can be represented in the code area.
  • color samples 98a, 98b, and 98c of a plurality of different colors are prepared. When one of the color samples is captured and the image is used, as shown in FIG.
  • an image region (the color sample 98b is to be subjected to image recognition processing) is adjusted.
  • the area shown is represented in the code area of the information code 400.
  • the opening area inside the window 403 is a vacant area 410. For example, data is not recorded by the data recording area and is not subject to error correction by the error correction area. It has become.
  • the information code 400 and the color sample 98b whose positions are adjusted as shown in FIG. 31B are imaged by the reading device 10 as shown in FIG. A captured image is obtained.
  • the image in FIG. 32B is obtained by cutting out only the image in the code area from the image captured by the reading apparatus 10 as shown in FIG.
  • the information code 400 can be read by the same method as in the first embodiment from the image in the code region thus obtained, and the image 410 ′ of the empty region 410 is extracted by the same method as in the first embodiment. be able to.
  • the method of using the extracted image 410 ′ is the same as in the above-described embodiment and representative examples.
  • the generation apparatus 2 when the generation apparatus 2 generates the information code 400, address information for specifying the transmission destination of the image in the image area in the data recording area (for example, an e-mail address specifying the transmission destination by e-mail or on the Internet)
  • the information code 400 is generated so as to record the URL specifying the address), and the control circuit 40 corresponding to the image processing unit obtains the code image as shown on the left side of FIG.
  • a part or all of the image in the image area may be cut out from the code image, and the cut out image may be processed so as to be transmitted to the transmission destination specified by the address information recorded in the data recording area.
  • various processes using the extracted image can be performed at the transmission destination. For example, if various color samples are imaged, and images of each color sample are sequentially acquired as shown on the left side of FIG. 32B and transmitted to the external device 90, various color samples are actually captured by the external device 90.
  • the stored images are accumulated, and can be used for various uses thereafter.
  • the information code utilization system of the eighth embodiment is the same as that of the first embodiment in terms of hardware configuration, and the configuration as shown in FIGS. 1 and 2 is used.
  • the hardware configurations of the generation device 2 and the reading device 10 are the same as those in the first embodiment, and therefore will be described with reference to FIGS. 1 and 2 as appropriate.
  • the information code 500 used in the eighth embodiment is different from the information code 100 of the first embodiment only in the contents of the empty area 510, and other specific pattern areas and data recording areas are configured in the first embodiment. Is the same as the information code.
  • the configuration of the specific pattern arrangement area and the data recording area may be exactly the same as in the first embodiment, or the arrangement may be slightly different.
  • the position of the empty area 510 is not particularly limited, and may be provided at the same position as the empty area 110 of the information code 100 of the first embodiment, or may be a position different from the empty area 110.
  • the information code 500 generated by the generation device 2 includes a specific pattern having a predetermined shape inside a rectangular code area (for example, a square shape or a rectangular shape).
  • a specific pattern area to be arranged, a data recording area for recording data by a plurality of types of cells 102, and an error correction code recording area for recording an error correction code by a plurality of types of cells 102 are provided.
  • the specific pattern is the same as that of the first embodiment, for example, the same shape and position as a specific pattern of a known predetermined model number of QR code (registered trademark), and FIG.
  • a position detection pattern (cutout symbol) 104 as a specific pattern is arranged at each of three corners of the code area.
  • the information code 500 is formed by a configuration in which, for example, the generation apparatus 2 prints the position detection pattern 104 and other cell graphics on a predetermined formation target medium 501.
  • the formation target medium 401 is made of a paper material, a resin material, a metal material, or other known materials, and is, for example, a sheet or plate having a predetermined thickness.
  • the formation target medium 501 may have any configuration as long as the information code 500 can be formed on one side, and the specific shape is not particularly limited. For example, a configuration in which a plurality of materials are stacked may be used.
  • the information code 500 formed by the generation device 2 is expressed by a known formation method such as printing or direct marking in a specific pattern area, a data recording area, and a correction code recording area on a predetermined area of the surface 501a of the formation target medium 501.
  • the specific pattern area, the data recording area, and the correction code recording area formed on the formation target medium 501 may be formed so as to be visible from the surface 501a side, and the formation position is not limited to the surface 501a. Absent.
  • a specific pattern area, a data recording area, and a correction code recording area are formed on the surface of a member made of paper material, resin material, metal material, etc., and a transparent sheet-like or plate-like member is arranged thereon to cover it.
  • the surface of the transparent member becomes the front surface 501a, and the specific pattern area, the data recording area, the correction code recording area, and the like are formed at positions on the back side (back side) from the front surface 501a.
  • the specific pattern area, the data recording area, and the correction code recording area are formed on the formation target medium 501 in a configuration in which the specific pattern area, the data recording area, and the correction code recording area are visible from the surface 501a side of the formation target medium 501. Should just be formed.
  • a handwriting input area for performing handwriting input is provided inside the outer edge of the code area.
  • an inner area where the cell 102 is not arranged in the information code 500 is a free area 510.
  • the empty area 510 is an area in which data is not recorded by, for example, the data recording area and is not subject to error correction by the error correction area, and the entire empty area 510 is a handwriting input area.
  • the empty area 510 is, for example, a blank area of a predetermined color, and characters, figures, symbols, etc. can be written by hand with various writing tools in this blank area. It should be noted that figures and characters such as a frame may be written in advance in the empty area 510 before handwritten input.
  • the information code 500 represented as shown in FIG. 33 (A) is picked up by the reading device 10 as shown in FIG. 33 (B), whereby a picked-up image as shown on the left side of FIG. 34 (A) is obtained.
  • the image in FIG. 34A is obtained by cutting out only the image in the code area from the image captured by the reading device 10.
  • the information code 500 can be read by the same method as that of the first embodiment from the image in the code area thus obtained, and the image 510 ′ of the empty area 510 is extracted by the same method as that of the first embodiment. be able to.
  • the light receiving sensor 23 illustrated in FIG. 2 corresponds to an example of an imaging unit, and functions to capture the specific pattern area, the data recording area, and the handwriting input area from the surface 501a side of the formation target medium 501.
  • the control circuit 40 in FIG. 2 corresponds to an example of an image processing unit, and is different from the data decoding process performed by the data recording area reading unit with the image of the handwritten input area captured by the imaging unit as an image area image. The method functions to perform image recognition processing.
  • any of the processing methods of the above-described embodiments may be used as the image processing method for the image after extracting the image of the image region (the image 510 'of the empty region 510).
  • the extracted image 510 ′ may be stored or transmitted in a predetermined file format (a known file format such as a bitmap format, a GIF format, or a JPEG format).
  • the character recognition process may be performed to obtain data of characters and symbols input by handwriting.
  • address information for specifying a transmission destination of an image in the image area or data obtained by analyzing the image in the data recording area for example, mail specifying a transmission destination by e-mail
  • An information code 500 is generated so as to record an address or a URL specifying an address on the Internet, and the control circuit 40 corresponding to the image processing unit obtains a code image as shown in FIG.
  • an image obtained by cutting out part or all of the image in the image area from the code image, or data obtained by analyzing the image is specified by the address information recorded in the data recording area. You may process so that it may transmit to.
  • the transmission date and time and the transmission content can be registered in association with each other.
  • a registration database in which memo data is registered is constructed.
  • the information code reading apparatus 10 reads the information code 500
  • the image in the recognized image area or the data obtained by analyzing the image is automatically set as the transmission destination specified by the address information recorded in the data recording area. For example, it is possible to perform transmission. In this way, every time the information code is read, it is not necessary to perform an input operation of address information for specifying a transmission destination to which the image of the image area or the analysis image is to be sent. Etc. can be reliably suppressed.
  • the information code generating device 2 can form the characteristic information code 500 provided with the specific pattern area, the data recording area, and the handwriting input area on the formation target medium 501. Then, when the information code reading device 10 images the formation target medium 501 and reads the information code 500, the content input by handwriting in the handwriting input area (empty area 510) can be used afterwards.
  • the content input by handwriting in the handwriting input area empty area 510
  • a region whose position is clearly defined in advance can be used as a handwriting input region, it is possible to accurately extract only the handwritten information in the necessary range, compared with a method in which handwritten characters and the like are simply photographed. This makes it easy to omit complicated operations in the extraction.
  • FIGS. 1 and 2 are used as the configuration as shown in FIGS. 1 and 2 . Therefore, detailed description of the hardware configuration similar to that of the first embodiment is omitted, and FIGS. 1 and 2 are used as appropriate.
  • an information code 100 (an information code formed by arranging cells serving as units for displaying information inside a predetermined code area) is generated by the generation device 2 as shown in FIG. 1 as shown in FIG. It is designed to generate. Note that the generation method of the information code 100 by the generation device 2 is the same as that in the first embodiment.
  • the information code 100 generated by the generation device 2 is different from the information code 100 of the first embodiment only in the contents of the empty area 110, and has the characteristics of the information code 100 of the first embodiment except for the image of the empty area 110. Includes everything.
  • the “code area” is a rectangular area that can include all of the plurality of dark cells arranged, and specifically, a minimum square area that includes all three position detection patterns (cutout symbols) 104 or It is a rectangular area.
  • the plurality of cells 102 are configured by either rectangular (for example, square outer diameter) light (white) cells or dark (black) cells, and the inside of the code area. These cells 102 are arranged in a matrix around the empty area 110 described later.
  • the light color cell and the dark color cell are not limited to the white cell and the black cell, respectively.
  • the dark color cell is configured with a predetermined lightness, it is sufficient that the light color cell has a lightness higher than that.
  • a light or dark margin area is formed around the code area so as to surround the code area.
  • a margin area of white or another color having a brightness higher than that of the dark cell is arranged adjacent to the periphery of the code area. Then, after the fingerprint is printed on the free area 110 of the information code 100 generated in this way, the information code 100 with the fingerprint image attached as shown in FIG. 38B is obtained. It is supposed to be.
  • the reader 10 as shown in FIGS. 1 and 2 can read the generated information code 100 or the information code 100 with the fingerprint graphic F as shown in FIG. 38B. It has become.
  • the decoding process of the information code 100 by the reader 10 may be performed in the same flow as in the first embodiment, or may be performed in the flow as shown in FIG. In the following, the decoding process illustrated in FIG. 35 will be described as a representative example.
  • the information code 100 used in this configuration is also a specific pattern area in which a specific pattern having a predetermined shape is arranged inside the code area (position detection similar to the first embodiment).
  • a correction code recording area is provided.
  • the specific pattern area is an area in which bright cells and dark cells are arranged and represents a fixed pattern larger than a single cell size. For example, in the information code of the same model number, the same specific pattern area is the same.
  • An image area showing an image different from the cell 102 is represented in the code area as an area wider than the size of the single cell 102.
  • the entire empty area 110 corresponds to an image area.
  • an image different from the cell 102 is displayed in the empty area 110.
  • This empty area 110 is an area where data can be recorded and / or design can be displayed by a method different from the method for recording data in the data recording area, and is larger than the size of the single cell 102. It consists of In the example of FIG. 38B, the entire empty area 110 corresponds to an image area (an area where an image different from a cell is displayed), but even if a part of the empty area 110 is an image area. Good.
  • the usage data used when processing the image of the empty area 110 (image area) It is recorded in a data recording area (an area in which data to be decrypted by a plurality of cells 102 is recorded). ) Is recorded in a data recording area (area for recording data to be decoded).
  • fingerprint matching is performed by a known fingerprint matching method (for example, a feature point extraction method (maneuver method), a pattern matching method, a frequency analysis method, etc.) during a reading process described later.
  • a known fingerprint matching method for example, a feature point extraction method (maneuver method), a pattern matching method, a frequency analysis method, etc.
  • pre-registration registered fingerprint data used for fingerprint verification is generated as comparison data.
  • the feature point extraction method is used as the fingerprint matching method will be described as a representative example.
  • a registration target person is requested to print a fingerprint
  • a fingerprint of a predetermined color is attached to the surface of a material to be printed such as a paper material, a resin material, or a metal material.
  • the image of a fingerprint figure is captured by the reading device 10 or another camera.
  • the fingertip of the person to be registered is directly captured by the reading device 10 or another camera, and a fingerprint image is acquired.
  • the feature point extraction method maneuver method
  • the shape of the feature point is defined in advance, and the defined feature point is extracted from the fingerprint image of the person to be registered obtained by the above-described operation.
  • branch points and “end points” are defined as the shape of feature points.
  • branch points lines are branched) scattered in the fingerprint image obtained by imaging the fingerprint of the person to be registered.
  • end points positions that become the end portions of the lines.
  • the fingerprint region in the image is indicated by a one-dot chain line Af
  • the position of the branch point is indicated by a point
  • the position of the end point is indicated by +.
  • a specific fingerprint image is omitted, but actually, a specific fingerprint image is represented within a one-dot chain line Af.
  • the coordinate value calculation method may be any method that can grasp the relative positional relationship between the feature points. For example, as shown in FIG.
  • the X coordinate value and Y coordinate value of each feature point are calculated with the position of the close feature point P0 as the reference position (origin), and the horizontal and vertical directions of the pixel as the X direction and Y direction, respectively.
  • registered fingerprint data is generated based on the type, X coordinate value, and Y coordinate value of each feature point detected or calculated in this way. Specifically, based on the type, X coordinate value, and Y coordinate value of each feature point, for each feature point, a value indicating the type, a value corresponding to the X direction position, and a corresponding Y direction position as shown in FIG. These values are generated in association with each other and are used as registered fingerprint data (comparison data). In the example of FIG. 37, data (value indicating the type, value corresponding to the X direction position, value corresponding to the Y direction position) of a predetermined number (for example, 15) of each feature point close to the reference position (origin).
  • the information code is read and authenticated in the flow as shown in FIG.
  • This processing is executed when a predetermined start operation is performed in the reading device 10, and first, an information code is imaged (S80), and the code image of the information code is analyzed to analyze the data recording area. Data is read (S81). Then, an image area (empty area 110) is specified from the code image of the information code, and an image in the image area (empty area 110) is cut out (S82).
  • the method of decoding the data recording area with the information code 100 and the method of extracting the image area (empty area 110) can be performed by the same method as in the first embodiment, for example.
  • the image of the image area (empty area 110) cut out in this way is analyzed, and feature points are extracted (S83).
  • the feature point extraction method in S83 is the same as in the case of pre-registration. For example, when a fingerprint image as shown in FIG. The end point (position to be the end of the line) and the branch point (position where the line branches) are extracted.
  • the extracted feature point data is compared with the feature point data (comparison data) read from the data recording area in S81. It is determined whether or not it is done (S84).
  • any method known in the field of fingerprint authentication may be used as a method for determining a match by comparing a registered feature point with a read feature point.
  • the comparison process (determination process) in S84 it is determined that the feature point data extracted in S83 and the feature point data (comparison data) read from the data recording area in S81 match. In this case, the process proceeds to Yes in S85, and it is determined that the authentication is successful (S86). In this case, notification of successful authentication (for example, message display of successful authentication or output of successful authentication voice information) may be performed.
  • the comparison process (determination process) in S84 it is determined that the feature point data extracted in S83 and the feature point data (comparison data) read from the data recording area in S81 do not match. In this case, the process proceeds to No in S85 and is determined to be an error (S87). In this case, notification of an error (for example, display of an error message or output of error voice information) may be performed.
  • the light receiving sensor 23 corresponds to the imaging unit.
  • the control circuit 40 corresponds to an example of a data recording area decoding unit, and functions to read data recorded in the data recording area when the information code 100 is imaged by the light receiving sensor 23 (imaging unit). .
  • control circuit 40 corresponds to an example of an image processing unit, and in the code image of the information code 100 captured by the light receiving sensor 23 (imaging unit), data recording is performed on the image of the image area (the image of the empty area 110). It functions to perform predetermined image processing by a method different from the data decoding processing by the area reading unit. Specifically, the comparison data (use data) read by the data recording area reading unit is used to determine whether or not the image in the image area (the image in the empty area 110) corresponds to a predetermined regular image.
  • a predetermined feature point extraction process is performed on the image of the image area (image of the empty area 110), and the image area (empty area 110) extracted by this feature point extraction process
  • the image in the image area is determined. It is determined whether or not the image corresponds to a regular image (fingerprint image from which reference feature point data recorded in the data recording area is generated).
  • the light receiving sensor 23 (imaging unit) and the control circuit 40 functioning as a data recording area reading unit and an image processing unit are assembled in a case (housing) not shown. These components are integrally provided so that they can be gripped and operated integrally, and authentication can be completed within the apparatus.
  • the example in which the position data specifying the position of the feature points (a plurality of reference feature points) obtained by the pre-registration is recorded in the data recording area as the comparison data is obtained.
  • the number of feature points (a plurality of reference feature points) may be recorded in the data recording area as comparison data.
  • the comparison process in S84 it is only necessary to determine whether or not the number of feature points recorded in the data recording area matches the number of feature points extracted in S83. If YES, the process proceeds to NO in S85.
  • the information code generating device 2 generates an information code 100 as shown in FIG. 40A.
  • an image of the image area (the empty area 110) is generated.
  • comparison data for comparison with analysis data obtained by analyzing at least a part of the image in the image area or the image in the image area is a data recording area (to be decoded) Data recording area).
  • the comparison data used in this example is data indicating the characteristics of a signature character (handwritten character), and specifically, from a previously registered signature character (handwritten character) Si1 as shown in FIG.
  • the extracted feature point data is data indicating the characteristics of a signature character (handwritten character), and specifically, from a previously registered signature character (handwritten character) Si1 as shown in FIG.
  • the registration subject is requested in advance to write handwritten signature characters (handwritten characters), and the signature characters are written on the surface of the material to be described, such as paper materials, resin materials, and metal materials.
  • an image of the sign character is taken by the reading device 10 or other cameras.
  • an image of a sign character may be acquired by pen input using a touch panel.
  • the feature point extraction method maneuver method
  • the shape of the feature point is defined in advance, and the defined feature is obtained from the sign image of the person to be registered obtained in the above-described operation. Extract points.
  • the same branch point (position where the line branches) and end point (position of the end of the line) can be defined as the shape of the feature point.
  • the position of the feature point is indicated by reference numeral P1.
  • scattered feature points P1 (branch points, end points) are detected as shown in FIG. 39, and the X coordinate value and the Y coordinate value are calculated for each feature point.
  • the calculation method of the coordinate value may be any method that can grasp the relative positional relationship between the feature points, as in the representative example.
  • the X coordinate value and Y coordinate value of each feature point may be calculated with the position as the reference position (origin) and the horizontal and vertical directions of the pixel as the X direction and Y direction, respectively.
  • registered signature data (comparison data) is generated based on the type, X coordinate value, and Y coordinate value of each feature point detected or calculated in this way. Specifically, based on the type of each feature point, the X coordinate value, and the Y coordinate value, a value indicating the type, a value corresponding to the X direction position, and a Y direction position in the same manner as in FIG. The values corresponding to are generated in association with each other, and these are used as registered signature data (comparison data).
  • the information code generating device 2 When the information code generating device 2 generates the information code 100 as shown in FIG. 40A, such registered sign data (comparison data) is recorded in the data recording area.
  • the information code 100 is authenticated when a sign corresponding to the registered signature data (comparison data) recorded in the data recording area is attached to the empty area 110 (image area). If it succeeds and the signature corresponding to the registered signature data (comparison data) is not attached, the authentication fails.
  • the sign character Si2 is written as shown in FIG. 40B with respect to the information code 100 as shown in FIG. 40A, the reading process of FIG. Whether or not the signature written in the image area (empty area 110) matches the registered signature (signature of the registered signature data recorded in the data recording area) (specifically, FIG. B) determining whether or not the feature point extracted in S83 when the information code 100 is read matches the feature point of the comparison data recorded in the data recording area of the information code 100). it can.
  • the information code generation device 2 generates the information code 100 as shown in FIG. 42A.
  • an image of the image area (the empty area 110) is generated.
  • comparison data for comparison with analysis data obtained by analyzing at least a part of the image in the image area or the image in the image area is a data recording area (to be decoded) Data recording area).
  • the comparison data used in this example is data indicating the characteristics of the seal impression, and specifically, is feature point data extracted from the seal impression image D1 registered in advance as shown in FIG. Yes.
  • the person to be registered is requested in advance to have a seal imprinted on the surface of a material to be formed such as paper material, resin material, metal material, etc.
  • the imprint image is captured by another camera or the like.
  • the shape of the feature point is defined in advance, and the defined feature is obtained from the imprint image of the person to be registered obtained in the above-described operation. Extract points.
  • the “branch point” and “end point” similar to those in the representative example and the first modification can be defined as the shape of the feature point.
  • the positions of the feature points are indicated by reference sign P1, and the reference numerals of some feature points are omitted.
  • scattered feature points (branch points, end points) as shown in FIG. 41 are detected, and X coordinate values and Y coordinate values are calculated for each feature point.
  • the calculation method of the coordinate value any method that can grasp the relative positional relationship between the feature points is used as in the representative example and the first modification.
  • the X coordinate value and Y coordinate value of each feature point may be calculated with the position of the closest feature point as the reference position (origin) and the horizontal and vertical directions of the pixel as the X direction and Y direction, respectively.
  • registered imprint data is generated based on the type, X coordinate value, and Y coordinate value of each feature point detected or calculated in this way. Specifically, based on the type of each feature point, the X coordinate value, and the Y coordinate value, the value indicating the type, the value corresponding to the X direction position, the Y direction position for each feature point in the same manner as in FIG. The values corresponding to are generated in association with each other, and these are used as registered seal data (comparison data). Then, when the information code generating device 2 generates the information code 100 as shown in FIG. 42A, such registered seal data (comparison data) is recorded in the data recording area.
  • the authentication succeeds, and the registered seal data (comparison) Authentication fails when the seal corresponding to (data) is not attached.
  • an imprint D2 is added to the information code 100 as shown in FIG. 42A by stamping or the like as shown in FIG. 42B, this information code is obtained by performing the reading process of FIG. Whether or not the imprint D2 represented in the 100 image area (empty area 110) matches the registered imprint (the imprint of the registered imprint data recorded in the data recording area) (specifically, It can be determined whether or not the feature point extracted in S83 when the information code 100 in FIG. 42B is read matches the feature point of the comparison data recorded in the information code 100).
  • Modification 3 of Ninth Embodiment Next, Modification 3 of the ninth embodiment will be described. Modification 3 is different from the representative example of the ninth embodiment only in the specific contents of the empty area 110 and the specific contents of the comparison data recorded in the data recording area, and is otherwise the same as the representative example. is there.
  • the information code generation device 2 generates the same information code 100 as in FIG. 40A, and when the information code 100 is generated, an image of the empty area 110 (image area) is generated.
  • utilization data used in processing comparison data for comparison with analysis data obtained by analyzing at least a part of an image of the empty area 110 (image area) or an image of the empty area 110 (image area) is data. Recording is performed in a recording area (an area in which data to be decoded is recorded).
  • the comparison data used in this example is specific data that specifies at least one of numbers, characters, symbols, and figures to be recorded in the empty area 110 (image area). For example, if it is correct that the character “Tanaka” as shown in FIG.
  • the data of the character “Tanaka” may be recorded in the data recording area as comparison data.
  • the data “1234” may be recorded as comparison data in the data recording area.
  • the feature point extraction process in S83 is changed to a symbol recognition process
  • the comparison process in S84 is changed to a comparison process between a registered symbol and an extracted symbol. That's fine.
  • a known symbol recognition process OCR (Optical Character Reader) processing
  • OCR Optical Character Reader
  • S84 it is determined whether or not the symbol grasped in S83 matches the symbol (comparison data) read in S81. If they coincide, the process proceeds to Yes in S85, and if they do not coincide, the process proceeds to S85. And go to No.
  • S86 and S87 it can carry out by the method similar to a representative example.
  • control circuit 40 corresponds to an image processing unit, and performs a recording content recognition process for recognizing at least one of numbers, characters, symbols, and figures for an image in the empty area 110 (image area). Based on the recorded contents in the free area 110 (image area) recognized by the recognition process and the specific data (data such as numbers, characters, symbols, and figures that are correct) recorded in the data recording area, the free area 110 is displayed. It functions to determine whether or not the image in the (image area) corresponds to a regular image (that is, an image representing numbers, characters, symbols, figures, etc. recorded in the data recording area).
  • the comparison data to be recorded in the data recording area may be encrypted and recorded.
  • a common encryption key is stored in the generation device 2 and the reading device 10, and the reading device 10 decrypts the cipher using a decryption algorithm corresponding to the encryption algorithm used for encryption in the generation device 2.
  • the decrypted data encrypted by the generating device 2 and recorded in the data recording area can be decrypted by the reading device 10.
  • the analysis result obtained from the image of the empty area 110 is compared with the data in the data recording area in the reading device 10, and authentication is performed.
  • the comparison data and the analysis result read in S83 may be transmitted to the external device to determine whether or not the external devices match.
  • the processing of S84 and S85 in FIG. 35 may be performed by an external device, and the result may be transmitted to the reading device 10.
  • the comparison data is recorded in the data recording area.
  • Image data representing part or all of the image to be displayed on the screen may be recorded in the data recording area.
  • the fingerprint image itself used for pre-registration may be recorded in the data recording area.
  • the signature image itself used for pre-registration may be recorded in the data recording area.
  • the seal image itself used for pre-registration is recorded in the data recording area. Just keep it.
  • S81 the image data recorded in the data recording area is read, and the process in S83 is omitted.
  • S84 the image data read in S81 and the image of the empty area 110 (image area) acquired in S82. May be compared by known pattern matching or the like to determine whether or not they match.
  • the information code utilization system 1 of the tenth embodiment is also the same as that of the first embodiment in terms of hardware configuration, and the configuration as shown in FIGS. 1 and 2 is used.
  • the generation device 2 as shown in FIG. 1 generates an information code 100 as shown in FIG. 43 (information code in which cells serving as units for displaying information in a predetermined code area are arranged). ing.
  • the generation method of the information code 100 by the generation device 2 is the same as that of the first embodiment, and in this example, a configuration in which the empty area 110 is made blank from the configuration of the information code 100 shown in FIG. 43 is generated. It has become.
  • the information code 100 generated by the generation device 2 is different from the information code 100 of the first embodiment only in the contents of the empty area 110, and the information code 100 of the first embodiment except for the image of the empty area 110 is characteristic. Is included. Then, a sign image or sign image as shown in FIG. 43 is attached to the empty area 110 of the information code 100 generated in this manner by subsequently signing (description of handwritten characters) or stamping. An information code 100 is obtained.
  • the information code 100 handled by the system 1 also includes a specific pattern area (position detection pattern 104, timing pattern (timing cell) 106, and alignment pattern 108) in which a specific pattern having a predetermined shape is arranged inside the code area. Area), a data recording area for recording data by a plurality of types of cells 102, and an error correction code recording area for recording error correction codes by a plurality of types of cells 102.
  • An image area showing an image different from that of the cell 102 is represented in the code area as an area larger than the size of the cell 102.
  • the entire empty area 110 is configured as an image area. For example, as shown in FIG.
  • This empty area 110 is an area where data can be recorded and / or design can be displayed by a method different from the method for recording data in the data recording area, and is larger than the size of the single cell 102. It consists of
  • such an information code 100 is attached to a delivery slip (invoice) Pa used for courier service or mail as shown in FIG.
  • a delivery slip (invoice) having a known configuration can be used, and a column for writing a delivery address, delivery name, telephone number, product name, client address, client name, telephone number, etc. is provided.
  • the information code 100 is printed on such a delivery slip Pa by the generating device 2, and the information code 100 is used as a part of the delivery slip Pa.
  • the empty area 110 (image area) provided in the information code 100 is configured as an area for forming at least one of a fingerprint, a seal, and a signature, for example.
  • the information code generation device 2 when the information code generation device 2 generates the information code 100 shown in FIG. 43 (specifically, the empty area is blank), the image of the empty area 110 (image area) is processed.
  • address information for specifying the destination or storage destination of the image in the empty area 110 (image area) is recorded in the data recording area.
  • the URL or mail address of a management server of a company that operates a home delivery service is recorded as address information in the data recording area.
  • it may be configured such that information (address information) designating the reading device 10 itself is recorded in the data recording area as an image storage destination of the empty area 110 (image area).
  • address information designating the reading device 10 itself is recorded in the data recording area as an image storage destination of the empty area 110 (image area).
  • an information code generating device 2 is prepared on the side of an operating entity that operates a courier service or a mail, and for example, a URL uniquely assigned to the company or the company's own
  • An e-mail address or the like is recorded in the data recording area as address information, and an information code 100 with the empty area 110 as a blank area, for example, is generated and attached to a delivery slip Pa as shown in FIG. 43 by printing or the like.
  • the empty area 110 is blank, the imprint D2 shown in FIG. 43 is not added.
  • the column regarding the delivery address and the column regarding the client are blank, for example.
  • the operating entity gives such a delivery slip Pa to the user, and fills in a column regarding the destination and a column regarding the client. Will receive. Then, after the user has described the fields relating to the delivery destination and the fields relating to the client, the delivery slip Pa is attached to the package (not shown) and managed. The package marked with will be delivered to the destination. Even in this delivery stage, the empty area 110 of the information code 100 remains blank. Then, when the employee of the operating entity delivers such a package to the delivery destination, the delivery slip Pa attached to the package at the time of delivery of the package is peeled off, and the recipient (such as the resident of the delivery destination) As shown in FIG.
  • a sign or a seal is added to the empty area 110 of the information code 100 of the delivery slip Pa.
  • the information code 100 of the delivery slip Pa in which the space area 110 is signed or stamped in this way is read by the reading device 10 at the site or after returning home.
  • the data recording area is decoded in the same manner as in the above-described embodiment, and the position of the empty area 110 (image area) is specified to determine the empty area 110 (image area). Cut out the image. Then, the cut out image of the empty area 110 (image area) is transmitted to the transmission destination specified by the address information recorded in the data recording area.
  • the image of the empty area 110 is identified by the device (external device 90 or It is transmitted to the other device accessible from the external device 90 and stored in the storage unit (for example, the storage unit 93 of the external device 90).
  • information that can identify the delivery slip Pa (delivery number uniquely attached to the delivery slip, personal information of the requester, personal information of the delivery destination, etc.) ) Is preferably recorded in advance, and when the information code 100 is read, “information that can specify the delivery slip Pa” recorded in the data recording area of the information code 100 and the cut out empty area 110 ( The image information in the image area) may be associated with the address information recorded in the data recording area. In this way, at the destination, “information that can specify the delivery slip Pa” and “image of the empty area 110 (image area)” can be stored in association with each other, and the destination address of the delivery slip Pa can be stored. It becomes easy to confirm that the confirmation information (signature or seal imprint) exists.
  • control circuit 40 corresponds to an example of an image processing unit, and analysis data obtained by analyzing at least a part of an image in the image area (an image in the empty area 110) or an image in the image area is stored in the data recording area. It functions to send or save to the destination or the storage destination specified by the address information recorded in. Specifically, at least a part of at least one of fingerprint, imprint, and signature images formed in the image area, or analysis data obtained by analyzing any image, an address recorded in the data recording area It functions to send or save to the destination or storage destination specified by the information.
  • the information code generation device 2 is configured as a POS register used at a store or the like, and the information code 100 is used by attaching it to a receipt Pb issued at the time of purchase of a product at a register such as a store. It has become.
  • the receipt Pb can be applied to various fields.
  • the receipt Pb is a credit card use slip issued when a credit card is used at a store or a gas station.
  • An information code 100 is attached to a part of the receipt Pb.
  • An empty area 110 (image area) provided in the information code 100 is configured as an area for writing a signature.
  • the image of the empty area 110 is processed.
  • address information for specifying the destination or storage destination of the image in the empty area 110 (image area) is recorded in the data recording area.
  • a URL, e-mail address, IP address, etc. assigned to a store or company that issues a receipt are recorded as address information in the data recording area, and when the information code 100 is read, the store or company
  • the image of the empty area 110 (image area) can be sent to an external apparatus 90 (a destination specified by the address information, which is the same external apparatus as in FIG. 43).
  • Such a receipt Pb is issued by the information code generating device 2 when the user purchases a product as a credit card payment, for example, and displays the purchase details of the product, the payment amount, the use date and time (not shown), and the like. It has become. Then, when the receipt Pb as shown in FIG. 44 (A) is issued, the clerk writes a signature (for example, handwritten input of the name) in the empty area 110 of the information code 100 as shown in FIG. 44 (B). To get. Then, when the receipt Pb with the signature written in the empty area 110 of the information code 100 is stored after payment as shown in FIG. 44B, the information code 100 of the receipt Pb is first read by the reading device 10.
  • a signature for example, handwritten input of the name
  • the method of any of the above-described embodiments may be used.
  • the data in the data recording area is decoded, the position of the empty area 110 is specified, and the empty area 110 ( The image in the (image area) may be cut out.
  • the image of the cut out empty area 110 (image area) is transmitted to the transmission destination specified by the address information recorded in the data recording area.
  • the image of the empty area 110 (image area) is identified by the device (external device 90 or It is transmitted to the other device accessible from the external device 90 and stored in the storage unit (for example, the storage unit 93 of the external device 90).
  • the data recording area of the information code 100 attached to the receipt Pb information (receipt number, credit card number used for payment, personal information of the user, etc.) that can identify the receipt Pb is recorded in advance.
  • the “information for identifying the receipt Pb” recorded in the data recording area of the information code 100 and the image of the cut out empty area 110 (image area) are displayed.
  • the address information recorded in the data recording area is preferably sent to the address information destination. In this way, at the destination, “information that can specify the receipt Pb” and “image of the empty area 110 (image area)” can be stored in association with each other.
  • the use date and time and the payment amount are recorded in the data recording area, and at the time of reading, the data recording is performed in association with the image of the cut out free area 110 (image area). It may be sent to the address information addressee recorded in the area. In this way, the image of the cut out free area 110 (image area) can be stored in the transmission destination in association with the use date and the payment amount.
  • control circuit 40 corresponds to an example of an image processing unit, and analysis data obtained by analyzing at least a part of an image in the image area (an image in the empty area 110) or an image in the image area is used as a data recording area. It functions to send or save to the destination or the storage destination specified by the address information recorded in. Specifically, it functions to send or save the signature image formed in the image area to the destination or storage destination specified by the address information recorded in the data recording area.
  • the person who performs the reading operation operates the operation switch of the reading device 10 before, during, or after reading the information code 100 by the reading device 10.
  • Information can also be input by operating 42 and the like.
  • the operator inputs the age group, sex, etc. of the credit card user by operating the operation switch 42 and the like.
  • the information code 100 of 44 (B) is read, the information such as the age group and sex input by the operation switch 42 is associated with the image of the empty area 110 (image area) cut out by the reading.
  • the address information recorded in the data recording area can be sent to or saved in a destination or storage destination.
  • the image of the empty area 110 (image area) cut out at the time of reading corresponds to the information (information such as age group and sex) input at the time of reading. It can be added and accumulated, which can be useful for customer base management.
  • the operation switch 42 of the reading device 10 corresponds to an example of an “information input unit” that can input information by an external operation.
  • the control circuit 40 corresponds to an example of an image processing unit, and the information input by the information input unit and the image of the empty area 110 (image area) cut out by reading the information code 100 are associated with each other. It functions to send or save to the destination or storage destination specified by the address information.
  • Information such as age group and sex may be input by the operation unit 4 of the generating device 2 when the receipt Pb is issued. In this case, the input information such as age group and sex is recorded in the data recording area. You just have to. Then, at the time of reading the information code 100, it may be sent to the destination or storage destination together with the image of the cut out empty area 110 (image area).
  • Modification 2 is different from the representative example of the tenth embodiment only in the specific contents of the empty area 110, the specific contents of the data recorded in the data recording area, and the object to which the information code 100 is attached.
  • the other basic configuration is the same as the representative example.
  • the hardware configuration is the same as that of the first embodiment, and the configurations as shown in FIGS. 1 and 2 are used.
  • the information code 100 is used for seal registration.
  • the seal registration slip is formed by the generating device 2 shown in FIG. 1 so as to print the information code 100 in which the empty area 110 is blank, for example.
  • the information code 100 can be generated by the same method as in the first embodiment or other embodiments.
  • the empty area 110 is, for example, a blank area.
  • an internal imprint is removed from the information code 100 at the upper left in FIG.
  • An empty area 110 (image area) provided in the information code 100 is used as an area for applying a seal.
  • FIG. 45 only the information code 100 attached to the seal registration slip is illustrated, and other components of the seal registration slip (name entry column, registration number entry column, etc.) are omitted. .
  • the information code generation device 2 generates the information code 100 shown in the upper left of FIG. 45 (specifically, a part of the information code 100 in the upper left of FIG. 45 is omitted and the empty area 110 is left blank).
  • address information for specifying the transmission destination or storage destination of the image in the free area 110 (image area) is used as utilization data used when processing the image in the free area 110 (image area).
  • the external device 90 is used as a management server of a main body (store, company, government office, etc.) that manages seals of seals, and the IP address, URL, and mail address (identifying the authentication device) of the external device 90 are specified. Address) etc. are recorded in the data recording area as address information.
  • the information code 100 configured in this way is used, for example, when a user desires to register a seal, and a person who performs registration work (such as a store clerk or other employee) informs the person who wants to register the above-mentioned information code.
  • a seal registration slip (that is, a form with an information code 100 in which the empty area 110 is blank) is presented, and a seal that is desired to be registered in the empty area 110 of the information code 100 as shown in the upper left figure of FIG. Please have a seal of When registering the seal data attached to the information code 100 in this way, first, the information code 100 is read by the reading device 10 to decode the data in the data recording area, and the free area 110 (image area). ) Image.
  • the cut-out image (the image of the seal) is transmitted or stored in the transmission destination or the storage destination specified by the address information recorded in the data recording area.
  • the transmission destination or storage destination is the external device 90 (the same device as FIG. 43)
  • the image of the seal is transmitted from the reading device 10 to the external device 90 and stored in the storage unit 93 of the external device 90. It will be.
  • Such information is recorded in advance in the data recording area of the information code 100 when the generating device 2 generates the information code 100, and the information is obtained when the reading device 10 reads the information code 100.
  • control circuit 40 corresponds to an example of an image processing unit, and an image in the image area (an image in the empty area 110) is specified as a destination or a storage destination (specifically specified by address information recorded in the data recording area). Specifically, it functions to send or save to an external device 90 corresponding to the authentication device or another device accessible from the authentication device. Specifically, it functions to send or save the imprint image formed in the empty area 110 (image area) to the destination or the storage destination specified by the address information recorded in the data recording area.
  • the image data of various seals is stored in the storage unit 93 of the external device 90 in association with the registration number and personal information as shown in the lower diagram of FIG.
  • a person who desires collation stamps the empty area 110 of the information code 100 printed on the procedure slip Pc as shown in FIG. 46 with the seal desired to collate.
  • address information for specifying the external device 90 is recorded.
  • the reading device 10 reads the information code 100, the address information is read from the data recording area, and an image (imprinted image) of the empty area 110 (image area) is cut out.
  • the imprinted image is used as address information. Based on this, the data is transmitted to the external device 90. Then, when the external device 90 receives the seal image (imprint image) to be collated in this way, whether the pre-registered imprint image and the transmitted imprint image match as shown in FIG. It is determined by a known image comparison method. For this collation, for example, the transmitted imprint image to be collated and all the imprint images registered in the external device 90 are compared with, for example, well-known pattern matching or feature points similar to those in the ninth embodiment. To determine whether or not there is an image that matches the imprint image to be collated that has been transmitted among the imprint images registered in the external device 90.
  • the transmitted imprint image to be collated matches any of the imprint images registered in the external device 90, data indicating that the authentication has been successful is sent to the reading device 10 of the transmission source. Send. In this case, it is also preferable to transmit a number or personal information registered in association with a registered seal image that has been successfully authenticated. Conversely, if they do not match, data indicating that the authentication has failed is transmitted.
  • the storage unit 93 of the external device 90 corresponds to an example of a comparison data registration unit, and comparison data for comparison with analysis data obtained by analyzing at least a part of the image in the image region or the image in the image region. Is registered.
  • a comparison data registration unit for comparison with analysis data obtained by analyzing at least a part of the image in the image region or the image in the image region.
  • Is registered Is registered.
  • an example in which the image of the extracted empty area 110 (image area) is registered in the external device 90 as image data in the registration as illustrated in FIG. 45 is described.
  • feature point data analysis data
  • the method for extracting the feature points from the seal impression image or the like may be performed in the same manner as in the ninth embodiment.
  • the reading device 10 extracts feature point data from the imprint image to be collated, and the feature point data (analysis data) is used as transmission data for the external device 90 (authentication device).
  • the external device 90 may compare the transmitted feature point data with the feature point data of each imprint image registered in the external device 90 to find a matching feature point.
  • the external device 90 corresponds to an example of an authentication device, and is recorded in the transmission data transmitted by the image processing unit (for example, the data of a seal image transmitted as a collation target as shown in FIG. 46) and the comparison data registration unit. Based on the comparison data (for example, data of a plurality of imprint images registered in advance in the external device 90 as shown in FIG. 45), the imprint image of the empty area 110 (image area) to be collated is a predetermined regular image. (Specifically, it functions to determine whether or not it corresponds to an imprint image registered in advance in the external device 90).
  • the external device 90 that functions as an authentication device may be configured by a single device, or may be configured by a plurality of devices capable of data communication with each other.
  • seal verification at a bank or the like has been illustrated, but it can also be used for verification of real seals related to real estate.
  • Modification 3 is different from the representative example of the tenth embodiment only in the specific contents of the empty area 110, the specific contents of the comparison data recorded in the data recording area, and the object to which the information code 100 is attached.
  • the basic configuration is the same as the representative example.
  • the hardware configuration is the same as that of the first embodiment, and the configurations as shown in FIGS. 1 and 2 are used.
  • the information code 100 is used for fingerprint registration.
  • an empty area 110 (image area) provided in the information code 100 is an area for attaching a fingerprint.
  • the fingerprint registration form is formed by the generating apparatus 2 shown in FIG. 1 so as to print the information code 100 in which the empty area 110 is blank, for example.
  • the information code 100 can be generated by the same method as in the first embodiment or other embodiments.
  • the empty area 110 is, for example, a blank area.
  • the internal fingerprint image F is removed from the information code 100 at the upper left in FIG.
  • An empty area 110 (image area) provided inside the information code 100 is used as an area for attaching a fingerprint.
  • FIG. 47 only the information code 100 attached to the fingerprint registration form is illustrated, and other components of the fingerprint registration form (name entry field, registration number entry field, etc.) are omitted. .
  • the information code generation device 2 generates the information code 100 shown in the upper left of FIG. 47 (specifically, a part of the information code 100 in the upper left of FIG. 47 is omitted and the empty area 110 is left blank).
  • address information for specifying the transmission destination or storage destination of the image in the free area 110 (image area) is used as utilization data used when processing the image in the free area 110 (image area). It is recorded in the data recording area.
  • the external device 90 is used as a management server of a main body (store, company, government office, etc.) that manages fingerprints, and the IP address, URL, and mail address (address for specifying the authentication device) of the external device 90 Are recorded in the data recording area as address information.
  • a main body store, company, government office, etc.
  • the IP address, URL, and mail address (address for specifying the authentication device) of the external device 90 are recorded in the data recording area as address information.
  • the information code 100 configured in this way is used, for example, when a user wishes to register a fingerprint, and a person who performs registration work (such as a store clerk or other employee) informs the person who wants to register the above-mentioned information code.
  • a fingerprint registration form ie, a form with an information code 100 in which the empty area 110 is blank
  • the information code 100 is read by the reading device 10, the data in the data recording area is decoded, and the free area 110 (image area) is read. ) Image.
  • the cut image (fingerprint image) is transmitted or stored in a transmission destination or a storage destination specified by the address information recorded in the data recording area.
  • the transmission destination or storage destination is the external device 90 (the same device as in FIG. 43)
  • the fingerprint image cut out from the information code 100 is transmitted from the reading device 10 to the external device 90, and this external device 90 storage units 93 are stored.
  • information registration number, personal information, etc.
  • Such information is recorded in advance in the data recording area of the information code 100 when the generating device 2 generates the information code 100, and the information is obtained when the reading device 10 reads the information code 100.
  • the external device 90 registers the fingerprint image in association with each registration number and personal information (name) as shown in the lower diagram of FIG. 47, and specifies the registration number. The corresponding fingerprint image is specified.
  • control circuit 40 corresponds to an example of an image processing unit, and analysis data obtained by analyzing at least a part of an image in the image area (an image in the empty area 110) or an image in the image area is used as a data recording area. It functions to send or save to the destination or the storage destination specified by the address information recorded in. Specifically, it functions to send or save the fingerprint image formed in the empty area 110 (image area) to the destination or storage destination specified by the address information recorded in the data recording area.
  • the image data of various fingerprints are stored in the storage unit 93 of the external device 90 in association with the registration number and personal information, as shown in the lower diagram of FIG.
  • a person who desires collation attaches his / her fingerprint that he / she wishes to collate to the empty area 110 of the information code 100 printed on the procedure slip Pd as shown in FIG. .
  • address information for specifying the external device 90 is recorded.
  • the reading device 10 reads the information code 100
  • the address information is read from the data recording area, and an image (fingerprint image) of the empty area 110 (image area) is cut out.
  • the fingerprint image is used as the address information.
  • the data is transmitted to the external device 90.
  • the fingerprint image to be collated is sent in this way, the external device 90 knows whether or not the fingerprint image registered in advance as shown in FIG. 47 matches the sent fingerprint image. Judgment by the image comparison method. For this collation, for example, the transmitted fingerprint image of the collation target and all fingerprint images registered in the external device 90 are compared with, for example, known pattern matching or feature points similar to those in the ninth embodiment.
  • the storage unit 93 of the external device 90 corresponds to an example of a collation data registration unit, and collates with analysis data obtained by analyzing at least a part of an image in the empty area 110 (image area) or an image in the image area. For this reason, a plurality of pieces of verification data are registered in association with personal information.
  • the external device 90 corresponds to an example of a collation device.
  • Transmission data fingerprint image to be collated
  • a plurality of collation data for example, registered data
  • the personal information corresponding to the transmission data is extracted.
  • the image of the extracted empty area 110 image area
  • the external device 90 instead of registering the image of the area 110 (image area) itself, feature point data (analysis data) extracted from the image of the empty area 110 (image area) may be registered in the external device 90.
  • a method for extracting feature points from a fingerprint image or the like may be performed in the same manner as in the ninth embodiment.
  • the reading device 10 extracts feature point data from the fingerprint image to be collated, and the feature point data (analysis data) is used as transmission data for the external device 90 (authentication device).
  • the external device 90 may compare the transmitted feature point data with the feature point data of each fingerprint image registered in the external device 90 to find a matching feature point.
  • the configuration of the other embodiments described above or described later may be used for the portion excluding the empty area. Even in such a configuration, if address information similar to the representative example or the modification example of the tenth embodiment described above is recorded in the data recording area, the image of the empty area is represented as the representative example of the tenth embodiment and It can be used similarly to the modified example.
  • the structure of the empty area (image area) may be the structure of the other embodiments described above or described later. Even in such a configuration, if address information is recorded in the data recording area, analysis data obtained by analyzing at least a part of the image in the empty area (image area) or the image in the empty area (image area) (for example, feature point data obtained by extracting feature points from an image of an empty area (image area) in the same manner as in the ninth embodiment, character data obtained by extracting characters from an image of an empty area (image area), etc. It can be sent or saved to a destination or a storage destination specified by the address information recorded in the recording area.
  • the address information identifies the authentication result obtained by authenticating the free area image using the data recorded in the data recording area and the authentication result obtained by authenticating the free area image using the data recorded in the reading device. You may make it transmit or preserve
  • the information code utilization system 1 of the eleventh embodiment is also the same as that of the first embodiment in terms of hardware configuration, and the configuration shown in FIGS. 1 and 2 described above is used.
  • the generation device 2 as shown in FIG. 1 generates an information code 600 as shown in FIG. 49A (information code in which cells serving as units for displaying information are arranged in a predetermined code area). It is like that.
  • the generation method of the information code 600 by the generation device 2 is the same as that of the first embodiment except for the specific contents of the empty area.
  • the information code 600 generated by the generating device 2 is different from the information code 100 of the first embodiment only in the contents of the empty area 610, and the information code 100 of the first embodiment except for the image of the empty area 610. Is included.
  • the information code 600 handled in the present system 1 is also a specific pattern area (position detection pattern 104, timing pattern (timing cell) 106 similar to FIG. 1) in which a specific pattern having a predetermined shape is arranged inside the code area. , An area in which the alignment pattern 108 is arranged), a data recording area for recording data by a plurality of types of cells 102, and an error correction code recording area for recording error correction codes by a plurality of types of cells 102. . An image area showing an image different from that of the cell 102 is represented in the code area as an area larger than the size of the cell 102. In the example of FIG. 49A, the entire empty area 610 is configured as an image area.
  • an image different from the cell 102 is represented in the empty area 610 as shown in FIG. It is like that.
  • This empty area 610 is an area in which at least one of data recording and design display can be performed by a method different from the method of recording data in the data recording area, and the size is larger than the size of the single cell 102. It consists of
  • a follower section 612 is arranged in an empty area 610 (image area). As illustrated in FIG. 51, the follower unit 612 includes a first captured image 612 a obtained by the imaging unit when the reading device 10 captures an image from a predetermined first direction, and a predetermined difference in which the reading device 10 is different from the first direction.
  • the second captured image 612b obtained by the imaging unit when captured from the second direction has a different configuration.
  • information as shown in FIG. 49 (B) is recorded.
  • information such as a product name, a product number, a price, and a packing unit is recorded as unencrypted public data.
  • a unique ID such as a serial number
  • store information are recorded as encrypted private data.
  • Such an information code 600 can be used in an example as shown in FIG.
  • the above-described information code 600 is pasted directly or by a product tag or the like on a regular product 680 manufactured at a factory.
  • a product name, a serial number, and the like are recorded in the data recording area of the information code 600.
  • a free area 610 (image area) in the code area is provided with a follower section 612 corresponding to the serial number.
  • the contents of the information code 600 are registered in the server 690 before the product is shipped.
  • the product name and serial number recorded in the information code 600 are associated with the image of the follower unit 612 and stored in the storage unit of the server 690 (see the lower diagram of FIG. 50).
  • the information code 600 attached to the product 680 is read by the reading device 10 (FIG. 1, FIG. 2, etc.).
  • the operator can grasp whether the recorded content (product name) of the information code 600 is compatible with the product 680. it can.
  • the reader 10 can recognize whether a proper information code is attached by authenticating the information code 600.
  • the reading and authentication of the information code 600 will be described in further detail.
  • the light receiving sensor 23 (imaging unit) of the reading device 10 captures the first captured image when the information code 600 is imaged from a predetermined first direction
  • a second captured image when the information code 600 is captured from the second direction is acquired.
  • one position detection pattern 104 is located at the upper left of the code area, and two position detection patterns 104 are included in the code area. The direction in which captured images are obtained such that the lower left and the lower right are obtained, and the two position detection patterns 104 are on the lower side.
  • the first captured image (612a) is taken as the first direction, and the first captured image 612a of the follower unit 612 in this first direction is acquired.
  • two position detection patterns 104 are in the upper left and upper right of the code area, and one direction detection pattern 104 is in a direction in which a captured image is obtained in the lower right.
  • a direction in which the one position detection pattern 104 side is taken as a lower side and an image is picked up from an oblique lower side an image pickup direction in which the three position detection patterns 104 are in a predetermined second arrangement in the taken image) is defined as a second direction.
  • the second captured image 612b of the follower unit 612 is acquired. Then, the product name, serial number, and the like recorded in the data recording area are acquired, and the first captured image 612a and the second captured image 612b are transmitted to the server 690 together with the information.
  • the regular image in the first direction and the regular image in the second direction of the follower unit 612 are registered in advance in the server 690 in association with the product name and serial number, these regular images are transmitted.
  • the first captured image 612a and the second captured image 612b transmitted by collating the first captured image 612a and the second captured image 612b that have been received by known pattern matching or the like are registered in the server 690 in advance. It can be determined whether or not.
  • the image of the follower part sent from the reading device 10 is a normal image in the first direction and a normal image in the second direction corresponding to the serial number, the reading device 10 is notified that the authentication is successful. Send.
  • control circuit 40 of the reading apparatus 10 illustrated in FIG. 2 corresponds to an example of an image processing unit, and functions to authenticate the follower unit 612 based on a predetermined first captured image and the second captured image. To do.
  • the information code 600 including the follower unit 612 capable of generating at least two types of images can be used as an authentication medium. Since the reading device 10 can acquire two types of images from the follower unit and can perform authentication based on the acquisition result, it is easier to determine whether or not the follower is genuine.
  • a unique ID may be recorded in the data recording area, and a unique program corresponding to this unique ID may be arranged in the follower unit 612.
  • Modification 1 of 11th Embodiment Next, Modification 1 of the eleventh embodiment will be described with reference to FIG. In the first modification, the specific contents of the follower unit 612 are only different from the representative example of the eleventh embodiment, and other than that is the same as the representative example of the eleventh embodiment.
  • the information code 600 of the first modification is the same as the representative example except for the follower part 612.
  • This information code 600 includes all the features of the representative example, and further features are added to the follower unit 612. Further, the reading method and authentication method of the information code 600 are the same as the representative example, and only the point that the optical filter 620 is used at the time of reading is added.
  • the information code 600 in FIG. 52 includes an empty area 610 in which the follower 612 has a configuration in which an image captured through the optical filter 620 that transmits light in a predetermined wavelength band and an image captured without passing through the optical filter 620 are different.
  • the optical filter 620 may be, for example, a filter that transmits only infrared light, or may be a filter that transmits only ultraviolet light.
  • a predetermined wavelength band in the visible light region may be transmitted and the transmittance outside the predetermined wavelength band may be significantly reduced.
  • the light receiving sensor 23 (imaging unit) of the information code reader 10 images the information code 600 through the optical filter 620. It is the same as the representative example except that the optical filter 620 is used, and the first captured image when the information code 600 is imaged from the predetermined first direction and the first image when the information code 600 is imaged from the second direction. It is sufficient to acquire two captured images and perform authentication in the same manner as in the representative example.
  • control circuit 40 of the reading apparatus 10 in FIG. 2 corresponds to an example of an image processing unit, and the follower unit 612 is authenticated based on the imaging result of the information code 60 imaged through the optical filter 620. To work.
  • an information code having a characteristic follower section that generates a predetermined image when imaged through an optical filter can be used as an authentication medium.
  • the reader can attempt to acquire a predetermined image from the captured image obtained through the optical filter and can perform authentication based on the acquisition result. It becomes easy to judge.
  • the information code 600 of the second modification is the same as the representative example except for the follower part 612.
  • This information code 600 includes all the features of the representative example, and further features are added to the follower unit 612.
  • the reading method and the authentication method of the information code 600 are the same as the representative example, and only the point that the follower unit 612 is imaged by a specific imaging method is added.
  • a predetermined display appears as a captured image 600 ′ in FIG. 53B, and the information code 600 is captured by a method different from the predetermined imaging method.
  • a special display portion 630 in which a predetermined display does not appear is provided in the empty area 610 (image area).
  • the image of the follower unit 612 is omitted.
  • Examples of the predetermined imaging method for representing the predetermined display include a method of imaging the information code 600 by the light receiving sensor 23 (imaging unit) while irradiating infrared light or ultraviolet light.
  • infrared light emitting ink (ink that cannot be visually recognized in a normal environment irradiated with visible light and ink that emits light in an environment irradiated with infrared light) or ultraviolet light emitting ink (visible) is displayed in the empty area 610 (image area).
  • a specific pattern 630 (special display portion) may be recorded in advance using an ink that cannot be visually recognized in a normal environment where light is irradiated and emits light in an environment irradiated with ultraviolet light. In this way, the specific pattern 630 does not appear in normal imaging in which imaging is performed by irradiating visible light.
  • a pattern 630 (special display portion) made of a fiber medium (a medium that cannot be visually recognized or difficult to view in a normal environment) is included in a paper medium that is a base of the empty area 610, and such a pattern 630 (special A known special imaging method may be used in which imaging is performed so that the display unit) appears in the image.
  • the imaging unit of the information code reading device 10 images the information code 600 by the above-described predetermined imaging method. It is the same as the representative example except for the imaging method, and the first captured image when the information code 600 is imaged from the predetermined first direction, and the second captured image when the information code 600 is imaged from the second direction Can be obtained in the same manner.
  • authentication is performed by a method similar to that of the representative example, it is sufficient to determine that the authentication has succeeded on the condition that the match of the follower images is confirmed and the display of the pattern 630 is confirmed.
  • control circuit 40 of the reading device 10 in FIG. 2 corresponds to an example of an image processing unit, and functions to authenticate the follower unit 612 based on an imaging result of an information code imaged by a predetermined imaging method. .
  • an information code having a special display unit that authenticates when a predetermined display appears when captured with a predetermined imaging method and does not appear when captured with a method different from the predetermined imaging method is authenticated. It can be used as a medium. Since the reader can attempt to recognize the predetermined display of the special display unit in the captured image captured by the predetermined imaging method and can perform authentication based on the recognition result, whether or not the follower is genuine Can be determined more accurately.
  • the information code utilization system 1 of the twelfth embodiment is the same as that of the first embodiment in terms of hardware configuration, and the configuration as shown in FIGS. 1 and 2 is used. Then, the information generating apparatus 2 as shown in FIG. 1 generates an information code 700 as shown in FIG. 54 (information code in which cells serving as units for displaying information within a predetermined code area are arranged). ing. The generation method of the information code 700 by the generation device 2 is the same as that of the first embodiment except for the specific contents of the empty area 710.
  • the information code 700 generated by the generation device 2 is different from the information code 100 of the first embodiment only in the contents of the empty area 710, and the features of the information code 100 of the first embodiment except for the image of the empty area 710. Is included.
  • the information code 700 handled by the system 1 is also a specific pattern area (a position detection pattern 104, a timing pattern (FIG. 1) in which a specific pattern having a predetermined shape is arranged inside the code area. Timing cell) 106 and an area similar to the alignment pattern 108), a data recording area for recording data by a plurality of types of cells 102, and an error correction code recording area for recording error correction codes by a plurality of types of cells 102. It has been.
  • An image area showing an image different from that of the cell 102 is represented in the code area as an area larger than the size of the cell 102.
  • the entire empty area 710 is configured as an image area.
  • This empty area 710 is an area in which at least one of data recording and design display can be performed by a method different from the method of recording data in the data recording area, and the size is larger than the size of the single cell 102. It consists of
  • the information code 700 has a configuration in which a reference figure (augmented reality marker 712) having a predetermined shape is arranged in an empty area 710 (image area) as shown in FIG.
  • the augmented reality marker 712 is arranged along the outer edge of the empty area 710, for example, and is configured as a dark square frame (square frame or rectangular frame) such as black, and the frame width is larger than the cell width. ing.
  • related content indicating at least one of an image corresponding to the display candidate augmented reality image and information is displayed at a position other than the area where the reality marker is displayed. It has become.
  • an image 714 of the same article as the augmented reality image of the display candidate is shown inside the augmented reality marker 712 (AR marker) configured as a rectangular frame. It can be visually grasped from the contents of the code whether the image is superimposed and displayed.
  • address information (URL or the like) corresponding to the management device 790 in which the augmented reality image is stored is recorded.
  • the reading device 10 configured as an information terminal and the management device 790 (server) can communicate with each other via an Internet line, a wireless LAN line, other communication lines, and the like.
  • address information such as a URL
  • the address of the management device 790 (server) can be specified, and information can be transmitted to and received from the management device 790 (server). Yes.
  • the data recording area of the information code 700 specific information for specifying the augmented reality image to be displayed is recorded.
  • the management device 790 server
  • a plurality of candidate images to be augmented reality images are registered in association with corresponding identification information, and if the identification information is specified, it corresponds to the identification information.
  • Candidate images can be read out as augmented reality images.
  • any identification information associated with a plurality of candidate images is recorded as specific information, and thereby an augmented reality image to be superimposed is specified.
  • FIG. 55 and 56 show an operation example of the augmented reality display.
  • an augmented reality display is performed using such an information code 700
  • a real image in the imaging range set outside the reading device is captured by the light receiving sensor 23 (imaging unit) of the reading device 10 illustrated in FIG.
  • the captured image captured by the light receiving sensor 23 is displayed on the liquid crystal display 46 (FIG. 2) in real time.
  • the image of the information code 700 is included in the actual image captured by the light receiving sensor 23 (imaging unit)
  • the information code 700 is read (see (1) in FIG. 55).
  • the method for reading the information code 700 is the same as in the first embodiment.
  • the reading device 10 Such information is acquired by reading the information code 700.
  • the reading device 10 accesses the management device 790 based on the acquired address information, and requests an augmented reality image corresponding to the acquired specific information (information specifying the augmented reality image). (See (2) in FIG. 55). For example, candidate images such as images 791a, 791b, and 791c are registered as three-dimensional image data in the management device 790 (server), and the specific information (information specifying the augmented reality image) acquired by the reading device 10 is used. If the image 791a is specified, this image 791a is requested. In this case, the management device 790 (server) transmits the requested three-dimensional image data of the image 791a to the reading device 10 (see (3) in FIG. 55).
  • the reading device 10 when reading the information code 700 in (1) of FIG. 55, specifies the empty area 710 from the code image of the information code 700 by the same method as in the first embodiment and the like.
  • the augmented reality marker 712 is detected from the image of the vacant area 710 (see (4) in FIG. 56).
  • the detection method of the augmented reality marker 712 may be, for example, a known method used in augmented reality technology, and the method is not particularly limited as long as it is a method that can detect the augmented reality marker 712 from the image. Then, by recognizing the augmented reality marker 712, the posture can be detected from the shape of the augmented reality marker 712.
  • imaging is performed such that the direction orthogonal to the surface to which the augmented reality marker 712 is attached is the Z direction, the direction of a predetermined side of the augmented reality marker 712 is the X direction, and the direction orthogonal to the Z direction and the X direction is the Y direction.
  • the direction orthogonal to the Z direction and the X direction is the Y direction.
  • the augmented reality image acquired from the management apparatus 790 (server) is superimposed on the actual image captured by the light receiving sensor 23 (imaging unit) so as to match the direction of the specified coordinate system.
  • the example in FIG. 56 shows an example in which the augmented reality images of the information terminals are superimposed.
  • the augmented reality images 791a, 791b, and 791c registered in the management device 790 (server) are configured by three-dimensional image data, and the X direction, the Y direction, and the Z direction are specified for each augmented reality image. Therefore, the augmented reality image is superimposed and displayed so that the X direction, Y direction, and Z direction match the X direction, Y direction, and Z direction specified by the augmented reality marker 712.
  • the attitude of the augmented reality marker 712 displayed on the liquid crystal display 46 changes to change the X direction, Y direction, and Z direction in the display image.
  • the display posture of the augmented reality image is changed so as to match the changed X direction, Y direction, and Z direction.
  • the background is changed to another image other than the actual image and superimposed display is performed. May be.
  • control circuit 40 in FIG. 2 corresponds to an example of an area detection unit, and functions to detect an image in the code area from an actual image captured by the light receiving sensor 23 (imaging unit).
  • imaging unit functions to detect an image in the code area from an actual image captured by the light receiving sensor 23 (imaging unit).
  • specifying unit functions to analyze the image of the code area detected by the area detecting unit and specify the position of the empty area 710.
  • control circuit 40 of the reading apparatus 10 illustrated in FIG. 2 corresponds to an example of an image processing unit and a marker detection unit, and an image of the information code 700 is included in an actual image captured by the imaging unit.
  • the reference graphic (augmented reality marker 712) functions to detect the captured image of the obtained information code 700.
  • the augmented reality marker 712 is selected from the empty area 710 specified by the empty area specifying unit. It works to detect images.
  • the light receiving sensor 23 in FIG. 2 corresponds to an example of an imaging unit that captures an actual image in an imaging range set outside the information code reader 10.
  • the liquid crystal display 46 in FIG. 2 corresponds to an example of a display unit that can display a real image captured by the imaging unit.
  • the control circuit 40 in FIG. 2 corresponds to an example of a display control unit, and when the image of the augmented reality marker 712 is detected by the marker detection unit, the augmented reality image is compared with the actual image captured by the imaging unit. Are displayed on the display unit, and more specifically, when the image of the augmented reality marker 712 is detected by the marker detection unit, the actual image captured by the imaging unit is empty.
  • the augmented reality image of the display candidate corresponding to the related content (image 714 in the example of FIG. 54 and the like) displayed in the area 710 (more specifically, the display target expansion specified by the specific information acquired by the specific information acquisition unit) It functions to superimpose and display the actual image on the display unit.
  • the control circuit 40 in FIG. 2 corresponds to an example of an address information acquisition unit, functions to acquire address information from the data recording area of the information code 700, and further corresponds to an example of a request unit. It functions to request an augmented reality image from the transmission destination specified by the address information acquired by the acquisition unit.
  • the control circuit 40 corresponding to the display control unit performs the above-described specific information on the actual image captured by the light receiving sensor 23 (imaging unit) when the image of the augmented reality marker 712 is detected by the marker detection unit. It functions to superimpose and display the augmented reality image to be displayed specified in (1) on the display unit.
  • the information code 700 in which a reference graphic having a predetermined shape is provided in the image area is read, and the information code 700 is used not only as a data medium but also as a reference medium for image processing. Be available. If a part of the code area is used as an AR marker used in augmented reality technology as in this configuration, the information code 700 can be applied as an element of augmented reality technology.
  • the augmented reality marker 712 can be detected by narrowing down within the specified code area after detecting the information code 700, it becomes easier to detect the augmented reality marker 712 more reliably.
  • position data indicating the position of the information input area (for example, image area position information shown in FIG. 3) is included in the information code 100.
  • the information code generation device 2 may be configured to generate the information code so that the image area is arranged at a predetermined position in the empty area.
  • information for specifying a predetermined position (information such as image region position information shown in FIG. 3) may be stored in the storage unit 5.
  • the information code reader 10 stores the specific information (information such as the image area position information shown in FIG. 3) for specifying the predetermined position in the memory 35 as in the information code generator 2. Good. Then, the information code reader 10 may read the specific information from the memory 35 and specify the information input area in S45 of FIG. 9 and then perform the subsequent processing. In this case, the image area position information shown in FIG. 3 may not be included in the header data.
  • the present invention can also be configured as a display device capable of displaying any one, plural or all of the information codes described above. Moreover, it can also be configured as a printing apparatus capable of printing any one, plural or all of the information codes described above. Furthermore, it can also be configured as a computer-readable program for generating any one, plural or all of the information codes described above. Moreover, it can also be comprised as a recording medium which recorded the program for producing
  • an information code medium a printed material, a formed material formed by direct marking, etc.
  • the information code generation device 2 and the information code reading device 10 are configured as separate devices, but the information code generation device 2 may be configured as the information code reading device 10. Good. Further, the information code generation device 2 may be configured by a plurality of devices, and the information code reading device 10 may be configured by a plurality of devices.
  • the empty area 110 is provided in the center of the code area, but the arrangement of the empty area 110 is not limited to this example.
  • the position of the image area 121 is not limited to the above example.
  • an empty area may be provided near the periphery of the code area, and the image area 121 may be provided at this position.
  • the design of the image area various other designs can be adopted as long as the configuration includes a figure, a pattern, a color, or a combination thereof.
  • the contents of the information are various.
  • the QR code is taken as an example of the other type code and the specific pattern of the QR code is taken as an example of the specific pattern used in the information code 100.
  • other types of two-dimensional codes may be used.
  • a data matrix code may be used as the other type code, and a specific pattern used in the information code 100 may be used as the specific pattern of the data matrix code.
  • the correspondence in the arrangement conversion table set as shown in FIG. 5 can be arbitrarily changed as shown in FIG.
  • the 22nd to 23rd codes in the generated information code 100 The arrangement of words is from the arrangement shown in the right figure of FIG. 5 (the arrangement recorded in the arrangement candidate positions 22 to 23) to the arrangement shown in the right figure of FIG. 7 (the arrangement to be recorded in the arrangement position positions 42 to 43).
  • the position and shape of the empty area 110 also change.
  • the arrangement candidate positions Nos. 22 to 23 may be empty areas or arrangement positions of other code words. That is, in this configuration, the position and shape of the empty area 110 can be adjusted by adjusting the arrangement conversion table, and the degree of freedom in configuring the empty area can be further increased.
  • an example in which the empty area 110 is provided and the image area is provided in the empty area 110 has been described, but the present invention is not limited to such an example.
  • an image as described above is provided by overwriting or the like in a cell arrangement area of a general two-dimensional code (for example, QR code) capable of error correction, and error correction is performed on data in the area crushed by such an image area. You may make it restore by.
  • a general two-dimensional code for example, QR code
  • the image processing may be performed by extracting the image of the image area specified in S46 of FIG. 9 as a monochrome information image in cell units. That is, after dividing the information code 100 as shown in the right figure of FIG. 1 and FIG.
  • each cell area of the image area specified in S46 is displayed as a light / dark information image (for example, image
  • Each cell region of the region may be extracted as a white or black image), and image processing may be performed by a method different from the data decoding processing for the data recording region.
  • the brightness determination of each cell area in the image area specified in S46 (each cell area in the image area when the code area is divided into a plurality of rows and a plurality of columns as shown in FIG. 5) is recorded as data.
  • the black and white information image of the image area is processed in the same manner as the area, and all the cell areas determined to be light colors are all bright colors (for example, white) and all the cell areas determined to be dark colors are all to be dark colors (for example, black). May be generated and image processing may be performed on such a monochrome information image. Such image processing can be used in any of the embodiments. Further, the present invention is not limited to such an image processing method, and image processing may be performed by extracting the entire specified image area as a binarized image or a grayscale image.
  • the “code area” may be a minimum square area or rectangular area that includes all of the plurality of types of cells constituting the information code, and the inner edge of the code area.
  • the cell may not be arranged in a part of the part.
  • the empty area 810 may be formed adjacent to the periphery of the code area.
  • the smallest square area or rectangular area including all of the plurality of types of cells constituting the information code 800 is as indicated by a one-dot chain line AR
  • the outer edge of the empty area 810 is as indicated by a two-dot chain line AR2, for example.
  • a light cell such as a white cell and a dark cell such as a black cell are exemplified as a plurality of types of cells constituting the code region.
  • the specific pattern region, data recording region, and error correction in the code region are exemplified.
  • the code recording area may be configured as a first type cell having a predetermined density, luminance, and color, and a second type cell that is different in density, luminance, or color from the first type cell.
  • the specific pattern area, the data recording area, and the error correction code recording area in the code area may be configured by three or more types of cells each having different density, luminance, or color.
  • each cell is a square other than a square. It may be a polygon other than a rectangle, or a figure such as a circle or an ellipse.
  • the position detection pattern 104, the timing pattern 106, the alignment pattern 108, and the like are illustrated as examples of the specific pattern.
  • the area is configured as a fixed pattern regardless of the contents of the data recording area and the error correction code recording area. If so, the figure constituting the specific pattern may be another unique figure.
  • an empty area is an area where data to be decoded is not recorded by a cell, and information display or image display is performed by a method different from the method of recording data in the data recording area. Any area may be used as long as it is displayed.
  • a vacant area may be configured as an area where no code word is arranged.
  • an error correction code word that represents an error correction code or data to be decoded is used.
  • An area where a data code word to be expressed is not arranged and a padding code word is arranged may be a free area.
  • any free area “information display by a method different from the method of recording data in the data recording area by cell” can be performed, and this information display is exemplified in the above embodiment.
  • other information such as letters, numbers, and other symbols may be used, or a method of displaying information that represents a specific product or service by a trademark or the like may be used.
  • image display by a method different from the method of recording data in the data recording area by cell can be performed.
  • Various shapes, patterns, colors, combinations thereof, and the like can be represented.
  • the information code 900 in FIG. 59 may be configured.
  • the same empty area as that of the first embodiment is provided, but only the specification of the empty area is different from that of the first embodiment.
  • the specific contents of the areas other than some of the specific patterns are omitted, and in fact, light-color cells and dark-color cells are arranged in an external area outside the empty area 910. Become.
  • the free space 910 for example, an image similar to the free space 110 of the first embodiment or an image similar to the free space of other embodiments is displayed.
  • a plurality of model numbers are prepared for the type of information code 900. For each model number, the number of rows and columns of cells, the shape and position of a specific pattern, the position of format information, and the candidate position (address) of a code word Is predetermined.
  • the model number information is arranged at a predetermined position in the code area (the reserved area 107 in the example of FIG. 59).
  • the reading device 10 reads the information code 900
  • the code image of the information code 900 is analyzed, and the model number information arranged at a predetermined position is read, so that the number of rows and columns of cells of the information code 900, The shape and position of the specific pattern, the position of the format information, and the candidate position (address) of the code word can be grasped.
  • the basic configuration (the position of the specific pattern 104, the number of rows and columns of cells, the candidate position of the code word) in the code area is determined.
  • the model number of the configuration shown in FIG. 59 has a cell array of 29 rows and 29 columns, and has a specific pattern 104 having the same structure as a QR code (registered trademark) cut-out symbol at three predetermined corners. Is arranged.
  • An area (predetermined position 105) for recording format information is provided at a predetermined position near the specific pattern 104.
  • codeword candidate positions are determined in advance at positions other than the specific pattern 104 and the predetermined position 105, and addresses from 0 to 67 are assigned to the respective candidate positions. .
  • the information of the determined model number is recorded at a predetermined fixed position in the model number array. For example, in the example of FIG. 59, model number information is recorded in an area 107 specified by a predetermined type of hatching.
  • the method for determining the shape of the vacant area may be determined by, for example, a method of selecting from a plurality of candidate shapes prepared in advance, or shape designation information input from the outside to the information code generation device 2 You may decide by the method of setting to the shape according to. Or you may determine only to the fixed shape decided. Further, the position of the empty area may be determined as a predetermined fixed position, or may be determined by inputting information for designating the position by the user.
  • the information code 900 is configured such that the code word of the data recording area and the code word of the error correction code recording area are respectively arranged at the candidate position of the code word deviating from the determined vacant area position. Is generated. For example, in the model number configured as shown in FIG. 59, specific patterns 104 are arranged at three corners, and 68 codeword candidates numbered from 0 to 67 on the basis of the positions of the specific patterns 104 are used. The position is defined in advance. In such a layout, when the empty area 910 is determined as shown in FIG.
  • the candidate position of the code word that at least partially enters the empty area 910 is excluded from the arrangement target position, and the position of the excluded code word
  • the code words are arranged in order as if skipping. For example, in the example of FIG. 59, since the empty area 910 is set so as to enter the candidate positions of the code words 50, 51, 53, 54, and 60 to 67, these 50, 51, 53, Code words are not arranged at the candidate positions of the 54th and 60th to 67th codewords. That is, after the code words are sequentially arranged at the positions 0 to 49, the code words 50 and 51 are skipped and the code words are disposed at the position 52, and then the codes 53 and 54 are skipped and the codes 55 to 59 are skipped.
  • the code words are arranged in order at the positions. In this way, the data code word obtained by encoding the data to be decoded and the error correction code word representing the error correction code can be reliably arranged at the candidate position outside the empty area 910.
  • an information code 900 having the same function as in FIG. 1 can be configured by representing an image similar to the empty area 110 in the empty area 910. Note that the method of using the information code 900 is the same as in the first embodiment and other embodiments.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Toxicology (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Credit Cards Or The Like (AREA)

Abstract

 2次元の情報コード(100)、この情報コードを生成する装置(2)及び読み取る装置(10)、並びに、その情報コードを利用するシステム(1)が提供される。この情報コードには、位置検出パターン(104)を含む特定パターン領域と、データ記録領域と、誤り訂正符号記録領域とが設けられ、更に、セルの画像とは異なる画像を形成した画像領域(121)が設けられている。情報コード読取装置(10)には、情報コード(100)の撮像画像(コード画像)における画像領域の画像に対し、データ記録領域読取部(40)によるデータの解読処理とは異なる方法で画像認識処理を行う画像処理部(40)が設けられている。

Description

情報コード、情報コード生成方法、情報コード読取装置、及び情報コード利用システム
 本発明は、2次元コード等の情報コード、その情報コードを生成する情報コード生成方法、その情報コードを読み取る情報コード読取装置、及び、その情報コードを利用する情報コード利用システムに関する。
 現在では、情報コードの用途が多様化しており、コード領域内に写真や図などを配置するような技術も提案されている。例えば、特許文献1の技術では、2次元コードにおいて単一の値として読み取られる領域を形成するビット列を逆変換した逆変換ビット列を求め、逆変換ビット列を2次元コードのフォーマット情報に基づいて変換して2次元コードを生成することにより、単一の階調値から構成されたデザイン領域を有する特殊2次元コードを生成している。
特許第5057560号公報
 上記特許文献1の技術では、例えば、デザイン領域が白のモジュールにより構成されている特殊2次元コードの場合には、白として読み取られる範囲の階調値から構成されたデザインがデザイン領域に形成されるように特殊2次元コードと所与のデザインデータとを合成している。一方、デザイン領域が例えば黒のモジュールにより構成されている特殊2次元コードの場合には、黒として読み取られる範囲の階調値から構成されたデザインがデザイン領域に形成されるように特殊2次元コードと所与のデザインデータとを合成している。
 しかしながら、従来から用いられているデザイン領域を含む情報コードは、セル配列等によって表現されるデータのみが解析及び読み取りの対象であり、デザイン領域の絵柄等は専ら利用者に見せるために使われていた。即ち、情報コード内に付されたデザイン等を読取装置側で解析して利用する思想は存在せず、読み取りの際にデザイン領域を利用して利便性を高めることはできなかった。
 さらに、本発明は、上述した課題を解決するためになされたものであり、情報コード内に付されたセル以外の像を利用することが可能な情報コード、情報コード生成方法、情報コード読取装置、及び情報コード利用システムを提供することを目的とする。
 上記目的を達成するために、本発明に係る第1の態様は、媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを情報コード生成装置によって生成する情報コード生成方法を提供する。この生成方法は、前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域とを設け、更に、情報コード読取装置によって所定の画像認識処理を行う対象となる画像領域が前記コード領域内に表されるように構成することを特徴とする。
 また、本発明に係る第2に態様は、媒体の所定のコード領域の内部に情報を表示する単位となるセルが配列されてなる情報コードを提供する。この情報コードは、前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、が設けられ、更に、情報コード読取装置によって所定の画像認識処理を行う対象となる画像領域が前記コード領域内に表されるように構成されていることを特徴とする。
 本発明に係る第3の態様は、媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを読み取る情報コード読取装置を提供する。この読取装置は、前記情報コードは、前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、が設けられ、前記セルの画像とは異なる画像を示す画像領域が前記コード領域内に表される構成であり、
 前記情報コードを撮像可能な撮像部と、
 前記撮像部によって前記情報コードが撮像された場合に、その撮像された前記情報コードのコード画像における前記データ記録領域の内容に基づいて前記データ記録領域に記録された前記データを読み取るデータ記録領域読取部と、
 前記コード画像における前記画像領域の画像に対し、前記データ記録領域読取部による前記データの解読処理とは異なる方法で画像認識処理を行う画像処理部と、を有することを特徴とする。
 さらに本発明に係る第4の態様は、媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを生成する情報コード生成装置と、
 前記情報コード生成装置によって生成された前記情報コードを読み取る情報コード読取装置と、を備えた情報コード利用システムを提供する。このシステムは、前記情報コード生成装置は、
 前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、を設け、前記セルの画像とは異なる画像を示す画像領域が前記コード領域内に表されるように構成し、
 前記情報コード読取装置は、
 前記情報コード生成装置によって生成された前記情報コードを撮像可能な撮像部と、
 前記撮像部によって前記情報コードが撮像された場合に、その撮像された前記情報コードのコード画像における前記データ記録領域の内容に基づいて前記データ記録領域に記録された前記データを読み取るデータ記録領域読取部と、
 前記コード画像における前記画像領域の画像に対し、前記データ記録領域読取部による前記データの解読処理とは異なる方法で画像認識処理を行う画像処理部と、
を有することを特徴とする。
 さらに、前述した目的を達成するため、本発明では更に第5及び第6の態様が提供される。
 このうち、第5の態様は、媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを読み取る情報コード読取装置に関する。この読取装置は、前記情報コードは、前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、が設けられ、前記セルとは異なる画像を示す画像領域が前記コード領域内に表される構成であり、
 前記情報コードを撮像可能な撮像部と、
 前記撮像部によって前記情報コードが撮像された場合に、前記データ記録領域に記録されたデータを読み取るデータ記録領域読取部と、
 前記撮像部によって撮像された前記情報コードのコード画像において前記画像領域の画像に対し、前記データ記録領域読取部による前記データの解読処理とは異なる方法で所定の画像処理を行う画像処理部と、を備え、
 前記データ記録領域には、前記画像処理部が前記画像処理を行う際に利用する利用データが記録されており、
 前記画像処理部は、前記データ記録領域読取部によって読み取られた前記利用データを用い、前記画像領域の画像に対して前記画像処理を行うことを特徴とする。
 また、第6の態様は、媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを生成する情報コード生成装置と、
 前記情報コード生成装置によって生成された前記情報コードを読み取る情報コード読取装置と、を備えた情報コード利用システムに関する。このシステムでは、前記情報コード生成装置は、
 前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、を設け、前記セルとは異なる画像を示す画像領域が前記コード領域内に表されるように構成し、
 前記情報コード読取装置は、
 前記情報コードを撮像可能な撮像部と、
 前記撮像部によって前記情報コードが撮像された場合に、前記データ記録領域に記録されたデータを読み取るデータ記録領域読取部と、
 前記撮像部によって撮像された前記情報コードのコード画像において前記画像領域の画像に対し、前記データ記録領域読取部による前記データの解読処理とは異なる方法で所定の画像処理を行う画像処理部と、を有し、
 前記情報コード生成装置は、前記画像処理部が前記画像処理を行う際に利用する利用データを前記データ記録領域に記録し、
 前記情報コード読取装置の前記画像処理部は、前記データ記録領域読取部によって読み取られた前記利用データを用い、前記画像領域の画像に対して前記画像処理を行うことを特徴とする。
 本発明の第1の態様によれば、データ記録領域内に記録された情報だけでなく、コード領域内に表される画像領域の画像をも認識対象として取得することができ、且つ画像領域の画像を、データ記録領域の解読以外の用途で利用することが可能な情報コードを生成することができる。
 本発明の第2の態様によれば、データ記録領域内に記録された情報だけでなく、コード領域内に表される画像領域の画像をも認識対象として取得することができ、且つ画像領域の画像を、データ記録領域の解読以外の用途で利用することが可能な情報コードを実現することができる。
 本発明の第3の態様によれば、データ記録領域において各セルによって記録された情報だけでなく、画像領域に形成された画像をも認識対象として取得することができ、画像領域の画像を、データ記録領域の解読以外の用途で利用することが可能となる。
 本発明の第4の態様によれば、予め定められた所定撮像方法で撮像したときに所定表示が表れ、所定撮像方法とは異なる方法で撮像したときに所定表示が表れないような特殊な表示部を有する情報コードを読取対象とし、情報コードからデータを読み取ると共に、特殊表示部の所定表示を認識できるようになる。そして、このように特殊表示部の所定表示を認識可能な構成とすれば、所定表示の認識可否に基づいて認証を行うことが可能となる。
 一方、第5の態様によれば、情報コード読取装置は、データ記録領域において各セルによって記録された情報だけでなく、コード領域内に表される画像領域の画像(セルとは異なる画像)をも認識対象とすることができ、情報コード内に付されたセル以外の画像を、読取装置によりデータ記録領域の解読以外の用途で利用することが可能となる。
 更に、読取対象となる情報コードは、画像処理を行う際に利用する利用データがデータ記録領域に記録された構成となっており、読取装置は、データ記録領域読取部によって読み取られた利用データを用いて画像領域の画像を処理する構成となっているため、単に画像領域の画像を認識するだけでなく、データ記録領域に記録されたデータと関連付けた処理が可能となる。よって、画像領域の画像を利用する上での自由度が増し、画像領域の画像の用途を格段に高めることができる。
 なお、第5の態様の一例として、読取対象となる情報コードのデータ記録領域に、利用データとして、画像領域の画像の少なくとも一部又は画像領域の画像を解析して得られる解析データと比較するための比較データが記録することができる。そして、読取装置の画像処理部は、データ記録領域読取部によって読み取られた比較データに基づき、画像領域の画像が所定の正規画像に該当するか否かの判断処理を行うことができる。
 この構成によれば、一度の撮像により利用対象となる画像とその比較を行うための比較データとを同時期に取得できるため、互いに関連付けるべき画像(画像領域の画像)とデータ(比較データ)を正確に取得可能となり、作業時間や処理時間の短縮化も図り易くなる。
 なお、従来技術として、特許文献2には、物品に貼付された二次元コードを読み取った後、認証対象者の掌を読み取り、二次元コードに記録されるデータと掌紋の特徴点のデータとを照合する構成が開示されている。しかしながら、このように二次元コードと認証対象(認証対象者の掌)とが別々であることを前提とした構成では、例えば、二次元コードを読み取った後、何らかの事情(他人に声をかけられたり、或いは周囲で優先すべき事態が発生するなどの事情)によって認証対象(認証対象者の掌)の読み取りを忘れたり、中止したりするケースが生じやすくなる。このような事態が生じると、折角二次元コードを
読み取っているのに、認証自体が中止されてしまったり、或いは、意図しな別の対象物が読み取られることで認証が失敗してしまったりする。また、特許文献2のように、二次元コードと認証対象(認証対象者の掌)とが完全に別々の構成では、読取対象となる媒体全体のスペースが大きくなり、媒体の大型化を招いてしまうことになる。
 これに対し、第5の態様によれば、画像領域の画像と、この画像と紐付けて利用すべき比較データとを同一の情報コードに表すことができ、これらを同時期に撮像し、利用することができるため、特許文献2で生じる問題をより確実に抑えることができ、読取対象となる媒体のサイズも小型化しやすくなる。
 また、第6の態様によれば、情報コード読取装置が情報コードを読み取る際に、データ記録領域において各セルによって記録された情報だけでなく、コード領域内に表される画像領域の画像(セルとは異なる画像)をも認識対象とすることができ、情報コード内に付されたセル以外の画像を、データ記録領域の解読以外の用途で利用することが可能となる。
 更に、情報コードを生成する際には、画像処理を行う際に利用する利用データをデータ記録領域に記録する構成で情報コードを生成しており、読取装置は、データ記録領域読取部によって読み取られた利用データを用いて画像領域の画像を処理する構成となっているため、単に画像領域の画像を認識するだけでなく、データ記録領域に記録されたデータと関連付けた処理が可能となる。よって、画像領域の画像を利用する上での自由度が増し、画像領域の画像の用途を格段に高めることができる。
 添付図面において:
図1は、本発明の第1実施形態に係る情報コード利用システムを概略的に例示する概略図である。 図2は、図1の情報コード利用システムを構成する情報コード読取装置の電気的構成を概略的に例示するブロック図である。 図3は、図1の情報コード利用システムで用いられる情報コードのデータ構成を概念的に説明する説明図である。 図4は、図1の情報コード利用システムで用いられる情報コードと対応する他種のコードを説明する説明図である。 図5は、図1の情報コード利用システムを構成する情報コード生成装置で生成される情報コードでの各データワードの配置と、他種のコードでの各データワードの配置との対応関係を説明する説明図である。 図6は、図1の情報コード利用システムで用いられる情報コードのフォーマットデータを概念的に説明する説明図である。 図7は、図1の情報コード利用システムを構成する情報コード生成装置で生成される情報コードでの各データワードの配置と、他種のコードでの各データワードの配置との対応関係を説明する説明図であり、図5とは異なる対応関係に変更した図である。 図8は、図1の情報コード利用システムを構成する情報コード生成装置での情報コードの生成の流れを例示するフローチャートである。 図9は、図1の情報コード利用システムを構成する情報コード読取装置での情報コードの読み取りの流れを例示するフローチャートである。 図10(A)は、図1の情報コード利用システムで用いられる情報コードにおいて、空き領域に画像が形成されていない状態を示す説明図であり、図10(B)は、その情報コードの空き領域に画像が形成された状態を示す説明図であり、空き領域の外側のセル構成を省略して示す図である。 図11(A)は、図1の情報コード利用システムにおけるサイン画像の登録について説明する説明図であり、図11(B)は、認証対象となる情報コードを説明する説明図であり、図11(C)は、登録されたサイン画像と認証対象の画像との照合を説明する説明図である。 図12(A)は、元の画像の画像例を示す説明図であり、図12(B)は、傾き等によって変形した画像の画像例を示す説明図である。 図13は、第2実施形態の情報コード利用システムを構成する情報コード読取装置での情報コードの読み取りの流れを例示するフローチャートである。 図14は、フォログラム画像が形成された情報コードを説明する説明図である。 図15は、指紋画像が形成された情報コードを説明する説明図である。 図16は、第5実施形態に係る情報コード利用システムで用いられる情報コードを説明する説明図であり、図16(A)は、空き領域を空白にした状態を示す図であり、図16(B)は、空き領域に画像領域を設けた状態を示す図である。 図17は、第6実施形態に係る情報コード利用システムで用いられる情報コードを説明する説明図であり、図17(A)は、空き領域を空白にした状態を示す図であり、図17(B)は、空き領域にデザインを付した状態を示す図である。 図18(A)は、図16の情報コードにおける解読対象データのデータ構成を概念的に示す説明図であり、図18(B)は、図17の情報コードにおける解読対象データのデータ構成を概念的に示す説明図である。 図19は、第7実施形態に係る情報コード利用システムで用いられる情報コードを説明する説明図であり、図19(A)は、形成対象媒体を表面側から見た平面図であり、図19(B)は、その形成対象媒体を縦方向中心位置で横方向に切断した断面を概略的に示す断面概略図である。 図20は、情報コードが形成された形成対象媒体と、これを被せる被写体とを説明する説明図である。 図21(A)は、情報コードが形成された形成対象媒体を被写体に被せた状態を示す説明図であり、図21(B)は、図21(A)のように被写体に被せられた形成対象媒体等を読取装置によって撮像する様子を説明する説明図である。 図22(A)は、図21(A)のような撮像対象を撮像した撮像画像から、コード領域内を切り出した画像を例示する説明図であり、図22(B)は、画像領域の画像を送信先の外部装置で表示した様子を説明する説明図である。 図23は、第7実施形態の変形例1に関し、形成対象媒体と共に窓部を介して視認される被写体(背景)を撮像する様子を説明する説明図である。 図24(A)は、図23のような撮像によって得られた撮像画像からコード領域内を切り出した画像を例示する説明図であり、図24(B)は、画像領域の画像を送信先の外部装置で表示した様子を説明する説明図である。 図25(A)は、第7実施形態の変形例2に関し、情報コードが形成された形成対象媒体と、これを被せる被写体(計測機器)とを説明する説明図であり、図25(B)は、形成対象媒体をその被写体に被せた状態を示す説明図である。 図26(A)は、図25(B)のように被写体に被せられた形成対象媒体等を読取装置によって撮像する様子を説明する説明図であり、図26(B)は、図26(A)のような撮像によって得られた撮像画像からコード領域内を切り出した画像を外部装置に送信し、その送信先の外部装置で表示した様子を説明する説明図である。 図27(A)は、第7実施形態の変形例3に関し、情報コードが形成された形成対象媒体と、これを被せる被写体(印刷物)とを説明する説明図であり、図27(B)は、形成対象媒体をその被写体に被せた状態を示す説明図である。 図28(A)は、図27(B)のように被写体に被せられた形成対象媒体等を読取装置によって撮像する様子を説明する説明図であり、図28(B)は、図28(A)のような撮像によって得られた撮像画像からコード領域内を切り出した画像を外部装置に送信し、その送信先の外部装置で表示した様子を説明する説明図である。 図29(A)は、第7実施形態の変形例4に関し、情報コードが形成された形成対象媒体と、これを被せる被写体(観察対象物)とを説明する説明図であり、図29(B)は、形成対象媒体をその被写体に被せた状態を示す説明図である。 図30(A)は、図29(B)のように被写体に被せられた形成対象媒体等を読取装置によって撮像する様子を説明する説明図であり、図30(B)は、図30(A)のような撮像によって得られた撮像画像からコード領域内を切り出した画像を外部装置に送信し、その送信先の外部装置で表示した様子を説明する説明図である。 図31(A)は、第7実施形態の変形例5に関し、被写体の候補となる複数の色見本を例示する説明図であり、図31(B)は、形成対象媒体をいずれかの色見本に被せた状態を示す説明図である。 図32(A)は、図31(B)のように被写体に被せられた形成対象媒体等を読取装置によって撮像する様子を説明する説明図であり、図32(B)は、図32(A)のような撮像によって得られた撮像画像からコード領域内を切り出した画像を外部装置に送信し、その送信先の外部装置で表示した様子を説明する説明図である。 図33(A)は、第8実施形態に係る情報コード利用システムで用いられる情報コードを説明する説明図であり、図33(B)は、その情報コードが付された形成対象媒体を読取装置によって撮像する様子を説明する説明図である。 図34(A)は、図33(B)のような撮像によって得られた撮像画像からコード領域内を切り出した画像を外部装置に送信し、その送信先の外部装置で表示した様子を説明する説明図であり、図34(B)は、このように送信されるデータを外部装置に蓄積したデータ構成を概念的に説明する説明図である。 図35は、第9実施形態に係る情報コード利用システムで実施される読取処理の流れを例示するフローチャートである。 図36は、第9実施形態での比較データの生成方法を概念的に説明する説明図である。 図37は、第9実施形態で用いられる比較データを概念的に説明する説明図である。 図38(A)は、第9実施形態に係る情報コード利用システムの生成装置で生成される情報コードを例示する説明図であり、図38(B)はその情報コードに指紋が付された状態を示す説明図である。 図39は、第9実施形態の変形例1での比較データの生成方法を概念的に説明する説明図である。 図40(A)は、第9実施形態の変形例1に係る情報コード利用システムの生成装置で生成される情報コードを例示する説明図であり、図40(B)はその情報コードにサインが書かれた状態示す説明図である。 図41は、第9実施形態の変形例2での比較データの生成方法を概念的に説明する説明図である。 図42(A)は、第9実施形態の変形例2に係る情報コード利用システムの生成装置で生成される情報コードを例示する説明図であり、図42(B)はその情報コードに印影が付された状態示す説明図である。 図43は、第10実施形態に係る情報コード利用システムで扱われる配送票の読み取りの様子を概念的に説明する説明図である。 図44(A)は、第10実施形態の変形例1に係る情報コード利用システムで扱われるレシートを概念的に説明する説明図であり、図44(B)は、そのレシートのサインが書かれた状態を示す説明図である。 図45は、第10実施形態の変形例2に係る情報コード利用システムでの印鑑の登録の様子を概念的に説明する説明図である。 図46は、第10実施形態の変形例2に係る情報コード利用システムでの印鑑の認証の様子を概念的に説明する説明図である。 図47は、第10実施形態の変形例3に係る情報コード利用システムでの指紋の登録の様子を概念的に説明する説明図である。 図48は、第10実施形態の変形例3に係る情報コード利用システムでの指紋の照合の様子を概念的に説明する説明図である。 図49(A)は、第11実施形態に係る情報コード利用システムで用いられる情報コードを説明する説明図であり、図49(B)は、その情報コードのデータ記録領域に記録されるデータ例を説明する説明図である。 図50は、第11実施形態に係る情報コード利用システムの適用例を概念的に説明する説明図である。 図51は、第11実施形態に係る情報コード利用システムでの読み取りの様子を説明する説明図である。 図52は、第11実施形態の変形例1に係る情報コード利用システムでの読み取りの様子を説明する説明図である。 図53(A)は、第11実施形態の変形例2に係る情報コード利用システムで用いられる情報コードを説明する説明図であり、図53(B)は、図53(A)の情報コードを所定撮像方法で撮像したときに得られる画像を説明する説明図である。 図54は、第12実施形態に係る情報コード利用システムで用いられる情報コードを説明する説明図である。 図55は、第12実施形態に係る情報コード利用システムの適用例を概念的に説明する説明図である。 図56は、図55の適用例でのAR表示を概念的に説明する説明図である。 図57は、他の実施形態に係る情報コード利用システムで用いられる情報コードを説明する説明図である。 図58は、他の実施形態に係る情報コード利用システムで用いられる情報コードの別例を説明する説明図である。 図59は、他の実施形態に係る情報コード利用システムで用いられる情報コードの別例2を説明する説明図である。
 以下、本発明の様々な態様に係る実施形態を添付図面を参照して説明する。
 [第1実施形態]
 以下、本発明を具現化した第1実施形態について、図面を参照して説明する。
 図1に示す情報コード利用システム1は、所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コード100を生成する情報コード生成装置2と、情報コード生成装置2によって生成された情報コード100を読み取る情報コード読取装置10とを備えた構成をなしている。
 (情報コード生成装置)
 情報コード生成装置2は、例えばパーソナルコンピュータ等の情報処理装置として構成されており、CPUなどからなる制御部3と、キーボード、マウス、その他の入力装置からなる操作部4と、ROM、RAM、HDD、不揮発性メモリ等の記憶装置からなる記憶部5と、公知の表示装置(液晶ディスプレイやその他の表示デバイス)などからなる表示部6と、外部装置と有線通信或いは無線通信を行うための通信インタフェースとして機能する通信部7と、公知のプリンタ等と同様のハードウェア構成をなし且つ制御部3からの印刷データに基づいて情報コード100等を印刷可能な印刷部8(印刷装置)とを備えている。
 (情報コード読取装置)
 次に、情報コード読取装置10の全体構成について説明する。図2に示すように、情報コード読取装置10は、ハードウェア的には二次元コードを読取可能なコードリーダとして構成されており、図示しないケース(筐体)によって外郭が構成され、このケース内に各種電子部品が収容された構成をなしている。
 この情報コード読取装置10は、主に、照明光源21、受光センサ23、フィルタ25、結像レンズ27等の光学系と、メモリ35、制御回路40、操作スイッチ42、液晶表示器46等のマイクロコンピュータ(以下「マイコン」という)系と、電源スイッチ41、電池49等の電源系と、から構成されている。なお、これらは、図略のプリント配線板に実装あるいはケース(図示略)内に内装される構成で、ケース(筐体)に一体的に組み付けられている。
 光学系は、照明光源21、受光センサ23、フィルタ25、結像レンズ27等から構成されている。照明光源21は、照明光Lfを発光可能な照明光源として機能するもので、例えば、赤色のLEDとこのLEDの出射側に設けられる拡散レンズ、集光レンズ等とから構成されている。本実施形態では、受光センサ23を挟んだ両側に照明光源21が設けられており、ケースに形成された読取口(図示略)を介して読取対象物R(即ち、情報コードを担持する媒体又は情報コードを形成するための対象としての媒体)に向けて照明光Lfを照射可能に構成されている。この読取対象物R(情報コードを担持する媒体または情報コードを配置する媒体)としては、例えば、樹脂材料、金属材料等の様々な対象が考えられ、このような読取対象物Rに例えば図1のような情報コード100(後述)が印刷などによって形成されている。
 受光センサ23は、情報コード100(後述)を撮像可能な「撮像部」の一例に相当し、読取対象物Rや情報コード100に照射されて反射した反射光Lrを受光可能に構成されるもので、例えば、C-MOSやCCD等の固体撮像素子である受光素子を2次元に配列したエリアセンサが、これに相当する。この受光センサ23は、結像レンズ27を介して入射する入射光を受光面23aで受光可能に図略のプリント配線板に実装されている。
 フィルタ25は、例えば反射光Lrの波長相当以下の光の通過を許容し、当該波長相当を超える光の通過を遮断し得る光学的なローパスフィルタで、ケースに形成された読取口(図示略)と結像レンズ27との間に設けられている。これにより、反射光Lrの波長相当を超える不要な光が受光センサ23に入射することを抑制している。また、結像レンズ27は、例えば、鏡筒とこの鏡筒内に収容される複数の集光レンズとによって構成されており、本実施形態では、ケースに形成された読取口(図示略)に入射する反射光Lrを集光し、受光センサ23の受光面23aに情報コード100のコード画像を結像するように構成されている。
 マイコン系は、増幅回路31、A/D変換回路33、メモリ35、アドレス発生回路36、同期信号発生回路38、制御回路40、操作スイッチ42、LED43、ブザー44、液晶表示器46、通信インタフェース48等から構成されている。このマイコン系は、マイコン(情報処理装置)として機能し得る制御回路40及びメモリ35を中心として構成され、前述した光学系によって撮像された情報コード100の画像信号をハードウェア的およびソフトウェア的に信号処理し得るものである。
 光学系の受光センサ23から出力される画像信号(アナログ信号)は、増幅回路31に入力されることで所定ゲインで増幅された後、A/D変換回路33に入力され、アナログ信号からディジタル信号に変換される。そして、ディジタル化された画像信号、つまり画像データ(画像情報)は、メモリ35に入力され、当該メモリ35の画像データ蓄積領域に蓄積される。なお、同期信号発生回路38は、受光センサ23およびアドレス発生回路36に対する同期信号を発生可能に構成されており、またアドレス発生回路36は、この同期信号発生回路38から供給される同期信号に基づいて、メモリ35に格納される画像データの格納アドレスを発生可能に構成されている。
 メモリ35は、半導体メモリ装置などによって構成され、例えばRAM(DRAM、SRAM等)やROM(EPROM、EEPROM等)等がこれに相当する。このメモリ35のうちのRAMには、前述した画像データ蓄積領域のほかに、制御回路40が算術演算や論理演算等の各処理時に利用する作業領域や読取条件テーブルも確保可能に構成されている。またROMには、後述する読取処理等を実行可能な所定プログラムやその他、照明光源21、受光センサ23等の各ハードウェアを制御可能なシステムプログラム等が予め格納されている。
 制御回路40は、情報コード読取装置10全体を制御可能なマイコンで、CPU、システムバス、入出力インタフェース等からなるものであり、情報処理機能を有している。この制御回路40には、内蔵された入出力インタフェースを介して種々の入出力装置(周辺装置)が接続されており、本実施形態の場合、電源スイッチ41、操作スイッチ42、LED43、ブザー44、液晶表示器46、通信インタフェース48等が接続されている。また、通信インタフェース48には、情報コード読取装置10の上位システムに相当するホストコンピュータHSTなどを接続できるようになっている。
 電源系は、電源スイッチ41、電池49等により構成されており、制御回路40により管理される電源スイッチ41のオンオフによって、上述した各装置や各回路に、電池49から供給される駆動電圧の導通や遮断が制御されている。なお、電池49は、所定の直流電圧を発生可能な2次電池で、例えば、リチウムイオン電池等がこれに相当する。
 (情報コード)
 次に、図1の情報コード利用システムで利用される2次元の情報コード100について図1、図5等を参照して説明する。なお、図1の例と図5右図の例では、セル配列や特定パターンのサイズ等が若干異なるが基本的な考えは同様であり、同様の特徴を有している。図1、図5等に示す情報コード100は、例えば上述の情報コード生成装置2によって生成されるものであり、所定のコード領域の内部に情報を表示する単位となるセル102を配列した構成となっている。なお、図1、図5等の情報コード100において、「コード領域」は、複数配列された暗色セルを全て含み得る矩形状の領域REGであり、情報コード100を構成するセルを全て含む最小の正方形領域又は長方形領域となっている。具体的には、3つの位置検出パターン(切り出しシンボル)104を全て含む最小の正方形領域又は長方形領域となっている。
 つまり、複数のセル102を所定の規則に沿って配置することで、それらのセルの外側の輪郭の連なりによって読取対象物R(情報コードを担持する媒体または情報コードをっ配置する媒体)の上面又は内部において背景から描出される正方形、長方形等の領域をコード領域REGと呼ぶ。
 なお、図1、図5等の例では、複数のセル102が、矩形状(例えば外径が正方形状)の明色(例えば白色)セル及び暗色(例えば黒色)セルのいずれかによって構成されており、コード領域REGの内部において後述する空き領域(又はキャンバス領域)110の周囲にこれらセル102がマトリックス状に配置されている。明色セル及び暗色セルは、それぞれ白色セル、黒色セルに限られるものではなく、暗色セルが所定の明度で構成される場合、明色セルはそれよりも明度が高ければよい。また、情報コード100において上記コード領域REGの周囲には、当該コード領域を取り囲むように明色又は暗色のマージン領域が構成されるようになっており、図1、図5等の例では、明色(例えば、白色或いは暗色セルよりも明度の大きい他色)のマージン領域がコード領域の周囲に隣接して配置されている。
 この明色、暗色の定義については、例えば、“International standard ISO/IEC18004,second edition 2006‐09‐01,page109,Annex M,“M1 Symbol contrast”“等で説明されている。
 この情報コード100は、矩形状(例えば、正方形状或いは長方形状等)のコード領域の内部に、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類のセル102によってデータを記録するデータ記録領域と、複数種類のセル102によって誤り訂正符号を記録する誤り訂正符号記録領域とが設けられている。図1、図5等のように、情報コード100の特定パターンは、例えば、QRコード(登録商標)の公知の所定型番(図5の例では、JIS等で規格化されたQRコードの所定型番)の特定パターンと同一の形状及び位置となっており、図1、図5等の例では、コード領域の3つの角部にそれぞれ、特定パターンとしての位置検出パターン(切り出しシンボル)104が配置されている。また、上記所定型番において予め定められた位置に、特定パターンとしてのタイミングパターン106やアライメントパターン108も設けられている。このように、情報コード100では、予め定められた位置に決まった形状の特定パターン(位置検出パターン104、タイミングパターン106、アライメントパターン108(図5では省略))が配置されるようになっている。なお、コード領域の内部において、後述する空き領域110以外の位置は、このような特定パターンの領域、記録領域(データ記録領域及び誤り訂正符号記録領域のいずれかからなる領域)などによって構成されている。
 情報コード100のセルの行数及び列数、特定パターンの形状及び位置、フォーマット情報の位置、コードワードの候補位置(コードワードの配置順序を特定するアドレス)等は読取装置がどのような方法で把握してもよい。例えば、情報コード100の種別において複数の型番が設けられていてもよく、この場合、型番毎にセルの行数及び列数、特定パターンの形状及び位置、フォーマット情報の位置、コードワードを配置する候補位置(アドレス)が予め定められていればよい。そして、上記型番を特定する型番情報がコード領域内の決められた位置(予約領域)に配置されていれば、読取装置はこの型番情報に基づいて情報コード100のセルの行数及び列数、特定パターンの形状及び位置、フォーマット情報の位置、コードワードの候補位置(アドレス)を把握できるようになる。なお、この方法に限定されるものではなく、読取装置が把握し得る方法であれば他の方法でもよい。
 そして、コード領域の内部において、特定パターン領域、データ記録領域、誤り訂正符号記録領域以外の位置には、セル102によってデータが記録されない領域であり且つ誤り訂正符号による誤り訂正の対象にならない領域である空き領域110が、単一のセル102のサイズよりも大きいサイズで設けられている。なお、図1、図5等の例では、データ記録領域、誤り訂正符号記録領域がコード領域REGの周縁に沿って環状且つ矩形状(つまり矩形のフレーム状)に配置されており、コード領域REGの中央部(コード領域の中心を含む所定領域)に空き領域110が構成されている。なお、「セル102によってデータが記録されない領域」とは、即ち、後述するデータコードワードや誤り訂正コードワードなどのコードワードが記録されない領域であり、且つフォーマット情報が記録されない領域であることを意味する。また、「誤り訂正符号による誤り訂正の対象にならない領域」とは、即ち、誤り訂正符号記録領域に記録された誤り訂正符号を用いた誤り訂正が行われない領域であることを意味する。従って、空き領域110に何らかの情報(後述する追加情報等)が記録されていても、空き領域110の周囲に存在する誤り訂正符号記録領域の誤り訂正符号によってその情報に対する誤り訂正がなされることはない。
 なお、以下の説明では、図5右図のような上記所定型番に対応する構成と、図5左図のような所定型番よりもサイズが小さい別の型番(Ver.番号)とが対応付けられ、図5右図の情報コード100の各コードワードの位置と、図5左図の他種コード120の各コードワードの位置とが図5下図のような配置変換表によって対応付けられている例を代表例として説明する。この例では、図5左図の他種コード120で格納し得るデータ量であれば、図5右図のような情報コード100により空き領域110を設けた上で表現できるようになっている。逆に、図5右図の情報コード100を読み取る場合には、情報コード100の各コードワードを、図5左図のような他種コード120のコードワードとして読み取ることができるようになっている。
 また、図5右図では、空き領域110の周囲に配置される各コードワードの領域を破線枠等によって概念的に示している。また、フォーマット情報を記録する領域(所定位置105)は、所定種類のハッチングにて概念的に示している。なお、図5右図では、フォーマット情報を記録する領域や、コードワードを記録する領域では、升目のみを示し、明色セルや暗色セルの具体的配列を省略して示している。また、図5右図の例では、セル配列と対応付けるべく空き領域110(コード領域の中央部分)の内部にも升目を付しているが、空き領域110の構成は自由であり、図1のように構成してもよく、その他の構成であってもよい。
 フォーマット情報(形式情報)は、例えば図6のように構成されて情報コード100内の所定位置105(所定種類のハッチング位置)に特定のフォーマット構成で記録されている。このフォーマット情報は、誤り訂正レベルを特定する訂正レベル情報と、マスク番号を特定するマスク番号情報とを含んでいる。訂正レベル情報は、情報コード100で用いる誤り訂正レベルを特定する情報であり、例えば他種コード120に変換して読み取る場合の当該他種コード120で用いる誤り訂正レベルにも相当する。また、マスク番号は、情報コード100のコードワード領域(データコードワードや誤り訂正コードワードが記録されている領域)にかけられているマスクがどのマスク種別であるかを特定する情報である。
 図6に示すようにフォーマット情報は、所定種類のマスクパターン(特定マスク)を反映した状態で記録されており、公知のQRコードと同様の方法でフォーマット情報のマスク種別を識別することで、図5右図に示すような特定のコード種別(空き領域110を設けた種別)であることを検出できるようになっている。公知規格のQRコードでは、例えばモデル1として構成する場合には、図6のようなフォーマット情報に対してモデル1用のマスクをかけたときに表現されるデータ(セル配列)を所定位置に記録し、モデル2として構成する場合には、図6のようなフォーマット情報に対してモデル2用のマスクをかけたときに表現されるデータ(セル配列)を所定位置に記録するようになっている。一方、図5に示す本実施形態の2次元の情報コード100(空き領域110を有する特別種類のコード)では、図6のようなフォーマット情報に対してモデル1、2とは異なる種類の特定マスク(図6では額縁QR(quick response)用と例示)をかけたときに表現されるデータ(セル配列)を所定位置105に記録するようになっている。そして、公知規格のモデル1及びモデル2、情報コード100の種別のいずれの場合でも、記録する訂正レベル(訂正レベル情報)及びマスク番号(マスク番号情報)に対応するチェックデジットが付された上でフォーマット情報が構成されており、その上で各種別用のマスクがかけられるようになっている。具体的には、各種別用のマスクパターンを用いて公知の方法でマスク処理が行われ、マスク処理後のビットパターンが所定位置105に記録されるようになっている。従って、情報コード100のようにフォーマット情報に対して特定マスク(図6では額縁QR用と例示)をかけた上で所定位置105に記録する場合、このように所定位置105に記録された情報を上記特定マスクに基づいてマスク処理を解除して解読すればチェックデジットが合うため、情報コード100の種別であることを特定することができる。逆に、情報コード100の所定位置105のデータを、モデル1やモデル2のマスクに基づいてマスクを外しても、チェックデジットが合わなくなるため、公知規格のモデル1やモデル2でないことを特定することができる。
 この情報コード100では、特定パターン(位置検出パターン104等)を検出し、公知のQRコードと同様の方法でコード領域、コードの向き、各セル位置を特定した後、公知のQRコードと同様の方法でフォーマット情報が記録された所定位置105を解読することで、解読時に成功したマスクの種別により情報コード100の種別(空き領域110を有する特別種類)であることを特定することができる。そして、解読されたフォーマット情報により、情報コード100で用いる誤り訂正レベルを特定でき、且つ情報コード100のコードワード領域(セルによってデータコードワードや誤り訂正コードワードが記録されている領域)にかけられているマスク種別を特定できるようになっている。
 更に、空き領域110の内部には、画像領域121の範囲を示す識別表示(マーク121a)がそれぞれ設けられており、この画像領域121の内部に事後的に書き込みが行えるようになっている。具体的には、画像領域121におけるマーク121a内の部分が1又は複数の所定色(例えば白色等)で構成されており、マーク121aが所定色(画像領域121におけるマーク内の領域を構成する色)とは異なる色(例えば黒色等)により識別表示として示されている。このように構成されているため、画像領域121に対して前記所定色(画像領域121におけるマーク内の領域を構成する背景色)とは異なる他の色によって書き込むことが可能となり、所定色とは異なる色によって書き込まれたときには、上述の情報コード読取装置10により、その書き込みを認識できるようになっている。
 なお、図5右図、図10(A)等の例では、識別表示として、四角形状の図形からなるマーク121aを例示し、マーク121aの内側が画像領域121として構成される例を示したが、画像領域121の境界(外縁)が特定できる構成であれば、識別表示の形状や構成はどのようなものであってもよい。例えば、画像領域121が所定色(例えば白色)によって構成されている場合、画像領域121の周囲に隣接する背景がその所定色以外であれば、画像領域と背景とが異なる色によって区分けされることになる。この場合、画像領域の周囲に隣接する背景が識別表示に相当することになる。
 情報コード100に記録する内容は、例えば、図3のような構成をなしており、データ配列の先頭部分にヘッダデータ(額縁QR用ヘッダー)が設定され、ヘッダデータの後に入力データ(解読対象データ)が続くようになっている。図3の例では、入力データ(解読対象データ)については、例えば公知の方法で圧縮し、データワード(データコードワード)に変換しているが、このような圧縮を行わなくてもよい。なお、情報コード100で用いるヘッダデータは、以降の説明では、「額縁QR用ヘッダー」とも称する。また、本明細書では、このようなヘッダデータ及び入力データ(解読対象データ)のデータワード(データコードワード)を記録する領域、及び上述のフォーマット情報を記録する領域が「データ記録領域」に相当する。また、図3の例では、ヘッダデータ(額縁QR用ヘッダー)として、後述する他種コード120(情報コード100を解読するために用いるコード種別であり、配置変換表(図5)によって情報コード100と対応付けられたコード)の種別(型番)を特定し得る情報(図3では、Ver.番号と例示)や、空き領域内の形式を特定し得る識別情報が記録されている。なお、図3の例では、ヘッダデータとして、他種コードの種類(Ver.番号)に加え、空き領域110の形式が図1、図5、図10等に示す画像形式であることを特定する情報(第1情報)と、空き領域110内での画像の位置(画像領域位置)を特定し得る情報(第2情報に相当する「画像領域位置情報」)とが記録されている。このうち、空き領域110の形式が画像形式であることを特定する情報(第1情報)は、画像領域の存在を示す「識別情報」の一例に相当する。また、空き領域内での画像の位置(画像領域位置)を特定し得る情報(第2情報)は、画像領域のコード領域内での位置を示す「位置データ」の一例に相当する。
 図3、図5の例では、情報入力領域として構成される画像領域121の列位置及び行位置を特定し得る情報が画像領域位置情報(位置データ)として記録されている。より具体的には、図5に示すような矩形状に構成される情報コード100を複数行且つ複数列に格子状に分割したときの画像領域121の左上の行位置及び列位置の組み合わせと、画像領域121の右下の行位置及び列位置の組み合わせとが画像領域位置情報(位置データ)として記録されている。なお、ここでは、画像領域121の左上の行位置及び列位置の組み合わせと、画像領域121の右下の行位置及び列位置の組み合わせを画像領域位置情報(位置データ)としているが、画像領域121の四隅の各位置における行位置及び列位置の組み合わせを画像領域位置情報(位置データ)としてもよい。また、図5のように情報コード100を格子状に分割したときの各行及び各列の幅は、それぞれ単一のセルの行方向の幅及び列方向の幅に相当している。
 そして、入力データ(解読対象データであるデータワード)の後には誤り訂正符号となる誤り訂正コードワード(ECCワード)が続いている。情報コード100では、この誤り訂正符号を記録する領域が誤り訂正符号記録領域となる。なお、データワード(図3の例ではヘッダデータ及び入力データ(解読対象データ))に基づいて誤り訂正符号(誤り訂正コードワード)を生成する方法は、公知の二次元コード(QRコード等)の規格で定められた方法などを用いることができる。例えば、データワード(データコードワード)に基づいて誤り訂正コードワードを生成する方法として、JISX0510:2004に規定された誤り訂正コード語の生成方法(JISX0510:2004、8.5誤り訂正)などを用いることができる。なお、誤り訂正コードワードの生成方法はこれに限られず、公知の様々な方法を用いることができる。
 また、情報コード100では、解読対象データを表現する各データワード(データコードワード)や誤り訂正コードワードが予め定められた配置位置情報に基づいてコード領域内に配置されている。本構成では、図5のように、情報コード100のコード領域内において予め各コードワードの配置候補位置が定められており、各配置候補位置にそれぞれ番号(アドレス)が割り当てられている。そして、配置位置情報は、図3に示す記録内容を構成する各コードワードをそれぞれどの配置候補位置に配置すべきかを特定する情報となっている。なお、図5右図の例では、1~25番の配置候補位置を概略的に例示しており、各配置候補位置では、先頭と最後のビット部分に番号を付して明示している。また、図5右図では、26番以降の配置候補位置は省略している。
 具体的には、他種コード120(公知のQRコード)の型番(図3に示すヘッダデータで特定される他種コード120の型番)では、各順番のコードワードを他種コード120内のどの位置に配置すべきかが公知規格等により予め定められており、他種コード120を解読する場合にはこのように定められた配置に基づいて各順番のコードワードを解読する。例えば、図5左図に示す他種コード120の例では、0番目のコードワードを右下に配置し、1番目のコードワードをその上に配置し、2番目のコードワードをその上に配置するといった具合に各コードワードの配置位置が予め決められている。従って、この他種コード120を解読する場合には、このように決められた配置に基づいて0番目のコードワード、1番目のコードワード、2番目のコードワード、3番目のコードワード・・・といった具合に順番に解読することになる。
 一方、図5に示す配置位置情報(配置変換表)では、このように他種コード120で予め定められた各配置位置(各順番のコードワードの配置位置)の番号を、情報コード100において予め定められた候補位置(各コードワードの配置候補位置)の番号にそれぞれ対応付けている。具体的には、「他種コード120における1番目のコードワードの配置位置が情報コード100の1番目の配置候補位置に相当」、「他種コード120における2番目のコードワードの配置位置が情報コード100の2番目の配置候補位置に相当」、「他種コード120における3番目のコードワードの配置位置が情報コード100の3番目の配置候補位置に相当」といった情報が、例えばテーブルデータなどとしてそれぞれ記録されており、他種コード120における各番号のコードワードの配置位置を、情報コード100の各配置候補位置にそれぞれ対応付けている。このように構成されているため、情報コード100を解読する場合には、コード領域内の各配置候補位置のコードワード(各アドレスのコードワード)を配置位置情報(配置変換表)で対応付けられた他種コード120の各配置位置にそれぞれ配置し直し、このように配置し直された他種コード120を公知の方法で解読すれば良い。例えば、図5下図に示す配置変換表を用いて情報コード100の解読を行う場合、情報コード100の1番目の配置候補位置のコードワードを他種コード120における1番目のコードワードの配置位置に配置し、情報コード100の2番目の配置候補位置のコードワードを他種コード120における2番目のコードワードの配置位置に配置し、情報コード100のN番目の配置候補位置のコードワードを他種コード120において当該N番目の配置候補位置に対応付けられているM番目のコードワードの配置位置に配置するといった具合にそれぞれ配置し直した上で、このように配置し直された他種コード(QRコード)を公知の方法で解読すればよい。なお、上述の配置位置情報(配置変換表)については、情報コード100を生成する情報コード生成装置2及び情報コード100を読み取る情報コード読取装置10に共通のデータ(共通の配置変換表)がそれぞれ設けられていることが望ましい。
 (情報コードの生成処理)
 次に、図8等を参照して情報コード生成処理及び情報コード生成方法について説明する。以下では、図5のように他種コード120がQRコード(登録商標)であり、情報コード100がQRコードと同様の特定パターンを有する場合を例に挙げて説明する。なお、この例では、空き領域110を有する情報コード100を「額縁QR(quick response)(又はフレームQR)」とも称する。額縁QRは2次元情報コードの一種である。なお、この生成に係る処理のステップを符号「S」で示す。この記載法は、以降の処理においても同様とする。
 図8の情報コード生成処理は、情報コード生成装置2によって行われる処理であり、例えば、操作部4での所定操作によって実行開始される。この処理では、まず、外部からコード化するデータ(解読対象データ)と、属性データと、コード種別データ(本発明に係る情報コード100を生成するか、一般的な二次元コード(例えば一般的なQRコード)を生成するかを特定するデータ)を取得する(S1)。なお、本構成では、制御部3、操作部4が「データ取得部」の一例に相当し、解読対象データ(外部からの入力データ)を取得するように機能する。また、このような例に限らず、例えば、制御部3と通信部7が「データ取得部」として構成され、外部から通信によって入力されるデータを解読対象データとして取得するように機能してもよい。
 S1でデータを取得した後には、その取得したデータを圧縮する方法を公知の方法で定め(S2)、入力データを圧縮したデータ(解読対象データ)を複数のデータワード(データコードワード)で表現する(S3)。そして、S3の後には、S1で取得されたコード種別データが、空き領域110を有する情報コード100の種別(額縁QR)であるか否かを判断する。S1で取得されたコード種別データが、空き領域110を有する情報コード100の種別(額縁QR)である場合には、S4にてYesに進み、空き領域110を有する情報コード100の種別(額縁QR)で用いられる特有のヘッダデータ(上述)を生成し、図3のように複数のデータワードを含んだデータ配列の先頭にセットする(S5)。図3のヘッダデータには、上述したように、図5右図に示す他種コード120の種別(型番)を特定し得る情報(バージョン番号情報等)と、空き領域110の形式が画像形式であることを特定する情報(第1情報)と、空き領域110内での画像領域(書き込み可能位置)を特定し得る情報(第2情報に相当する「画像領域位置情報」)とが記録されることになる。一方、S1で取得されたコード種別データが、空き領域110を有する情報コード100の種別(額縁QR)でない場合(一般的な二次元コードを選択するデータ(例えば、モデル1又はモデル2を選択するデータ)である場合)には、S4にてNoに進む。
 S4でNoに進む場合、S3で生成されたデータワード(データコードワード)の構成に基づいて公知の方法で誤り訂正符号を生成し、この誤り訂正符号を表現する複数の誤り訂正ワード(誤り訂正コードワード)を生成する(S6)。一方、S4からS5に進む場合、S3、S5で生成された最終的なデータワード(ヘッダデータ及び入力データを表現する複数のデータコードワード)の構成に基づいて公知の方法で誤り訂正符号を生成し、この誤り訂正符号を表現する複数の誤り訂正ワード(誤り訂正コードワード)を生成する(S6)。
 S6の後には、S1で取得されたコード種別データが、空き領域110を有する情報コード100の種別(額縁QR)であるか否かを判断し(S7)、S1で取得されたコード種別データが、空き領域110を有する情報コード100の種別(額縁QR)でない場合には、S7にてNoに進み、公知の方法で二次元コード(例えばQRコード)を生成することになる。S7でNoに進む場合、S3で生成されたデータワード(データコードワード)及びS6で生成された誤り訂正ワード(誤り訂正コードワード)を格納しうるサイズの二次元コードの型番(この例では、規格化された公知のQRコードの複数の型番において、S3で生成されたデータワード及びS6で生成された誤り訂正ワードを格納しうるサイズの型番)を決定し、当該型番で予め定められた配置パターンに従い、S3で生成されたデータワード及びS6で生成された誤り訂正ワードを配置する(S9)。
 一方、S1で取得されたコード種別データが、空き領域110を有する情報コード100の種別(額縁QR)である場合には、S7にてYesに進み、S3、S5で生成されたデータワード(データコードワード)と、S6で生成された誤り訂正ワード(誤り訂正コードワード)と、空き領域と、を格納しうる情報コード100の型番を決定する(S10)。なお、空き領域のサイズは、予め定められた一定サイズであってもよく、S10の前段階でユーザが入力などによって指定してもよい。また、空き領域のサイズは、行数及び列数で特定してもよく、何ワード分に相当するか、あるいは何セル分に相当するか等の情報によって特定してもよい。図5、図8の例では、例えば情報コード100の種別で予め定められた複数の型番(サイズ)において、S3、S5で生成されたデータワード(データコードワード)、S6で生成された誤り訂正ワード(誤り訂正コードワード)、及び空き領域を格納しうるサイズの型番を決定することになる。なお、情報コード100の種別で複数の型番を使用可能とする場合、各型番毎に、行数及び列数、特定パターンの形状及び配置、フォーマットデータの配置、各コードワードの配置候補位置をそれぞれ定めておけばよい。また、いずれの型番でも、図5右図のように外周側から順番に各コードワードの配置候補位置を定めるようにし(例えば、外周側から内側に渦巻き状に配置候補位置を順番に設定し)、番号が若い配置候補位置ほど外側とするように各コードワードの配置候補位置を定め、用意された配置候補位置の内、コードワードが配置されない部分(即ち、使用されない部分)については、空き領域として用いるようにすれば、中央部により広い空き領域を確保し易くなる。また、S3、S5で生成されたデータワード(データコードワード)、S6で生成された誤り訂正ワード(誤り訂正コードワード)、及び空き領域を格納しうるサイズの型番が複数存在する場合には、その中から一番小さい型番(サイズ)を決定するようにしてもよく、ユーザがその中からいずれかの型番(サイズ)を指定できるようにしてもよい。そして、情報コード100を生成する際には、このように決定された型番において予め定められたサイズ(行数及び列数)、特定パターンの配置、コードワードの各配置候補位置を用いると共に、具体的な各コードワードの配置位置は、上述の配置変換表に従って決定することになる。なお、以下では、S10において図5右図のような型番が決定された例について具体的に説明する。
 S10の後には、S3、S5で生成されたデータワード(データコードワード)及びS6で生成された誤り訂正ワード(誤り訂正コードワード)を上述の配置位置情報(配置変換表)に基づいて配置することになる。情報コード生成装置2では、上述の配置位置情報(配置変換表)が記憶部5に記憶されており、この配置変換表では、上述したように他種コード120で定められた各配置位置(各順番のコードワードの配置位置)を、情報コード100において予め定められた候補位置(各コードワードの配置候補位置)にそれぞれ対応付けている。S11の処理では、記録すべきコードワード(S3、S5で生成されたデータワード(データコードワード)及びS6で生成された誤り訂正ワード(誤り訂正コードワード))を、図4、図5左図で示す他種コード120(情報コード100よりもサイズが小さく、且つS3、S5で生成されたデータワード及びS6で生成された誤り訂正ワードを格納し得るサイズの二次元コード)で表現するときの各コードワード(各順番のコードワード)の配置位置を特定した上で、それら各順番のコードワードを、配置位置情報(配置変換表)によって各順番のコードワードの配置位置に対応付けられている情報コード100内の各配置候補位置に配置する。例えば、図5の配置位置情報(配置変換表)では、他種コード120での1番目のコードワードの配置位置と、情報コード100の1番の配置候補位置とが対応付けられているため、記録すべきコードワード(S3、S5で生成されたデータワード及びS6で生成された誤り訂正ワード)の内の1番目のコードワードについては情報コード100内の1番の配置候補位置に配置する。また、他種コード120での2番目のコードワードの配置位置と、情報コード100の2番の配置候補位置とが対応付けられているため、記録すべきコードワードの内の2番目のコードワードについては情報コード100内の2番の配置候補位置に配置する。このように、記録すべきコードワードにおいてN番目のコードワードを配置する他種コード120での配置位置(N番目のコードワードの配置位置)と、情報コード100のM番の配置候補位置とが対応付けられていれば、記録すべきコードワードの内のN番目のコードワードについては情報コード100内のM番の配置候補位置に配置することになる。
 つまり、S3、S5で生成されたデータワード及びS6で生成された誤り訂正ワードだけなら、情報コード100よりも小サイズの他種コード120(公知のQRコードとして構成されたもの)で表現できるが、S3、S5で生成されたデータワード、S6で生成された誤り訂正ワード、及び空き領域110を格納する場合には、これよりも大きいサイズの情報コード100によって表現する必要がある。そこで、本実施形態では、S3、S5で生成されたデータワード、S6で生成された誤り訂正ワード、及び空き領域110を、他種コード120よりも大きいサイズの情報コード100によって表し、S3、S5で生成されたデータワード及びS6で生成された誤り訂正ワードを他種コード120(公知のQRコード)で表現した場合のコードワードの各配置と、これよりも大きいサイズの情報コード100に格納する場合のコードワードの各配置との対応関係を、予め定められた配置変換表によって特定できるようにしている。
 なお、本構成では、図5のような「配置変換表」が「解読対象データを表現する複数のデータワードをコード領域に配置する際の各配置位置を特定する配置位置情報」の一例に相当しており、この配置変換表(配置位置情報)は、解読対象データを複数のデータワードで表現したときの各順番のデータワードと、各順番のデータワードのコード領域内での各配置位置とを対応付けて定める情報として構成されている。また、記憶部5が「配置位置情報記録部」の一例に相当し、このような配置変換表のデータ(配置位置情報)を記録するように機能する。
 S9又はS11の後には、S9又はS11で配置場所が決定されたコードワードに対してかけるべきマスクパターンを公知の所定方法(例えばQRコードで用いられる公知方法)で決定し、その決定されたマスクパターンをS9又はS11で配置場所が決定されたコードワードに反映するように公知のマスク処理方法でマスクをかける(S12)。そして、S12で設定したマスクパターンの情報(マスク番号)及び誤り訂正レベルの情報に基づいてチェックデジットを算出し、図6のように誤り訂正レベル、マスク番号、チェックデジットを含んだフォーマット情報を生成する(S13)。なお、フォーマット情報として記録するマスク番号や誤り訂正レベルなどのデータは、S1で入力できるようにしてもよい。
 そして、S1で取得されたコード種別データが、空き領域110を有する情報コード100の種別(額縁QR)である場合には、S14にてYesに進み、S13で生成されたフォーマット情報に、上述の特定マスク(額縁QRマスク)を反映するようにマスク処理を行う(図6参照)。一方、S1で取得されたコード種別データが、空き領域110を有する情報コード100の種別(額縁QR)でない場合には、S14にてNoに進み、S16で設定するマスクパターンとは異なるマスクパターンのマスク(モデル1のマスク又はモデル2のマスク)をセットする。S15又はS16によりフォーマット情報に対してマスクをかけた後には、そのマスク処理後のフォーマット情報をコード領域内の所定位置105に配置する(S17)。
 このようにして、特定パターン領域、データ記録領域、誤り訂正領域が構成された後には、空き領域110の構成要素を配置する(S18)。図3の例では、画像領域の位置がそれぞれ行位置及び列位置によって指定されているため、S18では、このように指定された位置に画像領域121の図形データを配置し、画像領域121の外縁を特定し得る図形(図10等の例ではマーク121a)も配置する。図3、図5等に示す例では、例えば画像領域121の図形が矩形状の図形(例えば、領域内全体が単一色又は複数色の明色の背景で構成されてなる四角形の図形)として予め定められており、S18では、このように決められた図形の左上位置及び右下位置がヘッダデータで指定される各位置となるように各図形を配置する。また、画像領域121の外縁部を示す枠(マーク121a)が矩形状の枠(例えば、四角形の暗色の枠)として予め定められており、S18では、このように決められた枠が画像領域121の外縁部に沿って配置されるように各図形を配置する。
 なお、上述した例では、図3のヘッダデータに含まれる画像領域の位置(画像領域の位置)、形状及び色、識別表示の形状や色などが予め定められていたが、画像領域の位置をユーザが入力によって指定できるようにしてもよく、更に、画像領域の形状や色、或いは識別表示の形状や色などをユーザが入力によって指定できるようにしてもよい。この場合、ユーザが指定した位置に、ユーザが指定した形状及び色の画像領域が構成されることになり、ユーザが指定した形状や色の識別表示によってその範囲が示されることになる。また、画像領域121内又は画像領域外に、文字や数字等の記号や図形などを配置してもよい。この場合、例えば、表示すべき記号や図形及びその記号や図形の位置をユーザが入力できるようにし、S18では、指定された記号や図形を指定された位置(例えば画像領域の上位置など)に配置すればよい。
 このようにして情報コード100又は他の二次元コードが生成された後には、そのコードを印刷部8によって印刷する(S19)。なお、S19では、印刷に代えて、表示部6にて情報コード100等の表示を行ってもよく、S17までの処理によって生成された情報コード100のデータを外部装置(例えば、携帯端末やコンピュータ等の情報機器)に送信してもよい。
 なお、図4及び図5において、他種コード120は、情報コード100の位置検出パターン104に対応し、且つ、自動的に生成される位置検出パターン124を3つの角に備えている。
 本構成では、情報コード生成装置2の制御部3が「データ記録領域生成部」の一例に相当し、情報コード100のコード領域の内部に空き領域110を設ける場合、コード領域内の所定位置に特定のフォーマット構成でフォーマット情報を記録し、且つ、データ取得部で取得された解読対象データ(入力データ)を表現する各データワードを、配置位置情報記録部に記録された配置位置情報に基づいて配置するように、データ記録領域を生成している。また、制御部3によって構成される「データ記録領域生成部」では、コード領域の内部に空き領域110を設ける場合、所定種類のマスクパターン(特定マスク)を反映した状態で所定位置105のセル配列を構成している。
 (情報コードの読取処理)
 次に、図2の情報コード読取装置10によって図1、図5右図等に示す情報コード100を読み取る場合の処理について説明する。
 図9の読取処理は、例えばユーザによって所定操作(例えば、操作スイッチ42の操作等)がなされたときに実行されるものである。まず、受光センサ23の撮像エリアにある二次元コードを撮像して当該二次元コードの撮像画像を取得すると共に、その二次元コードの形を検出する。具体的には、位置検出パターン104の認識や二次元コードの外形の検出を公知の方法で試みる。例えば、QRコード(登録商標)で行われる、1:1:3:1:1の波形を検出する公知の方法等により位置検出パターン104を検出し、撮像された二次元コードの外形をQRコード(登録商標)で行われる公知の方法で検出する。
 このような外形検出処理を行った場合、情報コード100が撮像されている場合には、情報コード100の外形が検出されることになる。なお、外形検出方法は、特定パターンの形状や二次元コードの外形を検出し得る方法であれば他の方法であってもよい。
 本構成では、受光センサ23が「撮像部」の一例に相当し、情報コード生成装置2によって生成された情報コード100を撮像するように機能する。
 情報コード100の外形を検出し、情報コード100のコード領域を抽出できた場合には、情報コード100の所定位置105の情報(フォーマット情報)を解読し、撮像された情報コードの種別及びマスク訂正レベルを取得する(S40)。
 具体的には、例えば、上述したように所定位置105に記録された情報を上述の特定マスク(額縁QR用マスク)に基づいてマスク処理を解除して解読を試みる。上述の特定マスクのマスクを解除し得る方法でマスク処理を解除した時にチェックデジットが合う場合(即ち、所定位置105を解読したときの訂正レベルのデータとマスク番号のデータとに基づいて算出されたチェックデジットが、所定位置105に記録されたチェックデジットと合うような場合)には、情報コード100の種別(空き領域110を有する種別)であることを特定することでき、フォーマット情報に含まれる誤り訂正レベル及びマスク番号も取得できることとなる。
 このように特定のマスクに基づいてマスク処理を解除できたとき(即ち、情報コード100の種別(額縁QR)であることが認識できたとき)には、S41にてYesに進む。一方、図6に示すモデル1用のマスクやモデル2用のマスクなど、特定のマスク(額縁QR用マスク)以外の他のマスクによってマスク処理を解除できたときには、S41にてNoに進む。他のマスクによってマスク処理が解除できるときは、S40で撮像された二次元コードが公知のQRコード(登録商標)のケースであるため、S41でNoに進む場合は、公知の方法で当該QRコードを解読して解読結果を出力することになる。なお、図9では、S41でNoとなる場合の処理は省略して示している。
 S41でYesに進む場合、まず、データ記録領域に記録されたデータを解読する(S42)。具体的には、S40で取得されたフォーマット情報に含まれるマスク番号に基づいてコード全体(具体的には、コードワードの領域)のマスクを解除する。そして、データワードの先頭に設けられたヘッダデータ(額縁QRヘッダー)に基づいて、元のコードサイズ(他種コード120の型番、形式)を特定し、図5と同様の配置変換表に従って、図5右図に示すような情報コード100から図5左図に示すような元のコード(他種コード120)の配置に戻す。具体的には、情報コード100の各配置候補位置のコードワード(データコードワード及び誤り訂正コードワード)を、配置変換表において各配置候補位置に対応付けられている他種コード120内での配置位置に配置し直す。このように配置変換することにより、情報コード100に配置されていたデータコードワードや誤り訂正コードワードを記録してなる他種コード120が得られることになる。そして、他種コード120は、公知のQRコードであるため、公知のQRコードと同様の方法でデータを解読する(即ち、誤り訂正コードワードに基づいて公知の方法で誤り訂正計算を実施すると共に、データコードワードを解読する)。
 本構成では、制御回路40が「判別部」の一例に相当し、撮像部によって情報コード100が撮像された場合に、コード領域の所定位置105が特定のフォーマット構成であるか否かを判別するように機能する。具体的には、所定位置105に所定種類のマスクパターン(特定マスク)が反映されているか否かを判別するように機能する。
 また、制御回路40が「データ記録領域読取部」「解読部」の一例に相当し、撮像部によって情報コード100が撮像された場合に、その撮像された情報コード100のコード画像におけるデータ記録領域及び誤り訂正符号記録領域の内容に基づいてデータ記録領域に記録されたデータを読み取るように機能する。具体的には、判別部によって所定位置105が特定のフォーマット構成であると判別された場合(より詳しくは、所定位置105に所定種類のマスクパターンが反映されている場合)に、対応情報記録部に記録された対応情報(配置変換表)に基づいてコード領域内の各データワードの位置を特定し、解読対象データを解読するように機能する。
 なお、配置変換表は、「対応情報」の一例に相当し、コード領域において各配置位置で表される各順番のデータワードを、情報コード100とは異なる他種コード120において予め定められた方式(例えば公知規格等で定められた方式など)で表現する場合の当該他種コード120内での各対応位置を定める情報として構成されている。そして、解読部に相当する制御回路40は、判別部によって所定位置105が特定のフォーマット構成であると判別された場合、コード領域の各配置位置で表される各順番のデータワードを、対応情報で定められる他種コード120内での各対応位置に置換した構成で当該他種コード120を解読するように機能する。
 S42にてデータ記録領域のデータを解読した後には、ヘッダデータ(額縁QRヘッダー)に含まれる形式情報を読み取る。そして、この形式情報が「画像形式」を示す形式情報である場合には、S44でYesに進む。その他の形式の場合には、S44にてNoに進む。なお、図9では、S44でNoに進む場合の処理を省略して示している。
 S44でYesに進む場合(即ち、ヘッダデータ(額縁QRヘッダー)に含まれる形式情報が「画像形式」を示す形式情報である場合)、ヘッダデータに含まれる画像領域位置情報(位置データ)を読み取る(S45)。そして、情報コード100内における画像領域の位置を特定する(S46)。具体的には、本構成では、矩形状の画像領域を形成することを想定しており、S46ではコード画像を解析してコード画像における画像領域の四隅の位置を特定する。例えば、画像領域位置情報(位置データ)として、画像領域の四隅の位置情報(例えば四隅の各位置における列位置と行位置の組合せ)が記録されている場合、この位置データによって画像領域の四隅の位置を特定できる。この場合、この位置データが画像処理部による認識対象となる領域の位置を示す位置特定データに相当する。
 S46にて画像領域の四隅の位置を特定した後には、画像領域を正規化する処理を行う(S47)。この正規化処理は、例えば周知の射影変換処理を用い、図12(B)のように傾斜した画像を、図12(A)のような規定形状(図12(A)では正方形)の画像に変換する。正規化方法は、画像処理分野では周知の歪み補正技術、形状補正技術を用いることができ、例えば、図12(B)のような正方形ではない四角形の画像を、図12(A)のような正方形の画像に変換できる技術であれば公知の様々な技術を適用できる。
 この射影変換処理の一例を挙げると、例えば、以下の公知式で各画素の座標を変換する。
 u=x×a+y×b+c-x×g×u-y×h×u
 v=x×d+y×e+f-x×g×v-y×h×v
 x,yは変換前のX座標、Y座標
 a,b,c,d,e,f,g,hは変換係数
 u,vは、変換後のX座標、Y座標
 例えば、変換前の座標が図12(B)のように、T1~T4(S46で特定された四隅の座標であり既知の値)であり、この範囲を図12(A)のような正方形の画像に変換する場合、S1~S4の座標が特定できれば上記演算式によって各画素の変換後の座標を容易に特定できる。S1~S4の座標は、例えば、S1をT1と同一座標とし、S1を左上位置として各辺が「所定の長さ」の正方形となるようにS2~S4の座標を求めればよい。なお、変換後の各辺の長さ(所定の長さ)は、例えば、図12(B)の変換前の画像の各辺の最も長い辺の長さに合わせても良く、予め決められた値に合わせても良い。例えば、変換後の各辺の長さ(所定の長さ)を固定値とする場合、この固定値の情報を正規化サイズ情報(画像処理又は画像出力のために正規化するサイズを特定する情報)として予めデータ記録領域に記録しておけばよい。また、変換後の各辺の長さ(所定の長さ)を、変換前の画像の各辺の最も長い辺の長さとする場合、その旨を指定する情報を正規化サイズ情報として予めデータ記録領域に記録しておけばよい。このようにすれば、S46で四隅の位置が特定された場合に、画像領域の画像を、一辺が「所定の長さ」の正方形の正規化画像に変換できることとなる。なお、ここでは正規化の一例を示したが、得られた実画像を規定形状の画像に変換し得る公知の方法であれば様々な方法を用いることができる。
 なお、S47、S48の処理は、S46で特定される画像領域を、例えば、ビットマップ画像として抽出し、ビットマップ形式で行うようにすることができる。ビットマップ形式だけでなく、公知の様々な形式を採用することができ、GIF形式や、JPEG形式等であってもよい。或いはこれ以外の画像ファイル形式であってもよい。
 S47で正規化画像が生成された後には、S48にてパターンマッチング処理(一致判断処理)を行う。
 本構成では、予めメモリ35に図11(C)上部のようなマスター画像が登録されている。マスター画像の登録方法は、図11(C)上部のようなサイン画像を登録可能な方法であればよく、利用者が手書きで書いたサインを公知のカメラで撮像し、その画像を図11(C)のように登録しておいてもよい。或いは、図11(A)のように利用者によってサインが描画された情報コード100に対して図9の処理を予め行っておき、S47で正規化された画像を図11(C)のようなマスター画像として登録しておいてもよい。この場合、S47で正規化する図形は、規定の正方形状や長方形状などとすればよい。
 S48では、上述したように登録されたサイン画像と、S47で正規化された画像領域121の画像とを公知のパターンマッチングによって比較し、S49ではそのマッチング結果が一致しているか否かを判断する。一致している場合には、S49にてYesに進み、S42で解読されたデータ記録領域の情報と、S49での判断結果(一致している場合には、「一致」を示す情報)とを出力する。なお、S49で一致していないと判断された場合には、所定の失敗処理を行う。この場合、エラー情報等を表示してもよく、S42で解読されたデータと、S49での判断結果(一致していない旨の情報)とを出力してもよい。なお、いずれの場合でも、出力は、例えば液晶表示器46に表示するように行ってもよく、外部装置にデータとして送信するように行ってもよい。なお、ここでは、S47で正規化された画像と登録された画像(マスター画像)とをパターンマッチングによって比較する方法を例示したが、両画像の特徴点同士を比較する方法など、他の公知方法で画像が一致しているか否かを判定してもよい。
 本構成では、メモリ35が登録部の一例に相当し、画像領域121の画像と比較するためのパターン画像を登録するように機能し、具体的にはパターン画像として手書き文字を画像データとして表したサイン画像を登録している。
 本構成では、制御回路40が「画像処理部」の一例に相当し、データ記録領域読取部によるデータ記録領域の読取結果から得られる前記位置データに基づいてコード画像内での画像領域の位置を特定し、この画像領域の画像に対しデータ記録領域読取部による前記データの解読処理とは異なる方法で画像認識処理を行うように機能し、具体的には、コード画像に含まれる画像領域121の画像と、メモリ35(登録部)に登録されたサイン画像とに基づくパターンマッチングにより、画像領域121の画像がメモリ35(登録部)に登録されたサイン画像に該当するか否かを判断するように機能する。また、「画像認識部」に相当する制御回路40は、データ記録領域読取部によるデータ記録領域の読取結果に基づき、データ記録領域に識別情報が記録されていることを条件として画像領域121の画像をビットマップ画像として抽出し画像処理を行うように機能する。更に、受光センサ23(撮像部)によって撮像された情報コード100のコード画像における特定パターン領域の特定パターン画像、データ記録領域及び誤り訂正符号記録領域の少なくともいずれかのセル画像に基づいて、当該コード画像に含まれる画像領域121の画像を補正して当該画像領域の正規化画像を生成するようにも機能する。
 本構成では、制御回路40及び通信インタフェース48が「出力部」の一例に相当し、データ記録領域読取部によって読み取られた情報と、画像処理部による前記画像領域の認識結果とを出力するように機能する。なお、表示によって出力する場合には、制御回路40と液晶表示器46が出力部に相当する。
 本構成によれば、情報コード読取装置10は、データ記録領域において各セルによって記録された情報だけでなく、画像領域121に形成された画像をも認識対象として取得することができ、情報コード内に付されたセル以外の画像を読取装置側で解析して利用することが可能となる。
 また、本構成では、コード領域の内部に、データ記録領域、誤り訂正符号記録領域、特定パターン領域以外の領域を空き領域として確保することができ、この領域を画像領域121として利用することができるため、データ記録領域の誤り訂正を行う上でより有利になる。
 また、情報コード生成装置は、データ記録領域に所定の識別情報を記録するように情報コードを生成し、情報コード読取装置10の画像処理部は、データ記録領域読取部によるデータ記録領域の読取結果に基づき、データ記録領域に識別情報が記録されていることを条件として画像領域121の画像に対して画像認識処理を行う構成となっている。
 この構成では、データ記録領域に識別情報が記録されていなければ画像領域の認識処理がなされないことになる。つまり、画像領域の認識が不要な場合にはデータ記録領域内に識別情報を記録しておかないことで、無用な認識処理を省略することができる。逆に、画像領域を認識すべき場合にはデータ記録領域内に識別情報を記録しておけば画像領域の認識につなげることができる。
 また、情報コード読取装置10の画像処理部は、データ記録領域読取部によるデータ記録領域の読取結果に基づき、データ記録領域に識別情報が記録されていることを条件として画像領域121の画像をビットマップ画像として抽出し画像処理を行う構成となっている。
 この構成では、識別情報の検出を条件として画像領域121の画像を選択的にビットマップ画像として扱うことができるため、データ記録領域等についてはデコードに適した画像形式で解析すればよく、画像領域121については識別情報の検出を条件として、より細かな画素データに基づいて認識を行うことができる。
 また、情報コード読取装置10は、画像領域121の画像と比較するためのパターン画像を登録する登録部を備え、画像処理部は、コード画像に含まれる画像領域121の画像と、登録部に登録されたパターン画像とに基づいてパターンマッチングを行い、画像領域121の画像が登録部に登録された画像であるか否かを判断する構成となっている。
 この構成によれば、情報コード内に形成された画像が予め登録されたパターン画像に相当するものであるか否かを判断することが可能となる。従って、「コード内の画像が規定画像に該当するか否かを判断し、判断結果に応じて対応する」という既存の情報コードの仕組みでは実現し得ない対応が可能となる。
 また、登録部は、パターン画像としてサイン画像が登録されており、画像処理部は、コード画像に含まれる画像領域121の画像と、登録部に登録されたサイン画像とに基づくパターンマッチングにより、画像領域121の画像が登録部に登録されたサイン画像であるか否かを判断する構成となっている。
 この構成によれば、情報コード内に描画された画像が予め登録されたサイン画像に該当するか否かを判断することが可能となる。従って、例えば情報コード及び情報コード読取装置10を利用してサイン認証等を行うことが可能となる。
 また、画像処理部は、撮像部によって撮像された情報コードのコード画像における特定パターン領域の特定パターン画像、データ記録領域及び誤り訂正符号記録領域の少なくともいずれかのセル画像に基づいて、当該コード画像に含まれる画像領域121内の画像を補正して当該画像領域121の正規化画像を生成する構成となっている。
 この構成によれば、コード領域を構成する他の画像(特定パターン画像、記録領域のセル画像等)を利用し、他の画像に基づいて画像領域121の画像を補正した上でその正規化画像に対して認識処理を行うことができる。従って、例えばコード全体に歪みや変形等が生じ、それにより画像領域121に歪みや変形等が生じていたとしても、画像領域121を適正な画像に変換した上で画像領域121に対する認識処理を行うことができ、より認識処理の精度を高めることができる。
 また、情報コード生成装置は、コード領域内における画像処理部による認識対象となる領域の位置を示す位置データをデータ記録領域に記録するように情報コードを生成する構成であり、情報コード読取装置10の画像処理部は、データ記録領域読取部によるデータ記録領域の読取結果から得られる位置データに基づいてコード画像内での認識対象となる領域の位置を特定し、当該認識対象となる領域の画像に対して画像認識処理を行う構成となっている。
 この構成では、画像領域121の位置を特定するデータが予め情報コード読取装置10内に存在しなくても、情報コード読取装置10の画像処理部はコード画像内での画像領域121の位置をより正確に特定することが可能となる。
 また、情報コード読取装置10は、データ記録領域読取部によって読み取られた情報と、画像処理部による画像領域121の認識結果とを出力する出力部を有する構成となっている。
 この構成によれば、データ記録領域に予め記録された情報だけでなく、画像領域の認識結果についても読取装置によって出力することができ、既存の情報コードの仕組みでは実現し得ない対応(画像認識結果の出力)が可能となる。
 [第2実施形態]
 次に、第2実施形態について、図面を参照して説明する。
 第2実施形態は、図9の処理を図13のように変更した点のみが第1実施形態と異なり、それ以外は第1実施形態と同一である。よって、第1実施形態と同一の部分については説明を省略し、適宜図1~図12を参照することとする。
 この例では、図9のS48~S50の処理に代えて、図13のS68、S69の処理を行っている。なお、S60~S67の処理は、図9のS40~S47と同一である。
 図13の処理では、S67の後、まずS62で解読されたデータを出力している。この出力方法は第1実施形態と同様に行うことができる。その後、S67で正規化された画像領域121の画像(画像処理部によって認識された画像領域の画像)を、所定の画像ファイル形式で出力している。所定の画像ファイル形式は公知の様々な形式を採用することができ、例えばビットマップファイル形式であってよく、GIF形式や、JPEG形式等であってもよい。或いはこれ以外の画像ファイル形式であってもよい。
 このようにすることで、データ記録領域の解読結果に加え、画像領域121の認識結果を画像ファイル形式で出力することができ、既存の情報コードの仕組みでは実現し得ない対応(解読データと画像ファイルの両方の出力)が可能となる。
 [第3実施形態]
 次に、第3実施形態について、図面を参照して説明する。
 第3実施形態は、情報コード100における画像領域121の具体的内容と、S49での具体的比較方法のみが第1実施形態と異なり、それ以外は第1実施形態と同一である。よって、第1実施形態と同一の部分については説明を省略し、適宜図1~図12を参照することとする。
 この構成では、情報コード100が図14のようなコードとして構成されており、画像領域121には公知のフォログラムが付され、フォログラム画像が形成されている。そして、このような情報コード100をマスターコードとして予め図9の読取処理(具体的にはS40~S47の処理)を行い、正規化された画像領域121の画像(マスターコードのフォログラム画像)とデータ記録領域のデータ(マスターコードの記録データ(例えば整理番号等))とをメモリ35に登録しておく。即ち、メモリ35(登録部)に登録されるパターン画像として、図11(C)上部のようなサイン画像に代えて図14の画像領域121のようなフォログラム画像が登録され、これと対応して記録データ(整理番号等)が登録されることになる。
 そして、このような登録がなされた以降に行われる図9の処理では、このようなマスターコードと同一の情報コードであるか否かの認証を行うことができる。例えば、図14のような情報コード100が認証対象として撮像され、図9のような処理が行われた場合、第1実施形態と同様にS40~S47の処理を行い、S48では、メモリ35に登録されたフォログラム画像とS47で正規化された画像領域121の画像が一致しているか否かを判断する。一致している場合には、S49にてYesに進んでS50の処理を第1実施形態と同様に行い、一致していない場合には、S49にてNoに進んで読み取り失敗時の処理を第1実施形態と同様に行う。
 このように、本実施形態では、画像処理部は、コード画像に含まれる画像領域の画像と、登録部に登録されたフォログラム画像とに基づくパターンマッチングにより、画像領域の画像が登録部に登録されたフォログラム画像であるか否かを判断する構成となっている。
 この構成によれば、情報コード内に描画された画像が予め登録されたフォログラム画像に該当するか否かを判断することが可能となる。従って、例えば情報コード及び情報コード読取装置を利用してフォログラム認証等を行うことが可能となる。
 なお、この例では、例えば、登録時に情報コード100を所定の一方向(例えば、コード形成面と垂直な方向)で撮像したときのフォログラム画像をメモリ35に登録しておき、認証時に前記所定の一方向で情報コード100を撮像したときのフォログラム画像をメモリ35に登録された登録画像とパターンマッチングなどによって比較して一致しているか否かを判断してもよい。或いは、登録時に情報コード100を所定の二方向で撮像したときの2つのフォログラム画像をメモリ35に登録しておき、認証時に前記所定の二方向で情報コード100を撮像したときのフォログラム画像をそれぞれメモリ35に登録された登録画像と比較して一致しているか否かを判断してもよい。
 [第4実施形態]
 次に、第4実施形態について、図面を参照して説明する。
 第4実施形態は、情報コード100における画像領域121の具体的内容と、S49での具体的比較方法のみが第1実施形態と異なり、それ以外は第1実施形態と同一である。よって、第1実施形態と同一の部分については説明を省略し、適宜図1~図12を参照することとする。
 この構成では、情報コード100が図15のようなコードとして構成されており、画像領域121には指紋画像が形成されている。そして、このような情報コード100をマスターコードとして予め図9の読取処理(具体的にはS40~S47の処理)を行い、正規化された画像領域121の画像(マスターコードの指紋画像)とデータ記録領域のデータ(マスターコードの記録データ(例えば認証番号等))とをメモリ35に登録しておく。即ち、メモリ35(登録部)に登録されるパターン画像として、図11(C)上部のようなサイン画像に代えて図15の画像領域121のような指紋画像が登録され、これと対応して記録データ(整理番号等)が登録されることになる。これにより、予め登録者の指紋画像がメモリ35に蓄積されることになる。
 そして、このような登録がなされた以降に行われる図9の処理では、このように登録された指紋画像の指紋と同一の指紋であるか否かの認証を行うことができる。例えば、図15のような情報コード100が認証対象として撮像され、図9のような処理が行われた場合、第1実施形態と同様にS40~S47の処理を行い、S48では、メモリ35に登録された指紋画像とS47で正規化された画像領域121の画像が一致しているか否かを判断する(一致判断処理)。指紋画像の一致の判断は公知の指紋比較方法であればいずれも用いることができ、例えばパターンマッチング法、特徴点抽出法(マニューシャ法)、周波数解析法等を用いて一致を判断することができる。そして、S49において一致していると判断された場合には、S49にてYesに進んでS50の処理を第1実施形態と同様に行い、一致していない場合には、S49にてNoに進んで読み取り失敗時の処理を第1実施形態と同様に行う。
 このように、本実施形態では、メモリ35(登録部)において、パターン画像として指紋画像が登録されており、画像処理部は、コード画像に含まれる画像領域121の画像と、登録部に登録された指紋画像とに基づき、画像領域の画像が登録部に登録された指紋画像であるか否かを判断する構成となっている。
 この構成によれば、情報コード内に描画された画像が予め登録された指紋画像に該当するか否かを判断することが可能となる。従って、例えば情報コード及び情報コード読取装置を利用して指紋認証等を行うことが可能となる。
 [第5実施形態]
 次に、第5実施形態について、図面を参照して説明する。
 第5実施形態の情報コード利用システムは、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。
 第5実施形態の情報コード利用システムでは、情報コード生成装置2(図1等参照)により図16(B)のような情報コード200を生成する。この構成でも、コード領域の内部に、予め定められた形状の特定パターン(位置検出パターン204)が配置される特定パターン領域と、複数種類のセルによってデータを記録するデータ記録領域と、情報コード読取装置10によって所定の画像認識処理を行う対象となる画像領域121とを設けている。
 この構成では、空き領域210内の構成以外は、公知のQRコード(登録商標)として構成されており、まず、図16(A)のように、コード領域の内部に、特定パターン領域と、データ記録領域と、複数種類のセルによって誤り訂正符号を記録する誤り訂正符号記録領域とを設けている。なお、データ記録領域でのデータコードワードの記録方法及び誤り訂正符号記録領域での誤り訂正コードワードの記録方法は公知のQRコード(登録商標)と同様であり、例えば、JISX0510で規定される方式でコード領域内の位置検出パターン204の配置、データ記録領域におけるデータコードワードの配置、誤り訂正符号記録領域での誤り訂正コードワードの配置が定められている。
 但し、図16(A)のように、一部領域のコードワードを、白色セルのみによって表現されるコードワードとして構成した情報コード200’を生成し、このように白色セルのみによって表現される領域ARを空き領域210として、図16(B)のように、この空き領域210内に画像領域121を設けている。図16(B)の例では、空き領域210内に、第1実施形態と同様のサイン画像記録領域を設け、このサイン画像記録領域内にサインが記入された状態を示している。このように構成した場合、図16(A)のような本来のデータ表示とは異なった構成になるが、この空き領域210でのデータの誤りは、誤り訂正符号記録領域に記録された誤り訂正符号を用いて公知の誤り訂正を行えばよい。
 また、図16(B)に示す情報コード200では、空き領域210の位置が予め特定されるため、空き領域210内にデザインや情報を付加して表示する場合にはこの表示による誤り位置が予め分かっていることになる。従って、空き領域210の位置を誤り位置として消失訂正を行うように誤り訂正符号記録領域の誤り訂正符号を構成することもできる。この場合、空き領域210の位置を示す情報を予めデータ記録領域に記録しておいたり、或いは、予め読取装置10(図1)内に記憶しておくことで、読取時に読取装置10が空き領域210の位置(即ち、誤りが生じているデータコードワードの位置)を特定することができるようになり、読取装置10は、このように位置が特定された空き領域210に存在するデータコードワードの誤りを訂正するように、誤り訂正符号記録領域に記録された誤り訂正符号を用いて消失訂正を行うようにすればよい。
 また、図16のように既存のQRコード(登録商標)の一部を空き領域210として構成する場合、データ記録領域に記録されるデータにおいて、図18(A)のような識別情報を含ませておけばよい。図18(A)は、データ記録領域に記録される解読対象データ構成を概念的に示しており、この例では、解読対象データの先頭部分に、所定構成(%%IMAGE%%)のデータが付されている。このように構成しておけば、読取装置10は、データ記録領域に記録される解読対象データの中からこの識別情報(%%IMAGE%%)を検出したときに、画像領域121の画像認識処理を行うことができるようになり、逆に、識別情報(%%IMAGE%%)を検出できないときには通常のデコード処理を行うことになる。また、この例では、データ記録領域のデータとして、通常のデータ以外に、画像領域の位置を特定する位置データや、その他の付随情報が含まれていることが望ましい。また、図18(A)に示すデータは、データ記録領域に記録されるデータの内、終端子よりも前に配置される解読対象データを示しており、終端子よりも後に配置される埋め草コードは省略している。本構成では、例えば、この埋め草コードの領域を全て白色セルのみで表示するようにし、この領域を空き領域210として扱うようにすることができる。
 また、識別情報の例はこの例に限られるものではなく、例えばモード番号として専用のモード番号を用いるようにしてもよい。例えば、QRコードの規格では、1:数字モード、2:英数字モード、3:連結モード等が定められており、このようなモード番号の1つとして14:画像認識モードを設けるようにしてもよい。このような例では、モード番号「14」が設定されている場合に、画像領域121の画像認識処理を行えばよい。
 なお、図16では、画像領域にサイン画像が表示された例を示したが、サイン画像を用いた画像認識処理は第1実施形態や第2実施形態と同様の方法で行うことができる。また、画像領域121の画像は、図14のようなフォログラム画像であってもよく、この場合、フォログラム画像を用いた画像認識処理は、第3実施形態と同様の方法で行うことができる。また、画像領域121の画像は、図15のような指紋画像であってもよい。この場合、指紋画像を用いた画像認識処理は、第4実施形態と同様の方法で行うことができる。また、情報コード200の基本構成は、上述又は後述のそれ以外の実施形態にも適用できる。
 [第6実施形態]
 次に、第6実施形態について説明する。
 第6実施形態の情報コード利用システムも、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。
 第6実施形態の情報コード利用システムでは、情報コード生成装置2(図1等参照)により図17(B)のような情報コード300を生成する。この構成でも、コード領域の内部に、予め定められた形状の特定パターン(L字状のアライメントパターン304a及び明色セルと暗色セルが1セルずつ交互に配置され、コード領域の境界に沿ったL字状の領域を構成するタイミングパターン(タイミングセル)304b)が配置される特定パターン領域と、複数種類のセルによってデータを記録するデータ記録領域とを設け、コード領域の内部において、特定パターン領域以外の位置に、データ記録領域にデータを記録する方法とは異なる方法で、データの記録又はデザインの表示の少なくともいずれかが可能となる空き領域310を、単一のセルのサイズよりも大きい所定サイズで設けている。
 この構成では、空き領域310の構成以外は、公知のデータマトリックスコードとして構成されており、まず、図17(A)のように、コード領域の内部に、特定パターン領域と、データ記録領域と、複数種類のセルによって誤り訂正符号を記録する誤り訂正符号記録領域とを設けている。なお、データ記録領域でのデータコードワードの記録方法及び誤り訂正符号記録領域での誤り訂正コードワードの記録方法は公知のデータマトリックスコードと同様であり、コード領域内のアライメントパターン304aやタイミングパターン304bの配置、データ記録領域におけるデータコードワードの配置、誤り訂正符号記録領域での誤り訂正コードワードの配置は、例えばECC200バージョンに従って定められている。
 但し、図17(A)のように、一部領域のコードワードを、白色セルのみによって表現されるコードワードとして構成した情報コード300’を生成し、このように白色セルのみによって表現される領域ARを空き領域310として、図17(B)のように、この空き領域310内に画像領域121を設けている。図17(B)のように空き領域310に画像領域121を設ける場合、図17(A)のような本来のデータ表示とは異なった構成になるが、この空き領域310でのデータの誤りは、誤り訂正符号記録領域に記録された誤り訂正符号を用いて公知の誤り訂正を行えばよい。
 また、図17(B)に示す情報コード300では、空き領域310の位置が予め特定されるため、空き領域310内にデザインや情報を付加して表示する場合にはこの表示による誤り位置が予め分かっていることになる。従って、空き領域310の位置を誤り位置として消失訂正を行うように誤り訂正符号記録領域の誤り訂正符号を構成することもできる。この場合、空き領域310の位置を示す情報を予めデータ記録領域に記録しておいたり、或いは、予め読取装置10(図1)内に記憶しておくことで、読取時に読取装置10が空き領域310の位置(即ち、誤りが生じているデータコードワードの位置)を特定することができるようになり、読取装置10は、このように位置が特定された空き領域310に存在するデータコードワードの誤りを訂正するように、誤り訂正符号記録領域に記録された誤り訂正符号を用いて消失訂正を行うようにすればよい。
 また、図17のように既存のデータマトリックスコードの一部を空き領域310として構成する場合、データ記録領域に記録されるデータにおいて、図18(B)のような識別情報を含ませておけばよい。図18(B)は、データ記録領域に記録される解読対象データ構成を概念的に示しており、この例では、解読対象データの先頭部分に、所定構成(%%IMAGE%%)のデータが付されている。このように構成しておけば、読取装置10は、データ記録領域に記録される解読対象データの中からこの識別情報(%%IMAGE%%)を検出したときに、画像領域121の画像認識処理を行うことができるようになり、逆に、識別情報(%%IMAGE%%)を検出できないときには通常のデコード処理を行うことになる。また、この例では、データ記録領域のデータとして、通常のデータ以外に、画像領域の位置を特定する位置データや、その他の付随情報が含まれていることが望ましい。
 また、識別情報の例はこの例に限られるものではなく、例えば専用のコードワードを用いるようにしてもよい。データマトリックスコードの仕様として、例えば、0~128をASCII文字、233を連結モードなどとして定めている場合、「234」を画像認識用の特別なコードワードとして新たに定めるようにしてもよい。このような例では、データ記録領域のデータに「234」のコードワードが含まれている場合に、画像領域121の画像認識処理を行えばよい。また、未使用のコードワードが存在する場合、未使用のコードワードを識別情報として含ませておき、データ記録領域のデータに未使用のコードワードが含まれている場合に、画像領域121の画像認識処理を行うようにしてもよい。
 なお、図17では、画像領域にサイン画像が表示された例を示したが、サイン画像を用いた画像認識処理は第1実施形態や第2実施形態と同様の方法で行うことができる。また、画像領域121の画像は、図14のようなフォログラム画像であってもよく、この場合、フォログラム画像を用いた画像認識処理は、第3実施形態と同様の方法で行うことができる。また、画像領域121の画像は、図15のような指紋画像であってもよい。この場合、指紋画像を用いた画像認識処理は、第4実施形態と同様の方法で行うことができる。また、情報コード300の基本構成は、上述又は後述のそれ以外の実施形態にも適用できる。
 [第7実施形態]
 次に、第7実施形態について説明する。
 第7実施形態の情報コード利用システムは、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。特に、生成装置2及び読取装置10のハードウェア構成は第1実施形態と同一であるため、適宜、図1、図2等を参照して説明することとする。
 第7実施形態で用いられる情報コード400は、空き領域410の内容が第1実施形態の情報コード100と異なるだけであり、それ以外の特定パターン領域やデータ記録領域の構成は、第1実施形態の情報コードと同一である。なお、特定パターン配置領域やデータ記録領域の構成は、第1実施形態と全く同一であってもよく、若干配置が異なっていてもよい。また、空き領域410の位置については特に限定されず、第1実施形態の情報コード100の空き領域110と全く同じ位置に設けてもよく、空き領域110とは異なる位置であってもよい。
 図19(A)(B)に示すように、生成装置2によって生成される情報コード400は、矩形状(例えば、正方形状或いは長方形状等)のコード領域の内部に、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類のセル102によってデータを記録するデータ記録領域と、複数種類のセル102によって誤り訂正符号を記録する誤り訂正符号記録領域とが設けられている。本構成でも、第1実施形態と同様の特定パターンとなっており、例えば、QRコード(登録商標)の公知の所定型番の特定パターンと同一の形状及び位置となっており、図19(A)等の例では、コード領域の3つの角部にそれぞれ、特定パターンとしての位置検出パターン(切り出しシンボル)104が配置されている。
 本システムでは、例えば生成装置2により、所定の形成対象媒体401に位置検出パターン104やその他のセルの図形を印刷する構成で情報コード400を形成している。形成対象媒体401は、紙材料、樹脂材料、金属材料、その他の公知材料によって構成されており、例えば、所定の厚さのシート状或いは板状に構成されている。なお、形成対象媒体401は、一方面側に情報コード400が形成可能な構成であり、且つ窓部が形成可能な構成であればよく、具体的な形状は特に限定されない。例えば、複数の材料が積層された構成などであってもよい。
 生成装置2によって形成される情報コード400は、例えば、形成対象媒体401の表面401aの所定領域に特定パターン領域、データ記録領域、訂正符号記録領域が印刷やダイレクトマーキングなどの公知の形成方法によって表されている。なお、形成対象媒体401に形成される特定パターン領域、データ記録領域、訂正符号記録領域は、表面401a側から視認可能に形成されていればよく、その形成位置は表面401aに限定されるものではない。例えば、紙材料、樹脂材料、金属材料などからなる部材の表面に特定パターン領域、データ記録領域、訂正符号記録領域を形成し、その上から透明なシート状又は板状の部材を配置して覆うようにしてもよい。この構成では、透明な部材の表面が表面401aとなり、特定パターン領域、データ記録領域、訂正符号記録領域などは、表面401aよりも奥側(裏面側)の位置に形成されることになる。いずれにしても、形成対象媒体401の表面401a側から特定パターン領域、データ記録領域、訂正符号記録領域が視認可能となる構成で形成対象媒体401に特定パターン領域、データ記録領域、訂正符号記録領域が形成されればよい。
 そして、形成対象媒体401において、コード領域の外縁部よりも内側には、表面401a側から裏面401b側を視認させる窓部403が設けられている。図19等に示す例では、窓部403が四角形状の貫通孔として形成されており、この貫通孔が表面401aと裏面401bとの間に続く構成となっている。なお、図19のような情報コード400が付された情報コード媒体を形成する場合、生成装置2によって窓部403を形成する前の形成対象媒体(紙材料、樹脂材料、金属材料、その他の材料によるシート状或いは板状の部材)に対して特定パターン領域、データ記録領域、訂正符号記録領域を形成し、その後、形成対象媒体から窓部403内の部分を切り取って図19のような情報コード400を得るようにしてもよい。或いは、紙材料、樹脂材料、金属材料、その他の材料によるシート状或いは板状の部材に対して窓部403を形成して予め形成対象媒体401を作成しておき、この形成対象媒体401に生成装置2によって特定パターン領域、データ記録領域、訂正符号記録領域を形成して図19のような情報コード400を得るようにしてもよい。
 このように構成された情報コード400は、情報コード読取装置10によって所定の画像認識処理を行う対象となる画像領域がコード領域内に表されるようになっている。例えば、図20のように、キャラクター432の絵が描かれた被写体430の所定領域を撮像して画像として利用したい場合、画像として利用したい領域が窓部403内に収まるように形成対象媒体401をその被写体の上に配置することで、図21(A)のように、画像認識処理を行う対象となる画像領域(被写体430において窓部403内に配置される領域、即ち、表面401a側から窓部403を介して視認される領域)が情報コード400のコード領域内に表されることになる。なお、この例では、情報コード400において窓部403の内側が空き領域になっており、例えばデータ記録領域によってデータが記録されず、且つ誤り訂正領域による誤り訂正の対象とならない領域となっている。また、図20では、被写体の例として被写体430を例示しているが、被写体の例はこれに限定されず、上述した実施形態で示される画像領域の画像など、様々な画像を被写体にすることができる。
 そして、図21(A)のように表された情報コード400と被写体430を、図21(B)のように読取装置10によって撮像することで、図22(A)のような撮像画像が得られる。なお、図22(A)の画像は、読取装置10によって撮像された画像から、コード領域内の画像のみを切り取って表したものである。このように得られたコード領域内の画像により、第1実施形態と同様の方法で情報コード400を読み取ることができ、第1実施形態と同様の方法で空き領域410の画像410’を抽出することができる。
 本構成でも、図2に示す受光センサ23が撮像部の一例に相当し、形成対象媒体401の表面401a側から、特定パターン領域及びデータ記録領域と、窓部403内の領域とを撮像するように機能する。また、図2に制御回路40は画像処理部の一例に相当し、撮像部によって撮像された窓部403内の領域の画像を、画像領域の画像として、データ記録領域読取部によるデータの解読処理とは異なる方法で画像認識処理を行うように機能する。
 本構成によれば、情報コード生成装置により、形成対象媒体に対し、特定パターン領域、データ記録領域、及び窓部が形成された特徴的な情報コードを形成することができる。そして、情報コード読取装置がこの形成対象媒体を撮像して情報コードを読み取る際には、その形成対象媒体の表面側から窓部を通して把握される内容を画像として認識できるようになる。特に、情報コードの読み取りに伴い、データ記録領域に記録されたデータの利用に加え、形成対象媒体に予め表示されていなかった被写体(窓部を通して把握される被写体)の画像を利用するという新規な画像利用方法が可能となり、利用者の利便性を高めることができる。また、情報コードの読み取りの際には、形成対象媒体の後方に位置する被写体のうち、必要な範囲のみが窓部を通して写るように位置を調整すれば、必要な領域の画像を選択的に利用できるようになり、画像を利用する上での利便性が一層高まる。
 なお、画像領域の画像(空き領域410の画像410’)を抽出した後の、当該画像に対する画像処理方法は、上述した実施形態のいずれの処理方法を用いてもよい。
 或いは、生成装置2が情報コード400を生成する際に、データ記録領域に画像領域の画像の送信先を特定するアドレス情報(例えば、電子メールでの送り先を特定するメールアドレスやインターネット上のアドレスを特定するURLなど)を記録するように情報コード400を生成しておき、画像処理部の相当する制御回路40は、図22(A)のようなコード画像が得られた場合に、そのコード画像から画像領域の画像の一部又は全部を切り出し、データ記録領域に記録されたアドレス情報で特定される送信先に送信するようにその切り出した画像を処理してもよい。これにより、その送信先では、抽出された画像を用いた様々な処理(図22(B)のような表示処理や解析処理、画像蓄積処理、その他の画像処理など)が可能となる。例えば抽出された画像を送信先の外部装置90で表示する場合、ブログ、ホームページ、その他のサイトなどで表示することができる。
 このようにすれば、情報コード読取装置10が情報コード400を読み取る際に、認識された画像領域の画像をデータ記録領域に記録されたアドレス情報で特定される送信先に自動的に送信するといった処理が可能となる。このようにすれば、情報コードの読み取り毎に、画像領域の画像を送るべき送信先を特定するアドレス情報の入力操作などを行わずに済み、入力操作に伴う作業負担や入力間違えなどを確実に抑えることができる。
 なお、上述した例では、貫通孔として構成される窓部403を例示したが、窓部403は裏側が視認できる構成であればよい。例えば、上述した四角形状の貫通孔を塞ぐように透明部材(透明な樹脂シートなど)が配置され、この透明部材を介して裏側が視認できるような構成であってもよい。また、窓部403の形状は四角形状に限られず、円形状、楕円形状、三角形状、他の多角形状などであってもよい。
 [第7実施形態の変形例1]
 次に、第7実施形態の変形例1について説明する。なお、変形例1は、窓部403を通して撮像する対象(被写体)のみが上述の代表例(図19~図22の例)と異なり、それ以外は代表例と同一である。
 この変形例1では、図19のように構成された情報コード400を、図23のように撮像対象となる風景又は景色の前に配置し、情報コード400内に風景又は景色の一部を表すようにしている。この図23の例では、情報コード読取装置10によって所定の画像認識処理を行う対象となる画像領域(風景又は景色の画像を示す領域)がコード領域内に表されるようになっている。例えば、風景又は景色を撮像してその一部を画像として利用したい場合、図23のように、撮像対象となる風景又は景色のうち、画像として利用したい領域が窓部403内に収まるように形成対象媒体401と風景又は景色の位置関係を調整すればよい。これにより、画像認識処理を行う対象となる画像領域(撮像対象となる風景又は景色において窓部403を通して視認される領域)が情報コード400のコード領域内に表されることになる。なお、この例でも、情報コード400において窓部403の内側(窓部内の開口領域)が空き領域410になっており、例えばデータ記録領域によってデータが記録されず、且つ誤り訂正領域による誤り訂正の対象とならない領域となっている。
 そして、図23のように位置調整された情報コード400と被写体(風景又は景色)を読取装置10によって撮像することで、図24(A)のような撮像画像が得られる。なお、図24(A)の画像は、読取装置10によって撮像された画像から、コード領域内の画像のみを切り取って表したものである。このように得られたコード領域内の画像により、第1実施形態と同様の方法で情報コード400を読み取ることができ、第1実施形態と同様の方法で空き領域410の画像410’を抽出することができる。この抽出される画像410’は、形成対象媒体401の後ろの風景又は景色が窓部403を介して受光センサ23に映り込んだ画像であり、風景又は景色の一部の画像である。そして、このように抽出された画像410’は、上述した実施形態や代表例と同様の方法で利用することができる。
 この例でも、生成装置2が情報コード400を生成する際に、データ記録領域に画像領域の画像の送信先を特定するアドレス情報(例えば、電子メールでの送り先を特定するメールアドレスやインターネット上のアドレスを特定するURLなど)を記録するように情報コード400を生成しておき、画像処理部の相当する制御回路40は、図24(A)のようなコード画像が得られた場合に、そのコード画像から画像領域の画像(空き領域410の画像410’)の一部又は全部を切り出し、データ記録領域に記録されたアドレス情報で特定される送信先に送信するようにその切り出した画像を処理してもよい。これにより、その送信先では、抽出された画像を用いた様々な処理(図24(B)のような表示処理や解析処理、画像蓄積処理、その他の画像処理など)が可能となる。
 [第7実施形態の変形例2]
 次に、第7実施形態の変形例2について説明する。なお、変形例2は、窓部403を通して撮像する対象(被写体)のみが上述の代表例(図19~図22の例)と異なり、それ以外は代表例と同一である。
 この変形例2では、図25(A)左側のような測定機器92を撮像対象としており、図19のように構成された情報コード400を、その測定機器92を覆う状態で配置するように用いている。そして、この図25の例でも、情報コード読取装置10によって所定の画像認識処理を行う対象となる画像領域(測定機器92の一部の領域である計測値表示領域92a)がコード領域内に表されるようになっている。例えば、図25(A)の例では、測定機器92として公知の放射能計を例示しており、測定機器92の存在する空間の放射能を測定し、その測定値を計測値表示領域92aに表示する構成となっている。このような測定機器92を撮像して計測値表示領域92aの画像を利用したい場合、図25(B)のように画像として利用したい計測値表示領域92aが窓部403内に収まるように形成対象媒体401と測定機器92との位置関係を調整することで、画像認識処理を行う対象となる画像領域(計測値表示領域92a)が情報コード400のコード領域内に表されることになる。なお、この例でも、情報コード400において窓部403の内側の開口領域が空き領域410になっており、例えばデータ記録領域によってデータが記録されず、且つ誤り訂正領域による誤り訂正の対象とならない領域となっている。
 そして、図25(B)のように位置調整された情報コード400と測定機器92とを、図26(A)のように読取装置10によって撮像することで、図26(B)の左側に図示するような撮像画像が得られる。なお、図26(B)の画像は、図26(A)のように読取装置10によって撮像された画像から、コード領域内の画像のみを切り取って表したものである。このように得られたコード領域内の画像により、第1実施形態と同様の方法で情報コード400を読み取ることができ、第1実施形態と同様の方法で空き領域410の画像410’を抽出することができる。なお、抽出された画像410’の利用方法は上述した実施形態や代表例と同様である。
 この例でも、生成装置2が情報コード400を生成する際に、データ記録領域に画像領域の画像の送信先を特定するアドレス情報(例えば、電子メールでの送り先を特定するメールアドレスやインターネット上のアドレスを特定するURLなど)を記録するように情報コード400を生成しておき、画像処理部の相当する制御回路40は、図26(B)左側のようなコード画像が得られた場合に、そのコード画像から画像領域の画像の一部又は全部を切り出し、データ記録領域に記録されたアドレス情報で特定される送信先に送信するようにその切り出した画像を処理してもよい。これにより、その送信先では、抽出された画像を用いた様々な処理(図26(B)右側のような表示処理や解析処理、画像蓄積処理、その他の画像処理など)が可能となる。
 [第7実施形態の変形例3]
 次に、第7実施形態の変形例3について説明する。なお、変形例3は、窓部403を通して撮像する対象(被写体)のみが上述の代表例(図19~図22の例)と異なり、それ以外は代表例と同一である。
 この変形例3では、図27(A)左側のような印刷物94を撮像対象としており、図19のように構成された情報コード400を、その印刷物94を覆う構成で配置するように用いている。この例では、図27(B)のように、情報コード読取装置10によって所定の画像認識処理を行う対象となる画像領域(印刷物94の一部の領域である記載領域94a)をコード領域内に表すことができるようになっている。例えば、図27(A)の例では、印刷物94として雑誌、カタログ、新聞、広告媒体、その他の印刷物を示しており、様々な内容が記載可能とされている。このような印刷物94を撮像して一部の記載領域94aの画像を利用したい場合、図27(B)のように画像として利用したい記載領域94aが窓部403内に収まるように形成対象媒体401と印刷物94との位置関係を調整することで、画像認識処理を行う対象となる画像領域(記載領域94a)が情報コード400のコード領域内に表されることになる。なお、この例でも、情報コード400において窓部403の内側の開口領域が空き領域410になっており、例えばデータ記録領域によってデータが記録されず、且つ誤り訂正領域による誤り訂正の対象とならない領域となっている。
 そして、図27(B)のように位置調整された情報コード400と印刷物94とを図28(A)のように読取装置10によって撮像することで、図28(B)の左側に図示するような撮像画像が得られる。なお、図28(B)の画像は、図28(A)のように読取装置10によって撮像された画像から、コード領域内の画像のみを切り取って表したものである。このように得られたコード領域内の画像により、第1実施形態と同様の方法で情報コード400を読み取ることができ、第1実施形態と同様の方法で空き領域410の画像410’を抽出することができる。なお、抽出された画像410’の利用方法は上述した実施形態や代表例と同様である。
 この例でも、生成装置2が情報コード400を生成する際に、データ記録領域に画像領域の画像の送信先を特定するアドレス情報(例えば、電子メールでの送り先を特定するメールアドレスやインターネット上のアドレスを特定するURLなど)を記録するように情報コード400を生成しておき、画像処理部の相当する制御回路40は、図28(B)左側のようなコード画像が得られた場合に、そのコード画像から画像領域の画像の一部又は全部を切り出し、データ記録領域に記録されたアドレス情報で特定される送信先に送信するようにその切り出した画像を処理してもよい。これにより、その送信先では、抽出された画像を用いた様々な処理(図28(B)右側のような表示処理や解析処理、画像登録処理、その他の画像処理など)が可能となる。
 [第7実施形態の変形例4]
 次に、第7実施形態の変形例4について説明する。なお、変形例4は、窓部403を通して撮像する対象(被写体)のみが上述の代表例(図19~図22の例)と異なり、それ以外は代表例と同一である。
 この変形例4では、図29(A)左側のような生物96aを撮像対象としており、図19のように構成された情報コード400を、撮像対象(観察対象生物96a及びその収容容器96)の上方に配置している。この例では、図29(B)のように、情報コード読取装置10によって所定の画像認識処理を行う対象となる画像領域(観察対象となる生物96aが視認される領域)をコード領域内に表すことができるようになっている。なお、図29(A)では、観察対象として生物96aを例示しているが、様々な動物、植物などを観察対象とすることができる。このような生物96aを撮像して生物96aの画像を利用したい場合、図29(B)のように画像として利用したい生物96aが窓部403内に収まるように形成対象媒体401と生物96aとの位置関係を調整することで、画像認識処理を行う対象となる画像領域(生物96aが示される領域)が情報コード400のコード領域内に表されることになる。なお、この例でも、情報コード400において窓部403の内側の開口領域が空き領域になっており、例えばデータ記録領域によってデータが記録されず、且つ誤り訂正領域による誤り訂正の対象とならない領域となっている。
 そして、図29(B)のように位置調整された情報コード400と生物96aとを図30(A)のように読取装置10によって撮像することで、図30(B)の左側に図示するような撮像画像が得られる。なお、図30(B)の画像は、図30(A)のように読取装置10によって撮像された画像から、コード領域内の画像のみを切り取って表したものである。このように得られたコード領域内の画像により、第1実施形態と同様の方法で情報コード400を読み取ることができ、第1実施形態と同様の方法で空き領域410の画像410’を抽出することができる。なお、抽出された画像410’の利用方法は上述した実施形態や代表例と同様である。
 この例でも、生成装置2が情報コード400を生成する際に、データ記録領域に画像領域の画像の送信先を特定するアドレス情報(例えば、電子メールでの送り先を特定するメールアドレスやインターネット上のアドレスを特定するURLなど)を記録するように情報コード400を生成しておき、画像処理部の相当する制御回路40は、図30(B)左側のようなコード画像が得られた場合に、そのコード画像から画像領域の画像の一部又は全部を切り出し、データ記録領域に記録されたアドレス情報で特定される送信先に送信するようにその切り出した画像を処理してもよい。これにより、その送信先では、抽出された画像を用いた様々な処理(図30(B)右側のような表示処理や解析処理、画像登録処理、その他の画像処理など)が可能となる。
 [第7実施形態の変形例5]
 次に、第7実施形態の変形例5について説明する。なお、変形例5は、窓部403を通して撮像する対象(被写体)のみが上述の代表例(図19~図22の例)と異なり、それ以外は代表例と同一である。
 この変形例5でも、図19のように構成された情報コード400を用い、この情報コード400によって撮像対象(図31(B)の例では色見本98b)を覆うように配置することで、情報コード読取装置10によって所定の画像認識処理を行う対象となる画像領域(図31(B)の例では色見本98b)をコード領域内に表すことができるようになっている。図31(A)の例では、異なる複数の色の色見本98a、98b、98cが用意されており、いずれかの色見本を撮像してその画像を利用したい場合、図31(B)のように画像として利用したい色見本98bが窓部403内に収まるように形成対象媒体401と色見本98bとの位置関係を調整することで、画像認識処理を行う対象となる画像領域(色見本98bが示される領域)が情報コード400のコード領域内に表されることになる。なお、この例でも、情報コード400において窓部403の内側の開口領域が空き領域410になっており、例えばデータ記録領域によってデータが記録されず、且つ誤り訂正領域による誤り訂正の対象とならない領域となっている。
 そして、図31(B)のように位置調整された情報コード400と色見本98bとを図32(A)のように読取装置10によって撮像することで、図32(B)の左側のような撮像画像が得られる。なお、図32(B)の画像は、図32(A)のように読取装置10によって撮像された画像から、コード領域内の画像のみを切り取って表したものである。このように得られたコード領域内の画像により、第1実施形態と同様の方法で情報コード400を読み取ることができ、第1実施形態と同様の方法で空き領域410の画像410’を抽出することができる。なお、抽出された画像410’の利用方法は上述した実施形態や代表例と同様である。
 この例でも、生成装置2が情報コード400を生成する際に、データ記録領域に画像領域の画像の送信先を特定するアドレス情報(例えば、電子メールでの送り先を特定するメールアドレスやインターネット上のアドレスを特定するURLなど)を記録するように情報コード400を生成しておき、画像処理部の相当する制御回路40は、図32(B)左側のようなコード画像が得られた場合に、そのコード画像から画像領域の画像の一部又は全部を切り出し、データ記録領域に記録されたアドレス情報で特定される送信先に送信するようにその切り出した画像を処理してもよい。これにより、その送信先では、抽出された画像を用いた様々な処理(図32(B)右側のような表示処理や解析処理、画像登録処理、その他の画像処理など)が可能となる。例えば、様々の色見本を撮像し、各色見本の画像を図32(B)左側のように順次取得して外部装置90に送信すれば、その外部装置90には様々な色見本を実際に撮像した画像が蓄積されることになり、その後の様々な用途に役立てることができる。
 [第8実施形態]
 次に、第8実施形態について説明する。
 第8実施形態の情報コード利用システムも、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。特に、生成装置2及び読取装置10のハードウェア構成は第1実施形態と同一であるため、適宜、図1、図2等を参照して説明することとする。
 第8実施形態で用いられる情報コード500は、空き領域510の内容が第1実施形態の情報コード100と異なるだけであり、それ以外の特定パターン領域やデータ記録領域の構成は、第1実施形態の情報コードと同一である。なお、特定パターン配置領域やデータ記録領域の構成は、第1実施形態と全く同一であってもよく、若干配置が異なっていてもよい。また、空き領域510の位置については特に限定されず、第1実施形態の情報コード100の空き領域110と全く同じ位置に設けてもよく、空き領域110とは異なる位置であってもよい。
 図33(A)に示すように、生成装置2によって生成される情報コード500は、矩形状(例えば、正方形状或いは長方形状等)のコード領域の内部に、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類のセル102によってデータを記録するデータ記録領域と、複数種類のセル102によって誤り訂正符号を記録する誤り訂正符号記録領域とが設けられている。本構成でも、第1実施形態と同様の特定パターンとなっており、例えば、QRコード(登録商標)の公知の所定型番の特定パターンと同一の形状及び位置となっており、図33(A)等の例では、コード領域の3つの角部にそれぞれ、特定パターンとしての位置検出パターン(切り出しシンボル)104が配置されている。
 本システムでは、例えば生成装置2により、所定の形成対象媒体501に位置検出パターン104やその他のセルの図形を印刷する構成で情報コード500を形成している。形成対象媒体401は、紙材料、樹脂材料、金属材料、その他の公知材料によって構成されており、例えば、所定の厚さのシート状或いは板状に構成されている。なお、形成対象媒体501は、一方面側に情報コード500が形成可能な構成であればよく、具体的な形状は特に限定されない。例えば、複数の材料が積層された構成でなどであってもよい。
 生成装置2によって形成される情報コード500は、例えば、形成対象媒体501の表面501aの所定領域に特定パターン領域、データ記録領域、訂正符号記録領域が印刷やダイレクトマーキングなどの公知の形成方法によって表されている。なお、形成対象媒体501に形成される特定パターン領域、データ記録領域、訂正符号記録領域は、表面501a側から視認可能に形成されていればよく、その形成位置は表面501aに限定されるものではない。例えば、紙材料、樹脂材料、金属材料などからなる部材の表面に特定パターン領域、データ記録領域、訂正符号記録領域を形成し、その上から透明なシート状又は板状の部材を配置して覆うようにしてもよい。この構成では、透明な部材の表面が表面501aとなり、特定パターン領域、データ記録領域、訂正符号記録領域などは、表面501aよりも奥側(裏面側)の位置に形成されることになる。いずれにしても、形成対象媒体501の表面501a側から特定パターン領域、データ記録領域、訂正符号記録領域が視認可能となる構成で形成対象媒体501に特定パターン領域、データ記録領域、訂正符号記録領域が形成されればよい。
 そして、形成対象媒体501において、コード領域の外縁部よりも内側には、手書き入力を行うための手書き入力領域が設けられている。本構成では、情報コード500においてセル102が配置されない内側領域(セル102の配置領域の内縁境界よりも内側の領域)が空き領域510になっている。この空き領域510は、例えばデータ記録領域によってデータが記録されず、且つ誤り訂正領域による誤り訂正の対象とならない領域となっており、この空き領域510の全体が手書き入力領域となっている。空き領域510は、例えば所定色の空白領域となっており、この空白領域に様々な筆記具によって文字、図形、記号などを手書きにて書き込むことができるようになっている。なお、空き領域510には、枠などの図形や文字が手書き入力前に予め書かれていてもよい。
 そして、図33(A)のように表された情報コード500を、図33(B)のように読取装置10によって撮像することで、図34(A)左側のような撮像画像が得られる。なお、図34(A)の画像は、読取装置10によって撮像された画像から、コード領域内の画像のみを切り取って表したものである。このように得られたコード領域内の画像により、第1実施形態と同様の方法で情報コード500を読み取ることができ、第1実施形態と同様の方法で空き領域510の画像510’を抽出することができる。
 本構成でも、図2に示す受光センサ23が撮像部の一例に相当し、形成対象媒体501の表面501a側から、特定パターン領域及びデータ記録領域と、手書き入力領域とを撮像するように機能する。また、図2の制御回路40は画像処理部の一例に相当し、撮像部によって撮像された手書き入力領域の画像を、画像領域の画像として、データ記録領域読取部によるデータの解読処理とは異なる方法で画像認識処理を行うように機能する。
 なお、画像領域の画像(空き領域510の画像510’)を抽出した後の、当該画像に対する画像処理方法は、上述した実施形態のいずれの処理方法を用いてもよい。例えば、抽出した画像510’を所定のファイル形式(ビットマップ形式、GIF形式、JPEG形式などの公知のファイル形式)で保存したり送信したりしてもよく、抽出した画像510’に対して公知の文字認識処理を行い、手書き入力された文字や記号のデータを取得するようにしてもよい。
 また、生成装置2が情報コード500を生成する際に、データ記録領域に画像領域の画像又は当該画像を解析したデータの送信先を特定するアドレス情報(例えば、電子メールでの送り先を特定するメールアドレスやインターネット上のアドレスを特定するURLなど)を記録するように情報コード500を生成しておき、画像処理部の相当する制御回路40は、図34(A)のようなコード画像が得られた場合に、そのコード画像から画像領域の画像の一部又は全部を切り出した画像、或いは当該画像を解析して得られたデータを、データ記録領域に記録されたアドレス情報で特定される送信先に送信するように処理してもよい。これにより、その送信先では、抽出された画像又はその画像を解析したデータを用いた様々な処理(図34(A)右側のような表示処理や解析処理、その他の画像処理など)が可能となる。例えば抽出された画像を送信先の外部装置90で表示する場合、ブログ、ホームページ、その他のサイトなどで表示することができる。例えば、読取装置10が図34のような画像を取得し、画像領域の画像510’又はその画像510’を解析したデータをアドレス情報で特定される外部装置90に送信する度に、外部装置90では、その送信日時と送信内容(画像510’又はその画像510’を解析したデータによって特定されるメモデータ)とを対応付けて登録しておくことができ、これにより、外部装置90では、図34(B)のようにメモデータを登録した登録データベースが構築されることになる。
 この構成でも、情報コード読取装置10が情報コード500を読み取る際に、認識された画像領域の画像又はその画像を解析したデータをデータ記録領域に記録されたアドレス情報で特定される送信先に自動的に送信するといった処理が可能となる。このようにすれば、情報コードの読み取り毎に、画像領域の画像又はその解析画像を送るべき送信先を特定するアドレス情報の入力操作などを行わずに済み、入力操作に伴う作業負担や入力間違えなどを確実に抑えることができる。
 本構成によれば、情報コード生成装置2により、形成対象媒体501に対し、特定パターン領域、データ記録領域、及び手書き入力領域が設けられた特徴的な情報コード500を形成することができる。そして、情報コード読取装置10がこの形成対象媒体501を撮像して情報コード500を読み取る際には、手書き入力領域(空き領域510)に手書き入力された内容を事後的に利用できるようになる。特に、予め位置が明確に規定された領域を手書き入力領域として利用できるため、単に手書き文字等を写真で撮影するような方法と比較して、必要範囲の手書き情報のみを正確に抽出することができ、その抽出に際し複雑な作業を省略しやすくなる。
 [第9実施形態]
 次に、第9実施形態について説明する。まず、第9実施形態の代表例を説明する。
 第9実施形態の情報コード利用システムも、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。よって、第1実施形態と同様のハードウェア構成については詳細な説明は省略し、適宜図1や図2などを用いることとする。本構成では、図1のような生成装置2により、図38(A)のような情報コード100(所定のコード領域の内部に情報を表示する単位となるセルを配列してなる情報コード)を生成するようになっている。なお、生成装置2による情報コード100の生成方法は第1実施形態と同一である。また、生成装置2で生成される情報コード100は、空き領域110の内容のみが第1実施形態の情報コード100と異なり、空き領域110の画像以外は第1実施形態の情報コード100の特徴を全て含んでいる。この例でも、「コード領域」は、複数配列された暗色セルを全て含み得る矩形状の領域であり、具体的には、3つの位置検出パターン(切り出しシンボル)104を全て含む最小の正方形領域又は長方形領域となっている。また、図38の例でも、複数のセル102が、矩形状(例えば外径が正方形状)の明色(白色)セル及び暗色(黒色)セルのいずれかによって構成されており、コード領域の内部において後述する空き領域110の周囲にこれらセル102がマトリックス状に配置されている。明色セル及び暗色セルは、それぞれ白色セル、黒色セルに限られるものではなく、暗色セルが所定の明度で構成される場合、明色セルはそれよりも明度が高ければよい。また、情報コード100において上記コード領域の周囲には、当該コード領域を取り囲むように明色又は暗色のマージン領域が構成されるようになっており、図38等の例では、明色(例えば、白色或いは暗色セルよりも明度の大きい他色)のマージン領域がコード領域の周囲に隣接して配置されている。そして、このように生成された情報コード100の空き領域110に対して事後的に指紋の押捺がなされることで、図38(B)のように指紋の画像が付された情報コード100が得られるようになっている。
 更に、図1、図2のような読取装置10により、その生成された情報コード100、或いは、図38(B)のように指紋図形Fが付された情報コード100を読み取ることができるようになっている。読取装置10による情報コード100の解読処理は第1実施形態と同様の流れで行ってもよく、図35のような流れで行ってもよい。なお、以下では、図35で例示される解読処理を代表例として説明する。
 ここで、本構成で用いられる情報コード100について説明する。本構成で用いられる情報コード100も、図38(A)のように、コード領域の内部に、予め定められた形状の特定パターンが配置される特定パターン領域(第1実施形態と同様の位置検出パターン104、タイミングパターン(タイミングセル)106、アライメントパターン108が配置される領域)と、複数種類のセル102によってデータを記録するデータ記録領域と、複数種類のセル102によって誤り訂正符号を記録する誤り訂正符号記録領域とが設けられている。特定パターン領域は、明色セル及び暗色セルを配列し、単一のセルサイズよりも大きい固定パターンを表した領域であり、例えば、同一の型番の情報コードでは、同一の特定パターン領域が同一の位置に配置されるようになっている。そして、セル102とは異なる画像を示す画像領域が、単一のセル102のサイズよりも広い領域としてコード領域内に表される構成となっている。なお、図38の例では、空き領域110の全体が画像領域に相当しており、例えば図38(B)のように、空き領域110内にセル102とは異なる画像が表されるようになっている。この空き領域110は、データ記録領域にデータを記録する方法とは異なる方法でデータの記録又はデザインの表示の少なくともいずれかが可能となる領域であり、単一のセル102のサイズよりも大きいサイズで構成されている。なお、図38(B)の例では空き領域110の全部が画像領域(セルとは異なる画像が表示される領域)に相当しているが、空き領域110の一部が画像領域であってもよい。
 更に本構成では、図1に示す情報コード生成装置2が図38(A)に示す情報コード100を生成する際に、空き領域110(画像領域)の画像を処理する際に利用する利用データをデータ記録領域(複数のセル102によって解読対象となるデータを記録する領域)に記録しており、具体的には、空き領域110(画像領域)の画像の少なくとも一部又は空き領域110(画像領域)の画像を解析して得られる解析データと比較するための比較データをデータ記録領域(解読対象となるデータを記録する領域)に記録している。
 ここで、データ記録領域に記録する比較データについて説明する。本構成では、後述する読取処理の際に、公知の指紋照合方法(例えば、特徴点抽出法(マニューシャ法)、パターンマッチング法、周波数解析法等)によって指紋照合が行われるようになっており、事前登録では、この指紋照合に利用される登録指紋データを比較データとして生成している。なお、以下では、指紋照合方法として特徴点抽出法が用いられる場合を代表例として説明することとする。
 事前登録では、例えば登録対象者に指紋の押捺を要求し、紙材料、樹脂材料、金属材料などの被押捺材料の表面に所定色の指紋を付けてもらい、その指紋の画像(登録対象者が被押捺材料の表面に指を押し当てることで付された指紋の図形)を読取装置10やその他のカメラによって撮像する。或いは、登録対象者の指先を読取装置10やその他のカメラによって直接撮像し、指紋の画像を取得する。そして、特徴点抽出法(マニューシャ法)を用いる場合、予め特徴点の形状を規定しておき、上述の作業で得られた登録対象者の指紋画像からその規定された特徴点を抽出する。本構成では、特徴点の形状として「分岐点」及び「端点」を規定しており、図36では、登録対象者の指紋を撮像して得られた指紋画像に散在する分岐点(線が分岐する位置)、端点(線の端部となる位置)を概念的に例示している。なお、図36では、画像内での指紋領域を一点鎖線Afにて示しており、分岐点の位置を点にて示し、端点の位置を+印にて示している。図36では、具体的な指紋画像を省略して示しているが、実際は、一点鎖線Af内に具体的な指紋画像が表されている。
 そして、図36のように散在する各特徴点(分岐点、端点)を検出し、特徴点毎にX座標値、Y座標値を算出する。座標値の算出方法については、各特徴点の相対的位置関係を把握しうる方法であればよく、例えば、図36のように、指紋領域(一点鎖線Afによって囲まれる領域)の中心位置に最も近い特徴点P0の位置を基準位置(原点)とし、画素の横方向及び縦方向をそれぞれX方向、Y方向として各特徴点のX座標値、Y座標値を算出する。
 そして、このように検出ないし算出された各特徴点の種類、X座標値、Y座標値に基づいて登録指紋データを生成する。具体的には、各特徴点の種類、X座標値、Y座標値に基づき、図37のように、特徴点毎に、種類を示す値、X方向位置に対応する値、Y方向位置に対応する値を対応付けて生成し、これらを登録指紋データ(比較データ)とする。なお、図37の例では、上記基準位置(原点)に近い所定数(例えば15個)の各特徴点のデータ(種類を示す値、X方向位置に対応する値、Y方向位置に対応する値)を生成し、これらを登録指紋データ(比較データ)としている。そして、情報コード生成装置2が図38(A)のような情報コード100を生成する際には、データ記録領域にこのような登録指紋データ(比較データ)を記録しておく。このように事前準備をしておくことで、図38(A)のような情報コード100の空き領域110(画像領域)に対して、データ記録領域に記録された登録指紋データ(比較データ)に対応する指紋が付された場合に認証が成功し、登録指紋データ(比較データ)に対応する指紋が付されない場合に認証が失敗するようなコード構成となる。
 そして、本構成では、例えば図35のような流れで情報コードの読み取り及び認証を行う。この処理は、読取装置10において、所定の開始操作がなされた場合に実行されるものであり、まず情報コードの撮像を行い(S80)、その情報コードのコード画像を解析してデータ記録領域のデータを読み取る(S81)。そして、その情報コードのコード画像から画像領域(空き領域110)を特定し、画像領域(空き領域110)の画像を切り出す(S82)。なお、情報コード100でのデータ記録領域の解読方法や、画像領域(空き領域110)の抽出方法は、例えば第1実施形態と同様の方法で行うことができる。
 そして、このように切り出された画像領域(空き領域110)の画像を解析し、特徴点を抽出する(S83)。なお、このS83での特徴点の抽出方法は事前登録の場合と同様であり、例えば、図38(B)のような指紋画像が空き領域110に表されている場合、この指紋画像の中から端点(線の端部となる位置)と分岐点(線が分岐する位置)を抽出する。そして、S83で特徴点を抽出した後には、その抽出された特徴点のデータと、S81でデータ記録領域から読み取った特徴点のデータ(比較データ)とを比較し、特徴点のデータ同士が一致しているか否かを判断する(S84)。なお、登録された特徴点と読み取られた特徴点とを比較して一致を判断する方法は指紋認証の分野で公知となっているいずれの方法を用いてもよい。
 そして、S84の比較処理(判断処理)により、S83で抽出された特徴点のデータと、S81でデータ記録領域から読み取られた特徴点のデータ(比較データ)とが一致していると判断される場合には、S85にてYesに進み、認証成功と判定する(S86)。この場合、認証が成功した旨の報知(例えば、認証成功のメッセージ表示や認証成功音声情報の出力など)を行えばよい。一方、S84の比較処理(判断処理)により、S83で抽出された特徴点のデータと、S81でデータ記録領域から読み取られた特徴点のデータ(比較データ)とが一致していないと判断される場合には、S85にてNoに進み、エラーと判定する(S87)。この場合、エラーである旨の報知(例えば、エラーメッセージ表示やエラー音声情報の出力など)を行えばよい。
 なお、本構成でも受光センサ23が撮像部に相当する。また、制御回路40が、データ記録領域解読部の一例に相当し、受光センサ23(撮像部)によって情報コード100が撮像された場合に、データ記録領域に記録されたデータを読み取るように機能する。
 また、制御回路40は、画像処理部の一例に相当し、受光センサ23(撮像部)によって撮像された情報コード100のコード画像において画像領域の画像(空き領域110の画像)に対し、データ記録領域読取部によるデータの解読処理とは異なる方法で所定の画像処理を行うように機能している。具体的には、データ記録領域読取部によって読み取られた比較データ(利用データ)を用い、画像領域の画像(空き領域110の画像)が所定の正規画像に該当するか否かの判断処理を行っており、具体的には、画像領域の画像(空き領域110の画像)に対して所定の特徴点抽出処理(S83)を行い、この特徴点抽出処理によって抽出された画像領域(空き領域110)での特徴点と、データ記録領域に記録される基準特徴点データ(比較データ)とを比較して一致しているか否かを判断することで、画像領域の画像(空き領域110の画像)が正規画像(データ記録領域に記録された基準特徴点データの生成元となる指紋の画像)に該当するか否かを判断している。
 また、本構成では、情報コード読取装置10は、受光センサ23(撮像部)と、データ記録領域読取部及び画像処理部として機能する制御回路40とが、図示しないケース(筐体)に組み付けられた構成で一体的に設けられており、これらを一体的に把持して操作することができ、且つ、認証も装置内で完結させることができるようになっている。
 本構成では、一度の撮像により利用対象となる画像(空き領域110の画像)とその比較を行うための比較データとを同時期に取得できるため、互いに関連付けるべき画像(画像領域の画像)とデータ(比較データ)を正確に取得可能となり、作業時間や処理時間の短縮化も図り易くなる。更に、読取対象となる媒体のサイズも小型化しやすくなる。また、データ記録領域に記録された比較データを用いて認証を行うことができるため、サーバへのアクセスなどが不要となり、サーバへの通信が行えない環境、或いはサーバへの通信が行い難い環境であっても支障なく認証を行うことができる。
 なお、上述した例では、事前登録で得られた特徴点(複数の基準特徴点)の位置を特定する位置データを比較データとしてデータ記録領域に記録する例を示したが、事前登録で得られた特徴点(複数の基準特徴点)の個数を比較データとしてデータ記録領域に記録するような構成であってもよい。この場合、S84の比較処理では、データ記録領域に記録された特徴点の個数と、S83で抽出された特徴点の個数とが一致するか否かを判断すればよく、一致する場合にはS85にてYesに進み、一致しない場合にはS85にてNoに進むようにすればよい。
 [第9実施形態の変形例1]
 次に、第9実施形態の変形例1について説明する。
 なお、変形例1は、空き領域110の具体的内容と、データ記録領域に記録される比較データの具体的内容とが第9実施形態の代表例と異なるだけであり、それ以外は第9実施形態の代表例と同一である。
 この例では、情報コード生成装置2が図40(A)のような情報コード100を生成するようになっており、この情報コード100の生成の際には、画像領域の画像(空き領域110の画像)を処理する際に利用する利用データとして、画像領域の画像の少なくとも一部又は画像領域の画像を解析して得られる解析データと比較するための比較データをデータ記録領域(解読対象となるデータを記録する領域)に記録している。そして、この例で用いられる比較データは、サイン文字(手書き文字)の特徴を示すデータとなっており、具体的には、図39のように予め事前登録されたサイン文字(手書き文字)Si1から抽出した特徴点のデータとなっている。
 この例では、事前登録のときに、予め登録対象者にサイン文字(手書き文字)の手書き記載を要求し、紙材料、樹脂材料、金属材料などの被記載材料の表面にサイン文字を書いてもらい、読取装置10やその他のカメラなどによって、そのサイン文字の画像を撮像する。或いは、タッチパネルを用いたペン入力などによってサイン文字の画像を取得してもよい。そして、上述の指紋認証と同様の特徴点抽出法(マニューシャ法)を用い、予め特徴点の形状を規定しておき、上述の作業で得られた登録対象者のサイン画像からその規定された特徴点を抽出する。この例でも、特徴点の形状として代表例と同様の分岐点(線が分岐する位置)及び端点(線の端部の位置)を規定することができる。なお、図39では、特徴点の位置を符号P1で示している。
 そして、図39のように散在する各特徴点P1(分岐点、端点)を検出し、特徴点毎にX座標値、Y座標値を算出する。座標値の算出方法については、代表例と同様、各特徴点の相対的位置関係を把握しうる方法であればよく、例えば、代表例と同様、サイン文字Si1の中心位置に最も近い特徴点の位置を基準位置(原点)とし、画素の横方向及び縦方向をそれぞれX方向、Y方向として各特徴点のX座標値、Y座標値を算出すればよい。
 そして、このように検出ないし算出された各特徴点の種類、X座標値、Y座標値に基づいて登録サインデータ(比較データ)を生成する。具体的には、各特徴点の種類、X座標値、Y座標値に基づき、図37と同様の方法で、特徴点毎に、種類を示す値、X方向位置に対応する値、Y方向位置に対応する値を対応付けて生成し、これらを登録サインデータ(比較データ)とする。そして、情報コード生成装置2が図40(A)のような情報コード100を生成する際には、データ記録領域にこのような登録サインデータ(比較データ)を記録しておく。このように事前準備をしておくことで、情報コード100では、データ記録領域に記録された登録サインデータ(比較データ)に対応するサインを空き領域110(画像領域)に付した場合に認証が成功し、登録サインデータ(比較データ)に対応するサインが付されない場合に認証が失敗するようになる。そして、図40(A)のような情報コード100に対して図40(B)のようにサイン文字Si2が書かれた場合には、図35の読取処理を行うことで、この情報コード100の画像領域(空き領域110)に書かれたサインが、登録されたサイン(データ記録領域に記録された登録サインデータの生成元のサイン)と一致するか否か(具体的には、図40(B)の情報コード100を読み取ったときにS83で抽出される特徴点と、その情報コード100のデータ記録領域に記録された比較データの特徴点とが一致するか否か)を判定することができる。
 [第9実施形態の変形例2]
 次に、第9実施形態の変形例2について説明する。
 なお、変形例2は、空き領域110の具体的内容とデータ記録領域に記録される比較データの具体的内容とが第9実施形態の代表例と異なるだけであり、それ以外は代表例と同一である。
 この例でも、情報コード生成装置2が図42(A)のような情報コード100を生成するようになっており、この情報コード100の生成の際には、画像領域の画像(空き領域110の画像)を処理する際に利用する利用データとして、画像領域の画像の少なくとも一部又は画像領域の画像を解析して得られる解析データと比較するための比較データをデータ記録領域(解読対象となるデータを記録する領域)に記録している。そして、この例で用いられる比較データは、印影の特徴を示すデータとなっており、具体的には、図41のように予め事前登録された印影画像D1から抽出した特徴点のデータとなっている。
 この例では、事前登録のときに、予め登録対象者に印影を要求し、紙材料、樹脂材料、金属材料などの被形成材料の表面に押印などによって印影を付してもらい、読取装置10やその他のカメラなどによって、その印影の画像を撮像する。そして、上述の指紋認証と同様の特徴点抽出法(マニューシャ法)を用い、予め特徴点の形状を規定しておき、上述の作業で得られた登録対象者の印影画像からその規定された特徴点を抽出する。この例でも、特徴点の形状として代表例や変形例1と同様の「分岐点」及び「端点」を規定することができる。なお、図41では、特徴点の位置を符号P1で示しており、一部の特徴点については符号を省略している。
 そして、事前登録では、図41のように散在する各特徴点(分岐点、端点)を検出し、特徴点毎にX座標値、Y座標値を算出する。座標値の算出方法については、代表例や変形例1と同様、各特徴点の相対的位置関係を把握しうる方法であればよく、代表例や変形例1と同様、印影画像の中心位置に最も近い特徴点の位置を基準位置(原点)とし、画素の横方向及び縦方向をそれぞれX方向、Y方向として各特徴点のX座標値、Y座標値を算出すればよい。
 そして、このように検出ないし算出された各特徴点の種類、X座標値、Y座標値に基づいて登録印影データを生成する。具体的には、各特徴点の種類、X座標値、Y座標値に基づき、図37と同様の方法で、特徴点毎に、種類を示す値、X方向位置に対応する値、Y方向位置に対応する値を対応付けて生成し、これらを登録印影データ(比較データ)とする。そして、情報コード生成装置2が図42(A)のような情報コード100を生成する際には、データ記録領域にこのような登録印影データ(比較データ)を記録しておく。このように事前準備をしておくことで、情報コード100では、データ記録領域に記録された登録印影データ(比較データ)に対応する印影を付した場合に認証が成功し、登録印影データ(比較データ)に対応する印影が付されない場合に認証が失敗するようになる。そして、図42(A)のような情報コード100に対して図42(B)のように押印などによって印影D2が付された場合には、図35の読取処理を行うことで、この情報コード100の画像領域(空き領域110)に表された印影D2が、登録された印影(データ記録領域に記録された登録印影データの生成元の印影)と一致するか否か(具体的には、図42(B)の情報コード100を読み取ったときにS83で抽出される特徴点とその情報コード100に記録された比較データの特徴点とが一致するか否か)を判定することができる。
 [第9実施形態の変形例3]
 次に、第9実施形態の変形例3について説明する。
 なお、変形例3は、空き領域110の具体的内容とデータ記録領域に記録される比較データの具体的内容が第9実施形態の代表例と異なるだけであり、それ以外は代表例と同一である。
 この例でも、情報コード生成装置2が図40(A)と同様の情報コード100を生成するようになっており、この情報コード100の生成の際に、空き領域110(画像領域)の画像を処理する際に利用する利用データとして、空き領域110(画像領域)の画像の少なくとも一部又は空き領域110(画像領域)の画像を解析して得られる解析データと比較するための比較データをデータ記録領域(解読対象となるデータを記録する領域)に記録している。この例で用いられる比較データは、空き領域110(画像領域)に記録されるべき数字、文字、記号、図形の少なくともいずれかを特定する特定データとなっている。例えば、図40(B)のような「田中」の文字が記録されることが正解である場合、この「田中」の文字のデータを比較データとしてデータ記録領域に記録しておけばよい。このようにすれば、「田中」の文字が書き込まれた場合に認証成功となり、「田中」の文字が書き込まれない場合にエラーとなるような情報コード100を実現できる。この例に限られず、例えば、「1234」という数字が描かれたことが正解である場合、この「1234」のデータを比較データとしてデータ記録領域に記録しておけばよい。
 なお、このような例では、図35のような読取処理を行う場合、S83の特徴点抽出処理を記号認識処理に変更し、S84の比較処理を、登録記号と抽出記号の比較処理に変更すればよい。具体的には、代表例と同様の方法でS80~S82の処理を行った後、S83では、画像領域の画像に対して公知の記号認識処理(OCR(Optical Character Reader)処理)を行い、画像領域に記録される記号(例えば、手書き文字、手書き数字などの手書きの記号)を把握する。そして、S84では、S83で把握された記号と、S81で読み取られた記号(比較データ)とが一致するか否かを判断し、一致すればS85にてYesに進み、一致しなければS85にてNoに進むようにする。なお、S86、S87については代表例と同様の方法で行うことができる。
 本構成でも、制御回路40が画像処理部に相当し、空き領域110(画像領域)の画像に対して数字、文字、記号、図形の少なくともいずれかを認識する記録内容認識処理を行い、記録内容認識処理によって認識された空き領域110(画像領域)での記録内容と、データ記録領域に記録される特定データ(正解となる数字、文字、記号、図形などのデータ)とに基づき、空き領域110(画像領域)の画像が正規画像(即ち、データ記録領域に記録された数字、文字、記号、図形などが表された画像)に該当するか否かの判断処理を行うように機能する。
 [第9実施形態の変形例4]
 なお、第4実施形態の代表例や変形例1~3では、認証対象として指紋、サイン、印影などを例示したが、フォログラムを認証対象としてもよい。この場合も、登録対象となるフォログラムから所定の方法で比較データを抽出しておき、この比較データを情報コードのデータ記録領域に記録しておけばよい。そして、その情報コードの空き領域にフォログラムが付された場合、そのフォログラムから抽出されるデータと、データ記録領域に記録された比較データとを比較し、一致しているか否かを判断すればよい。
 [第9実施形態のその他の例]
 これら第9実施形態の代表例及び変形例に用いる情報コードは、空き領域を除く部分は、上述した又は後述する他の実施形態の構成を用いてもよい。
 また、これら第9実施形態の代表例及び変形例に用いる情報コードでは、データ記録領域に記録すべき比較データを暗号化して記録しておいてもよい。この場合、生成装置2と読取装置10に共通の暗号化キーを記憶しておき、読取装置10では、生成装置2で暗号化に用いた暗号化アルゴリズムに対応する解読アルゴリズムを用いて暗号の解読を行うようにすれば、生成装置2で暗号化されてデータ記録領域に記録された解読データを読取装置10で解読できるようになる。
 また、これら第9実施形態の代表例及び変形例に用いる情報コードでは、仮に指紋、サイン、印影、その他の画像が空き領域110からはみ出してしまったとしても、データ記録領域の汚れなどは誤り訂正符号記録領域に記録された誤り訂正符号によって修正することができるため、多少のはみ出しが生じても支障なく読み取りを行うことができる。
 上述した第9実施形態の代表例及び変形例では、読取装置10において空き領域110の画像から得られた解析結果とデータ記録領域のデータとを比較し、認証を行っていたが、S81で読み取った比較データと、S83で読み取った解析結果とを外部装置に送信し、外部装置が一致しているか否かを判定するようにしてもよい。例えば、図35のS84、S85の処理を外部装置で行い、その結果を読取装置10に送信するようにしてもよい。
 上述した第9実施形態の代表例及び変形例では、データ記録領域に比較データを記録していたが、データ記録領域の記録量を多く確保できる構成(例えば大型サイズにした場合)では、画像領域に表示されるべき画像の一部又は全部を表す画像データをデータ記録領域に記録するようにしてもよい。例えば、代表例の場合には、事前登録に用いた指紋画像そのものをデータ記録領域に記録しておいてもよい。また、変形例1の場合、事前登録に用いたサイン画像そのものをデータ記録領域に記録しておけばよく、変形例2の場合、事前登録に用いた印影画像そのものをデータ記録領域に記録しておけばよい。この場合、S81では、データ記録領域に記録された画像データを読み取り、S83の処理を省略し、S84では、S81で読み取られた画像データと、S82で取得した空き領域110(画像領域)の画像とを公知のパターンマッチングなどによって比較し、一致しているか否かを判定してもよい。
 [第10実施形態]
 次に、第10実施形態について説明する。まず、第10実施形態の代表例について説明する。
 第10実施形態の情報コード利用システム1も、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。そして、図1のような生成装置2により、図43のような情報コード100(所定のコード領域の内部に情報を表示する単位となるセルを配列してなる情報コード)を生成するようになっている。なお、生成装置2による情報コード100の生成方法は第1実施形態と同一であり、この例では、図43に示す情報コード100の構成から空き領域110を空白にした構成のものを生成するようになっている。このように生成装置2で生成される情報コード100は、空き領域110の内容のみが第1実施形態の情報コード100と異なり、空き領域110の画像以外は第1実施形態の情報コード100の特徴を全て含んでいる。そして、このように生成された情報コード100の空き領域110に対して事後的にサイン(手書き文字の記載)或いは押印がなされることで、図43のような押印画像或いはサイン画像が付された情報コード100が得られるようになっている。
 ここで、情報コード100について説明する。本システム1で扱われる情報コード100も、コード領域の内部に、予め定められた形状の特定パターンが配置される特定パターン領域(位置検出パターン104、タイミングパターン(タイミングセル)106、アライメントパターン108が配置される領域)と、複数種類のセル102によってデータを記録するデータ記録領域と、複数種類のセル102によって誤り訂正符号を記録する誤り訂正符号記録領域とが設けられている。そして、セル102とは異なる画像を示す画像領域が、セル102のサイズよりも広い領域としてコード領域内に表される構成となっている。なお、図43の例では、空き領域110の全体が画像領域として構成されており、例えば図43のように、空き領域110内にセル102とは異なる画像が表されるようになっている。この空き領域110は、データ記録領域にデータを記録する方法とは異なる方法でデータの記録又はデザインの表示の少なくともいずれかが可能となる領域であり、単一のセル102のサイズよりも大きいサイズで構成されている。
 本システム1では、このような情報コード100を、図43のように、宅配便や郵便物などに用いる配送票(送り状)Paに付して用いるようになっている。なお、配送票(送り状)については公知の構成のものを用いることができ、届け先住所、届け先氏名、電話番号、品名、依頼人住所、依頼人氏名、電話番号などを書き込む欄が設けられている。本システム1では、生成装置2により、このような配送票Paに対して情報コード100を印刷しており、情報コード100が配送票Paの一部として用いられるようになっている。そして、情報コード100の内部に設けられた空き領域110(画像領域)は、例えば、指紋、印影、サインの少なくともいずれかを形成するための領域として構成されている。
 更に本構成では、情報コード生成装置2が図43に示す情報コード100(具体的には空き領域を空白にしたもの)を生成する際に、空き領域110(画像領域)の画像を処理する際に利用する利用データとして、空き領域110(画像領域)の画像の送付先又は保存先を特定するアドレス情報をデータ記録領域に記録している。具体的には、例えば宅配便を運営する企業の管理サーバのURLやメールアドレスなどがアドレス情報としてデータ記録領域に記録されている。或いは、空き領域110(画像領域)の画像の保存先として、読取装置10自身を指定する情報(アドレス情報)がデータ記録領域に記録されるような構成であってもよい。なお、以下では、読取装置10の外部の送付先を指定するアドレス情報がデータ記録領域に記録されている例を代表例として説明する。
 このような配送票(送り状)を用いる場合、まず、宅配便や郵便などを運営する運営主体側において情報コード生成装置2を用意しておき、例えば、自社に固有に割り当てられたURLや自社のメールアドレスなどがアドレス情報としてデータ記録領域に記録され、且つ空き領域110を例えば空白領域とした情報コード100を生成し、図43のような配送票Paに印刷等によって付しておく。この段階では、空き領域110が空白であるため、図43に示す印影D2は付されていない構成となる。また、この段階では、届け先に関する欄や依頼人に関する欄は例えば空欄となっている。このような事前準備を行っておき、利用者が荷物の配送を希望した場合、運営主体側は、このような配送票Paを利用者に渡し、届け先に関する欄や依頼人に関する欄を記載してもらうことになる。そして、このように利用者が届け先に関する欄や依頼人に関する欄を記載した後には配送票Paを図示しない荷物に付して管理し、運営主体側(宅配業者など)はこのような配送票Paが付された荷物を届け先に届けることになる。なお、この配送段階でも、情報コード100の空き領域110は空白のままである。そして、運営主体の従業員は、このような荷物を届け先に届けたとき、荷物の受け渡しの際にその荷物に付された配送票Paを剥がし、その届け先の相手(届け先の住人など)に、図43のように配送票Paの情報コード100の空き領域110内にサインや押印を付してもらうようにする。そして、このように空き領域110にサインや押印を付された配送票Paの情報コード100を、その現場で、又は帰社後に読取装置10によって読み取る。そして、情報コード100の読み取りの際には、上述した実施形態と同様の方法でデータ記録領域を解読し、且つ空き領域110(画像領域)の位置を特定して空き領域110(画像領域)の画像を切り出す。そして、その切り出した空き領域110(画像領域)の画像を、データ記録領域に記録されたアドレス情報で特定される送信先に送信する。例えば、情報コード100のデータ記録領域に運営主体のURLやメールアドレスなどが記録されている場合、空き領域110(画像領域)の画像はそのURLやメールアドレスで特定される装置(外部装置90又は外部装置90からアクセス可能な他装置など)に送信され、その装置の記憶部(例えば外部装置90の記憶部93など)に保存されることになる。なお、配送票Paに付される情報コード100のデータ記録領域には、その配送票Paを特定できる情報(配送票に固有に付された配達番号、依頼人の個人情報、届け先の個人情報など)を予め記録しておくことが望ましく、情報コード100の読み取りの際には、その情報コード100のデータ記録領域に記録された「配送票Paを特定できる情報」と、切り出した空き領域110(画像領域)の画像とを対応付けてデータ記録領域に記録されたアドレス情報の送付先に送付すると良い。このようにすれば、その送付先では、「配送票Paを特定できる情報」と「空き領域110(画像領域)の画像」とを対応付けて蓄積することができ、その配送票Paの届け先の確認情報(サインや印影)が存在することを容易に確認しやすくなる。
 なお、上記代表例では、画像領域の画像(空き領域110の画像)の全部をアドレス情報で特定される送付先に送付する例を示したが、画像領域の画像(空き領域110の画像)の一部のみを送付する構成であってもよい。或いは、画像領域の画像(空き領域110の画像)に代えて、画像領域の画像(空き領域110の画像)を解析して得られる解析データ(例えば、画像領域の画像(空き領域110の画像)に対し、第9実施形態と同様の方法で特徴点を抽出したときの特徴点データや、画像領域の画像(空き領域110の画像)に対し文字認識処理(OCR処理)を行って得られた文字データなど)を送付するようにしてもよい。
 本構成では、制御回路40が画像処理部の一例に相当し、画像領域の画像(空き領域110の画像)の少なくとも一部又は画像領域の画像を解析して得られる解析データを、データ記録領域に記録されたアドレス情報で特定される送付先又は保存先に送付又は保存するように機能する。具体的には、画像領域に形成された指紋、印影、サインの少なくともいずれかの画像の少なくとも一部、又はいずれかの画像を解析して得られる解析データを、データ記録領域に記録されたアドレス情報で特定される送付先又は保存先に送付又は保存するように機能する。
 [第10実施形態の変形例1]
 次に、第10実施形態の変形例1について説明する。
 なお、第10実施形態の変形例1は、空き領域110の具体的内容とデータ記録領域に記録されるデータの具体的内容、及び情報コード100を付す対象物が第10実施形態の代表例と異なるだけであり、それ以外の基本構成は代表例と同様である。なお、図44では、第10実施形態の代表例や他の実施形態(第1実施形態等)で用いられる情報コード100と形状が異なる情報コードを用いているが、基本的機能は同じである。なお、図44に示す情報コード100を、第10実施形態の代表例や他の実施形態(第1実施形態等)で用いられる情報コード100に代えてもよい。また、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。
 本システム1では、例えば、情報コード生成装置2が店舗などで用いられるPOSレジなどとして構成され、情報コード100を、店舗などのレジにおいて商品の購入時に発行されるレシートPbに付して用いるようになっている。なお、レシートPbについては様々な分野のものに適用することができ、例えば、図44の例では、店舗やガソリンスタンドなどでクレジットカードを利用した際に発行されるクレジットカード利用票となっている。そして、このレシートPbの一部に情報コード100が付されている。そして、情報コード100の内部に設けられた空き領域110(画像領域)は、サインを書くための領域として構成されている。
 そして、本構成でも、情報コード生成装置2が図44に示す情報コード100(具体的には空き領域を空白にしたもの)を生成する際には、空き領域110(画像領域)の画像を処理する際に利用する利用データとして、空き領域110(画像領域)の画像の送付先又は保存先を特定するアドレス情報をデータ記録領域に記録している。具体的には、例えばレシートを発行する店舗や企業などに割り当てられたURL、メールアドレス、IPアドレスなどがアドレス情報としてデータ記録領域に記録されており、情報コード100を読み取ったときには、店舗や企業などに設けられた外部装置90(上記アドレス情報で特定される送付先であり、図43と同様の外部装置)に空き領域110(画像領域)の画像を送ることができるようになっている。
 そして、このようなレシートPbは、例えば利用者がクレジットカード決済として商品を購入した場合に情報コード生成装置2によって発行され、商品の購入明細や精算金額、図示しない利用日時などが表示されるようになっている。そして、店員は、図44(A)のようなレシートPbが発行された場合、図44(B)のように、情報コード100の空き領域110内にサイン(例えば氏名の手書き入力)を書いてもらうようにする。そして、図44(B)のように情報コード100の空き領域110にサインが書かれたレシートPbを精算後に保管する際には、まず、レシートPbの情報コード100を読取装置10によって読み取る。情報コード100の読み取り方法は、上述したいずれの実施形態の方法を用いてもよく、いずれの方法でも、データ記録領域のデータを解読すると共に、空き領域110の位置を特定し、空き領域110(画像領域)の画像を切り出せばよい。そして、この場合も、その切り出した空き領域110(画像領域)の画像を、データ記録領域に記録されたアドレス情報で特定される送信先に送信する。例えば、情報コード100のデータ記録領域に運営主体のURLやメールアドレスなどが記録されている場合、空き領域110(画像領域)の画像はそのURLやメールアドレスで特定される装置(外部装置90又は外部装置90からアクセス可能な他装置など)に送信され、その装置の記憶部(例えば外部装置90の記憶部93など)に保存されることになる。なお、レシートPbに付される情報コード100のデータ記録領域には、そのレシートPbを特定できる情報(レシート番号、その精算に用いるクレジットカードの番号、利用者の個人情報など)を予め記録しておくことが望ましく、情報コード100の読み取りの際には、その情報コード100のデータ記録領域に記録された「レシートPbを特定できる情報」と、切り出した空き領域110(画像領域)の画像とを対応付けてデータ記録領域に記録されたアドレス情報の送付先に送付すると良い。このようにすれば、その送付先では、「レシートPbを特定できる情報」と「空き領域110(画像領域)の画像」とを対応付けて蓄積することができる。また、情報コード100を発行する際には、データ記録領域に利用日時や精算金額を記録しておき、読み取りの際には、切り出した空き領域110(画像領域)の画像と対応付けてデータ記録領域に記録されたアドレス情報の送付先に送付すると良い。このようにすれば、切り出した空き領域110(画像領域)の画像を、その送付先において利用日時や精算金額を紐付けて保存しておくことができる。
 本構成でも、制御回路40が画像処理部の一例に相当し、画像領域の画像(空き領域110の画像)の少なくとも一部又は画像領域の画像を解析して得られる解析データを、データ記録領域に記録されたアドレス情報で特定される送付先又は保存先に送付又は保存するように機能する。具体的には、画像領域に形成されたサイン画像をデータ記録領域に記録されたアドレス情報で特定される送付先又は保存先に送付又は保存するように機能する。
 また、図44(B)のようなレシートPbを読み取る際には、読取作業を行う者が、読取装置10による情報コード100の読み取り前、又は読取中、若しくは読取後に、読取装置10の操作スイッチ42等を操作して情報を入力することもできる。例えば、読取装置10による図44(B)の情報コード100の読み取りの前に、作業者が、クレジットカード利用者の年齢層や性別などを操作スイッチ42等を操作して入力し、その後に図44(B)の情報コード100の読み取りがなされた場合に、操作スイッチ42によって入力された年齢層や性別などの情報と、読み取りによって切り出された空き領域110(画像領域)の画像と対応付けてデータ記録領域に記録されたアドレス情報の送付先又は保存先に送付又は保存するような構成とすることができる。このようにすれば、その送付先又は保存先では、読取時に切り出された空き領域110(画像領域)の画像と、読み取りの際に入力された情報(年齢層や性別などの情報)とを対応付けて蓄積することができ、客層管理などに役立てることができる。
 この構成では、読取装置10の操作スイッチ42が、外部からの操作によって情報の入力が可能な「情報入力部」の一例に相当する。そして、制御回路40が画像処理部の一例に相当し、情報入力部によって入力された情報と、情報コード100の読み取りによって切り出された空き領域110(画像領域)の画像とを、互いに対応付けてアドレス情報で特定される送付先又は保存先に送付又は保存するように機能する。なお、年齢層や性別などの情報は、レシートPbの発行時に生成装置2の操作部4によって入力してもよく、この場合、その入力された年齢層や性別などの情報はデータ記録領域に記録しておけばよい。そして、情報コード100の読取時に、切り出された空き領域110(画像領域)の画像と共に送付先又は保存先に送るようにすればよい。
 [第10実施形態の変形例2]
 なお、変形例2は、空き領域110の具体的内容、データ記録領域に記録されるデータの具体的内容、及び情報コード100を付す対象物が第10実施形態の代表例と異なるだけであり、それ以外の基本構成は代表例と同様である。また、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。
 図45の例では、情報コード100を印鑑登録に利用する構成となっている。この例では、図1に示す生成装置2により、例えば、空き領域110が空白とされた情報コード100を印刷するように印鑑登録票を形成する。なお、情報コード100は、第1実施形態又はその他の実施形態と同様の方法で生成することができる。また、情報コード100の生成時には、空き領域110が例えば空白領域となっており、例えば、図45の左上の情報コード100から内部の印影を除いた構成となっている。そして、情報コード100の内部に設けられた空き領域110(画像領域)が押印を付すための領域として用いられる。なお、図45の左上の図では、印鑑登録票に付される情報コード100のみを例示しており、印鑑登録票のその他の構成(氏名記入欄や登録番号記入欄など)は省略している。
 そして、本構成でも、情報コード生成装置2が図45左上に示す情報コード100(具体的には図45左上の情報コード100の一部を省略し、空き領域110を空白にしたもの)を生成する際に、空き領域110(画像領域)の画像を処理する際に利用する利用データとして、空き領域110(画像領域)の画像の送付先又は保存先を特定するアドレス情報をその情報コード100のデータ記録領域に記録している。具体的には、例えば印鑑の押印を管理する主体(店舗、企業、官公庁など)の管理サーバとして外部装置90が用いられ、この外部装置90のIPアドレス、URL、メールアドレス(認証装置を特定するアドレス)などがアドレス情報としてデータ記録領域に記録されている。
 このように構成される情報コード100は、例えば利用者が押印の登録を希望する場合に用いられ、登録作業を行う者(店員やその他の従業員など)は、その登録希望者に、上述の印鑑登録票(即ち、空き領域110が空白とされた情報コード100が付された帳票)を提示し、図45左上の図のように、情報コード100の空き領域110内に登録を希望する印鑑の押印を付してもらうようにする。そして、このように情報コード100に付された押印のデータを登録する際には、まず、情報コード100を読取装置10によって読み取り、データ記録領域のデータを解読すると共に、空き領域110(画像領域)の画像を切り出す。そして、その切り出された画像(押印の画像)を、データ記録領域に記録されたアドレス情報で特定される送信先又は保存先に送信又は保存する。例えば、送信先又は保存先が外部装置90(図43と同様の装置)であれば、読取装置10から外部装置90に押印の画像が送信され、この外部装置90の記憶部93に保存されることになる。なお、このように切り出した画像を保存する際には、その押印(印鑑)を特定できる情報(登録番号や個人情報など)を対応付けて記憶することが望ましい。なお、このような情報は、生成装置2が情報コード100を生成する際に、予め情報コード100のデータ記録領域に記録しておき、読取装置10が情報コード100を読み取ったときに、その情報(登録番号や個人情報など)と、その切り出された空き領域110(画像領域)の画像(押印の画像)とを紐付けてアドレス情報で特定される送付先又は保存先に送るようにすればよい。このような登録がなされることにより、外部装置90では、図45下図のように、それぞれの登録番号及び個人情報(氏名)に対応付けて印影画像がそれぞれ登録され、登録番号が特定されれば、それに対応する印影画像が特定されることとなる。
 本構成でも、制御回路40が画像処理部の一例に相当し、画像領域の画像(空き領域110の画像)を、データ記録領域に記録されたアドレス情報で特定される送付先又は保存先(具体的には、認証装置に相当する外部装置90又は認証装置からアクセス可能な他装置)に送付又は保存するように機能する。具体的には、空き領域110(画像領域)に形成された印影画像をデータ記録領域に記録されたアドレス情報で特定される送付先又は保存先に送付又は保存するように機能する。
 次に、印鑑の照合について説明する。上述した手続きにより、外部装置90の記憶部93には、図45下図のように様々な印鑑の画像データが、それぞれ登録番号及び個人情報と対応付けて記憶されている。
 一方、印鑑の照合を行う際には、照合を希望する者などが、図46のような手続き票Pcに印刷された情報コード100の空き領域110に対し、照合を希望する印鑑により押印する。この手続き票Pcに付された情報コード100のデータ記録領域には、例えば外部装置90(認証装置)を特定するアドレス情報が記録されている。そして、読取装置10がこの情報コード100を読み取った場合には、データ記録領域からアドレス情報を読み出すと共に、空き領域110(画像領域)の画像(押印画像)を切り出し、その押印画像をアドレス情報に基づいて外部装置90に送信する。そして、外部装置90は、このように照合対象の押印画像(印影画像)が送られてきた場合、図45のように予め登録された印影画像と、送信されてきた印影画像とが一致するか否かを公知の画像比較方法で判断する。この照合は、例えば、送信されてきた上記照合対象の印影画像と外部装置90に登録された全ての印影画像とを、例えば、公知のパターンマッチング、或いは第9実施形態と同様の特徴点の比較によって比較し、外部装置90に登録された印影画像の中に送信されてきた上記照合対象の印影画像と一致する画像が存在するか否かを判断すればよい。そして、送信されてきた照合対象の印影画像が外部装置90に登録されたいずれかの印影画像と一致する場合には、その送信元の読取装置10に対して、認証が成功した旨のデータを送信する。この場合、認証が成功した登録印影画像に紐付けられて登録された番号や個人情報なども送信すると良い。逆に、一致しなった場合には、認証が失敗した旨のデータを送信する。
 本構成では、外部装置90の記憶部93が比較データ登録部の一例に相当し、画像領域の画像の少なくとも一部又は画像領域の画像を解析して得られる解析データと比較するための比較データが登録される構成となっている。なお、上述した例では、図45のような登録において、切り出された空き領域110(画像領域)の画像を画像データとして外部装置90に登録する例を示したが、このように切り出された空き領域110(画像領域)の画像そのものを登録するのではなく、空き領域110(画像領域)の画像から抽出される特徴点のデータ(解析データ)を外部装置90に登録してもよい。この場合、印影画像などから特徴点を抽出する方法は、第9実施形態と同様に行えばよい。そして、この場合、照合の際には、読取装置10が照合対象の印影画像から特徴点のデータを抽出すると共に、その特徴点のデータ(解析データ)を送信データとして外部装置90(認証装置)に送信し、外部装置90では、その送信された特徴点のデータと、外部装置90に登録された各印影画像の特徴点のデータとを比較し、特徴点が一致するものを探し出せばよい。
 本構成では、外部装置90が認証装置の一例に相当し、画像処理部によって送信された送信データ(例えば図46のように照合対象として送られる印影画像のデータ)と、比較データ登録部に記録された比較データ(例えば、図45のように予め外部装置90に登録された複数の印影画像のデータ)とに基づき、照合対象となる空き領域110(画像領域)の印影画像が所定の正規画像(具体的には、外部装置90に予め登録された印影画像)に該当するか否かの判断処理を行うように機能する。なお、認証装置として機能する外部装置90は、単一の装置によって構成されていてもよく、互いにデータ通信可能な複数の装置によって構成されていてもよい。
 なお、ここでは銀行などでの印鑑照合を例示したが、不動産関連での実印照合などにも利用できる。
 [第10実施形態の変形例3]
 なお、変形例3は、空き領域110の具体的内容と、データ記録領域に記録される比較データの具体的内容、及び情報コード100を付す対象物が第10実施形態の代表例と異なるだけであり、それ以外の基本構成は代表例と同様である。また、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。
 図47の例では、情報コード100を指紋登録に利用する構成となっている。この例では、情報コード100の内部に設けられた空き領域110(画像領域)が指紋を付すための領域となっている。この例では、図1に示す生成装置2により、例えば、空き領域110が空白とされた情報コード100を印刷するように指紋登録票を形成する。なお、情報コード100は、第1実施形態又はその他の実施形態と同様の方法で生成することができる。また、情報コード100の生成時には、空き領域110が例えば空白領域となっており、例えば、図47の左上の情報コード100から内部の指紋画像Fを除いた構成となっている。そして、情報コード100の内部に設けられた空き領域110(画像領域)が指紋を付すための領域として用いられる。なお、図47の左上の図では、指紋登録票に付される情報コード100のみを例示しており、指紋登録票のその他の構成(氏名記入欄や登録番号記入欄など)は省略している。
 そして、本構成でも、情報コード生成装置2が図47左上に示す情報コード100(具体的には図47左上の情報コード100の一部を省略し、空き領域110を空白にしたもの)を生成する際に、空き領域110(画像領域)の画像を処理する際に利用する利用データとして、空き領域110(画像領域)の画像の送付先又は保存先を特定するアドレス情報をその情報コード100のデータ記録領域に記録している。具体的には、例えば指紋を管理する主体(店舗、企業、官公庁など)の管理サーバとして外部装置90が用いられ、この外部装置90のIPアドレス、URL、メールアドレス(認証装置を特定するアドレス)などがアドレス情報としてデータ記録領域に記録されている。
 このように構成される情報コード100は、例えば利用者が指紋の登録を希望する場合に用いられ、登録作業を行う者(店員やその他の従業員など)は、その登録希望者に、上述の指紋登録票(即ち、空き領域110が空白とされた情報コード100が付された帳票)を提示し、図47左上の図のように、情報コード100の空き領域110内に登録を希望する指紋を付してもらうようにする。そして、このように情報コード100に付された指紋のデータを登録する際には、まず、情報コード100を読取装置10によって読み取り、データ記録領域のデータを解読すると共に、空き領域110(画像領域)の画像を切り出す。そして、その切り出された画像(指紋の画像)を、データ記録領域に記録されたアドレス情報で特定される送信先又は保存先に送信又は保存する。例えば、送信先又は保存先が外部装置90(図43と同様の装置)であれば、読取装置10から外部装置90に対して情報コード100から切り出された指紋の画像が送信され、この外部装置90の記憶部93に保存されることになる。なお、このように切り出した画像を保存する際には、その指紋を特定できる情報(登録番号や個人情報など)を対応付けて記憶することが望ましい。なお、このような情報は、生成装置2が情報コード100を生成する際に、予め情報コード100のデータ記録領域に記録しておき、読取装置10が情報コード100を読み取ったときに、その情報(登録番号や個人情報など)と、その切り出された空き領域110(画像領域)の画像(指紋の画像)とを紐付けてアドレス情報で特定される送付先又は保存先に送るようにすればよい。このような登録がなされることにより、外部装置90では、図47下図のように、それぞれの登録番号及び個人情報(氏名)に対応付けて指紋画像がそれぞれ登録され、登録番号が特定されれば、それに対応する指紋画像が特定されることとなる。
 本構成でも、制御回路40が画像処理部の一例に相当し、画像領域の画像(空き領域110の画像)の少なくとも一部又は画像領域の画像を解析して得られる解析データを、データ記録領域に記録されたアドレス情報で特定される送付先又は保存先に送付又は保存するように機能する。具体的には、空き領域110(画像領域)に形成された指紋画像をデータ記録領域に記録されたアドレス情報で特定される送付先又は保存先に送付又は保存するように機能する。
 次に、指紋の照合について説明する。上述した手続きにより、外部装置90の記憶部93には、図47下図のように様々な指紋の画像データが、それぞれ登録番号及び個人情報と対応付けて記憶されている。
 一方、指紋の照合を行う際には、照合を希望する者などが、図48のような手続き票Pdに印刷された情報コード100の空き領域110に対し、照合を希望する自身の指紋を付す。この手続き票Pdに付された情報コード100のデータ記録領域には、例えば外部装置90(認証装置)を特定するアドレス情報が記録されている。そして、読取装置10がこの情報コード100を読み取った場合には、データ記録領域からアドレス情報を読み出すと共に、空き領域110(画像領域)の画像(指紋画像)を切り出し、その指紋画像をアドレス情報に基づいて外部装置90に送信する。そして、外部装置90は、このように照合対象の指紋画像が送られてきた場合、図47のように予め登録された指紋画像と、送信されてきた指紋画像とが一致するか否かを公知の画像比較方法で判断する。この照合は、例えば、送信されてきた上記照合対象の指紋画像と外部装置90に登録された全ての指紋画像とを、例えば、公知のパターンマッチング、或いは第9実施形態と同様の特徴点の比較(マニューシャ法)などによって比較し、外部装置90に登録された指紋画像の中に送信されてきた上記照合対象の指紋画像と一致する画像が存在するか否かを判断すればよい。そして、送信されてきた照合対象の指紋画像が外部装置90に登録されたいずれかの指紋画像と一致する場合には、その送信元の読取装置10に対して、認証が成功した旨のデータを送信する。この場合、認証が成功した登録指紋画像に紐付けられて登録された番号や個人情報なども送信すると良い。逆に、一致しなった場合には、認証が失敗した旨のデータを送信する。
 なお、本構成では、外部装置90の記憶部93が照合データ登録部の一例に相当し、空き領域110(画像領域)の画像の少なくとも一部又は画像領域の画像を解析した解析データと照合するための複数の照合データがそれぞれ個人情報に対応付けられて登録される構成となっている。
 また、外部装置90が照合装置の一例に相当し、画像処理部によって送信された送信データ(照合対象となる指紋画像)と、照合データ登録部に記録された複数の照合データ(例えば、登録された複数の指紋画像)とに基づき、送信データに対応する個人情報を抽出するように機能する。なお、上述した例では、図47のような登録において、切り出された空き領域110(画像領域)の画像を画像データとして外部装置90に登録する例を示したが、このように切り出された空き領域110(画像領域)の画像そのものを登録するのではなく、空き領域110(画像領域)の画像から抽出される特徴点のデータ(解析データ)を外部装置90に登録してもよい。この場合、指紋画像などから特徴点を抽出する方法は、第9実施形態と同様に行えばよい。そして、この場合、照合の際には、読取装置10が照合対象の指紋画像から特徴点のデータを抽出すると共に、その特徴点のデータ(解析データ)を送信データとして外部装置90(認証装置)に送信し、外部装置90では、その送信された特徴点のデータと、外部装置90に登録された各指紋画像の特徴点のデータとを比較し、特徴点が一致するものを探し出せばよい。
 なお、これら第10実施形態の代表例及び変形例に用いる情報コードにおいて、空き領域を除く部分を、上述した又は後述するその他の実施形態の構成を用いてもよい。そして、そのような構成でも、データ記録領域内に上述した第10実施形態の代表例又は変形例と同様のアドレス情報を記録しておけば、空き領域の画像を第10実施形態の代表例及び変形例と同様に利用することができる。
 また、これら第10実施形態の代表例及び変形例に用いる情報コードにおいて、空き領域(画像領域)の構成を、上述した又は後述するその他の実施形態の構成にしてもよい。このような構成でも、データ記録領域内にアドレス情報を記録しておけば、空き領域(画像領域)の画像の少なくとも一部又は空き領域(画像領域)の画像を解析して得られる解析データ(例えば、空き領域(画像領域)の画像から第9実施形態と同様の方法で特徴点を抽出した特徴点データや、空き領域(画像領域)の画像から文字を抽出した文字データなど)を、データ記録領域に記録されたアドレス情報で特定される送付先又は保存先に送付又は保存することができる。或いは、空き領域の画像をデータ記録領域に記録されたデータを用いて認証した認証結果や、空き領域の画像を読取装置に記録されたデータを用いて認証した認証結果などを、アドレス情報で特定される送信先や保存先に送信又は保存するようにしてもよい。
 [第11実施形態]
 次に、第11実施形態について説明する。まず、図49~図51等を参照して第11実施形態の代表例について説明する。
 第11実施形態の情報コード利用システム1も、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。そして、図1のような生成装置2により、図49(A)のような情報コード600(所定のコード領域の内部に情報を表示する単位となるセルを配列してなる情報コード)を生成するようになっている。なお、生成装置2による情報コード600の生成方法は空き領域の具体的内容を除いて第1実施形態と同一である。
 このように生成装置2で生成される情報コード600は、空き領域610の内容のみが第1実施形態の情報コード100と異なり、空き領域610の画像以外は第1実施形態の情報コード100の特徴を全て含んでいる。
 ここで、情報コード600について説明する。本システム1で扱われる情報コード600も、コード領域の内部に、予め定められた形状の特定パターンが配置される特定パターン領域(図1と同様の位置検出パターン104、タイミングパターン(タイミングセル)106、アライメントパターン108が配置される領域)と、複数種類のセル102によってデータを記録するデータ記録領域と、複数種類のセル102によって誤り訂正符号を記録する誤り訂正符号記録領域とが設けられている。そして、セル102とは異なる画像を示す画像領域が、セル102のサイズよりも広い領域としてコード領域内に表される構成となっている。なお、図49(A)の例では、空き領域610の全体が画像領域として構成されており、例えば図49(A)のように、空き領域610内にセル102とは異なる画像が表されるようになっている。この空き領域610は、データ記録領域にデータを記録する方法とは異なる方法でデータの記録又はデザインの表示の少なくともいずれかが可能となる領域であり、単一のセル102のサイズよりも大きいサイズで構成されている。
 そして、この情報コード600は、空き領域610(画像領域)に、フォログラム部612が配置されている。このフォログラム部612は、図51のように、読取装置10が所定の第1方向から撮像したときに撮像部で得られる第1撮像画像612aと、読取装置10が第1方向とは異なる所定の第2方向から撮像したときに撮像部で得られる第2撮像画像612bとが異なる構成となっている。
 情報コード600のデータ記録領域には、図49(B)のような情報が記録されている。ここでは、暗号化されていない公開データとして、商品名、商品番号、価格、梱包単位などの情報が記録されている。また、暗号化された非公開データとして、固有ID(シリアル番号等)、店舗情報などが記録されている。
 このような情報コード600は、例えば図50のような例に用いることができる。図50の例では、工場で製造された正規商品680に対し、上述の情報コード600を直接又は商品タグなどによって貼り付けている。この情報コード600のデータ記録領域には、商品名やシリアル番号などが記録されている。そして、コード領域内の空き領域610(画像領域)には、このシリアル番号に対応したフォログラム部612が付されている。また、商品の出荷前までに、情報コード600の内容がサーバ690に登録されている。具体的には、情報コード600に記録される商品名、シリアル番号と、フォログラム部612の画像とが対応付けられてサーバ690の記憶部に記憶されている(図50の下図参照)。
 一方、商品680の出荷後に店舗などで販売する際、或いは確認作業や棚卸などを行う際には、商品680に付された情報コード600を読取装置10(図1、図2等)によって読み取る。このとき、情報コード600のデータ記録領域に記録された商品名などが表示されるため、作業者は、情報コード600の記録内容(商品名)が商品680に適合しているかを把握することができる。更に、読取装置10では、情報コード600の認証を行うことで、正規の情報コードが付されているかを把握することが可能となる。
 次に、情報コード600の読み取り、認証について更に詳述する。まず、読取装置10で情報コード600の読み取り、認証を行う場合、読取装置10の受光センサ23(撮像部)は、情報コード600を所定の第1方向から撮像したときの第1撮像画像と、情報コード600を第2方向から撮像したときの第2撮像画像とを取得する。本構成では、例えば、図51の左側の読取装置10ように、3つの位置検出パターン104のうち、1つの位置検出パターン104がコード領域の左上になり、2つの位置検出パターン104がコード領域の左下、右下になるような撮像画像が得られる方向であって、それら2つの位置検出パターン104側を下側として斜め下側から撮像する方向(撮像画像において3つの位置検出パターン104が所定の第1配置となる撮像方向)を第1方向とし、この第1方向でのフォログラム部612の第1撮像画像612aを取得する。また、3つの位置検出パターン104のうち、2つの位置検出パターン104がコード領域の左上、右上になり、1つの位置検出パターン104が右下になるような撮像画像が得られる方向であって、その1つの位置検出パターン104側を下側として斜め下側から撮像する方向(撮像画像において3つの位置検出パターン104が所定の第2配置となる撮像方向)を第2方向とし、この第2方向でのフォログラム部612の第2撮像画像612bを取得する。そして、データ記録領域に記録された、商品名、シリアル番号などを取得し、これらの情報と共に、第1撮像画像612a、第2撮像画像612bをサーバ690に送信する。
 サーバ690には、予め商品名、シリアル番号と対応付けてフォログラム部612の第1方向での正規画像と、第2方向での正規画像とが登録されているため、これら正規画像と、送信されてきた第1撮像画像612a及び第2撮像画像612bとを公知のパターンマッチングなどによって照合することで、送信されてきた第1撮像画像612a及び第2撮像画像612bが予めサーバ690に登録されたものであるか否かを判定することができる。そして、読取装置10から送られてきたフォログラム部の画像がシリアル番号に対応する第1方向での正規画像及び第2方向での正規画像である場合には認証成功である旨を読取装置10に送信する。
 本構成では、図2に示す読取装置10の制御回路40が画像処理部の一例に相当し、所定の第1撮像画像と前記第2撮像画像に基づいてフォログラム部612の認証を行うように機能する。
 この構成では、少なくとも2種類の画像が発生し得るフォログラム部612を備えた情報コード600を認証用の媒体として利用できる。読取装置10では、フォログラム部から2種類の画像の取得を試み、その取得結果に基づいて認証を行うことができるため、フォログラムが正規のものであるか否かをより正確に判定しやすくなる。
 特に、従来のフォログラムの機械認証は専用の大掛かりな装置が必要であったが、本構成によれば、コード上にフォログラムを貼付することで、情報コードを構成する特徴パターン等に基づいて容易に読取位置・角度を判別するが可能となり、ハンディタイプのスキャナや携帯電話等の汎用機器でフォログラムの機械認証が可能となる。
 また、従来は別々の管理となっていた情報コードとフォログラムの貼付作業・管理を統一することができ、作業効率を高めることができると共に、情報コードとフォログラムの対応付けをより正確に行いやすくなる。
 また、本構成では、簡易的に人がフォログラム部612を目視によって確認したり、目視確認を上述の機械確認を併用するといったことも可能となる。
 なお、データ記録領域に固有IDを記録し、フォログラム部612に、この固有IDに対応した固有のフォログラムを配置するようにしてもよい。このように、情報コードごとに異なるフォログラム・光反射素材を貼り付け、その内容をサーバ登録し、読み取り時にフォログラムの個別認証を行うようにすれば、より高い偽造防止効果が得られる。
 [第11実施形態の変形例1]
 次に、図52を参照して第11実施形態の変形例1について説明する。
 変形例1では、フォログラム部612の具体的内容が第11実施形態の代表例と異なるだけであり、それ以外は、第11実施形態の代表例と同様である。
 変形例1の情報コード600は、フォログラム部612以外は代表例と同一である。この、この情報コード600は、代表例の特徴を全て含み、フォログラム部612に更なる特徴が付加されている。また、情報コード600の読取方法や認証方法は代表例と同一であり、読取時に光学フィルタ620を用いる点のみが追加されている。
 図52の情報コード600は、所定波長帯の光を透過させる光学フィルタ620を介して撮像した画像と、光学フィルタ620を介さずに撮像した画像とが異なる構成となるフォログラム部612が空き領域610(画像領域)に配置されている。なお、光学フィルタ620は、例えば赤外光のみを透過するようなフィルタであってもよく、紫外光のみを透過するフィルタであってもよい。或いは、可視光領域における所定波長帯を透過させ、所定波長帯以外の透過率を大幅に低下させるようなものであってもよい。
 このような例では、情報コード600の認証を行う場合、情報コード読取装置10の受光センサ23(撮像部)は、光学フィルタ620を介して情報コード600を撮像することになる。なお、光学フィルタ620を用いる点以外は代表例と同一であり、情報コード600を所定の第1方向から撮像したときの第1撮像画像と、情報コード600を第2方向から撮像したときの第2撮像画像とを取得して代表例と同様に認証を行えばよい。
 本構成では、図2の読取装置10の制御回路40が画像処理部の一例に相当し、光学フィルタ620を介して撮像された情報コード60の撮像結果に基づいてフォログラム部612の認証を行うように機能する。
 本構成では、光学フィルタを介して撮像したときに所定画像が発生するような特徴的なフォログラム部を有する情報コードを認証用の媒体として利用できる。読取装置では、光学フィルタを介して得られた撮像画像から所定画像の取得を試み、その取得結果に基づいて認証を行うことができるため、フォログラムが正規のものであるか否かをより正確に判定しやすくなる。
 [第11実施形態の変形例2]
 次に、図53を参照して第11実施形態の変形例2について説明する。
 変形例2では、フォログラム部612の具体的内容が第11実施形態の代表例と異なるだけであり、それ以外は、第11実施形態の代表例と同様である。
 変形例2の情報コード600は、フォログラム部612以外は代表例と同一である。この、この情報コード600は、代表例の特徴を全て含み、フォログラム部612に更なる特徴が付加されている。また、情報コード600の読取方法や認証方法は代表例と同一であり、フォログラム部612を特定の撮像方法で撮像する点のみが付加されている。
 図53(A)の情報コード600は、予め定められた所定撮像方法で撮像したとき、図53(B)の撮像画像600’ように所定表示が表れ、所定撮像方法とは異なる方法で撮像したときに所定表示が表れない特殊表示部630を空き領域610(画像領域)内に設けた構成となっている。なお、図53(B)では、フォログラム部612の画像を省略している。所定表示を表すための所定撮像方法は、例えば赤外光や紫外光を照射しながら受光センサ23(撮像部)によって情報コード600を撮像する方法などが挙げられる。この場合、空き領域610(画像領域)に赤外線発光インク(可視光が照射される通常環境下では視認不能であり、赤外光が照射される環境下で発光するインク)や紫外線発光インク(可視光が照射される通常環境下では視認不能であり、紫外光が照射される環境下で発光するインク)などによって予め特定のパターン630(特殊表示部)を記録しておけばよい。このようにすれば、可視光を照射して撮像する通常の撮像では、特定のパターン630が表れなくなる。また、空き領域610の基部となる紙媒体などに繊維媒体(通常環境下で視認不可又は視認困難になる媒体)によるパターン630(特殊表示部)を含ませておき、このようなパターン630(特殊表示部)が画像内に現れるように撮像する公知の特殊撮像方法を用いてもよい。
 このような例では、情報コード600の認証を行う場合、情報コード読取装置10の撮像部は、上述の所定撮像方法で情報コード600を撮像することになる。なお、撮像方法以外は代表例と同一であり、情報コード600を所定の第1方向から撮像したときの第1撮像画像と、情報コード600を第2方向から撮像したときの第2撮像画像とを取得して同様に認証を行えばよい。この場合、代表例と同様の方法で認証を行った場合にフォログラム画像の一致が確認され、更に、パターン630の表示が確認されたことを条件として認証成功と判定すればよい。
 本構成では、図2の読取装置10の制御回路40が画像処理部の一例に相当し、所定撮像方法で撮像された情報コードの撮像結果に基づいてフォログラム部612の認証を行うように機能する。
 本構成では、予め定められた所定撮像方法で撮像したときに所定表示が表れ、所定撮像方法とは異なる方法で撮像したときに所定表示が表れないような特殊な表示部を有する情報コードを認証用の媒体として利用できる。読取装置では、所定撮像方法で撮像したときの撮像画像において特殊表示部の所定表示の認識を試み、その認識結果に基づいて認証を行うことができるため、フォログラムが正規のものであるか否かをより正確に判定しやすくなる。
 [第12実施形態]
 次に、第12実施形態について説明する。
 第12実施形態の情報コード利用システム1も、ハードウェア構成については第1実施形態と同一であり、上述した図1、図2のような構成が用いられる。そして、図1のような生成装置2により、図54のような情報コード700(所定のコード領域の内部に情報を表示する単位となるセルを配列してなる情報コード)を生成するようになっている。なお、生成装置2による情報コード700の生成方法は空き領域710の具体的内容を除いて第1実施形態等と同一である。
 このように生成装置2で生成される情報コード700は、空き領域710の内容のみが第1実施形態の情報コード100と異なり、空き領域710の画像以外は第1実施形態の情報コード100の特徴を全て含んでいる。
 本システム1で扱われる情報コード700も、図54のように、コード領域の内部に、予め定められた形状の特定パターンが配置される特定パターン領域(図1の位置検出パターン104、タイミングパターン(タイミングセル)106、アライメントパターン108と同様の領域)と、複数種類のセル102によってデータを記録するデータ記録領域と、複数種類のセル102によって誤り訂正符号を記録する誤り訂正符号記録領域とが設けられている。そして、セル102とは異なる画像を示す画像領域が、セル102のサイズよりも広い領域としてコード領域内に表される構成となっている。なお、図54の例では、空き領域710の全体が画像領域として構成されており、例えば図54のように、空き領域510内にセル102とは異なる画像が表されるようになっている。この空き領域710は、データ記録領域にデータを記録する方法とは異なる方法でデータの記録又はデザインの表示の少なくともいずれかが可能となる領域であり、単一のセル102のサイズよりも大きいサイズで構成されている。
 そして、この情報コード700は、図54のように、空き領域710(画像領域)内に所定形状の基準図形(拡張現実マーカ712)を配置した構成となっている。拡張現実マーカ712は、例えば、空き領域710の外縁に沿って配置され、黒色等の暗色の四角形枠(正方形枠又は長方形枠)として構成されており、枠幅は、セルの幅よりも大きくなっている。
 また、情報コード700のコード領域内には、現実マーカが表示される領域以外の位置に、表示候補の拡張現実画像に対応した画像又は情報の少なくともいずれかを示す関連内容が表示されるようになっている。図54の例では、四角形枠として構成される拡張現実マーカ712(ARマーカ)の内側に、表示候補の拡張現実画像と同一の物品の画像714が示されており、どのような物品が拡張現実画像として重畳表示されるかを、コードの内容から視覚的に把握できるようになっている。
 情報コード700のデータ記録領域には、拡張現実画像が蓄積された管理装置790に対応したアドレス情報(URLなど)が記録されている。本構成では、情報端末として構成される読取装置10と管理装置790(サーバ)とがインターネット回線、無線LAN回線、その他の通信回線などを介して通信可能とされており、読取装置10は、情報コード700のデータ記録領域からアドレス情報(URLなど)を読み取ることで管理装置790(サーバ)のアドレスを特定することができ、これにより管理装置790(サーバ)と情報の送受信ができるようになっている。
 また、情報コード700のデータ記録領域には、表示対象の拡張現実画像を特定する特定情報が記録されている。例えば、管理装置790(サーバ)には、拡張現実画像となる複数の候補画像がそれぞれに対応する識別情報と紐付けて登録されており、識別情報が特定されれば、その識別情報に対応する候補画像を拡張現実画像として読み出すことができるようになっている。情報コード700のデータ記録領域には、複数の候補画像に紐付けられたいずれかの識別情報が特定情報として記録されており、これにより、重畳表示される拡張現実画像が特定されている。
 図55、図56は、拡張現実表示の運用例を示している。
 このような情報コード700を用いて拡張現実表示を行う場合、まず、図2に示す読取装置10の受光センサ23(撮像部)により読取装置外部に設定された撮像範囲の実画像を撮像する。このとき、例えば、受光センサ23で撮像される撮像画像をリアルタイムに液晶表示器46(図2)に表示する。そして、受光センサ23(撮像部)によって撮像される実画像に情報コード700の画像が含まれる場合、その情報コード700の読み取りを行う(図55の(1)を参照)。情報コード700の読み取り方法は、第1実施形態等と同様である。情報コード700のデータ記録領域には、管理装置790(サーバ)のアドレス情報(URLやメールアドレス等)が記録され、拡張現実画像を特定する特定情報が記録されているため、読取装置10は、情報コード700の読み取りによってこれらの情報を取得する。
 読取装置10は、このような情報を取得した場合、取得したアドレス情報に基づいて管理装置790にアクセスし、取得した特定情報(拡張現実画像を特定する情報)に対応する拡張現実画像を要求する(図55の(2)を参照)。例えば、管理装置790(サーバ)に、画像791a、791b、791cのような候補画像が三次元画像データとして登録されており、読取装置10が取得した特定情報(拡張現実画像を特定する情報)が画像791aを特定するものである場合、この画像791aを要求することになる。この場合、管理装置790(サーバ)は、要求のあった画像791aの三次元画像データを読取装置10に送信する(図55の(3)を参照)。
 一方、読取装置10は、図55の(1)で情報コード700を読み取る際に、情報コード700のコード画像の中から第1実施形態等と同様の方法で空き領域710を特定し、その特定された空き領域710の画像の中から拡張現実マーカ712を検出する(図56の(4)を参照)。拡張現実マーカ712の検出方法は、例えば、拡張現実技術で用いられる公知方法を用いればよく、画像の中から拡張現実マーカ712を検出できる方法であれば方法は特に限定されない。そして、拡張現実マーカ712を認識することで、当該拡張現実マーカ712の形状から姿勢を検出することができる。例えば、拡張現実マーカ712が付される面と直交する方向をZ方向、拡張現実マーカ712の所定の一辺の方向をX方向、Z方向及びX方向と直交する方向をY方向とするように撮像空間の座標系を特定する。
 そして、管理装置790(サーバ)から取得した拡張現実画像を、特定された座標系の向きに合わせるように受光センサ23(撮像部)で撮像された実画像上に重ね合わせる。なお、図56の例は、情報端末の拡張現実画像を重ね合わせた例を示している。管理装置790(サーバ)に登録される拡張現実画像791a、791b、791cは、三次元画像データによって構成されるものであり、拡張現実画像毎にX方向、Y方向、Z方向が特定されているため、拡張現実画像のX方向、Y方向、Z方向が拡張現実マーカ712で特定されるX方向、Y方向、Z方向に合うように重畳表示する。拡張現実マーカ712と読取装置10との位置関係が変化し、液晶表示器46に表示される拡張現実マーカ712の姿勢が変化して表示画像でのX方向、Y方向、Z方向が変化する場合、その変化したX方向、Y方向、Z方向に合わせるように拡張現実画像の表示姿勢を変化させる。
 なお、ここでは、読取装置10の受光センサ23(撮像部)で撮像された実画像に拡張現実画像を重畳表示する例を示したが、背景を実画像以外の他の画像に変えて重畳表示してもよい。
 本構成では、図2の制御回路40が領域検出部の一例に相当し、受光センサ23(撮像部)によって撮像される実画像からコード領域の画像を検出するように機能し、更に、空き領域特定部の一例に相当し、領域検出部によって検出されたコード領域の画像を解析し、空き領域710の位置を特定するように機能する。
 また、本構成では、図2に示す読取装置10の制御回路40が画像処理部、マーカ検出部の一例に相当し、撮像部によって撮像される実画像に情報コード700の画像が含まれる場合に、得られた情報コード700の撮像画像から基準図形(拡張現実マーカ712)を検出するように機能し、具体的には、空き領域特定部によって特定された空き領域710の中から拡張現実マーカ712の画像を検出するように機能する。
 図2の受光センサ23は、情報コード読取装置10の装置外に設定される撮像範囲の実画像を撮像する撮像部の一例に相当する。また、図2の液晶表示器46は、撮像部によって撮像される実画像を表示可能な表示部の一例に相当する。更に、図2の制御回路40は、表示制御部の一例に相当し、マーカ検出部によって拡張現実マーカ712の画像が検出された場合に、撮像部によって撮像される実画像に対して拡張現実画像を重畳して表示部に表示するように機能し、より具体的には、マーカ検出部によって拡張現実マーカ712の画像が検出された場合に、撮像部によって撮像される実画像に対して、空き領域710に表示される関連内容(図54等の例では画像714)に対応する表示候補の拡張現実画像(より詳しくは、特定情報取得部で取得された特定情報で特定される表示対象の拡張現実画像)を重畳して表示部に表示するように機能する。
 また、図2の制御回路40は、アドレス情報取得部の一例に相当し、情報コード700のデータ記録領域からアドレス情報を取得するように機能し、更に、要求部の一例に相当し、アドレス情報取得部によって取得されたアドレス情報で特定される送信先に対し、拡張現実画像を要求するように機能する。
 また、図2の制御回路40は、特定情報取得部の一例に相当し、データ記録領域から特定情報(重畳表示される拡張現実画像を特定する情報)を取得するように機能している。そして、表示制御部に相当する制御回路40は、マーカ検出部によって拡張現実マーカ712の画像が検出された場合に、受光センサ23(撮像部)によって撮像される実画像に対して、上記特定情報で特定される表示対象の拡張現実画像を重畳して表示部に表示するように機能する。
 本構成によれば、画像領域内に所定形状の基準図形が設けられた情報コード700を読取対象とし、情報コード700を、データ媒体としてのみならず、画像処理を行う上での基準媒体としても利用可能となる。そして、本構成のように、コード領域内の一部を拡張現実技術で用いるARマーカとして利用すれば、情報コード700を拡張現実技術の要素として適用できるようになる。
 また、情報コード700を検出した上で、特定されたコード領域内に絞って拡張現実マーカ712を検出することができるため、拡張現実マーカ712をより確実に検出しやすくなる。
 更に、情報コード700のコード領域内に、読み取りや拡張表示に影響を及ぼしにくい画像を自由に入れることができるため、利便性が高まる。特に、本構成のように、予定された拡張現実画像に関連する画像をコード領域に表示しておけば、読み取り前に拡張現実画像を把握或いは推測することができるため、利便性が一層高まる。
 [第1~第9の実施形態に関するその他の実施形態]
 本発明は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような実施形態も本発明の技術的範囲に含まれる。
 第1実施形態等では、情報コード100内に、情報入力領域の位置を示す位置データ(例えば、図3に示す画像領域位置情報など)を含ませるようにしていたが、このような例に限られない。例えば、情報コード生成装置2が、空き領域において予め定められた所定位置に画像領域を配置するように情報コードを生成する構成であってもよい。この場合、所定位置を特定する情報(図3に示す画像領域位置情報などの情報)が記憶部5に記憶されていればよい。また、この場合、情報コード読取装置10には、情報コード生成装置2と同様、所定位置を特定する特定情報(図3に示す画像領域位置情報などの情報)をメモリ35に記憶しておけばよい。そして、情報コード読取装置10では、図9のS45において、メモリ35からこのような特定情報を読み出して情報入力領域を特定した上で、それ以降の処理を行えばよい。また、この場合、図3に示す画像領域位置情報は、ヘッダデータに含めなくてもよい。
 本発明は、上述したいずれか1又は複数若しくは全ての情報コードを表示し得る表示装置として構成することもできる。また、上述したいずれか1又は複数若しくは全ての情報コードを印刷し得る印刷装置として構成することもできる。更に、上述したいずれか1又は複数若しくは全ての情報コードを生成するためのコンピュータ読取可能なプログラムとして構成することもできる。また、上述した1又は複数若しくは全ての情報コードを生成するためのプログラムを記録した記録媒体として構成することもできる。更に、上述した1又は複数若しくは全ての情報コードが付された情報コード媒体(印刷物、ダイレクトマーキング等によって構成された形成物など)として把握することもできる。また、上述した1又は複数若しくは全ての情報コードが表示された表示画像として把握することもできる。
 図1等の構成では、情報コード生成装置2と情報コード読取装置10が別々の装置として構成された例を示しているが、情報コード生成装置2が情報コード読取装置10として構成されていてもよい。また、情報コード生成装置2が、複数の装置によって構成されていてもよく、情報コード読取装置10が複数の装置によって構成されていてもよい。
 上記実施形態では、コード領域の中央部に空き領域110を設けた例を示したが、空き領域110の配置はこの例に限られない。同様に画像領域121の位置も上述の例に限られない。例えば、コード領域の周縁付近に空き領域を設け、この位置に画像領域121を設けてもよい。また、画像領域のデザインとしては、図形、模様、色彩又はこれらの結合からなる構成であれば他の様々なデザインを採用することができる。また、デザインに代えて、或いはデザインと共に情報を表示する場合、その情報の内容は様々である。
 上記実施形態では、他種コードとしてQRコードを例に挙げ、情報コード100で用いる特定パターンとしてQRコードの特定パターンを例に挙げたが、これ以外の種類の二次元コードを用いてもよい。例えば、他種コードとしてデータマトリックスコードを用い、情報コード100で用いる特定パターンをデータマトリックスコードの特定パターンとしてもよい。
 図5のように設定した配置変換表における対応関係は、図7のように任意に変更することができる。例えば、情報コード生成装置2、情報コード読取装置10において図5のように設定されていた配置変換表を図7のように変更した場合、生成される情報コード100では、22~23番目のコードワードの配置が、図5右図のような配置(22~23番の配置候補位置に記録する配置)から図7右図のような配置(42~43番の配置候補位置に記録する配置)に変更され、これにより空き領域110の位置や形状も変化することになる。この場合、22~23番の配置候補位置は空き領域としてもよく、他のコードワードの配置位置としてもよい。つまり、この構成では、配置変換表を調整することで空き領域110の位置や形状を調整することができ、空き領域を構成する上での自由度をより高めることができる。
 上記実施形態では、空き領域110を設け、この空き領域110の内部に画像領域を設けた例を示したが、このような例に限られない。例えば、誤り訂正が可能な一般的な二次元コード(例えばQRコード等)のセル配置領域に、上述したような画像を上書き等によって設け、このような画像領域によって潰れた領域のデータを誤り訂正によって復元するようにしてもよい。
 上記実施形態では、図9のS46で特定される画像領域をビットマップ画像として抽出し、ビットマップ形式でS47、S48の処理を行う例を示したが、このような例に限られない。例えば、図9のS46で特定される画像領域の画像をセル単位の白黒情報画像として抽出し画像処理を行うようにしてもよい。即ち、図1、図5右図のような情報コード100を各セル領域に分割して各セル領域を特定した後、S46で特定される画像領域の各セル領域を明暗情報画像(例えば、画像領域の各セル領域を白又は黒で表した画像)として抽出し、データ記録領域に対するデータ解読処理とは異なる方法で画像処理を行うようにしてもよい。例えば、S46で特定される画像領域内の各セル領域(図5のようにコード領域内を複数行複数列のセル領域として区分けした場合の画像領域内の各セル領域)の明暗判定をデータ記録領域と同様に行い、明色と判定される各セル領域を全て明色(例えば、白色)、暗色と判定される各セル領域を全て暗色(例えば黒色)とするように画像領域の白黒情報画像を生成し、このような白黒情報画像に対して画像処理を行うようにしてもよい。このような画像処理はいずれの実施形態でも利用できる。また、このような画像処理方法に限定されるものではなく、特定された画像領域の全体を二値化画像やグレースケール画像として抽出して画像処理を行ってもよい。
 上記実施形態では、「コード領域」の一例を示したが、「コード領域」は、情報コードを構成する複数種類のセルを全て含む最小の正方形領域又は長方形領域であればよく、コード領域の内縁部の一部にセルが配列されていなくてもよい。例えば、図57の情報コード800ように、空き領域810がコード領域の周縁部に隣接して形成されていてもよい。この場合、情報コード800を構成する複数種類のセルを全て含む最小の正方形領域又は長方形領域は、一点鎖線ARのようになり、空き領域810の外縁は、例えば二点鎖線AR2のようになる。また、認識対象となる画像領域はコード領域内に少なくとも一部が存在すればよく、図58の画像領域AR3ように、残余の部分がコード領域外に存在するような構成であってもよい。図58のような例では、予め画像領域AR3がどのような範囲になるかを特定する情報をデータ記録領域に記録しておけばよい。
 上記実施形態では、コード領域内を構成する複数種類のセルとして、白色セルなどの明色セルと黒色セルなどの暗色セルを例示したが、コード領域内の特定パターン領域、データ記録領域、誤り訂正符号記録領域が、所定の濃度、輝度、色彩の第1種セルと、この第1種セルとは濃度、輝度、色彩のいずれかが異なる第2種セルに構成されていてもよい。或いは、コード領域内の特定パターン領域、データ記録領域、誤り訂正符号記録領域が、濃度、輝度、色彩のいずれかがそれぞれ異なる三種類以上のセルによって構成されていてもよい。
 上記実施形態では、コード領域内の特定パターン領域、データ記録領域、誤り訂正符号記録領域において、外形が正方形状のセルを複数配列した例を示したが、各セルの外形は正方形以外の四角形であってもよく、四角形以外の多角形や、円形、楕円形などの図形であってもよい。
 上記実施形態では、特定パターンの例として位置検出パターン104、タイミングパターン106、アライメントパターン108などを例示したが、データ記録領域及び誤り訂正符号記録領域の内容に関係なく固定のパターンとして構成される領域であれば、特定パターンを構成する図形は他の固有図形であってもよい。
 上記実施形態では、空き領域の一例を示したが、空き領域は、セルによって解読対象データが記録されない領域であり、データ記録領域にデータを記録する方法とは異なる方法で情報の表示又は画像の表示がなされる領域であればよい。例えば、第1実施形態のように、コードワードが全く配置されない領域として空き領域が構成されていてもよく、公知のQRコードなどにおいて、誤り訂正符号を表現する誤り訂正コードワードや解読対象データを表現するデータコードワードが配置されず、埋め草コードワードが配置される領域を空き領域としてもよい。また、いずれの空き領域の場合でも、「セルによってデータ記録領域にデータを記録する方法とは異なる方法で情報の表示」を行うことができ、この情報の表示は、上記実施形態で例示される情報のほか、例えば、文字、数字、その他の記号などによるその他の情報であってもよく、商標などによって特定の商品やサービスを表すような情報の表示方法であってもよい。また、空き領域では、「セルによってデータ記録領域にデータを記録する方法とは異なる方法では画像の表示」を行うことができ、この画像の表示は、上記実施形態で例示される画像のほか、様々な形状、模様、色彩、それらの結合などを表すことができる。
 また、図59の情報コード900のように構成してもよい。この例は、第1実施形態と同様の空き領域を設ける構成であるが、空き領域の特定のみが第1実施形態と異なっている。なお、図59の例では、一部の特定パターン以外の領域の具体的内容は省略して示しており、実際は、空き領域910外の外部領域に明色セルや暗色セルが配置されることになる。また、空き領域910内は、例えば第1実施形態の空き領域110と同様の画像、或いは他の実施形態の空き領域と同様の画像が表示される。
 本構成でも、情報コード900の種別において複数の型番が用意されており、型番毎にセルの行数及び列数、特定パターンの形状及び位置、フォーマット情報の位置、コードワードの候補位置(アドレス)が予め定められている。そして、生成装置2が情報コード900を生成する際には、型番情報をコード領域内の決められた位置(図59の例では予約領域107)に配置するようになっている。従って、読取装置10が情報コード900を読み取る際には、情報コード900のコード画像を解析し、所定位置に配置された型番情報を読み取ることで、情報コード900のセルの行数及び列数、特定パターンの形状及び位置、フォーマット情報の位置、コードワードの候補位置(アドレス)を把握できることになる。
 情報コード900を生成する際には、予め用意された複数の型番の中からいずれかの型番を選択する。これにより、コード領域内の基本構成(特定パターン104の位置、セルの行数及び列数、コードワードの候補位置)が決定する。例えば、図59に示す構成の型番では、29行29列のセル配列となっており、予め定められた3つの角部に、QRコード(登録商標)の切り出しシンボルと同一の構造の特定パターン104が配置されるようになっている。そして、特定パターン104の近くの所定位置に、フォーマット情報を記録する領域(所定位置105)が設けられている。また、29行29列のマトリックス領域において、特定パターン104及び所定位置105以外の位置に、予めコードワードの候補位置が定められており、各候補位置に0~67までのアドレスが割り当てられている。このように、型番に対応する構成で予めコード領域内の構成が規定されているため、型番が特定されれば、どの順番のコードワードがどの位置に配置されるかを特定することが可能となる。なお、決定した型番の情報は、その型番の配列において予め定められた固定位置に記録される。例えば図59の例では、所定種類のハッチングで特定される領域107に型番の情報が記録されるようになっている。
 そして、型番が決定し、コード領域内の基本構成が決定した後には、空き領域の形状及び位置を決定する。空き領域の形状の決定方法は、例えば、予め用意された複数の候補形状の中から選定する方式で決定してもよく、或いは、情報コード生成装置2に対して外部から入力された形状指定情報に従った形状に設定する方式で決定してもよい。或いは、決められた固定形状のみに決定してもよい。また、空き領域の位置については、予め決められた固定位置に決定してもよく、ユーザが位置を指定する情報を入力することで、その位置に決定するようにしてもよい。
 そして、空き領域が決定した後には、決定された空き領域の位置から外れるコードワードの候補位置に、データ記録領域のコードワード及び誤り訂正符号記録領域のコードワードをそれぞれ配置する構成で情報コード900を生成する。例えば、図59のような構成の型番では、3つの角部に特定パターン104が配置され、これら特定パターン104の位置を基準として、0~67の番号が付された68個のコードワードの候補位置が予め規定されている。このようなレイアウトにおいて、図59のように空き領域910が決定した場合、少なくとも一部が空き領域910内に入るコードワードの候補位置を配置対象位置から除外し、その除外されたコードワードの位置を飛ばすようにして、順番にコードワードを配置する。例えば、図59の例では、50、51番、53、54番、60~67番のコードワードの候補位置に入り込むように空き領域910が設定されているため、これら50、51番、53、54番、60~67番のコードワードの候補位置にはコードワードを配置しないようにする。即ち、0~49番の位置に順番にコードワードを配置した後、50、51番を飛ばして52番の位置にコードワードを配置し、その後、53、54番を飛ばして55~59番の位置にコードワードを順番に配置することになる。このようにすれば、解読対象データを符号化したデータコードワードと、誤り訂正符号を表す誤り訂正コードワードとを、空き領域910から外れた候補位置に確実に配置することができる。
 このように特定パターン領域(特定パターン104やその他の特定パターンの領域)、フォーマット領域(所定位置105)、型番領域107、各コードワード領域などを決定した後には、空き領域910の具体的な内容を決定する。この情報コード900でも、空き領域910に、空き領域110と同様の画像を表すことで、図1と同様の機能を有する情報コード900を構成することができる。なお、情報コード900の利用方法は第1実施形態やその他の実施形態と同様である。
 1…情報コード利用システム
 2…情報コード生成装置
 3…制御部
 10…情報コード読取装置
 23…受光センサ(撮像部)
 35…メモリ(登録部)
 40…制御回路(データ記録領域読取部、画像処理部、出力部)
 46…液晶表示器(出力部)
 48…通信インタフェース(出力部)
 90…外部装置(認証装置)
 100…情報コード
 102…セル
 104…位置検出パターン(特定パターン)
 110…空き領域(画像領域)
 REG…コード領域
 R…情報コードを担持する媒体
 

Claims (95)

  1.  媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを情報コード生成装置によって生成する情報コード生成方法であって、
     前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域とを設け、更に、情報コード読取装置によって所定の画像認識処理を行う対象となる画像領域が前記コード領域内に表されるように構成することを特徴とする情報コード生成方法。
  2.  前記コード領域の内部に、前記特定パターン領域と、前記データ記録領域と、複数種類の前記セルによって誤り訂正符号を記録する誤り訂正符号記録領域とを設け、且つ前記画像領域が前記コード領域内に表されるように構成することを特徴とする請求項1に記載の情報コード生成方法。
  3.  前記コード領域の内部において、前記特定パターン領域及び前記データ記録領域以外の位置に、前記セルによって解読対象データが記録されない領域である空き領域を、単一の前記セルのサイズよりも大きいサイズで設け、前記空き領域内に前記画像領域が表されるように構成することを特徴とする請求項1又は請求項2に記載の情報コード生成方法。
  4.  前記情報コード読取装置によって画像として認識されるべき前記画像領域の前記コード領域内での位置を示す位置データを前記データ記録領域に記録することを特徴とする請求項1から請求項3のいずれか一項に記載の情報コード生成方法。
  5.  前記情報コード読取装置によって画像として認識されるべき前記画像領域が前記コード領域内に存在することを示す識別情報を前記データ記録領域に記録することを特徴とする請求項1から請求項4のいずれか一項に記載の情報コード生成方法。
  6.  サインの記録領域として前記画像領域を設けることを特徴とする請求項1から請求項5のいずれか一項に記載の情報コード生成方法。
  7.  フォログラム部の配置領域として前記画像領域を設けることを特徴とする請求項1から請求項5のいずれか一項に記載の情報コード生成方法。
  8.  少なくとも、前記フォログラム部を所定の第1方向から撮像した画像と、前記第1方向とは異なる所定の第2方向から撮像した画像とが異なる構成となるように前記フォログラム部を設けることを特徴とする請求項7に記載の情報コード生成方法。
  9.  前記フォログラム部を、所定波長帯の光を透過させる光学フィルタを介して撮像した画像と、前記光学フィルタを介さずに撮像した画像とが異なる構成となるように前記フォログラム部を設けることを特徴とする請求項7に記載の情報コード生成方法。
  10.  指紋画像の配置領域として前記画像領域を設けることを特徴とする請求項1から請求項5のいずれか一項に記載の情報コード生成方法。
  11.  前記画像領域内に、予め定められた所定撮像方法で撮像したときに所定表示が表れ、前記所定撮像方法とは異なる方法で撮像したときに前記所定表示が表れない特殊表示部を設けることを特徴とする請求項1から請求項10のいずれか一項に記載の情報コード生成方法。
  12.  前記画像領域内に、所定形状の基準図形を配置することを特徴とする請求項1から請求項11に記載の情報コード生成方法。
  13.  所定の表面と裏面とを有する形成対象媒体の前記表面側から前記特定パターン領域及び前記データ記録領域が視認可能となる構成で前記形成対象媒体に前記特定パターン領域及び前記データ記録領域を形成し、
     前記形成対象媒体において前記特定パターン領域及び前記データ記録領域が表されてなる前記コード領域の外縁部よりも内側に、前記表面から前記裏面に続く窓部を形成し、前記形成対象媒体の前記表面側から前記窓部を介して前記裏面側を視認可能とすることを特徴とする請求項1から請求項5のいずれか一項に記載の情報コード生成方法。
  14.  所定の表面と裏面とを有する形成対象媒体の前記表面側から前記特定パターン領域及び前記データ記録領域が視認可能となる構成で前記形成対象媒体に前記特定パターン領域及び前記データ記録領域を形成し、
     前記形成対象媒体において前記特定パターン領域及び前記データ記録領域が表されてなる前記コード領域の外縁部よりも内側に、手書き入力を行うための手書き入力領域を設けることを特徴とする請求項1から請求項5のいずれか一項に記載の情報コード生成方法。
  15.  前記データ記録領域に、前記画像領域の画像又は当該画像を解析して得られるデータの送信先を特定するアドレス情報が少なくとも記録されていることを特徴とする請求項1から請求項14のいずれか一項に記載の情報コード生成方法。
  16.  媒体の所定のコード領域の内部に情報を表示する単位となるセルが配列されてなる情報コードであって、
     前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、が設けられ、更に、情報コード読取装置によって所定の画像認識処理を行う対象となる画像領域が前記コード領域内に表されるように構成されていることを特徴とする情報コード。
  17.  前記コード領域の内部に、前記特定パターン領域と、前記データ記録領域と、複数種類の前記セルによって誤り訂正符号を記録する誤り訂正符号記録領域と、が設けられ、更に前記画像領域が前記コード領域内に表されるように構成されていることを特徴とする請求項16に記載の情報コード。
  18.  前記コード領域の内部において、前記特定パターン領域及び前記データ記録領域以外の位置に、前記セルによって解読対象データが記録されない領域である空き領域が、単一の前記セルのサイズよりも大きいサイズで設けられ、前記空き領域の内部に前記画像領域が表されるように構成されていることを特徴とする請求項16又は請求項17に記載の情報コード。
  19.  前記画像領域の前記コード領域内での位置を示す位置データが前記データ記録領域に記録されていることを特徴とする請求項16から請求項18のいずれか一項に記載の情報コード。
  20.  前記画像領域が前記コード領域内に存在することを示す識別情報が前記データ記録領域に記録されていることを特徴とする請求項16から請求項19のいずれか一項に記載の情報コード。
  21.  前記画像領域は、サインの記録領域として構成されていることを特徴とする請求項16から請求項20のいずれか一項に記載の情報コード。
  22.  前記画像領域は、フォログラム部の配置領域として構成されていることを特徴とする請求項16から請求項20のいずれか一項に記載の情報コード。
  23.  前記フォログラム部は、少なくとも、所定の第1方向から撮像した画像と、前記第1方向とは異なる所定の第2方向から撮像した画像とが異なる構成となるものであることを特徴とする請求項22に記載の情報コード。
  24.  前記フォログラム部は、所定波長帯の光を透過させる光学フィルタを介して撮像した画像と、前記光学フィルタを介さずに撮像した画像とが異なる構成となるものであることを特徴とする請求項22に記載の情報コード。
  25.  前記画像領域は、指紋画像の配置領域として構成されていることを特徴とする請求項16から請求項20のいずれか一項に記載の情報コード。
  26.  前記画像領域内に、予め定められた所定撮像方法で撮像したときに所定表示が表れ、前記所定撮像方法とは異なる方法で撮像したときに前記所定表示が表れない特殊表示部が設けられていることを特徴とする請求項16から請求項25のいずれか一項に記載の情報コード。
  27.  前記画像領域内に、所定形状の基準図形を配置することを特徴とする請求項16から請求項26に記載の情報コード。
  28.  所定の表面と裏面とを有する形成対象媒体の前記表面側から前記特定パターン領域及び前記データ記録領域が視認可能となる構成で前記形成対象媒体に前記特定パターン領域及び前記データ記録領域が形成され、
     前記形成対象媒体において前記特定パターン領域及び前記データ記録領域が表されてなる前記コード領域の外縁部よりも内側に、前記表面から前記裏面に続く窓部が形成され、前記形成対象媒体の前記表面側から前記窓部を介して前記裏面側が視認可能となっていることを特徴とする請求項16から請求項20のいずれか一項に記載の情報コード。
  29.  所定の表面と裏面とを有する形成対象媒体の前記表面側から前記特定パターン領域及び前記データ記録領域が視認可能となる構成で前記形成対象媒体に前記特定パターン領域及び前記データ記録領域が形成され、
     前記形成対象媒体において前記特定パターン領域及び前記データ記録領域が表されてなる前記コード領域の外縁部よりも内側に、手書き入力を行うための手書き入力領域が設けられていることを特徴とする請求項16から請求項20のいずれか一項に記載の情報コード。
  30.  前記データ記録領域に、前記画像領域の画像又は当該画像を解析して得られるデータの送信先を特定するアドレス情報が少なくとも記録されていることを特徴とする請求項16から請求項29のいずれか一項に記載の情報コード。
  31.  媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを読み取る情報コード読取装置であって、
     前記情報コードは、前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、が設けられ、前記セルの画像とは異なる画像を示す画像領域が前記コード領域内に表される構成であり、
     前記情報コードを撮像可能な撮像部と、
     前記撮像部によって前記情報コードが撮像された場合に、その撮像された前記情報コードのコード画像における前記データ記録領域の内容に基づいて前記データ記録領域に記録された前記データを読み取るデータ記録領域読取部と、
     前記コード画像における前記画像領域の画像に対し、前記データ記録領域読取部による前記データの解読処理とは異なる方法で画像認識処理を行う画像処理部と、を有することを特徴とする情報コード読取装置。
  32.  前記情報コードは、前記コード領域の内部に、前記特定パターン領域と、前記データ記録領域と、複数種類の前記セルによって誤り訂正符号を記録する誤り訂正符号記録領域と、が設けられ、前記画像領域が前記コード領域内に表される構成であることを特徴とする請求項31に記載の情報コード読取装置。
  33.  前記情報コードは、前記コード領域の内部において、前記特定パターン領域及び前記データ記録領域以外の位置に、前記セルによって解読対象データが記録されない領域である空き領域を、単一の前記セルのサイズよりも大きいサイズで設けた構成であり、前記空き領域内に前記画像領域が表される構成であることを特徴とする請求項31又は請求項32に記載の情報コード読取装置。
  34.  前記情報コードは、前記データ記録領域に所定の識別情報が記録されてなるものであり、
     前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果に基づき、前記データ記録領域に前記識別情報が記録されていることを条件として前記画像領域の画像に対して前記画像認識処理を行うことを特徴とする請求項31から請求項33のいずれか一項に記載の情報コード読取装置。
  35.  前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果に基づき、前記データ記録領域に前記識別情報が記録されていることを条件として前記画像領域の画像をビットマップ画像として抽出し画像処理を行うことを特徴とする請求項34に記載の情報コード読取装置。
  36.  前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果に基づき、前記データ記録領域に前記識別情報が記録されていることを条件として前記画像領域の画像をセル単位の白黒情報画像として抽出し画像処理を行うことを特徴とする請求項34に記載の情報コード読取装置。
  37.  前記画像領域の画像と比較するためのパターン画像を登録する登録部を備え、
     前記画像処理部は、前記コード画像に含まれる前記画像領域の画像と、前記登録部に登録された前記パターン画像とに基づいて一致判断処理を行い、前記画像領域の画像が前記登録部に登録された画像であるか否かを判断することを特徴とする請求項31から請求項36のいずれか一項に記載の情報コード読取装置。
  38.  前記登録部は、前記パターン画像としてサイン画像が登録されており、
     前記画像処理部は、前記コード画像に含まれる前記画像領域の画像と、前記登録部に登録された前記サイン画像とに基づく一致判断処理により、前記画像領域の画像が前記登録部に登録された前記サイン画像であるか否かを判断することを特徴とする請求項37に記載の情報コード読取装置。
  39.  前記登録部は、前記パターン画像としてフォログラム画像が登録されており、
     前記画像処理部は、前記コード画像に含まれる前記画像領域の画像と、前記登録部に登録された前記フォログラム画像とに基づく一致判断処理により、前記画像領域の画像が前記登録部に登録された前記フォログラム画像であるか否かを判断することを特徴とする請求項37に記載の情報コード読取装置。
  40.  前記情報コードの前記画像領域には、少なくとも、所定の第1方向から撮像した画像と、前記第1方向とは異なる所定の第2方向から撮像した画像とが異なる構成となるフォログラム部が設けられており、
     前記撮像部は、前記情報コードを前記第1方向から撮像したときの第1撮像画像と、前記情報コードを前記第2方向から撮像したときの第2撮像画像とを取得可能に構成されていることを特徴とする請求項31から請求項36のいずれか一項に記載の情報コード読取装置。
  41.  前記情報コードの前記画像領域には、所定波長帯の光を透過させる光学フィルタを介して撮像した画像と、前記光学フィルタを介さずに撮像した画像とが異なる構成となるフォログラム部が設けられており、
     前記撮像部は、前記光学フィルタを介して前記情報コードを撮像可能とされていることを特徴とする請求項31から請求項36のいずれか一項に記載の情報コード読取装置。
  42.  前記登録部は、前記パターン画像として指紋画像が登録されており、
     前記画像処理部は、前記コード画像に含まれる前記画像領域の画像と、前記登録部に登録された前記指紋画像とに基づく一致判断処理により、前記画像領域の画像が前記登録部に登録された前記指紋画像であるか否かを判断することを特徴とする請求項37に記載の情報コード読取装置。
  43.  前記情報コードは、前記画像領域内に、予め定められた所定撮像方法で撮像したときに所定表示が表れ、前記所定撮像方法とは異なる方法で撮像したときに前記所定表示が表れない特殊表示部が設けられたものであり、
     前記撮像部は、前記情報コードを前記所定撮像方法で撮像可能とされていることを特徴とする請求項31から請求項42のいずれか一項に記載の情報コード読取装置。
  44.  前記情報コードは、前記画像領域内に所定形状の基準図形を配置されたものであり、
     前記画像処理部は、前記撮像部での撮像によって得られた前記情報コードの撮像画像から前記基準図形を検出することを特徴とする請求項31から請求項43のいずれか一項に記載の情報コード読取装置。
  45.  前記情報コードは、所定の表面と裏面とを有する形成対象媒体の前記表面側から前記特定パターン領域及び前記データ記録領域が視認可能となる構成で前記形成対象媒体に前記特定パターン領域及び前記データ記録領域が形成されてなるものであり、
     前記形成対象媒体において前記特定パターン領域及び前記データ記録領域が表されてなる前記コード領域の外縁部よりも内側に、前記表面から前記裏面に続く窓部が形成され、前記形成対象媒体の前記表面側から前記窓部を介して前記裏面側が視認可能となっており、
     前記撮像部は、前記形成対象媒体の前記表面側から、前記形成対象媒体に形成された前記特定パターン領域及び前記データ記録領域と、前記窓部内の領域とを撮像し、
     前記画像処理部は、前記撮像部によって撮像された前記窓部内の領域の画像を、前記画像領域の画像として、前記データ記録領域読取部による前記データの解読処理とは異なる方法で前記画像認識処理を行うことを特徴とする請求項31から請求項36のいずれか一項に記載の情報コード読取装置。
  46.  前記情報コードは、所定の表面と裏面とを有する形成対象媒体の前記表面側から前記特定パターン領域及び前記データ記録領域が視認可能となる構成で前記形成対象媒体に前記特定パターン領域及び前記データ記録領域が形成されてなるものであり、
     前記形成対象媒体において前記特定パターン領域及び前記データ記録領域が表されてなる前記コード領域の外縁部よりも内側に、手書き入力を行うための手書き入力領域が設けられており、
     前記撮像部は、前記形成対象媒体の前記表面側から、前記形成対象媒体に形成された前記特定パターン領域及び前記データ記録領域と、前記手書き入力領域とを撮像し、
     前記画像処理部は、前記撮像部によって撮像された前記手書き入力領域の画像を、前記画像領域の画像として、前記データ記録領域読取部による前記データの解読処理とは異なる方法で前記画像認識処理を行うことを特徴とする請求項31から請求項36のいずれか一項に記載の情報コード読取装置。
  47.  前記データ記録領域に、前記画像領域の画像又は当該画像を解析して得られるデータの送信先を特定するアドレス情報が少なくとも記録されており、
     前記画像処理部は、前記コード画像における前記画像領域の画像又は当該画像を解析して得られるデータを、前記アドレス情報で特定される送信先に送信することを特徴とする請求項31から請求項46のいずれか一項に記載の情報コード読取装置。
  48.  前記画像処理部は、前記撮像部によって撮像された前記情報コードのコード画像において配列されたセル画像に基づいて、当該コード画像に含まれる前記画像領域の画像を補正して当該画像領域の正規化画像を生成することを特徴とする請求項31から請求項47のいずれか一項に記載の情報コード読取装置。
  49.  前記情報コードは、前記コード領域内における前記画像処理部による認識対象となる領域の位置を示す位置データが前記データ記録領域に記録されてなるものであり、
     前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果から得られる前記位置データに基づいて前記コード画像内での前記認識対象となる領域の位置を特定し、当該認識対象となる領域の画像に対して前記画像認識処理を行うことを特徴とする請求項31から請求項48のいずれか一項に記載の情報コード読取装置。
  50.  前記情報コードは、前記コード領域内における前記画像処理部による認識対象となる領域の位置を示す位置特定データと、画像処理又は画像出力のために正規化するサイズに関する正規化サイズ情報とが前記データ記録領域に記録されてなるものであり、
     前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果から得られる前記位置特定データに基づいて前記コード画像内での前記認識対象となる領域の位置を特定し且つ前記正規化サイズ情報に基づいて正規化した上で、当該認識対象となる領域の画像に対して前記画像認識処理を行うことを特徴とする請求項48に記載の情報コード読取装置。
  51.  前記データ記録領域読取部によって読み取られた情報と、前記画像処理部による前記画像領域の認識結果とを出力する出力部を有することを特徴とする請求項31から請求項50のいずれか一項に記載の情報コード読取装置。
  52.  前記出力部は、前記画像処理部によって認識された前記画像領域の画像を、所定の画像ファイル形式で出力することを特徴とする請求項51に記載の情報コード読取装置。
  53.  媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを生成する情報コード生成装置と、
     前記情報コード生成装置によって生成された前記情報コードを読み取る情報コード読取装置と、
    を備えた情報コード利用システムであって、
     前記情報コード生成装置は、
     前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、を設け、前記セルの画像とは異なる画像を示す画像領域が前記コード領域内に表されるように構成し、
     前記情報コード読取装置は、
     前記情報コード生成装置によって生成された前記情報コードを撮像可能な撮像部と、
     前記撮像部によって前記情報コードが撮像された場合に、その撮像された前記情報コードのコード画像における前記データ記録領域の内容に基づいて前記データ記録領域に記録された前記データを読み取るデータ記録領域読取部と、
     前記コード画像における前記画像領域の画像に対し、前記データ記録領域読取部による前記データの解読処理とは異なる方法で画像認識処理を行う画像処理部と、
    を有することを特徴とする情報コード利用システム。
  54.  前記情報コード生成装置は、前記コード領域の内部に、前記特定パターン領域と、前記データ記録領域と、複数種類の前記セルによって誤り訂正符号を記録する誤り訂正符号記録領域と、を設け、前記画像領域が前記コード領域内に表される構成で前記情報コードを生成することを特徴とする請求項53に記載の情報コード利用システム。
  55.  前記情報コード生成装置は、前記コード領域の内部において、前記特定パターン領域、前記データ記録領域以外の位置に、前記セルによって解読対象データが記録されない領域である空き領域を、単一の前記セルのサイズよりも大きいサイズで設け、前記空き領域内に前記画像領域が表されるように構成することを特徴とする請求項53又は請求項54に記載の情報コード利用システム。
  56.  前記情報コード生成装置は、前記データ記録領域に所定の識別情報を記録するように前記情報コードを生成し、
     前記情報コード読取装置の前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果に基づき、前記データ記録領域に前記識別情報が記録されていることを条件として前記画像領域の画像に対して前記画像認識処理を行うことを特徴とする請求項53から請求項55のいずれか一項に記載の情報コード利用システム。
  57.  前記情報コード読取装置の前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果に基づき、前記データ記録領域に前記識別情報が記録されていることを条件として前記画像領域の画像をビットマップ画像として抽出し画像処理を行うことを特徴とする請求項56に記載の情報コード利用システム。
  58.  前記情報コード読取装置の前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果に基づき、前記データ記録領域に前記識別情報が記録されていることを条件として前記画像領域の画像をセル単位の白黒情報画像として抽出し画像処理を行うことを特徴とする請求項56に記載の情報コード利用システム。
  59.  前記情報コード読取装置は、前記画像領域の画像と比較するためのパターン画像を登録する登録部を備え、
     前記画像処理部は、前記コード画像に含まれる前記画像領域の画像と、前記登録部に登録された前記パターン画像とに基づいて一致判断処理を行い、前記画像領域の画像が前記登録部に登録された画像であるか否かを判断することを特徴とする請求項53から請求項58のいずれか一項に記載の情報コード利用システム。
  60.  前記登録部は、前記パターン画像としてサイン画像が登録されており、
     前記画像処理部は、前記コード画像に含まれる前記画像領域の画像と、前記登録部に登録された前記サイン画像とに基づく一致判断処理により、前記画像領域の画像が前記登録部に登録された前記サイン画像であるか否かを判断することを特徴とする請求項59に記載の情報コード利用システム。
  61.  前記登録部は、前記パターン画像としてフォログラム画像が登録されており、
     前記画像処理部は、前記コード画像に含まれる前記画像領域の画像と、前記登録部に登録された前記フォログラム画像とに基づく一致判断処理により、前記画像領域の画像が前記登録部に登録された前記フォログラム画像であるか否かを判断することを特徴とする請求項59に記載の情報コード利用システム。
  62.  前記情報コード生成装置は、少なくとも、所定の第1方向から撮像した画像と、前記第1方向とは異なる所定の第2方向から撮像した画像とが異なる構成となるフォログラム部を前記画像領域に配置する構成で前記情報コードを生成し、
     前記情報コード読取装置の前記撮像部は、前記情報コードを前記第1方向から撮像したときの第1撮像画像と、前記情報コードを前記第2方向から撮像したときの第2撮像画像とを取得し、
     前記画像処理部は、前記第1撮像画像と前記第2撮像画像に基づいて前記フォログラム部の認証を行うことを特徴とする請求項53から請求項58のいずれか一項に記載の情報コード利用システム。
  63.  前記情報コード生成装置は、所定波長帯の光を透過させる光学フィルタを介して撮像した画像と、前記光学フィルタを介さずに撮像した画像とが異なる構成となるフォログラム部を前記画像領域に配置する構成で前記情報コードを生成し、
     前記情報コード読取装置の前記撮像部は、前記光学フィルタを介して前記情報コードを撮像し、
     前記情報コード読取装置の前記画像処理部は、前記光学フィルタを介して撮像された前記情報コードの撮像結果に基づいて前記フォログラム部の認証を行うことを特徴とする請求項53から請求項58のいずれか一項に記載の情報コード利用システム。
  64.  前記登録部は、前記パターン画像として指紋画像が登録されており、
     前記画像処理部は、前記コード画像に含まれる前記画像領域の画像と、前記登録部に登録された前記指紋画像とに基づく一致判断処理により、前記画像領域の画像が前記登録部に登録された前記指紋画像であるか否かを判断することを特徴とする請求項59に記載の情報コード利用システム。
  65.  前記情報コード生成装置は、予め定められた所定撮像方法で撮像したときに所定表示が表れ、前記所定撮像方法とは異なる方法で撮像したときに前記所定表示が表れない特殊表示部を前記画像領域内に設ける構成で前記情報コードを生成し、
     前記情報コード読取装置の前記撮像部は、前記情報コードを前記所定撮像方法で撮像し、
     前記情報コード読取装置の前記画像処理部は、前記所定撮像方法で撮像された前記情報コードの撮像結果に基づいて前記フォログラム部の認証を行うことを特徴とする請求項53から請求項64のいずれか一項に記載の情報コード利用システム。
  66.  前記情報コード生成装置は、前記画像領域内に所定形状の基準図形を配置した構成で前記情報コードを生成し、
     前記情報コード読取装置の前記画像処理部は、前記撮像部での撮像によって得られた前記情報コードの撮像画像から前記基準図形を検出することを特徴とする請求項53から請求項65のいずれか一項に記載の情報コード利用システム。
  67.  前記情報コード生成装置は、
     所定の表面と裏面とを有する形成対象媒体の前記表面側から前記特定パターン領域及び前記データ記録領域が視認可能となる構成で前記形成対象媒体に前記特定パターン領域及び前記データ記録領域を形成し、
     前記形成対象媒体において前記特定パターン領域及び前記データ記録領域が表されてなる前記コード領域の外縁部よりも内側に、前記表面側から前記裏面側を視認させる窓部を設けた構成で前記情報コードを形成し、
     前記撮像部は、前記形成対象媒体の前記表面側から、前記特定パターン領域及び前記データ記録領域と、前記窓部内の領域とを撮像し、
     前記画像処理部は、前記撮像部によって撮像された前記窓部内の領域の画像を、前記画像領域の画像として、前記データ記録領域読取部による前記データの解読処理とは異なる方法で前記画像認識処理を行うことを特徴とする請求項53から請求項58のいずれか一項に記載の情報コード利用システム。
  68.  前記情報コード生成装置は、
     所定の表面と裏面とを有する形成対象媒体の前記表面側から前記特定パターン領域及び前記データ記録領域が視認可能となる構成で前記形成対象媒体に前記特定パターン領域及び前記データ記録領域を形成し、
     前記形成対象媒体において前記特定パターン領域及び前記データ記録領域が表されてなる前記コード領域の外縁部よりも内側に、手書き入力を行うための手書き入力領域を設ける構成で前記情報コードを形成し、
     前記撮像部は、前記形成対象媒体の前記表面側から、前記特定パターン領域及び前記データ記録領域と、前記手書き入力領域とを撮像し、
     前記画像処理部は、前記撮像部によって撮像された前記手書き入力領域の画像を、前記画像領域の画像として、前記データ記録領域読取部による前記データの解読処理とは異なる方法で前記画像認識処理を行うことを特徴とする請求項53から請求項58のいずれか一項に記載の情報コード利用システム。
  69.  前記情報コード生成装置は、前記データ記録領域に、前記画像領域の画像又は当該画像を解析して得られるデータの送信先を特定するアドレス情報を記録するように前記情報コードを生成し、
     前記画像処理部は、前記コード画像における前記画像領域の画像又は当該画像を解析して得られるデータを、前記アドレス情報で特定される送信先に送信することを特徴とする53から請求項68のいずれか一項に記載の情報コード利用システム。
  70.  前記画像処理部は、前記撮像部によって撮像された前記情報コードのコード画像において配列されたセル画像に基づいて、当該コード画像に含まれる前記画像領域の画像を補正して当該画像領域の正規化画像を生成することを特徴とする請求項53から請求項69のいずれか一項に記載の情報コード利用システム。
  71.  前記情報コード生成装置は、前記コード領域内における前記画像処理部による認識対象となる領域の位置を示す位置データを前記データ記録領域に記録するように前記情報コードを生成する構成であり、
     前記情報コード読取装置の前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果から得られる前記位置データに基づいて前記コード画像内での前記認識対象となる領域の位置を特定し、当該認識対象となる領域の画像に対して前記画像認識処理を行うことを特徴とする請求項53から請求項70のいずれか一項に記載の情報コード利用システム。
  72.  前記情報コード生成装置は、前記コード領域内における前記画像処理部による認識対象となる領域の位置を示す位置特定データと、画像処理又は画像出力のために正規化するサイズに関する正規化サイズ情報とを前記データ記録領域に記録するように前記情報コードを生成する構成であり、
     前記情報コード読取装置の前記画像処理部は、前記データ記録領域読取部による前記データ記録領域の読取結果から得られる前記位置特定データに基づいて前記コード画像内での前記認識対象となる領域の位置を特定し且つ前記正規化サイズ情報に基づいて正規化した上で、当該認識対象となる領域の画像に対して前記画像認識処理を行うことを特徴とする請求項70に記載の情報コード利用システム。
  73.  前記情報コード読取装置は、前記データ記録領域読取部によって読み取られた情報と、前記画像処理部による前記画像領域の認識結果とを出力する出力部を有することを特徴とする請求項53から請求項72のいずれか一項に記載の情報コード利用システム。
  74.  前記出力部は、前記画像処理部によって認識された前記画像領域の画像を、所定の画像ファイル形式で出力することを特徴とする請求項73に記載の情報コード利用システム。
  75.  媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを読み取る情報コード読取装置であって、
     前記情報コードは、前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、が設けられ、前記セルとは異なる画像を示す画像領域が前記コード領域内に表される構成であり、
     前記情報コードを撮像可能な撮像部と、
     前記撮像部によって前記情報コードが撮像された場合に、前記データ記録領域に記録されたデータを読み取るデータ記録領域読取部と、
     前記撮像部によって撮像された前記情報コードのコード画像において前記画像領域の画像に対し、前記データ記録領域読取部による前記データの解読処理とは異なる方法で所定の画像処理を行う画像処理部と、を備え、
     前記データ記録領域には、前記画像処理部が前記画像処理を行う際に利用する利用データが記録されており、
     前記画像処理部は、前記データ記録領域読取部によって読み取られた前記利用データを用い、前記画像領域の画像に対して前記画像処理を行うことを特徴とする情報コード読取装置。
  76.  前記情報コードは、前記コード領域の内部に、前記特定パターン領域と、前記データ記録領域と、複数種類の前記セルによって誤り訂正符号を記録する誤り訂正符号記録領域と、が設けられ、前記画像領域が前記コード領域内に表される構成であることを特徴とする請求項75に記載の情報コード読取装置。
  77.  前記情報コードは、前記コード領域の内部において、前記特定パターン領域及び前記データ記録領域以外の位置に、前記データ記録領域にデータを記録する方法とは異なる方法でデータの記録又はデザインの表示の少なくともいずれかが可能となる空き領域を、単一の前記セルのサイズよりも大きいサイズで設けた構成であり、前記空き領域内に前記画像領域が表される構成であることを特徴とする請求項75又は請求項76に記載の情報コード読取装置。
  78.  前記データ記録領域には、前記利用データとして、前記画像領域の画像の少なくとも一部又は前記画像領域の画像を解析して得られる解析データと比較するための比較データが記録されており、
     前記画像処理部は、前記データ記録領域読取部によって読み取られた前記比較データに基づき、前記画像領域の画像が所定の正規画像に該当するか否かの判断処理を行うことを特徴とする請求項75から請求項77のいずれか一項に記載の情報コード読取装置。
  79.  前記データ記録領域には、前記比較データとして、複数の基準特徴点の位置又は個数の少なくともいずれかを特定する基準特徴点データが記録されており、
     前記画像処理部は、前記画像領域の画像に対して所定の特徴点抽出処理を行い、前記特徴点抽出処理によって抽出された前記画像領域での特徴点と、前記データ記録領域に記録される前記基準特徴点データとに基づき、前記画像領域の画像が前記正規画像に該当するか否かの判断処理を行うことを特徴とする請求項78に記載の情報コード読取装置。
  80.  前記データ記録領域には、前記比較データとして、前記画像領域に記録されるべき数字、文字、記号、図形の少なくともいずれかを特定する特定データが記録されており、
     前記画像処理部は、前記画像領域の画像に対して数字、文字、記号、図形の少なくともいずれかを認識する記録内容認識処理を行い、前記記録内容認識処理によって認識された前記画像領域での記録内容と、前記データ記録領域に記録される前記特定データとに基づき、前記画像領域の画像が前記正規画像に該当するか否かの判断処理を行うことを特徴とする請求項78に記載の情報コード読取装置。
  81.  前記データ記録領域には、前記利用データとして、前記画像領域の画像の送付先又は保存先を特定するアドレス情報が記録されており、
     前記画像処理部は、前記画像領域の画像の少なくとも一部を、前記データ記録領域に記録された前記アドレス情報で特定される送付先又は保存先に送付又は保存することを特徴とする請求項75から請求項77のいずれか一項に記載の情報コード読取装置。
  82.  前記画像領域は、指紋、印影、サインの少なくともいずれかを形成するための領域として構成され、
     前記画像処理部は、前記画像領域に形成された指紋、印影、サインの少なくともいずれかの画像データの少なくとも一部、又はいずれかの画像を解析した解析データを、前記データ記録領域に記録された前記アドレス情報で特定される送付先又は保存先に送付又は保存することを特徴とする請求項81に記載の情報コード読取装置。
  83.  外部からの操作によって情報の入力が可能な情報入力部を備え、
     前記画像処理部は、前記情報入力部によって入力された情報と、前記画像領域の画像の少なくとも一部とを、互いに対応付けて前記アドレス情報で特定される送付先又は保存先に送付又は保存することを特徴とする請求項81又は請求項82に記載の情報コード読取装置。
  84.  媒体の所定のコード領域の内部に情報を表示する単位となるセルを配列した情報コードを生成する情報コード生成装置と、
     前記情報コード生成装置によって生成された前記情報コードを読み取る情報コード読取装置と、を備えた情報コード利用システムであって、
     前記情報コード生成装置は、
     前記コード領域の内部に、当該コード領域の位置を示すパターンを含む、予め定められた形状の特定パターンが配置される特定パターン領域と、複数種類の前記セルによってデータを記録するデータ記録領域と、を設け、前記セルとは異なる画像を示す画像領域が前記コード領域内に表されるように構成し、
     前記情報コード読取装置は、
     前記情報コードを撮像可能な撮像部と、
     前記撮像部によって前記情報コードが撮像された場合に、前記データ記録領域に記録されたデータを読み取るデータ記録領域読取部と、
     前記撮像部によって撮像された前記情報コードのコード画像において前記画像領域の画像に対し、前記データ記録領域読取部による前記データの解読処理とは異なる方法で所定の画像処理を行う画像処理部と、を有し、
     前記情報コード生成装置は、前記画像処理部が前記画像処理を行う際に利用する利用データを前記データ記録領域に記録し、
     前記情報コード読取装置の前記画像処理部は、前記データ記録領域読取部によって読み取られた前記利用データを用い、前記画像領域の画像に対して前記画像処理を行うことを特徴とする情報コード利用システム。
  85.  前記情報コード生成装置は、前記コード領域の内部に、前記特定パターン領域と、前記データ記録領域と、複数種類の前記セルによって誤り訂正符号を記録する誤り訂正符号記録領域と、を設け、前記画像領域が前記コード領域内に表される構成で前記情報コードを生成することを特徴とする請求項84に記載の情報コード利用システム。
  86.  前記情報コード生成装置は、前記コード領域の内部において、前記特定パターン領域、前記データ記録領域以外の位置に、前記データ記録領域にデータを記録する方法とは異なる方法でデータの記録又はデザインの表示の少なくともいずれかが可能となる空き領域を単一の前記セルのサイズよりも大きいサイズで設け、前記空き領域内に前記画像領域が表されるように前記情報コードを生成することを特徴とする請求項84又は請求項85に記載の情報コード利用システム。
  87.  前記情報コード生成装置は、前記画像領域の画像の少なくとも一部又は前記画像領域の画像を解析して得られる解析データと比較するための比較データを前記利用データとして前記データ記録領域に記録し、
     前記情報コード読取装置の前記画像処理部は、前記データ記録領域読取部によって読み取られた前記比較データに基づき、前記画像領域の画像が所定の正規画像に該当するか否かの判断処理を行うことを特徴とする請求項84から請求項86のいずれか一項に記載の情報コード利用システム。
  88.  前記情報コード生成装置は、複数の基準特徴点の位置又は個数の少なくともいずれかを特定する基準特徴点データを前記比較データとして前記データ記録領域に記録し、
     前記情報コード読取装置の前記画像処理部は、前記画像領域の画像に対して所定の特徴点抽出処理を行い、前記特徴点抽出処理によって抽出された前記画像領域での特徴点と、前記データ記録領域に記録される前記基準特徴点データとに基づき、前記画像領域の画像が前記正規画像に該当するか否かの判断処理を行うことを特徴とする請求項87に記載の情報コード利用システム。
  89.  前記情報コード生成装置は、前記画像領域に記録されるべき数字、文字、記号、図形の少なくともいずれかを特定する特定データを前記比較データとして前記データ記録領域に記録し、
     前記情報コード読取装置の前記画像処理部は、前記画像領域の画像に対して数字、文字、記号、図形の少なくともいずれかを認識する記録内容認識処理を行い、前記記録内容認識処理によって認識された前記画像領域での記録内容と、前記データ記録領域に記録される前記特定データとに基づき、前記画像領域の画像が前記正規画像に該当するか否かの判断処理を行うことを特徴とする請求項87に記載の情報コード利用システム。
  90.  前記情報コード生成装置は、前記画像領域の画像の送付先又は保存先を特定するアドレス情報を前記利用データとして前記データ記録領域に記録し、
     前記情報コード読取装置の前記画像処理部は、前記画像領域の画像の少なくとも一部又は前記画像領域の画像を解析して得られる解析データを、前記データ記録領域に記録された前記アドレス情報で特定される送付先又は保存先に送付又は保存することを特徴とする請求項84から請求項86のいずれか一項に記載の情報コード利用システム。
  91.  前記情報コード生成装置は、指紋、印影、サインの少なくともいずれかを形成するための領域として前記画像領域を形成し、
     前記情報コード読取装置の前記画像処理部は、前記画像領域に形成された指紋、印影、サインの少なくともいずれかの画像の少なくとも一部、又はいずれかの画像を解析して得られる前記解析データを、前記データ記録領域に記録された前記アドレス情報で特定される送付先又は保存先に送付又は保存することを特徴とする請求項90に記載の情報コード利用システム。
  92.  前記情報コード読取装置は、外部からの操作によって情報の入力が可能な情報入力部を備え、
     前記画像処理部は、前記情報入力部によって入力された情報と、前記画像領域の画像の少なくとも一部とを、互いに対応付けて前記アドレス情報で特定される送付先又は保存先に送付又は保存することを特徴とする請求項90又は請求項91に記載の情報コード利用システム。
  93.  前記画像領域の画像の少なくとも一部又は前記画像領域の画像を解析して得られる前記解析データと比較するための比較データが登録された比較データ登録部と、
     前記比較データ登録部を備えた認証装置と、
    を備え、
     前記情報コード生成装置は、前記認証装置のアドレスを特定する前記アドレス情報を前記利用データとして前記データ記録領域に記録し、
     前記情報コード読取装置の前記画像処理部は、前記画像領域の画像の少なくとも一部又は前記画像領域の画像を解析して得られる前記解析データを、前記アドレス情報に基づいて前記認証装置に送信し、
     前記認証装置は、前記画像処理部によって送信された送信データと、前記比較データ登録部に記録された前記比較データとに基づき、前記画像領域の画像が所定の正規画像に該当するか否かの判断処理を行うことを特徴とする請求項90から請求項92のいずれか一項に記載の情報コード利用システム。
  94.  前記画像領域の画像の少なくとも一部又は前記画像領域の画像を解析した前記解析データと照合するための複数の照合データがそれぞれ個人情報に対応付けられて登録された照合データ登録部と、
     前記照合データ登録部を備えた照合装置と、
    を備え、
     前記情報コード生成装置は、前記照合装置のアドレスを特定する前記アドレス情報を前記利用データとして前記データ記録領域に記録し、
     前記情報コード読取装置の前記画像処理部は、前記画像領域の画像の少なくとも一部又は前記画像領域の画像を解析して得られる前記解析データを、前記アドレス情報に基づいて前記照合装置に送信し、
     前記照合装置は、前記画像処理部によって送信された送信データと、前記照合データ登録部に記録された複数の前記照合データとに基づき、前記送信データに対応する前記個人情報を抽出することを特徴とする請求項90から請求項92のいずれか一項に記載の情報コード利用システム。
  95.  前記情報コード読取装置は、前記撮像部と、前記データ記録領域読取部と、前記画像処理部とが筐体に組み付けられた構成で一体的に設けられていることを特徴とする請求項87から請求項89のいずれか一項に記載の情報コード利用システム。
PCT/JP2013/083909 2012-12-19 2013-12-18 情報コード、情報コード生成方法、情報コード読取装置、及び情報コード利用システム WO2014098133A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13864756.5A EP2937818B1 (en) 2012-12-19 2013-12-18 Information code, information code generation method, information code reader device, and information code usage system
CN201380073366.5A CN105074732B (zh) 2012-12-19 2013-12-18 信息码、信息码生成方法、信息码读取装置以及信息码应用系统
US14/654,119 US9704081B2 (en) 2012-12-19 2013-12-18 Information code, information code producing method, information code reader, and system which uses information code

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2012276910 2012-12-19
JP2012-276910 2012-12-19
JP2013010222 2013-01-23
JP2013-010222 2013-01-23
JP2013-065835 2013-03-27
JP2013065835 2013-03-27
JP2013195348 2013-09-20
JP2013-195348 2013-09-20
JP2013-239366 2013-11-19
JP2013239366A JP6079579B2 (ja) 2013-11-19 2013-11-19 情報コード読取装置、及び情報コード利用システム
JP2013255485A JP6252150B2 (ja) 2013-03-27 2013-12-10 情報コード生成方法、情報コード、情報コード読取装置、及び情報コード利用システム
JP2013-255485 2013-12-10

Publications (1)

Publication Number Publication Date
WO2014098133A1 true WO2014098133A1 (ja) 2014-06-26

Family

ID=54148266

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/083909 WO2014098133A1 (ja) 2012-12-19 2013-12-18 情報コード、情報コード生成方法、情報コード読取装置、及び情報コード利用システム

Country Status (4)

Country Link
US (1) US9704081B2 (ja)
EP (1) EP2937818B1 (ja)
CN (1) CN105074732B (ja)
WO (1) WO2014098133A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820817A (zh) * 2014-08-19 2015-08-05 崔明 一种四维码、基于该四维码的图像识别系统及方法、检索系统及方法
CN105512898A (zh) * 2015-12-15 2016-04-20 佛山市明扬软件科技有限公司 一种基于商品价格管理的运营系统与方法
CN105512899A (zh) * 2015-12-15 2016-04-20 佛山市明扬软件科技有限公司 一种基于商品调价管理的系统
WO2016147589A1 (ja) * 2015-03-13 2016-09-22 株式会社デンソー 情報コード画像表示システム、情報コード画像表示端末、情報コード画像表示プログラム、サーバ及び情報コード画像生成プログラム
CN106296353A (zh) * 2016-08-05 2017-01-04 佛山市明扬软件科技有限公司 一种基于商品实物和价格信息比对的交易管理方法
CN106296220A (zh) * 2016-08-05 2017-01-04 佛山市明扬软件科技有限公司 一种基于商品实物和价格信息比对的交易管理装置
CN106327109A (zh) * 2015-06-15 2017-01-11 深圳市中航联运科技股份有限公司 一种基于互联网的智慧生态物流处理方法
JP2018036680A (ja) * 2016-08-29 2018-03-08 株式会社デンソーウェーブ 管理システム
JP2020194544A (ja) * 2019-05-28 2020-12-03 建綱 楊 マトリックスバーコードを生成及び検証するシステム、マトリックスバーコードを生成する方法並びにマトリックスバーコードを検証する方法

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6136808B2 (ja) * 2012-12-19 2017-05-31 株式会社デンソーウェーブ 情報コードの生成方法、情報コード、情報コード読取装置、及び情報コード利用システム
JP6416750B2 (ja) * 2013-03-27 2018-10-31 株式会社プロスパークリエイティブ 測定装置、測定方法、情報処理装置及び測定プログラム
US11361177B2 (en) * 2013-12-17 2022-06-14 Infotoo International Limited Composite information bearing devices
CN103763178B (zh) * 2014-01-03 2016-10-05 腾讯科技(深圳)有限公司 一种信息推送方法、服务器、用户终端以及系统
EP3143553B1 (en) * 2014-05-13 2020-11-18 Société des Produits Nestlé S.A. Container and code of system for preparing a beverage or foodstuff
JP6486016B2 (ja) * 2014-05-16 2019-03-20 株式会社デンソーウェーブ 情報コード生成方法、情報コード、及び情報コード利用システム
WO2016065661A1 (zh) * 2014-10-30 2016-05-06 崔明 一种四维码、基于该四维码的图像识别系统及方法、检索系统及方法
CN105893861A (zh) * 2014-09-28 2016-08-24 伊姆西公司 用于生成二维码的方法和系统
JP6520616B2 (ja) * 2014-10-07 2019-05-29 株式会社デンソーウェーブ 情報コードの生成方法、情報コードを生成するプログラム、及び情報コード生成装置
US20160132708A1 (en) * 2014-11-06 2016-05-12 Kuei-Sheng Tsou Displaying method and decoding method for a dynamic recognizable two-dimensional code
US10826900B1 (en) * 2014-12-31 2020-11-03 Morphotrust Usa, Llc Machine-readable verification of digital identifications
WO2016157172A2 (en) * 2015-04-02 2016-10-06 Eyeconit Ltd. Machine-readable visual representation for authenticity
BR112018001151A2 (pt) * 2015-07-20 2018-09-18 Notarize Inc sistema e método para validar a autoria de uma seção de assinatura eletrônica
CN106529633B (zh) * 2015-09-10 2019-11-15 阿里巴巴集团控股有限公司 二维码的生成方法、解码方法以及装置
KR101585842B1 (ko) * 2015-10-05 2016-01-15 주식회사 시큐브 세그먼트 블록 기반 수기서명 인증 시스템 및 방법
TWI590092B (zh) * 2015-11-30 2017-07-01 Chunghwa Telecom Co Ltd Authentication code generation system and method using virtual reality
JP2017187988A (ja) * 2016-04-07 2017-10-12 東芝テック株式会社 コード認識装置
JP6708023B2 (ja) * 2016-07-01 2020-06-10 株式会社デンソーウェーブ 情報コード読取システム
CN106296556A (zh) * 2016-08-02 2017-01-04 立德高科(昆山)数码科技有限责任公司 一种基于二维码的兑奖彩票、其兑奖方法及兑奖系统
CN107292368A (zh) * 2016-08-23 2017-10-24 西安艾润物联网技术服务有限责任公司 二维码生成方法和装置
US10121513B2 (en) * 2016-08-30 2018-11-06 International Business Machines Corporation Dynamic image content overlaying
EP3293680A1 (en) 2016-09-12 2018-03-14 Authentic Vision GmbH Sheet-like product and method for authenticating a security tag
US9922226B1 (en) * 2016-09-12 2018-03-20 Snap Inc. Presenting an augmented reality within a custom graphic
US20180113418A1 (en) * 2016-10-20 2018-04-26 Sony Interactive Entertainment Inc. Positional tracking system with holographic encoded positions
CN109389196A (zh) * 2017-08-04 2019-02-26 武汉矽感科技有限公司 一种防止二维码印章印泥扩散的方法及设备
CN109389195A (zh) * 2017-08-04 2019-02-26 武汉矽感科技有限公司 一种生成印章二维码的方法以及具有该二维码的印章
JP6598342B2 (ja) * 2017-11-08 2019-10-30 株式会社オフィス エフエイ・コム 貨物用識別コード及びその表示物及びそれに用いるロボットハンド
US10803291B2 (en) * 2017-11-17 2020-10-13 Pixart Imaging Inc. Encoding and decoding method and information recognition device using the same
WO2019117002A1 (ja) * 2017-12-12 2019-06-20 コネクテックジャパン株式会社 情報処理システム
CN110070160B (zh) * 2018-01-22 2022-11-08 电装波动株式会社 信息码生成系统及信息处理方法
US10866634B2 (en) 2018-06-19 2020-12-15 Sony Interactive Entertainment Inc. Eye tracking system with holographic film decoder
JPWO2020090088A1 (ja) * 2018-11-01 2021-10-28 さとし 溝口 エンコード方法、デコード方法、エンコーダ及びデコーダ
KR102200161B1 (ko) * 2018-11-05 2021-01-07 상명대학교산학협력단 피듀셜 마커 영상 생성 장치 및 방법
JP6766129B2 (ja) 2018-12-20 2020-10-07 富士フイルム株式会社 読み取り装置、読み取り方法及び読み取りプログラム並びに決済処理方法
CN109739233B (zh) * 2018-12-29 2022-06-14 歌尔光学科技有限公司 Agv小车定位方法、装置及系统
CN109871722A (zh) * 2019-01-10 2019-06-11 深圳市雄帝科技股份有限公司 基于光学图形码的身份验证方法、系统、终端及存储介质
CN110674806B (zh) * 2019-10-31 2022-08-16 威创集团股份有限公司 一种ar识别卡片的自动生成方法和装置
FR3103935A1 (fr) * 2019-11-28 2021-06-04 Advanced Track And Trace Procédé et dispositif de marquage sécurisé et procédé et dispositif d’authentification
WO2021105487A1 (fr) * 2019-11-28 2021-06-03 Advanced Track & Trace Procédé et dispositif de marquage sécurisé et procédé et dispositif d'authentification
US11347823B2 (en) 2020-02-18 2022-05-31 The DTX Company Refactoring of static machine-readable codes
CN111680692B (zh) * 2020-05-20 2022-09-13 南京理工大学 一种字符偏移检测方法及系统
US11205105B1 (en) * 2020-08-09 2021-12-21 The DTX Company Machine-readable label generator
US11593579B2 (en) 2021-01-04 2023-02-28 The DTX Company Multiplexed quick response (“QR”) code experience derivation
US20220230079A1 (en) * 2021-01-21 2022-07-21 Microsoft Technology Licensing, Llc Action recognition
USD962966S1 (en) * 2021-03-10 2022-09-06 The DTX Company Display screen or portion thereof with a graphical user interface for a machine-readable label
CN113033745B (zh) * 2021-03-25 2022-03-04 深圳市智码通科技有限公司 一种生成文字二维码的方法
USD959552S1 (en) * 2021-07-21 2022-08-02 Speedfind, Inc Display sign
CN113500863A (zh) * 2021-08-18 2021-10-15 江苏图码信息科技有限公司 一种内置信息图码的印章及其应用系统
US11599757B1 (en) 2021-08-24 2023-03-07 The DTX Company Collectible machine-readable codes
CN114027351A (zh) * 2021-10-29 2022-02-11 智锐达仪器科技南通有限公司 一种用于牲畜胴体的打标系统和解码系统
US11334779B1 (en) 2022-01-14 2022-05-17 The DTX Company Dynamic embedding of machine-readable codes within video and digital media
US11741331B1 (en) 2022-02-23 2023-08-29 The DTX Company Electronic tag with two scanning modalities
US11734533B1 (en) 2022-06-08 2023-08-22 The DTX Company Secure scanning of machine-readable codes
US11709907B1 (en) 2023-02-01 2023-07-25 The DTX Company Offline to online conversion linkage
US12020114B1 (en) 2024-01-22 2024-06-25 The DTX Company Real-time comprehensive quick response (“QR”) code testing for reliable scanning

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0557560B2 (ja) 1983-10-21 1993-08-24 Shinko Pantec Co Ltd
JP2001256501A (ja) 2000-03-10 2001-09-21 Matsushita Electric Ind Co Ltd 個人認証システム
JP2004206674A (ja) * 2002-10-29 2004-07-22 Denso Corp 2次元コードおよびその形成構造
JP2007241327A (ja) * 2006-03-03 2007-09-20 Namco Bandai Games Inc プログラム、情報記憶媒体、2次元コード生成システム、画像生成システム及び2次元コード
JP2008152334A (ja) * 2006-12-14 2008-07-03 Namco Bandai Games Inc プログラム、情報記憶媒体、2次元コード、印刷物、2次元コード画像、2次元コード画像の表示制御方法、2次元コード生成システム
JP2009129410A (ja) * 2007-11-28 2009-06-11 Iforcom Co Ltd 二次元コード付き画像情報とその生成装置と印刷装置と読み取り方法と読み取り装置と読み取りプログラムと記録媒体
JP2009259192A (ja) * 2008-03-27 2009-11-05 Denso Wave Inc 二次元コード、二次元コード生成方法、二次元コードを表示させるコンピュータ読み取り可能なプログラム、二次元コードを利用した認証方法、及び二次元コードを利用した情報提供方法
JP2012164236A (ja) * 2011-02-08 2012-08-30 Namco Bandai Games Inc 対象物

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5541396A (en) 1991-07-19 1996-07-30 Rentsch; Frederic Method of representing binary data
KR100560330B1 (ko) * 2004-04-21 2006-03-30 에이디정보통신 주식회사 색상 보정이 가능한 대용량 2차원 칼라 바코드인코딩/디코딩 시스템 및 그 방법
JP4570389B2 (ja) * 2004-04-26 2010-10-27 アライ株式会社 レーザマーキングによる2次元コードの形成方法、及びレーザマーキング装置
WO2007107533A2 (en) 2006-03-17 2007-09-27 Connvision Ag Device and method for access of content by a barcode
CN101063999B (zh) * 2006-04-29 2010-09-15 银河联动信息技术(北京)有限公司 一种二维码与标识的合成系统及方法
US8606000B2 (en) * 2007-04-19 2013-12-10 Eyecue Vision Technologies Ltd. Device and method for identification of objects using morphological coding
US9208421B2 (en) * 2010-03-26 2015-12-08 A.T Communications Co., Ltd. Apparatuses and methods generating a two-dimensional code with a logo
US9152903B2 (en) * 2011-11-04 2015-10-06 Ebay Inc. Automated generation of QR codes with embedded images
US8798380B1 (en) * 2012-08-08 2014-08-05 Google Inc. Techniques for generating customized two-dimensional barcodes

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0557560B2 (ja) 1983-10-21 1993-08-24 Shinko Pantec Co Ltd
JP2001256501A (ja) 2000-03-10 2001-09-21 Matsushita Electric Ind Co Ltd 個人認証システム
JP2004206674A (ja) * 2002-10-29 2004-07-22 Denso Corp 2次元コードおよびその形成構造
JP2007241327A (ja) * 2006-03-03 2007-09-20 Namco Bandai Games Inc プログラム、情報記憶媒体、2次元コード生成システム、画像生成システム及び2次元コード
JP2008152334A (ja) * 2006-12-14 2008-07-03 Namco Bandai Games Inc プログラム、情報記憶媒体、2次元コード、印刷物、2次元コード画像、2次元コード画像の表示制御方法、2次元コード生成システム
JP2009129410A (ja) * 2007-11-28 2009-06-11 Iforcom Co Ltd 二次元コード付き画像情報とその生成装置と印刷装置と読み取り方法と読み取り装置と読み取りプログラムと記録媒体
JP2009259192A (ja) * 2008-03-27 2009-11-05 Denso Wave Inc 二次元コード、二次元コード生成方法、二次元コードを表示させるコンピュータ読み取り可能なプログラム、二次元コードを利用した認証方法、及び二次元コードを利用した情報提供方法
JP2012164236A (ja) * 2011-02-08 2012-08-30 Namco Bandai Games Inc 対象物

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"International Standard ISO/IEC18004", 1 September 2006, article "Ml Symbol contrast", pages: 109
See also references of EP2937818A4

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820817A (zh) * 2014-08-19 2015-08-05 崔明 一种四维码、基于该四维码的图像识别系统及方法、检索系统及方法
CN104820817B (zh) * 2014-08-19 2019-07-05 崔明 一种四维码、基于该四维码的图像识别系统及方法
WO2016147589A1 (ja) * 2015-03-13 2016-09-22 株式会社デンソー 情報コード画像表示システム、情報コード画像表示端末、情報コード画像表示プログラム、サーバ及び情報コード画像生成プログラム
JP2016170680A (ja) * 2015-03-13 2016-09-23 株式会社デンソー 情報コード画像表示システム、情報コード画像表示端末、情報コード画像表示プログラム、サーバ及び情報コード画像生成プログラム
CN106327109A (zh) * 2015-06-15 2017-01-11 深圳市中航联运科技股份有限公司 一种基于互联网的智慧生态物流处理方法
CN105512898A (zh) * 2015-12-15 2016-04-20 佛山市明扬软件科技有限公司 一种基于商品价格管理的运营系统与方法
CN105512899A (zh) * 2015-12-15 2016-04-20 佛山市明扬软件科技有限公司 一种基于商品调价管理的系统
CN106296353A (zh) * 2016-08-05 2017-01-04 佛山市明扬软件科技有限公司 一种基于商品实物和价格信息比对的交易管理方法
CN106296220A (zh) * 2016-08-05 2017-01-04 佛山市明扬软件科技有限公司 一种基于商品实物和价格信息比对的交易管理装置
JP2018036680A (ja) * 2016-08-29 2018-03-08 株式会社デンソーウェーブ 管理システム
US10672010B2 (en) 2016-08-29 2020-06-02 Denso Wave Incorporated Management system
JP2020194544A (ja) * 2019-05-28 2020-12-03 建綱 楊 マトリックスバーコードを生成及び検証するシステム、マトリックスバーコードを生成する方法並びにマトリックスバーコードを検証する方法

Also Published As

Publication number Publication date
US9704081B2 (en) 2017-07-11
EP2937818A1 (en) 2015-10-28
EP2937818B1 (en) 2022-04-20
US20160042262A1 (en) 2016-02-11
EP2937818A4 (en) 2017-01-18
CN105074732B (zh) 2019-02-12
CN105074732A (zh) 2015-11-18

Similar Documents

Publication Publication Date Title
JP6394736B2 (ja) 情報コード生成方法、情報コード、情報コード読取装置、及び情報コード利用システム
WO2014098133A1 (ja) 情報コード、情報コード生成方法、情報コード読取装置、及び情報コード利用システム
TWI528292B (zh) Information code, information code generation method, information code reading device, and information code utilization system
JP6486016B2 (ja) 情報コード生成方法、情報コード、及び情報コード利用システム
US20210103786A1 (en) Composite code pattern, generating device, reading device, method, and program
WO2014098130A1 (ja) 情報コード、情報コード生成方法、情報コード読取装置、及び情報コード利用システム
JP6201706B2 (ja) 情報コード利用システム
JP6394725B2 (ja) 情報コードの生成方法、情報コード、情報コード読取装置、及び情報コード利用システム
JP2021060629A (ja) 設問生成装置、設問生成方法、設問生成装置用プログラム、および、書類管理システム
JP6079579B2 (ja) 情報コード読取装置、及び情報コード利用システム
JP6489764B2 (ja) 情報コード生成方法、情報コード、情報コード読取システム、及び情報コード利用システム
JP5878004B2 (ja) 複数文書認識システム及び複数文書認識方法
JP2020190816A (ja) 文字読取装置及び文字読取装置用プログラム
JP6547654B2 (ja) 書類撮像装置、書類撮像方法、書類撮像装置用のプログラム、および、管理システム
JP2013161143A (ja) 文字テキスト化システム
JP2014186659A (ja) 画像照合装置、画像照合方法、画像照合プログラム
JP2019032645A (ja) 書類管理装置、書類管理方法、および、書類管理装置用のプログラム
JP6167956B2 (ja) 情報コードの生成方法、情報コード、情報コード読取装置、及び情報コード利用システム
JP2018182664A (ja) 管理装置、管理方法、および、管理装置用のプログラム
JP6561882B2 (ja) 情報処理装置、情報処理方法、情報処理装置用のプログラム、および、書類管理システム
JP6356095B2 (ja) 電子アルバムシステム
KR102490443B1 (ko) 이미지정보를 기반으로 하는 미세 데이터 코드를 처리하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
JP6562136B2 (ja) 情報コード生成方法、情報コード、及び情報コード利用システム
JP2019021981A (ja) 書類生成装置、書類生成方法、および、書類生成装置用のプログラム
JP2016004533A (ja) 証票の生成方法、証票、証票読取システム、及び証票利用システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201380073366.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13864756

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013864756

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14654119

Country of ref document: US