JP5756947B2 - Two-dimensional code, image reading apparatus, image reading method, program, and storage medium - Google Patents

Two-dimensional code, image reading apparatus, image reading method, program, and storage medium Download PDF

Info

Publication number
JP5756947B2
JP5756947B2 JP2011105308A JP2011105308A JP5756947B2 JP 5756947 B2 JP5756947 B2 JP 5756947B2 JP 2011105308 A JP2011105308 A JP 2011105308A JP 2011105308 A JP2011105308 A JP 2011105308A JP 5756947 B2 JP5756947 B2 JP 5756947B2
Authority
JP
Japan
Prior art keywords
dimensional code
cells
code image
image
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011105308A
Other languages
Japanese (ja)
Other versions
JP2012238097A (en
Inventor
智司 小野
智司 小野
洋 川崎
洋 川崎
雄大 川上
雄大 川上
晋輔 藤田
晋輔 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kagoshima University NUC
Original Assignee
Kagoshima University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kagoshima University NUC filed Critical Kagoshima University NUC
Priority to JP2011105308A priority Critical patent/JP5756947B2/en
Publication of JP2012238097A publication Critical patent/JP2012238097A/en
Application granted granted Critical
Publication of JP5756947B2 publication Critical patent/JP5756947B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、特に、歪んだ2次元コードを読み取る際に好適な2次元コード、画像読取装置、画像読取方法、プログラム及び記憶媒体に関する。   The present invention particularly relates to a two-dimensional code suitable for reading a distorted two-dimensional code, an image reading apparatus, an image reading method, a program, and a storage medium.

従来、QRコード(登録商標)など、狭い領域に多くの情報を格納することが可能な2次元コードが多く使用されている。この2次元コードは、インターネット等を通じて情報を提供する手段のみならず、製品やチケット等に使用して瞬時にその情報を読み取るための手段として用いられている。近年では、ゴミ袋にバーコードを付与し、作業員がハンディターミナルで読み取るシステムなどが提案されている。   Conventionally, a two-dimensional code that can store a lot of information in a narrow area, such as a QR code (registered trademark), is often used. This two-dimensional code is used not only as a means for providing information through the Internet or the like, but also as a means for reading the information instantaneously when used for a product or a ticket. In recent years, a system has been proposed in which a barcode is attached to a garbage bag and an operator reads it with a handy terminal.

このように2次元コードは多くの用途に利用されているが、2次元コードが歪んでしまうと、十分に情報を読み取ることができなくなる場合がある。そこで、特許文献1及び2には、2次元コードが全体的に均一に歪んでいる場合に、読み取った画像からサンプリング点を抽出して各々の領域を抽出する方法が開示されている。   As described above, the two-dimensional code is used for many purposes. However, if the two-dimensional code is distorted, information may not be sufficiently read. Therefore, Patent Documents 1 and 2 disclose a method of extracting each region by extracting sampling points from a read image when the two-dimensional code is uniformly distorted as a whole.

特開2010−44586号公報JP 2010-44586 A 特開2004−362053号公報Japanese Patent Laid-Open No. 2004-362053 特開2009−151700号公報JP 2009-151700 A

しかしながら、ゴミが詰まった状態でゴミ袋の2次元コードを読み取るような場合は、2次元コードが局所的に歪んだり非均一に歪んだりした場合が多く、特許文献1及び2に記載の方法では、2次元コードから十分に情報を読み取ること難しい。   However, when the two-dimensional code of the garbage bag is read in a state where the garbage is jammed, the two-dimensional code is often locally distorted or non-uniformly distorted. In the methods described in Patent Documents 1 and 2, It is difficult to read information sufficiently from a two-dimensional code.

本発明は前述の問題点に鑑み、2次元コードが歪んでいるような場合に、簡単に情報を読み取ることができるようにすることを目的としている。   An object of the present invention is to make it possible to easily read information when a two-dimensional code is distorted in view of the above-described problems.

本発明の2次元コードは、複数のセルを備えた2次元コードであって、前記2次元コードが撮像されて歪んだ形状の2次元コード画像が生成された場合に、前記歪んだ形状の2次元コード画像から情報を読み取る位置を特定するためのが前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与されていることを特徴とする。 The two-dimensional code of the present invention is a two-dimensional code having a plurality of cells. When a two-dimensional code image having a distorted shape is generated by imaging the two-dimensional code, the distorted shape 2 A line for specifying a position where information is read from the dimension code image is distinguished from the cell so as to divide the cell, and is given to a boundary region of adjacent cells .

本発明の画像読取装置は、複数のセルとともに、情報を読み取る位置を特定するための線が前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与された2次元コードを撮像して2次元コード画像を取得する撮像手段と、前記撮像手段によって生成された2次元コード画像内の前記を起点として形状変形手法により補正する歪み補正手段と、前記歪み補正手段によって補正された2次元コード画像から情報を読み取る復号手段とを有することを特徴とする。
また、本発明の画像読取装置の他の特徴とするところは、複数のセルとともに、情報を読み取る位置を特定するための線が前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与された2次元コードを撮像して2次元コード画像を取得する撮像手段と、前記撮像手段によって撮像された2次元コード画像において、前記2次元コードを構成する各セルの領域を解析する領域解析手段と、前記撮像手段によって撮像された2次元コード画像内の前記線に基づいて、前記領域解析手段により解析されたセルのサンプリングする位置を特定し、前記特定した位置から情報を読み取る復号手段とを有する。
The image reading apparatus according to the present invention includes a plurality of cells and a two-dimensional code given to a boundary region of adjacent cells so that a line for specifying a position to read information is distinguished from the cells so that the cells are separated. An imaging unit that captures an image to acquire a two-dimensional code image, a distortion correction unit that corrects by a shape deformation method using the line in the two-dimensional code image generated by the imaging unit as a starting point, and the distortion correction unit And a decoding means for reading information from the two-dimensional code image.
Another feature of the image reading apparatus according to the present invention is that, together with a plurality of cells , a line for specifying a position where information is read is distinguished from the cells so that the cells are separated from each other. An imaging unit that acquires a two-dimensional code image by imaging a two-dimensional code given to a region, and a two-dimensional code image captured by the imaging unit, analyzes a region of each cell constituting the two-dimensional code. and region analysis unit, based on said line in the two-dimensional code image captured by the imaging means, to locate the sampling of the analyzed cell by the domain analysis means reads information from the specified position decoding Means.

本発明の画像読取方法は、複数のセルとともに、情報を読み取る位置を特定するための線が前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与された2次元コードを撮像して2次元コード画像を取得する撮像工程と、前記撮像工程において生成された2次元コード画像内の前記を起点として形状変形手法により補正する歪み補正工程と、前記歪み補正工程において補正された2次元コード画像から情報を読み取る復号工程とを有することを特徴とする。
また、本発明の画像読取方法の他の特徴とするところは、複数のセルとともに、情報を読み取る位置を特定するための線が前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与された2次元コードを撮像して2次元コード画像を取得する撮像工程と、前記撮像工程において撮像された2次元コード画像において、前記2次元コードを構成する各セルの領域を解析する領域解析工程と、前記撮像工程において撮像された2次元コード画像内の前記線に基づいて、前記領域解析工程において解析されたセルのサンプリングする位置を特定し、前記特定した位置から情報を読み取る復号工程とを有する。
According to the image reading method of the present invention, a two-dimensional code given to a boundary region of an adjacent cell is distinguished from the cell so that a line for specifying a position to read information is separated from the cell together with a plurality of cells. An image capturing step for capturing a two-dimensional code image by imaging, a distortion correcting step for correcting by a shape deformation method starting from the line in the two-dimensional code image generated in the image capturing step, and a correction in the distortion correcting step And a decoding step of reading information from the two-dimensional code image.
Another feature of the image reading method according to the present invention is that, together with a plurality of cells , a line for specifying a position where information is read is distinguished from the cells so that the cell is separated from each other. An imaging step of capturing a two-dimensional code assigned to a region to acquire a two-dimensional code image, and analyzing a region of each cell constituting the two-dimensional code in the two-dimensional code image captured in the imaging step and region analysis step based on said line in the two-dimensional code image captured in the imaging step, to locate the sampling of cells analyzed in said region analysis step, reading information from said specified position decoding Process.

本発明のプログラムは、前記の何れかに記載の画像読取方法の各工程をコンピュータに実行させることを特徴とする。   A program according to the present invention causes a computer to execute each step of the image reading method described above.

本発明の記憶媒体は、前記プログラムを記憶したことを特徴とする。   The storage medium of the present invention stores the program.

本発明によれば、2次元コードの一部歪んでいるような場合や、2次元コードが非均一に歪んでいる場合であっても、制御点または線を起点として情報を読み取ることができる。   According to the present invention, even when the two-dimensional code is partially distorted or when the two-dimensional code is non-uniformly distorted, information can be read starting from the control point or line.

本発明の実施形態において、ベルトに流れるゴミ袋に付与された2次元コードに対して画像読取装置が撮影している様子を説明する図である。In an embodiment of the present invention, it is a figure explaining signs that an image reading device is photographing a two-dimensional code given to a garbage bag which flows into a belt. 本発明の実施形態に係る画像読取装置のハードウェア構成例を示すブロック図である。1 is a block diagram illustrating a hardware configuration example of an image reading apparatus according to an embodiment of the present invention. 本発明の実施形態に係る画像読取装置の機能構成例を示すブロック図である。1 is a block diagram illustrating an exemplary functional configuration of an image reading apparatus according to an embodiment of the present invention. 本発明の実施形態において、2次元コードにおいて区分けされた黒色のセル及び白色のセルの一例を示す図である。In an embodiment of the present invention, it is a figure showing an example of a black cell and a white cell divided in a two-dimensional code. 本発明の実施形態において、制御点または線が付与された2次元コードの一例を示す図である。In an embodiment of the present invention, it is a figure showing an example of a two-dimensional code to which a control point or a line was given. 本発明の実施形態において、逆FFD法により歪みが補正された後の2次元コード画像の一例を示す図である。In an embodiment of the present invention, it is a figure showing an example of a two-dimensional code image after distortion was amended by the inverse FFD method. 位置検出要素パターンを示す拡大図である。It is an enlarged view which shows a position detection element pattern. 2次元コード内の位置検出要素パターンを示す図である。It is a figure which shows the position detection element pattern in a two-dimensional code. 2次元コード内の型番情報が格納されている位置を示す図である。It is a figure which shows the position where the model number information in a two-dimensional code is stored. 2次元コード内の位置検出要素パターン及び位置合せパターンを示す図である。It is a figure which shows the position detection element pattern and alignment pattern in a two-dimensional code. 位置合せパターンを示す拡大図である。It is an enlarged view showing an alignment pattern. 2次元コードの左上部分を示す図である。It is a figure which shows the upper left part of a two-dimensional code. 2次元コードの右下部分を示す図である。It is a figure which shows the lower right part of a two-dimensional code. 本発明の実施形態において、歪み補正をしない場合のサンプリンググリッドの位置を示す図である。In an embodiment of the present invention, it is a figure showing a position of a sampling grid when not performing distortion correction. 本発明の実施形態において、2次元コードを読み取る処理手順の一例を示すフローチャートである。5 is a flowchart illustrating an example of a processing procedure for reading a two-dimensional code in the embodiment of the present invention.

以下、本発明の実施形態について、図面を参照しながら説明する。本実施形態では、2次元コードの代表例としてQRコード(登録商標)を読み取る画像読取装置について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In this embodiment, an image reading apparatus that reads a QR code (registered trademark) as a representative example of a two-dimensional code will be described.

図1は、ベルト102に流れるゴミ袋101に付された2次元コードに対して画像読取装置100が撮影している様子を説明する図である。
図1に示すように、画像読取装置100のカメラ103がベルト102側に向いており、ゴミ袋101の2次元コードを撮影する。そして、画像読取装置100で2次元コードを読み取り、ゴミ袋101に詰められているゴミの中身を判別し、その判別結果に基づいてベルト102に流れるゴミ袋101が自動で分別される。また、カメラ103が向いている方向のベルト102の上部には、センサー104が取り付けられており、センサー104がゴミ袋101を感知すると、通信回線105を介してその情報が画像読取装置100に入力され、画像読取装置100側で2次元コードの撮影(読取)を開始する。そして、ゴミの中身の判別結果が、通信回線105を介してゴミ袋101を分別する自動分別装置106に転送される。
FIG. 1 is a diagram for explaining a state in which the image reading apparatus 100 captures an image of a two-dimensional code attached to a trash bag 101 flowing through a belt 102.
As shown in FIG. 1, the camera 103 of the image reading apparatus 100 faces the belt 102 side and photographs the two-dimensional code of the garbage bag 101. Then, the image reading apparatus 100 reads the two-dimensional code to determine the contents of the dust packed in the dust bag 101, and the dust bag 101 flowing through the belt 102 is automatically sorted based on the determination result. A sensor 104 is attached to the upper part of the belt 102 facing the camera 103. When the sensor 104 detects the garbage bag 101, the information is input to the image reading apparatus 100 through the communication line 105. Then, imaging (reading) of the two-dimensional code is started on the image reading apparatus 100 side. Then, the determination result of the contents of the garbage is transferred to the automatic sorting device 106 that sorts the garbage bag 101 via the communication line 105.

本実施形態では、詳細は後述するが、図5に示すような2次元コードと異なる色の制御点もしくは線が付与された2次元コードがゴミ袋101に付されており、ゴミ袋のしわによって2次元コードが歪んだ場合であっても、簡単に情報を読み取ることができる。   Although details will be described later in this embodiment, a two-dimensional code to which control points or lines of a color different from that of the two-dimensional code as shown in FIG. Even when the two-dimensional code is distorted, information can be easily read.

図2は、本実施形態に係る画像読取装置100のハードウェア構成例を示すブロック図である。
図2において、CPU201は、画像読取装置100全体を制御するものであり、必要な時にROM203に記憶されたプログラムを読み出してRAM202に展開し、本実施形態に係る処理を実行する。画像入力装置204は、図1に示すカメラ103に相当するものであり、CCD等の撮像素子や、アナログ信号をデジタル信号に変換するA/D変換回路、撮影した画像に対して所定の画像処理を施す信号処理回路等が含まれている。
FIG. 2 is a block diagram illustrating a hardware configuration example of the image reading apparatus 100 according to the present embodiment.
In FIG. 2, a CPU 201 controls the entire image reading apparatus 100, reads a program stored in the ROM 203 when necessary, develops it in the RAM 202, and executes processing according to the present embodiment. The image input device 204 corresponds to the camera 103 shown in FIG. 1, and includes an image sensor such as a CCD, an A / D conversion circuit that converts an analog signal into a digital signal, and predetermined image processing for a captured image. The signal processing circuit etc. which performs are included.

入力装置205は、ユーザの操作に応じてコマンドを入力する操作部材である。記憶装置206は例えばハードディスクであり、データを記憶するためのものである。画像表示装置207は例えば液晶ディスプレイであり、読み取りエラーなどを警告表示したり、撮影している2次元コードをリアルタイムで表示したりする。ネットワークインタフェースカード(NIC)208は、LAN210を介して他の情報機器とデータをやり取りするためのインターフェースである。メインバス209は前述した各構成を接続するためのバスである。   The input device 205 is an operation member that inputs commands in response to user operations. The storage device 206 is a hard disk, for example, for storing data. The image display device 207 is a liquid crystal display, for example, and displays a warning such as a reading error or displays a two-dimensional code being photographed in real time. A network interface card (NIC) 208 is an interface for exchanging data with other information devices via the LAN 210. The main bus 209 is a bus for connecting the above-described components.

図3は、本実施形態に係る画像読取装置100の機能構成例を示すブロック図である。また、図15は、本実施形態において、2次元コードを読み取る処理手順の一例を示すフローチャートである。以下、図3及び図15を参照しながら、歪みを有する2次元コードを読み取る手順について説明する。   FIG. 3 is a block diagram illustrating a functional configuration example of the image reading apparatus 100 according to the present embodiment. FIG. 15 is a flowchart illustrating an example of a processing procedure for reading a two-dimensional code in the present embodiment. Hereinafter, a procedure for reading a two-dimensional code having distortion will be described with reference to FIGS. 3 and 15.

まず、図15のステップS1501において、撮像部301は、図2の画像入力装置204を用いて2次元コードを撮像してその画像データを入力する。そして、ステップS1502において、領域解析部302は、入力された画像データに係る2次元コード(以下、2次元コード画像と称す)において、個々のセルの領域を解析する。例えば2次元コードが歪んでいる場合には、個々のセルは正方形にならないため、歪んだ状態のセルの領域を解析する必要がある。領域解析部302では、図4に示すように、黒色のセル401及び白色のセル402の領域を区分けする。   First, in step S1501 in FIG. 15, the imaging unit 301 captures a two-dimensional code using the image input device 204 in FIG. 2 and inputs the image data. In step S1502, the region analysis unit 302 analyzes the region of each cell in the two-dimensional code (hereinafter referred to as a two-dimensional code image) related to the input image data. For example, when the two-dimensional code is distorted, each cell does not become a square, so it is necessary to analyze the distorted cell region. As shown in FIG. 4, the area analysis unit 302 divides the areas of the black cell 401 and the white cell 402.

また、領域解析部302は、2次元コード画像を解析し、後述する制御点もしくは線が2次元コードに付与されているか否かについても判定する。そして、制御点もしくは線が付与されていない場合には、次のステップS1503の処理として2次元コード画像に制御点もしくは線を付与する処理を行う。一方、2次元コードに予め制御点もしくは線が付与されていた場合には、ステップS1503の処理を省略し、2次元コード画像の歪みを補正する処理を行うことになる。   In addition, the region analysis unit 302 analyzes the two-dimensional code image and determines whether or not a control point or a line, which will be described later, is given to the two-dimensional code. If no control point or line is assigned, a process of assigning a control point or line to the two-dimensional code image is performed as the process of the next step S1503. On the other hand, if control points or lines have been added to the two-dimensional code in advance, the processing in step S1503 is omitted, and processing for correcting distortion of the two-dimensional code image is performed.

次に、ステップS1503において、制御点付与部303は、歪んでいる2次元コードから後述する方法によりセルを正方形に変換するために必要な基準となる制御点もしくは線を2次元コード画像に付与する。また、領域解析部302により解析された個々のセルの境界線を2次元コード画像に付与する。   Next, in step S1503, the control point assigning unit 303 assigns a control point or a line, which becomes a reference necessary for converting a cell to a square by a method described later from a distorted two-dimensional code, to the two-dimensional code image. . Further, the boundary lines of the individual cells analyzed by the region analysis unit 302 are given to the two-dimensional code image.

以下、制御点または線が付与された2次元コードについて説明する。図5(a)〜図5(d)は、線が付与された2次元コードの例を示す図であり、図5(e)及び図5(f)は、制御点が付与された2次元コードの例を示す図である。   Hereinafter, a two-dimensional code to which control points or lines are assigned will be described. FIGS. 5A to 5D are diagrams showing examples of two-dimensional codes to which lines are added, and FIGS. 5E and 5F are two-dimensional to which control points are given. It is a figure which shows the example of a code | cord.

本実施形態においては、後述する歪み補正部304において2次元コード画像を補正するためには、制御点(または線)を取得する必要がある。そこで、領域解析部302により黒色セル401及び白色セル402の区分けがなされているため、各セルの行及び列の情報を取得することができる。したがって、図5(a)〜図5(c)に示すような例の場合は、所定の周期で行及び列を区切るような線を付与し、図5(e)及び図5(f)に示すような例の場合は、所定の周期でセルの角に制御点を付与する。   In the present embodiment, in order to correct a two-dimensional code image in a distortion correction unit 304 described later, it is necessary to acquire control points (or lines). Therefore, since the black cell 401 and the white cell 402 are divided by the region analysis unit 302, information on the row and column of each cell can be acquired. Therefore, in the case of the example as shown in FIGS. 5A to 5C, lines are provided to divide the rows and columns at a predetermined cycle, and FIGS. 5E and 5F are applied. In the case of the example shown, control points are given to the corners of the cell at a predetermined period.

なお、制御点の位置は、2次元コードの機能を妨げない位置であれば、任意の密度で可能である。最も周期を短くする場合には、各セルの境界領域に線を付与することによって、各セルの四隅に制御点を付与することになる。周期を短くすると、歪み補正の精度は向上するが、計算には多くの時間がかかるため、場合によって密度を変更するようにする。また、所定の周期ではなく、図5(d)に示すように不規則な並びによって線や制御点を付与してもよい。さらに、制御点もしくは線は、2次元コードを構成するセルと区別できるように、2次元コードとは異なる色にすることが好ましい。   Note that the positions of the control points can be any density as long as they do not interfere with the function of the two-dimensional code. When the period is shortened the most, the control points are given to the four corners of each cell by giving a line to the boundary region of each cell. If the period is shortened, the accuracy of distortion correction is improved, but the calculation takes a lot of time, so the density is changed in some cases. Further, instead of a predetermined cycle, lines and control points may be given by an irregular arrangement as shown in FIG. Furthermore, it is preferable that the control points or lines have a color different from that of the two-dimensional code so that the control points or lines can be distinguished from the cells constituting the two-dimensional code.

また、セルそのものに制御点として色を付すようにしてもよい。この場合、白及び黒の2値データに変換する際に、元々の2次元コードと同様の色(白または黒)に変換されるような色である必要がある。また、2次元コードの誤り訂正機能を利用することにより、元々の2次元コードと異なる色に変換される場合であっても復号が可能である。復号が可能であるようにセルに着色する技術としては、例えば特許文献3に記載されている技術を用いることができる。   In addition, the cell itself may be colored as a control point. In this case, when converting into binary data of white and black, it is necessary that the color be converted into the same color (white or black) as the original two-dimensional code. Further, by using the error correction function of the two-dimensional code, decoding is possible even when the color is converted to a color different from that of the original two-dimensional code. As a technique for coloring a cell so that decoding is possible, for example, the technique described in Patent Document 3 can be used.

次に、ステップS1504において、歪み補正部304は、2次元コード画像において、歪んでいる2次元コードを読み取り可能に補正する。線が付与されている場合には、各線によって格子が形成され、格子点は制御点として考えることができる。したがって、制御点が付与されている場合と同じ計算方法を用いることができる。また、線の一部を認識できずに格子点が求められない場合であっても、認識した線の一部をもとに格子点の位置を推定することができる。計算方法としては、FFD(Free-form deformation)やDDM法など、物体の形状を変形する様々な方式を利用可能である。例えば、以下の式(1)で表されるFFD法を逆に適用することによって補正することができる。   In step S1504, the distortion correction unit 304 corrects the distorted two-dimensional code so as to be readable in the two-dimensional code image. When lines are given, a grid is formed by each line, and the grid points can be considered as control points. Therefore, the same calculation method can be used as when control points are assigned. Even when a part of a line cannot be recognized and a lattice point cannot be obtained, the position of the lattice point can be estimated based on a part of the recognized line. As a calculation method, various methods such as FFD (Free-form deformation) and DDM method can be used to deform the shape of the object. For example, it can correct | amend by applying reversely the FFD method represented by the following formula | equation (1).

Figure 0005756947
Figure 0005756947

ここで、s,tは、補正前の制御点の座標値のx,y成分を0から1の値に正規化した値を示しており、Pijは、各制御点の補正後の座標を示している。i,jはそれぞれ、制御点における行、列の番号を示しており、XFFDは、補正前の制御点の座標を示している。また、abは、二項係数である。なお、図6には、FFD法により歪みが補正された後の2次元コード画像の一例を示している。また、本実施形態においては、FFD法により歪みを補正するが、4つの制御点からなる矩形領域ごとにアフィン変換を行って歪みを補正してもよい。 Here, s and t indicate values obtained by normalizing the x and y components of the coordinate values of the control points before correction from 0 to 1, and P ij indicates the corrected coordinates of each control point. Show. i and j respectively indicate row and column numbers at the control points, and X FFD indicates the coordinates of the control points before correction. Further, a C b is a binomial coefficient. FIG. 6 shows an example of a two-dimensional code image after distortion is corrected by the FFD method. In this embodiment, the distortion is corrected by the FFD method. However, the distortion may be corrected by performing affine transformation for each rectangular area including four control points.

次に、ステップS1505において、画像読取部305は、歪み補正部304において補正された2次元コード画像から情報を読み取る処理を行う。以下、2次元コード画像から情報を復号する(読み取る)手順について説明する。   In step S <b> 1505, the image reading unit 305 performs processing for reading information from the two-dimensional code image corrected by the distortion correction unit 304. A procedure for decoding (reading) information from the two-dimensional code image will be described below.

まず、2次元コード画像内の明暗状態を参照する。具体的には、まず、2次元コード画像内における最大反射値及び最小反射値の間の中間反射値を閾値に設定し、この中間反射率を境目に2次元コード画像を暗及び明のピクセル集合に変換する。   First, the light and dark state in the two-dimensional code image is referred to. Specifically, first, an intermediate reflection value between the maximum reflection value and the minimum reflection value in the two-dimensional code image is set as a threshold value, and the two-dimensional code image is set to a set of dark and bright pixels at the boundary of the intermediate reflectance. Convert to

次に、2次元コード画像の角部にある位置検出パターンの位置を求める。2次元コードの位置検出パターンは、4隅のうちの3隅に配置される同一の位置検出要素パターンで構成されている。図7に示すように、各位置検出要素パターンのセルの幅は、1:1:3:1:1の比率をもつ暗−明−暗−明−暗の列で構成される。このアルゴリズムにおいて、これらの幅の許容値は0.5とする(つまり、1個のセルに対しては0.5〜1.5の範囲、3個のセルに対しては2.5〜3.5の範囲となる。)。   Next, the position of the position detection pattern at the corner of the two-dimensional code image is obtained. The position detection pattern of the two-dimensional code is composed of the same position detection element patterns arranged at three of the four corners. As shown in FIG. 7, the cell width of each position detection element pattern is composed of dark-light-dark-light-dark columns having a ratio of 1: 1: 3: 1: 1. In this algorithm, the tolerance of these widths is 0.5 (that is, a range of 0.5 to 1.5 for one cell and 2.5 to 3 for 3 cells. .5 range).

次に、領域の候補が検出されたときに、図7に示すように、2次元コード画像内のピクセル線が位置検出要素パターンの外縁に接する点A及び点Bの位置を記憶する。そして、2次元コード画像内のx軸方向に対して位置検出要素パターンの内側の暗の正方形を横切るすべての線が認識されるまで、2次元コード画像内の隣接するピクセル線についてこの処理を繰り返す。次に、2次元コード画像内のy軸方向に対しても同様に、位置検出要素パターンの内側の暗の正方形を横切るすべての線が認識されるまで、2次元コード画像内の隣接するピクセル線についてこの処理を繰り返す。   Next, when an area candidate is detected, the positions of points A and B where the pixel lines in the two-dimensional code image are in contact with the outer edge of the position detection element pattern are stored as shown in FIG. Then, this process is repeated for adjacent pixel lines in the two-dimensional code image until all lines crossing the dark square inside the position detection element pattern with respect to the x-axis direction in the two-dimensional code image are recognized. . Next, similarly to the y-axis direction in the two-dimensional code image, adjacent pixel lines in the two-dimensional code image are recognized until all lines crossing the dark square inside the position detection element pattern are recognized. Repeat this process for.

次に、位置検出要素パターンの中心位置を求める。具体的には、x軸方向に対して位置検出要素パターンの内側の暗の正方形を横切る一番外側のピクセル線上の点A及び点Bの中央を通る線を求める。同様にy軸方向に対しても線を求め、この2本の線の交点を位置検出要素パターンの中心位置とする。以上のような手順により、他の2つの位置検出要素パターンについても中心位置を求める。   Next, the center position of the position detection element pattern is obtained. Specifically, a line passing through the center of the point A and the point B on the outermost pixel line crossing the dark square inside the position detection element pattern with respect to the x-axis direction is obtained. Similarly, a line is also obtained in the y-axis direction, and the intersection of the two lines is set as the center position of the position detection element pattern. The center position is obtained for the other two position detection element patterns by the above procedure.

次に、2次元コード画像内のシンボルにおいて、左上の位置検出要素パターン及びシンボルの回転角を認識する位置検出要素パターンの中心座標を分析することによってシンボルの向きを求める。そして、図8に示すように、シンボルの最大幅を横切る、左上の位置検出要素パターン及び右上の位置検出要素パターンの中心間の距離D及び2つの位置検出要素パターンの幅WUL、WURを求める。 Next, in the symbols in the two-dimensional code image, the direction of the symbol is obtained by analyzing the center coordinates of the position detection element pattern that recognizes the upper left position detection element pattern and the rotation angle of the symbol. Then, as shown in FIG. 8, the distance D between the centers of the upper left position detection element pattern and the upper right position detection element pattern and the widths W UL and W UR of the two position detection element patterns crossing the maximum width of the symbol. Ask.

次に、シンボルの公称X寸法を以下の式(2)により計算する。
X=(WUL+WUR)/14 ・・・式(2)
Next, the nominal X dimension of the symbol is calculated by the following equation (2).
X = (W UL + W UR ) / 14 Formula (2)

次に、仮のシンボルの型番Vを以下の式(3)により計算する。
V=[(D/X)−10]/4 ・・・式(3)
Next, the model number V of the temporary symbol is calculated by the following equation (3).
V = [(D / X) -10] / 4 Formula (3)

式(3)の計算の結果、仮のシンボルの型番が6以下の場合は、この値をシンボルの型番として使用する。一方、仮のシンボルの型番が7以上の場合は、次のように型番情報を復号する。まず、セルのサイズCPURを以下の式(4)により計算する。
CPUR=WUR/7 ・・・式(4)
If the model number of the temporary symbol is 6 or less as a result of the calculation of Expression (3), this value is used as the model number of the symbol. On the other hand, when the model number of the temporary symbol is 7 or more, the model number information is decoded as follows. First, the cell size CP UR is calculated by the following equation (4).
CP UR = W UR / 7 Equation (4)

次に、図9に示す3つの位置検出要素パターンの中心位置A、B、Cから補助線AB、ACを求める。そして、この補助線の平行線、位置検出要素パターンの中心座標、及びセルのサイズCPURに基づいて、図9に示す型番情報1の領域の各セルの中心に対するサンプリンググリッドを設定する。サンプリンググリッド上の明又は暗の状態から二値データの0または1を決定する。 Next, auxiliary lines AB and AC are obtained from the center positions A, B and C of the three position detection element patterns shown in FIG. Based on the parallel lines of the auxiliary lines, the center coordinates of the position detection element pattern, and the cell size CPUR , a sampling grid is set for the center of each cell in the area of the model number information 1 shown in FIG. The binary data 0 or 1 is determined from the light or dark state on the sampling grid.

型番情報1に適用されている拡張BCH誤り訂正に基づき、誤りがある場合にはそれを検出して訂正し、シンボルの型番を決定する。一方、誤り訂正能力を超える誤りを検出した場合は、左下の位置検出要素パターンのパターン幅WDLについて同様の計算を行い、同様の方法で型番情報2を復号する。 Based on the extended BCH error correction applied to the model number information 1, if there is an error, it is detected and corrected to determine the symbol model number. On the other hand, when an error exceeding the error correction capability is detected, the same calculation is performed for the pattern width W DL of the lower left position detection element pattern, and the model number information 2 is decoded by the same method.

位置合せパターンが存在しない型番が1のシンボルについては、位置検出要素パターンに基づいてサンプリンググリッドを設定する。一方、図10に示すように、位置合せパターンが存在する型番が2以上のシンボルについては、以下のような手順により各位置合せパターンの中心座標を求め、サンプリンググリッドを設定する。まず、左上の位置検出要素パターンPULの幅WULから、以下の式(5)によりセルの大きさCPULを求める。
CPUL=WUL/7 ・・・式(5)
A sampling grid is set based on the position detection element pattern for the symbol of model number 1 where no alignment pattern exists. On the other hand, as shown in FIG. 10, for the symbols having a model number of 2 or more in which an alignment pattern exists, the center coordinates of each alignment pattern are obtained by the following procedure, and a sampling grid is set. First, the cell size CP UL is obtained from the width W UL of the upper left position detection element pattern P UL by the following equation (5).
CP UL = W UL / 7 ... Formula (5)

次に、図9に示す左上の位置検出要素パターンPULの中心座標A、補助線AB、ACの平行線、及びセルのサイズCPULに基づいて、位置合せパターンP1及びP2の仮の中心座標を求める。そして、図11に示すように、仮の中心座標のピクセルから、それぞれ、位置合せパターンP1及びP2の白い正方形の外形を走査し、実際の中心座標(Xi,Yj)を計算する。 Next, the center coordinates A position detection pattern P UL of the upper left of FIG. 9, the auxiliary line AB, AC of parallel lines, and based on the size CP UL cell tentative center coordinates of the alignment pattern P1 and P2 Ask for. Then, as shown in FIG. 11, the white square outlines of the alignment patterns P1 and P2 are scanned from the temporary center coordinate pixels, respectively, and the actual center coordinates (X i , Y j ) are calculated.

次に、左上の位置検出要素パターンPULの中心座標、位置合せパターンP1及びP2の実際の中心座標から、位置合せパターンP3の仮の中心座標を推定する。そして、同様の手順により、位置合せパターンP3の実際の中心座標を求める。 Next, the center coordinate of the upper left position detection pattern P UL, from the actual center coordinates of the alignment pattern P1 and P2, to estimate the temporary center coordinates of the alignment pattern P3. Then, the actual center coordinates of the alignment pattern P3 are obtained by the same procedure.

次に、図12に示すように、位置合せパターンP2、P3の中心座標の距離Lx、及び位置合せパターンP1、P3の中心座標の距離Lyを求める。そして、以下の式(6)により位置合せパターンの中心モジュール間隔APを用いてモジュールピッチCPx、CPyを求める。
CPx=Lx/AP
CPy=Ly/AP ・・・式(6)
Next, as shown in FIG. 12, the distance L x between the center coordinates of the alignment patterns P2 and P3 and the distance L y between the center coordinates of the alignment patterns P1 and P3 are obtained. Then, module pitches CP x and CP y are obtained by using the center module interval AP of the alignment pattern by the following equation (6).
CP x = L x / AP
CP y = L y / AP ··· formula (6)

同様に、左上の位置検出要素パターンPULの中心座標と位置合せパターンP1の中心座標との距離Lx′、及び左上の位置検出要素パターンPULの中心座標と位置合せパターンP2の中心座標との距離Ly′を求める。そして、以下の式(7)によりシンボルの左上領域の上辺及び左辺におけるモジュールピッチCPx′、CPy′を求める。
CPx′=Lx′/{(位置合せパターンP1の中心の列座標)−(左上の位置検出要素パターンPULの中心の列座標)}
CPy′=Ly′/{(位置合せパターンP2の中心の行座標)−(左上の位置検出要素パターンPULの中心の行座標)} ・・・式(7)
Similarly, the distance L x ′ between the center coordinates of the upper left position detection element pattern PUL and the center coordinates of the alignment pattern P1, and the center coordinates of the upper left position detection element pattern PUL and the center coordinates of the alignment pattern P2 The distance L y ′ is obtained. Then, module pitches CP x ′ and CP y ′ on the upper and left sides of the upper left area of the symbol are obtained by the following equation (7).
CP x '= L x' / {( column coordinate of the center of the alignment pattern P1) - (column coordinate of the center of the position detection element patterns P UL of the upper left)}
CP y '= L y' / {( the center of the row coordinate of the alignment pattern P2) - (center of the row coordinate of the position detection element patterns P UL of the upper left)} Equation (7)

次に、シンボルの左上領域の各辺のモジュールピッチCPx、CPx′、CPy、CPy′に基づき、シンボルの左上領域を網羅するサンプリンググリッドを設定する。同様の手順により、シンボルの右上領域及び左下領域についてもモジュールピッチを求め、サンプリンググリッドを設定する。 Next, a sampling grid that covers the upper left area of the symbol is set based on the module pitches CP x , CP x ′, CP y , CP y ′ of each side of the upper left area of the symbol. By the same procedure, the module pitch is obtained for the upper right area and the lower left area of the symbol, and the sampling grid is set.

次に、図13に示すように、シンボルの右下領域における位置合せパターンP6については、位置合せパターンP3、P4及びP5からモジュールピッチCPx′CPy′を求める。そして、モジュールピッチCPx′CPy′、位置合せパターンP3、P4の中心を通る補助線、位置合せパターンP3、P5の中心を通る補助線、及びそれら位置合せパターンの中心座標から仮の中心座標を推定する。そして、前述した手順と同様に、シンボルの右下領域のサンプリンググリッドを設定する。さらに、2次元コードの中心部など、未処理の領域においても、シンボルの右下領域の場合と同様の手順によりサンプリンググリッドを設定する。 Next, as shown in FIG. 13, for the alignment pattern P6 in the lower right region of the symbol, the module pitch CP x 'CP y ' is obtained from the alignment patterns P3, P4 and P5. Then, the module pitch CP x 'CP y', auxiliary line passing through the center of the alignment pattern P3, P4, auxiliary line passing through the center of the alignment pattern P3, P5, and the temporary center coordinates from the center coordinates thereof aligned pattern Is estimated. Then, the sampling grid in the lower right area of the symbol is set in the same manner as described above. Further, in an unprocessed area such as the center of a two-dimensional code, a sampling grid is set by the same procedure as that in the lower right area of the symbol.

以上のようにシンボルの全ての領域においてサンプリンググリッドを設定すると、以下の手順により復号を行う。まず、グリッド線の各交点上の画像ピクセル(セル)をサンプリングし、閾値に基づいて、明暗のいずれかを決める。そして、暗のピクセルを二値データの1とし、明のピクセルを二値データの0としてビットマトリックスを構築する。   As described above, when the sampling grid is set in all regions of the symbol, decoding is performed according to the following procedure. First, image pixels (cells) on each intersection of grid lines are sampled, and either light or dark is determined based on a threshold value. Then, a bit matrix is constructed with dark pixels as 1 of binary data and bright pixels as 0 of binary data.

次に、左上の位置検出要素パターンPULに隣接する領域から形式情報を復号し、シンボルに適用された誤り訂正レベル及びマスクパターンの情報を得る。形式情報の誤り訂正能力を超える誤りが検出された場合には、右上の位置検出要素パターンPURまたは左下の位置検出要素パターンPDLに隣接する領域から形式情報を復号して誤り訂正レベル及びマスクパターンの情報を得る。 Next, the format information is decoded from the area adjacent to the upper left position detection element pattern PUL , and the error correction level and mask pattern information applied to the symbol is obtained. When an error exceeding the error correction capability of the format information is detected, the format information is decoded from the area adjacent to the upper right position detection element pattern PUR or the lower left position detection element pattern P DL , and the error correction level and mask are detected. Get pattern information.

次に、シンボルの符号化領域でマスクパターンを排他的論理和演算(XOR演算)することによってマスク処理を解除し、データ及び誤り訂正を示すシンボルキャラクタ(データ)を復号する。ここでは、符号化過程で適用されたマスク処理の手順を逆順することによって復号される。そして、配置規則に従い、シンボルのコード語を求める。   Next, the mask process is canceled by performing an exclusive OR operation (XOR operation) on the mask pattern in the symbol encoding area, and the symbol character (data) indicating the data and error correction is decoded. Here, decoding is performed by reversing the procedure of the mask process applied in the encoding process. Then, the code word of the symbol is obtained according to the arrangement rule.

次に、シンボルの型番及び誤り訂正レベルに応じて、インタリーブの過程を逆順することによって、ブロック化されたコード語列を並び替える。そして、誤り検出及び訂正復号手順に従い、シンボルの型番及び誤り訂正レベルに対する最大訂正容量までの棄却誤り及び代入誤りを訂正する。そして、列におけるデータブロックを結合することによって、元のメッセージを復元する。   Next, the blocked code word strings are rearranged by reversing the interleaving process in accordance with the symbol model number and error correction level. Then, according to the error detection and correction decoding procedure, the rejection error and the substitution error up to the maximum correction capacity with respect to the symbol model number and the error correction level are corrected. The original message is then restored by combining the data blocks in the column.

また、データビット列をモード指示子で始まるセグメントに更に分割する。その長さは、モード指示子に続く文字数指示子によって決まる。そして、適用中のモードの規則に従い、各セグメントを復号する。以上のような手順により、2次元コード画像から情報が復号される。   Further, the data bit string is further divided into segments starting with a mode indicator. The length is determined by the character number indicator following the mode indicator. Then, each segment is decoded according to the rules of the mode being applied. Information is decoded from the two-dimensional code image by the procedure as described above.

図3の説明に戻り、結果出力部306は、通信回線105を介して復号された情報を自動分別装置106に出力する。   Returning to the description of FIG. 3, the result output unit 306 outputs the decoded information to the automatic sorting device 106 via the communication line 105.

以上の説明では、2次元コードが歪んでいる場合に、歪み補正部304により歪みを補正する例について説明したが、歪みを補正しないで情報を復号することも可能である。制御点付与部303により各セルの境界領域に線を付与した場合、もしくは2次元コードに予め各セルの境界領域に線が付与されている場合には、画像読取部305は、図14に示すように、格子の各辺の中点を結んだ線の交点にサンプリンググリッドを設定する。そして、領域解析部302により解析された情報に従い、位置検出要素パターンに隣接する領域から形式情報を復号し、符号化領域から情報を復号する。また、制御点の間隔がセル単位よりも大きい場合には、制御点の座標からモジュールピッチを定め、サンプリンググリッドを設定する。   In the above description, an example in which distortion is corrected by the distortion correction unit 304 when the two-dimensional code is distorted has been described. However, information can be decoded without correcting distortion. When a line is added to the boundary region of each cell by the control point adding unit 303, or when a line is added to the boundary region of each cell in advance in the two-dimensional code, the image reading unit 305 is shown in FIG. In this way, the sampling grid is set at the intersection of lines connecting the midpoints of the sides of the grid. Then, in accordance with the information analyzed by the region analysis unit 302, the format information is decoded from the region adjacent to the position detection element pattern, and the information is decoded from the encoding region. When the control point interval is larger than the cell unit, the module pitch is determined from the control point coordinates, and the sampling grid is set.

以上のように本実施形態によれば、ゴミ袋などに付与された2次元コードを読み取る際に、歪んでいる2次元コードから後述する方法により正方形に変換するために必要な基準となる制御点もしくは線を付与する。そして、制御点または線によって形成される格子点を起点にして歪みを補正する。これにより、ゴミが詰まった状態でゴミ袋の2次元コードを読み取るような場合など、2次元コードの歪みが非常に大きくなっている場合であっても、十分に情報を読み取ることができる。   As described above, according to the present embodiment, when a two-dimensional code attached to a garbage bag or the like is read, a control point that serves as a reference necessary for converting a distorted two-dimensional code into a square by a method described later. Or give a line. Then, distortion is corrected starting from a lattice point formed by a control point or line. As a result, even when the two-dimensional code is greatly distorted, such as when the two-dimensional code of the garbage bag is read in a state where the garbage is jammed, the information can be sufficiently read.

また、正方形に変換するために必要な基準となる制御点もしくは線が2次元コードに予め付与されているような場合は、これらの制御点または線によって形成される格子点を起点にして歪みを補正することができる。   In addition, when control points or lines that are necessary for conversion into a square are preliminarily assigned to the two-dimensional code, distortion is started from the lattice points formed by these control points or lines. It can be corrected.

(本発明に係る他の実施形態)
前述した実施形態では、廃棄物収集センターなどにおいて、廃棄物を自動分別装置により分別するために、ベルトに流れるゴミ袋の2次元コードを1台の画像読取装置が読み取る例について説明した。一方、複数の画像読取装置を配置させ、それぞれの画像読取装置が復号した結果を集計し、その集計結果に基づいて自動分別装置がゴミ袋を分別するようにしてもよい。この場合、自動分別装置側で集計結果をまとめ、最も多い復号結果を採用するような形態であってもよく、1台のサーバがそれぞれの画像読取装置から復号結果を集計し、最も多い復号結果を最終結果として自動分別装置に送るような形態であってもよい。いずれの場合もより精度良く復号結果を自動分別装置に反映させることができる。また、ゴミ袋の複数の面に2次元コードを付してもよい。
(Other embodiments according to the present invention)
In the above-described embodiment, an example has been described in which one image reading device reads the two-dimensional code of the garbage bag flowing on the belt in order to separate the waste with an automatic sorting device at a waste collection center or the like. On the other hand, a plurality of image reading devices may be arranged, the results decoded by the respective image reading devices may be totaled, and the automatic sorting device may sort the garbage bags based on the totaled results. In this case, the automatic sorting apparatus may summarize the aggregation results and adopt the most decryption results, and one server may aggregate the decryption results from the respective image reading apparatuses, and the most decryption results. May be sent to the automatic sorting apparatus as a final result. In either case, the decoding result can be reflected in the automatic sorting device with higher accuracy. Further, a two-dimensional code may be attached to a plurality of surfaces of the garbage bag.

また、前述した実施形態では、廃棄物収集センターなどを想定した例について説明したが、画像読取装置をゴミ収集車に搭載して、2次元コードが付されたゴミ袋がゴミ収集車に積載されたときに2次元コードを読み取り、ゴミを分別するような例にも適用できる。この場合、作業員が目視でゴミを仕分ける手間を不要にすることができる。   In the above-described embodiment, an example in which a waste collection center is assumed has been described. However, an image reading apparatus is mounted on a garbage collection vehicle, and a garbage bag with a two-dimensional code is loaded on the garbage collection vehicle. It can also be applied to an example in which a two-dimensional code is read and the garbage is separated. In this case, it is possible to eliminate the need for the operator to sort the garbage visually.

また、前述した本発明の実施形態における画像読取装置を構成する各手段、並びに画像読取方法の各工程は、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。   Further, each unit constituting the image reading apparatus and each step of the image reading method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable recording medium recording the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラムもしくは記録媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。   Further, the present invention can be implemented as, for example, a system, apparatus, method, program, or recording medium. Specifically, the present invention may be applied to a system including a plurality of devices. The present invention may be applied to an apparatus composed of a single device.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図15に示すフローチャートに対応したプログラム)を、システムまたは装置に直接、または遠隔から供給する場合も含む。そして、そのシステムまたは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   The present invention includes a case where a software program (in the embodiment, a program corresponding to the flowchart shown in FIG. 15) for realizing the functions of the above-described embodiments is directly or remotely supplied to the system or apparatus. This includes the case where the system or the computer of the apparatus is also achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどがある。さらに、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, there are MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する方法がある。そして、前記ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, there is a method of connecting to a homepage on the Internet using a browser of a client computer. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、その他の方法として、本発明のプログラムを暗号化してCD−ROM等の記録媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   As another method, the program of the present invention is encrypted, stored in a recording medium such as a CD-ROM, distributed to users, and encrypted from a homepage via the Internet to users who have cleared predetermined conditions. Download the key information to be solved. It is also possible to execute the encrypted program by using the key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。さらに、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. Furthermore, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can be realized by the processing.

さらに、その他の方法として、まず記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。そして、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によっても前述した実施形態の機能が実現される。   As another method, the program read from the recording medium is first written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Then, based on the instructions of the program, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

301 撮像部
302 領域解析部
303 制御点付与部
304 歪み補正部
305 画像読取部
306 結果出力部
DESCRIPTION OF SYMBOLS 301 Image pick-up part 302 Area | region analysis part 303 Control point provision part 304 Distortion correction | amendment part 305 Image reading part 306 Result output part

Claims (10)

複数のセルを備えた2次元コードであって、
前記2次元コードが撮像されて歪んだ形状の2次元コード画像が生成された場合に、前記歪んだ形状の2次元コード画像から情報を読み取る位置を特定するためのが前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与されていることを特徴とする2次元コード。
A two-dimensional code comprising a plurality of cells,
When the two-dimensional code is imaged and a two-dimensional code image having a distorted shape is generated, a line for identifying a position from which information is read from the two-dimensional code image having the distorted shape is separated from the cell. A two-dimensional code characterized in that the two-dimensional code is given to a boundary region of an adjacent cell that is distinguished from the cell .
前記は、前記複数のセルとは異なる色であることを特徴とする請求項1に記載の2次元コード。 The two-dimensional code according to claim 1, wherein the line has a color different from that of the plurality of cells. 前記の交点は、前記歪んだ形状の2次元コード画像から情報を読み取る位置を特定するために、前記歪んだ形状を補正する起点となる点であることを特徴とする請求項1または2に記載の2次元コード。 The intersection of the lines is a point that is a starting point for correcting the distorted shape in order to specify a position to read information from the two-dimensional code image of the distorted shape. The two-dimensional code described. 前記は、前記歪んだ形状の2次元コード画像から情報を読み取る位置を特定するために、前記複数のセルそれぞれのサンプリングする位置を特定するためのであることを特徴とする請求項1または2に記載の2次元コード。 The lines, in order to specify the position for reading the information from the two-dimensional code image of the distorted shape, characterized in that it is a line for specifying the position for sampling of each of the plurality of cells according to claim 1 or The two-dimensional code according to 2. 複数のセルとともに、情報を読み取る位置を特定するための線が前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与された2次元コードを撮像して2次元コード画像を取得する撮像手段と、
前記撮像手段によって生成された2次元コード画像内の前記を起点として形状変形手法により補正する歪み補正手段と、
前記歪み補正手段によって補正された2次元コード画像から情報を読み取る復号手段とを有することを特徴とする画像読取装置。
With a plurality of cells , a two-dimensional code image is obtained by capturing a two-dimensional code image that is distinguished from the cells and provided to a boundary region of adjacent cells so that a line for specifying a position to read information is separated from the cells. Imaging means to obtain;
Distortion correcting means for correcting by a shape deformation technique starting from the line in the two-dimensional code image generated by the imaging means;
An image reading apparatus comprising: a decoding unit that reads information from the two-dimensional code image corrected by the distortion correction unit.
複数のセルとともに、情報を読み取る位置を特定するための線が前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与された2次元コードを撮像して2次元コード画像を取得する撮像手段と、
前記撮像手段によって撮像された2次元コード画像において、前記2次元コードを構成する各セルの領域を解析する領域解析手段と、
前記撮像手段によって撮像された2次元コード画像内の前記線に基づいて、前記領域解析手段により解析されたセルのサンプリングする位置を特定し、前記特定した位置から情報を読み取る復号手段とを有することを特徴とする画像読取装置。
With a plurality of cells , a two-dimensional code image is obtained by capturing a two-dimensional code image that is distinguished from the cells and provided to a boundary region of adjacent cells so that a line for specifying a position to read information is separated from the cells. Imaging means to obtain;
In the two-dimensional code image picked up by the image pickup means, area analysis means for analyzing the area of each cell constituting the two-dimensional code;
Based on the lines in the two-dimensional code image captured by the imaging means, wherein to locate the sampling of the analyzed cell by region analysis unit, to have a decoding unit for reading information from said specified position An image reading apparatus.
複数のセルとともに、情報を読み取る位置を特定するための線が前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与された2次元コードを撮像して2次元コード画像を取得する撮像工程と、
前記撮像工程において生成された2次元コード画像内の前記を起点として形状変形手法により補正する歪み補正工程と、
前記歪み補正工程において補正された2次元コード画像から情報を読み取る復号工程とを有することを特徴とする画像読取方法。
With a plurality of cells , a two-dimensional code image is obtained by capturing a two-dimensional code image that is distinguished from the cells and provided to a boundary region of adjacent cells so that a line for specifying a position to read information is separated from the cells. An imaging process to be acquired;
A distortion correction step of correcting by a shape deformation method starting from the line in the two-dimensional code image generated in the imaging step;
And a decoding step of reading information from the two-dimensional code image corrected in the distortion correction step.
複数のセルとともに、情報を読み取る位置を特定するための線が前記セルを区切るように前記セルと区別されて隣接するセルの境界領域に付与された2次元コードを撮像して2次元コード画像を取得する撮像工程と、
前記撮像工程において撮像された2次元コード画像において、前記2次元コードを構成する各セルの領域を解析する領域解析工程と、
前記撮像工程において撮像された2次元コード画像内の前記線に基づいて、前記領域解析工程において解析されたセルのサンプリングする位置を特定し、前記特定した位置から情報を読み取る復号工程とを有することを特徴とする画像読取方法。
With a plurality of cells , a two-dimensional code image is obtained by capturing a two-dimensional code image that is distinguished from the cells and provided to a boundary region of adjacent cells so that a line for specifying a position to read information is separated from the cells. An imaging process to be acquired;
In the two-dimensional code image imaged in the imaging step, an area analysis step for analyzing the area of each cell constituting the two-dimensional code;
Based on the lines in the two-dimensional code image captured in the imaging step, to locate the sampling of cells analyzed in said region analysis step, and a decoding step of reading information from said specified position An image reading method characterized by the above.
請求項7または8に記載の画像読取方法の各工程をコンピュータに実行させることを特徴とするプログラム。 A program for causing a computer to execute each step of the image reading method according to claim 7 or 8 . 請求項に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。 A computer-readable storage medium storing the program according to claim 9 .
JP2011105308A 2011-05-10 2011-05-10 Two-dimensional code, image reading apparatus, image reading method, program, and storage medium Active JP5756947B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011105308A JP5756947B2 (en) 2011-05-10 2011-05-10 Two-dimensional code, image reading apparatus, image reading method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011105308A JP5756947B2 (en) 2011-05-10 2011-05-10 Two-dimensional code, image reading apparatus, image reading method, program, and storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015083402A Division JP5988228B2 (en) 2015-04-15 2015-04-15 Two-dimensional code, image reading apparatus, image reading method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2012238097A JP2012238097A (en) 2012-12-06
JP5756947B2 true JP5756947B2 (en) 2015-07-29

Family

ID=47460962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011105308A Active JP5756947B2 (en) 2011-05-10 2011-05-10 Two-dimensional code, image reading apparatus, image reading method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5756947B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6262813B2 (en) * 2016-08-02 2018-01-17 株式会社Cygames Program and image processing apparatus
CN107984915A (en) * 2017-03-18 2018-05-04 宁波亿诺维信息技术有限公司 two-dimensional code generation method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3716527B2 (en) * 1997-01-28 2005-11-16 株式会社デンソー 2D code reading method
JP5136302B2 (en) * 2008-03-27 2013-02-06 株式会社デンソーウェーブ Two-dimensional code, two-dimensional code generation method, computer-readable program for displaying two-dimensional code, authentication method using two-dimensional code, and information providing method using two-dimensional code
JP4957616B2 (en) * 2008-03-28 2012-06-20 株式会社デンソーウェーブ Two-dimensional code reader
JP4871918B2 (en) * 2008-06-12 2012-02-08 日本電信電話株式会社 Image conversion apparatus, image conversion method, image conversion program, and computer-readable recording medium recording the image conversion program

Also Published As

Publication number Publication date
JP2012238097A (en) 2012-12-06

Similar Documents

Publication Publication Date Title
US11676238B2 (en) Detecting conflicts between multiple different signals within imagery
US6929183B2 (en) Reconstruction of virtual raster
CN110008956B (en) Invoice key information positioning method, invoice key information positioning device, computer equipment and storage medium
US10198782B1 (en) Detecting conflicts between multiple different encoded signals within imagery
US11715172B2 (en) Detecting conflicts between multiple different encoded signals within imagery, using only a subset of available image data
US11941720B2 (en) Detecting conflicts between multiple different encoded signals within imagery, using only a subset of available image data, and robustness checks
CN115660933A (en) Method, device and equipment for identifying watermark information
JP5988228B2 (en) Two-dimensional code, image reading apparatus, image reading method, program, and storage medium
CN111507119B (en) Identification code recognition method, identification code recognition device, electronic equipment and computer readable storage medium
JP5756947B2 (en) Two-dimensional code, image reading apparatus, image reading method, program, and storage medium
CN112163443A (en) Code scanning method, code scanning device and mobile terminal
CN112633183B (en) Automatic detection method and device for image shielding area and storage medium
US8494272B2 (en) Image processing device, image processing method, and computer readable medium for judging if images are matched
JP2011170882A (en) Two dimensional code reader and its method
JP3090070B2 (en) Form identification method and device
JP4098313B2 (en) Image processing device
JP2007139421A (en) Morphological classification device and method, and variation region extraction device and method
JP2023024148A (en) Image processing apparatus, image processing method, and image processing program
JP3747602B2 (en) Image processing method and image processing apparatus
JP2011193294A (en) Document image processing apparatus, document image processing method and document image processing program
JP2004078411A (en) Method for automatic creation of sketch drawing and its apparatus
JP2007142766A (en) Area dividing device
Saxena et al. An Automatic Status Report Generation (ASRG) Model for Degraded Manuscript Folios: A novel approach in direction of digital preservation of MSs
JP2007328467A (en) Image processor, image processing method, program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150416

R150 Certificate of patent or registration of utility model

Ref document number: 5756947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350