JP6230355B2 - Article management system and method - Google Patents

Article management system and method Download PDF

Info

Publication number
JP6230355B2
JP6230355B2 JP2013202392A JP2013202392A JP6230355B2 JP 6230355 B2 JP6230355 B2 JP 6230355B2 JP 2013202392 A JP2013202392 A JP 2013202392A JP 2013202392 A JP2013202392 A JP 2013202392A JP 6230355 B2 JP6230355 B2 JP 6230355B2
Authority
JP
Japan
Prior art keywords
article
information
image
identification code
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013202392A
Other languages
Japanese (ja)
Other versions
JP2015069358A (en
Inventor
裕一 村山
裕一 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyodo Printing Co Ltd
Original Assignee
Kyodo Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyodo Printing Co Ltd filed Critical Kyodo Printing Co Ltd
Priority to JP2013202392A priority Critical patent/JP6230355B2/en
Publication of JP2015069358A publication Critical patent/JP2015069358A/en
Application granted granted Critical
Publication of JP6230355B2 publication Critical patent/JP6230355B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、物品管理システム及び方法に関する。   The present invention relates to an article management system and method.

従来、画像として読取可能な一次元コード(例えば、バーコード)、二次元コード(例えば、QRコード(登録商標))等の識別コードを撮影し、撮影した画像中の識別コードに対応する情報(すなわち、オーバーレイ情報)を取得する識別コード読取システムが知られている。特許文献1〜3は、取得した情報(例えば、識別コードが付される物品名)を、撮影した画像に重畳して表示部の画面に表示することを提案している。このシステムによれば、このように取得した情報を撮影した画像に重畳して表示部の画面に表示するので、撮影した画像中の識別コードが付された物品についての情報(例えば、物品名)を、表示部の画面上で把握することができる。   Conventionally, an identification code such as a one-dimensional code (for example, a barcode) or a two-dimensional code (for example, a QR code (registered trademark)) that can be read as an image is photographed, and information corresponding to the identification code in the photographed image ( That is, an identification code reading system that acquires overlay information) is known. Patent Documents 1 to 3 propose that the acquired information (for example, the name of an article to which an identification code is attached) is superimposed on a captured image and displayed on the screen of the display unit. According to this system, the information acquired in this way is superimposed on the captured image and displayed on the screen of the display unit. Therefore, information about the article with the identification code in the captured image (for example, the article name) Can be grasped on the screen of the display unit.

識別コードは、物品の格納位置を管理する物品管理システムでも用いられ(例えば、特許文献4〜7)、物品の格納位置を管理するためにRFIDタグを用いた管理システム(例えば、特許文献8〜11)及び物品を管理するためにカラービット(登録商標)を用いた管理システム(例えば、特許文献12)も提案されている。   The identification code is also used in an article management system that manages the storage position of the article (for example, Patent Documents 4 to 7), and a management system that uses an RFID tag to manage the storage position of the article (for example, Patent Documents 8 to 8). 11) and a management system using a color bit (registered trademark) for managing articles (for example, Patent Document 12) has also been proposed.

特開2012−215989号公報JP 2012-215989 A 特開2012−181705号公報JP 2012-181705 A 特開2011−55250号公報JP 2011-55250 A 特開平10−35827号公報Japanese Patent Laid-Open No. 10-35827 特開2005−96956号公報JP 2005-96956 A 特開2000−259717号公報JP 2000-259717 A 特開2012−16883号公報JP 2012-16883 A 特開2004−186057号公報JP 2004-186057 A 特開2006−8301号公報JP 2006-8301 A 特開2011−37571号公報JP 2011-37571 A 特開2010−44724号公報JP 2010-44724 A 特開2011−24663号公報JP 2011-24663 A

しかしながら、従来の位置情報表示システム及び物品管理システムでは、識別コードを認識することによって物品の存在を確認しているが、物品の状態は記録されないので、物品の状態を確認することができない。したがって、認識した識別コードが付された物品の状態が異常状態(物品の収納場所が不正である状態、物品が破損している状態等)であるか否かを判断することができない。例えば、ハンガーに取り付けられている識別コードを認識する場合、ハンガーに服がかかっていない状態又はハンガーにかかっている服が本来ハンガーにかけるべき服とは異なる状態(例えば、ジャケットをかけるためのハンガーにカーディガンがかかっている状態)でも物品(服)の状態が正常であると誤った判断がされるおそれがある。   However, in the conventional position information display system and the article management system, the presence of the article is confirmed by recognizing the identification code. However, since the state of the article is not recorded, the state of the article cannot be confirmed. Therefore, it is impossible to determine whether or not the state of the article with the recognized identification code is an abnormal state (a state in which the article is stored in an invalid state, a state in which the article is damaged, or the like). For example, when recognizing an identification code attached to a hanger, the hanger is not worn or the clothes hung on the hanger are different from the clothes that should be put on the hanger (for example, a hanger for applying a jacket). Even if the cardigan is on, the article (clothing) may be judged to be normal.

本発明の目的は、物品に付された識別コードを認識する際に当該物品の状態を正確に判断することができる物品管理システム及び方法を提供することである。   An object of the present invention is to provide an article management system and method capable of accurately determining the state of an article when recognizing an identification code attached to the article.

本発明による物品管理システムは、画像として読取可能な識別コードが付された物品を撮影する撮影手段と、撮影した物品を含む物品画像中の識別コードを認識する識別コード認識手段と、識別コードが付された物品に関する物品情報を、識別コードから抽出する物品情報抽出手段と、物品情報を物品画像に重畳して表示する第1の表示手段と、物品画像を物品情報と関連付けて記憶するデータベースと、物品画像をデータベースから抽出する物品画像抽出手段と、物品画像抽出手段が抽出した物品画像を表示する第2の表示手段と、を備えることを特徴とする。   An article management system according to the present invention includes an imaging unit that photographs an article with an identification code that can be read as an image, an identification code recognition unit that recognizes an identification code in an article image including the photographed article, and an identification code Article information extracting means for extracting the article information relating to the attached article from the identification code, first display means for displaying the article information superimposed on the article image, and a database for storing the article image in association with the article information; And an article image extracting means for extracting the article image from the database, and a second display means for displaying the article image extracted by the article image extracting means.

好適には、データベースは、撮影手段が識別コードが付された物品を撮影する度に取得した複数の物品画像を物品情報と関連付けて記憶する。   Preferably, the database stores a plurality of article images acquired each time the photographing unit photographs the article with the identification code in association with the article information.

本発明による物品管理方法は、画像として読取可能な識別コードが付された物品をカメラで撮影する撮影ステップと、撮影した物品を含む物品画像中の識別コードをコンピュータによって認識する識別コード認識ステップと、コンピュータが、識別コードが付された物品に関する物品情報を、識別コードから抽出する物品情報抽出ステップと、物品情報を物品画像に重畳して第1のディスプレイに表示する第1の表示ステップと、コンピュータが、物品画像を物品情報と関連付けてデータベースに記憶させる記憶ステップと、コンピュータが、物品画像をデータベースから抽出する物品画像抽出ステップと、物品画像抽出ステップで抽出した物品画像を第2のディスプレイに表示する第2の表示ステップと、を備えることを特徴とする。   An article management method according to the present invention includes a photographing step of photographing an article with an identification code readable as an image by a camera, and an identification code recognition step of recognizing an identification code in the article image including the photographed article by a computer. An article information extraction step in which the computer extracts article information relating to the article to which the identification code is attached from the identification code; a first display step in which the article information is superimposed on the article image and displayed on the first display; A storage step in which the computer stores the article image in the database in association with the article information, an article image extraction step in which the computer extracts the article image from the database, and the article image extracted in the article image extraction step on the second display And a second display step for displaying.

本発明によれば、撮影した物品を含む物品画像を、識別コードが付された物品に関する物品情報と関連付けてデータベースに記憶させ、物品画像をデータベースから抽出し、抽出した物品画像を表示することによって、物品に付された識別コードを認識する際に当該物品の状態を正確に判断することができる。   According to the present invention, an article image including a photographed article is stored in a database in association with article information related to the article with the identification code, the article image is extracted from the database, and the extracted article image is displayed. When the identification code attached to the article is recognized, the state of the article can be accurately determined.

本発明による物品管理システムの実施の形態のブロック図である。It is a block diagram of an embodiment of an article management system according to the present invention. 図1のデータベースに格納されるデータの一例を示す図である。It is a figure which shows an example of the data stored in the database of FIG. 図1に示す物品管理システムで用いられる識別コードの一例を示す図である。It is a figure which shows an example of the identification code used with the article | item management system shown in FIG. 図1の物品管理システムにおいて物品画像を物品情報と関連付けてデータベースに記憶させる動作のフローチャートである。2 is a flowchart of an operation of storing an article image in a database in association with article information in the article management system of FIG. 1. 図1の物品管理システムにおいて物品画像を物品情報と関連付けてデータベースに記憶させる動作のフローチャートである。2 is a flowchart of an operation of storing an article image in a database in association with article information in the article management system of FIG. 1. 撮影した物品画像の表示例を示す図である。It is a figure which shows the example of a display of the image | photographed article | item image. 物品情報が重畳された物品画像の表示例を示す図である。It is a figure which shows the example of a display of the article image on which article information was superimposed. 識別コードの中心座標の算出を説明するための図である。It is a figure for demonstrating calculation of the center coordinate of an identification code. 図1の物品管理システムにおいて撮影した物品画像を抽出してディスプレイの画面に表示させる動作のフローチャートである。It is a flowchart of the operation | movement which extracts the article image image | photographed in the article management system of FIG. 1, and displays it on the screen of a display. 物品確認の際の物品画像の表示例を示す図である。It is a figure which shows the example of a display of the article image in the case of article confirmation. 物品確認後にデータベースに格納されるデータの一例を示す図である。It is a figure which shows an example of the data stored in a database after goods confirmation.

本発明による物品管理システム及び方法の実施の形態を、図面を参照しながら詳細に説明する。
図1は、本発明による物品管理システムの実施の形態のブロック図である。図1に示す物品管理システムは、端末1と、ネットワーク(通信経路)2と、サーバ3と、端末4と、を備える。
Embodiments of an article management system and method according to the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram of an embodiment of an article management system according to the present invention. The article management system shown in FIG. 1 includes a terminal 1, a network (communication path) 2, a server 3, and a terminal 4.

本実施の形態では、四つの位置検出パターンを有する二次元コードを識別コードとして用いる場合について説明する。位置検出パターンの座標は、例えば、撮影画像を解析することによって検出可能である。   In this embodiment, a case where a two-dimensional code having four position detection patterns is used as an identification code will be described. The coordinates of the position detection pattern can be detected, for example, by analyzing a captured image.

端末1は、カメラ機能付きスマートホン、カメラが接続されたパーソナルコンピュータ(PC)等として実現され、撮影手段としてのカメラ(撮影部)1Aと、識別コード認識手段及び物品情報抽出手段としてのコンピュータ(識別コード認識部及び物品情報抽出部)1Bと、第1の表示手段としてのディスプレイ1Cと、通信手段としての通信インタフェース1Dと、を有する。   The terminal 1 is realized as a smart phone with a camera function, a personal computer (PC) to which a camera is connected, and the like. The terminal (camera unit) 1A as a photographing unit, and a computer (an identification code recognizing unit and an article information extracting unit) (Identification code recognition unit and article information extraction unit) 1B, a display 1C as a first display unit, and a communication interface 1D as a communication unit.

カメラ1Aは、画像として読取可能な識別コードが付された物品を撮影する。このために、カメラ1Aは、レンズ1aと、イメージセンサ1bと、アナログ・デジタル変換器(AD)1cと、を有し、撮影した識別コードのデジタル画像データをコンピュータ1Bに出力する。   The camera 1A takes an image of an article with an identification code that can be read as an image. For this purpose, the camera 1A includes a lens 1a, an image sensor 1b, and an analog / digital converter (AD) 1c, and outputs digital image data of a photographed identification code to the computer 1B.

コンピュータ1Bは、通常のコンピュータと同様の構成で実現され、端末1の動作を制御する。本実施の形態では、コンピュータ1Bは、カメラ1Aが撮影した物品を含む物品画像の識別コードを認識し、認識した識別コードを識別コード情報に変換し、変換した識別コード情報を、物品画像とともに通信インタフェース1D及びネットワーク2を介してサーバ3に送信する。また、コンピュータ1Bは、後に説明するように識別コード情報に基づいて算出した識別コードの中心座標についての位置座標情報も通信インタフェース1D及びネットワーク2を介してサーバ3に送信する。さらに、コンピュータ1Bは、識別コードを認識した時刻(日時)を記録する図示しないタイマを内蔵し、識別コードを認識した時刻(日時)についての時刻情報も通信インタフェース1D及びネットワーク2を介してサーバ3に送信する。   The computer 1B is realized by the same configuration as a normal computer and controls the operation of the terminal 1. In the present embodiment, the computer 1B recognizes an identification code of an article image including an article photographed by the camera 1A, converts the recognized identification code into identification code information, and communicates the converted identification code information together with the article image. The data is transmitted to the server 3 via the interface 1D and the network 2. The computer 1B also transmits position coordinate information about the center coordinates of the identification code calculated based on the identification code information to the server 3 via the communication interface 1D and the network 2 as described later. Further, the computer 1B has a built-in timer (not shown) that records the time (date and time) when the identification code is recognized, and the time information about the time (date and time) when the identification code is recognized is also transmitted via the communication interface 1D and the network 2 to the server 3. Send to.

ディスプレイ1Cは、識別コードが付された物品に関する物品情報(オーバーレイ情報)を、物品画像に重畳して表示する。物品情報は、後に説明するようにコンピュータ1Bによって識別コードから抽出される。   The display 1C displays article information (overlay information) related to the article with the identification code superimposed on the article image. The article information is extracted from the identification code by the computer 1B as will be described later.

サーバ3は、データベース3Aと、物品画像抽出手段としてのコンピュータ(物品画像抽出部)3Bと、通信インタフェース3Cと、を備える。データベース3Aは、物品画像を物品情報と関連付けて記憶する。データベース3Aに格納されるデータの一例を図2に示す。図2に示す例において、ID、物品名及び管理者についての情報は、識別コードに含まれる物品情報に対応し、現品確認、確認日時、物品画像等についての情報は、データベース3Aのみで保存される。また、データベース3Aは、カメラ1Aが識別コードが付された物品を撮影する度に取得した複数の物品画像を物品情報と関連付けて記憶することもできる。   The server 3 includes a database 3A, a computer (article image extraction unit) 3B as an article image extraction unit, and a communication interface 3C. The database 3A stores the article image in association with the article information. An example of data stored in the database 3A is shown in FIG. In the example shown in FIG. 2, the information about the ID, the product name, and the manager corresponds to the product information included in the identification code, and the information about the actual product confirmation, the confirmation date and time, the product image, etc. is stored only in the database 3A. The The database 3A can also store a plurality of article images obtained each time the camera 1A photographs an article with an identification code in association with the article information.

コンピュータ3Bは、サーバ3の動作を制御する。本実施の形態では、コンピュータ3Bは、識別コード情報を、通信インタフェース1D、ネットワーク2及び通信インタフェース3Cを介してコンピュータ1Bから受信する。そして、コンピュータ3Bは、受信した識別コード情報に基づいて、物品画像を物品情報と関連付けてデータベース3Aに記憶させる。更に詳しく説明すると、コンピュータ3Bは、識別コード情報に含まれるIDがデータベース3Aに保存されたデータ中に存在するか否か判断し、識別コード情報に含まれるIDがデータベース3Aに保存されたデータ中に存在しない場合には、物品画像をIDに関連付けてデータベース3Aに記憶させる。一方、識別コード情報に含まれるIDがデータベース3Aに保存されたデータ中に存在する場合には、コンピュータ3Bは、物品画像をデータベース3Aに保存しない。また、コンピュータ3Bは、後に説明するように、図示しないマウス等の操作部を用いて端末4が指定した物品に応じて、端末4が指定した物品に対応する物品画像をデータベース3Aから抽出し、抽出した物品画像を、通信インタフェース3C及びネットワーク2を介して端末4に送信する。   The computer 3B controls the operation of the server 3. In the present embodiment, the computer 3B receives the identification code information from the computer 1B via the communication interface 1D, the network 2, and the communication interface 3C. Then, the computer 3B stores the article image in the database 3A in association with the article information based on the received identification code information. More specifically, the computer 3B determines whether or not the ID included in the identification code information exists in the data stored in the database 3A, and the ID included in the identification code information is included in the data stored in the database 3A. If it does not exist, the article image is stored in the database 3A in association with the ID. On the other hand, when the ID included in the identification code information is present in the data stored in the database 3A, the computer 3B does not store the article image in the database 3A. Further, as will be described later, the computer 3B extracts an article image corresponding to the article designated by the terminal 4 from the database 3A according to the article designated by the terminal 4 using an operation unit such as a mouse (not shown). The extracted article image is transmitted to the terminal 4 via the communication interface 3C and the network 2.

端末4は、スマートホン、パーソナルコンピュータ(PC)等として実現され、コンピュータ4Aと、第2の表示手段としてのディスプレイ4Bと、通信手段としての通信インタフェース4Cと、を有する。   The terminal 4 is realized as a smart phone, a personal computer (PC), or the like, and includes a computer 4A, a display 4B as second display means, and a communication interface 4C as communication means.

コンピュータ4Aは、ディスプレイ4Bに表示すべき物品画像に対応する物品を、図示しないマウス等の操作部を用いて指定し、指定した物品に対応する物品画像を抽出するための指令を、通信インタフェース4C、ネットワーク2及び通信インタフェース3Cを介してコンピュータ3Bに送信する。そして、コンピュータ4Aは、コンピュータ3Bがデータベース3Aから抽出した物品画像を、通信インタフェース3C、ネットワーク2及び通信インタフェース4Cを介して受信し、受信した物品画像を、ディスプレイ4Bに表示する。   The computer 4A designates an article corresponding to the article image to be displayed on the display 4B by using an operation unit such as a mouse (not shown), and issues a command for extracting the article image corresponding to the designated article to the communication interface 4C. The data is transmitted to the computer 3B through the network 2 and the communication interface 3C. Then, the computer 4A receives the article image extracted from the database 3A by the computer 3B via the communication interface 3C, the network 2, and the communication interface 4C, and displays the received article image on the display 4B.

本実施の形態では、コンピュータ1Bは、ディスプレイ1Cの画面内の物品画像をラスター走査する際に物品画像から抽出される識別コードの数を判断することによって、ディスプレイ1Cの画面内に存在する単数又は複数の識別コードを認識する。コンピュータ1Bがディスプレイ1Cの画面内に存在する単数の識別コードを認識する場合、コンピュータ1Bは、コンピュータ1Bが抽出した単数の識別コードに対応する物品情報を、ディスプレイ1Cの画面内の単数の識別コードに対応付けてディスプレイ1Cに表示する。それに対し、コンピュータ1Bがディスプレイ1Cの画面内に存在する複数の識別コードを認識する場合、ディスプレイ1Cは、コンピュータ1Bが抽出した複数の識別コードに対応する物品情報を、ディスプレイ1Cの画面内の複数の識別コードに対応付けてディスプレイ1Cに表示する。   In the present embodiment, the computer 1B determines the number of identification codes extracted from the article image when the article image in the screen of the display 1C is raster-scanned. Recognize multiple identification codes. When the computer 1B recognizes a single identification code existing in the screen of the display 1C, the computer 1B converts the article information corresponding to the single identification code extracted by the computer 1B into a single identification code in the screen of the display 1C. To display on the display 1C. On the other hand, when the computer 1B recognizes a plurality of identification codes existing on the screen of the display 1C, the display 1C displays a plurality of article information corresponding to the plurality of identification codes extracted by the computer 1B on the screen of the display 1C. Is displayed on the display 1C in association with the identification code.

本実施の形態では、コンピュータ1Bは、識別コードに含まれる物品情報を抽出し、抽出した物品情報を、カメラ1Aが撮影した物品画像に重畳して表示する。次いで、コンピュータ1Bは、カメラ1Aが識別コードが付された物品を撮影する前に、コンピュータ3Bが抽出した物品画像をディスプレイ1Cに表示する。このために、コンピュータ1Bは、ディスプレイ1Cに表示すべき物品画像に対応する物品を、図示しないテンキー等の操作部を用いて指定し、指定した物品に対応する物品画像を抽出するための指令を、通信インタフェース1D、ネットワーク2及び通信インタフェース3Cを介してコンピュータ3Bに送信する。そして、コンピュータ1Bは、コンピュータ3Bがデータベース3Aから抽出した物品画像を、通信インタフェース3C、ネットワーク2及び通信インタフェース1Dを介して受信し、カメラ1Aによって撮影する物品を迅速に見つけることができるようにするために、受信した物品画像を、ディスプレイ1Cに表示する。   In the present embodiment, the computer 1B extracts the article information included in the identification code, and displays the extracted article information superimposed on the article image taken by the camera 1A. Next, the computer 1B displays the article image extracted by the computer 3B on the display 1C before the camera 1A photographs the article with the identification code. For this purpose, the computer 1B designates an article corresponding to the article image to be displayed on the display 1C using an operation unit such as a numeric keypad (not shown), and issues a command for extracting the article image corresponding to the designated article. The data is transmitted to the computer 3B via the communication interface 1D, the network 2, and the communication interface 3C. Then, the computer 1B receives the article image extracted from the database 3A by the computer 3B via the communication interface 3C, the network 2, and the communication interface 1D so that the article to be photographed by the camera 1A can be quickly found. Therefore, the received article image is displayed on the display 1C.

図3は、図1に示す識別コード読取システムで用いられる識別コードの一例を示す図である。図3に示す識別コード11は、35×35セルの大きさを有し、9×9のブロックに分割され、隣接するブロック間に1セルの明の分離スペース23を有する二次元コードである。したがって、分離スペースは、8×8列の1セル幅のブロック間隔の格子状パターンになる。右下の3×3ブロック及び3×3分離スペースの部分には第1位置検出パターン12Aが、左上の2×2ブロック及び2×2分離スペースの部分には第2位置検出パターン12Dが、右上の3(横)×2(縦)ブロック及び3×2分離スペースの部分には第3位置検出パターン12Bが、左下の2(横)×3(縦)ブロック及び2×3分離スペースの部分には第4位置検出パターン12Cが、それぞれ設けられている。したがって、識別コード11の第1から第4位置検出パターン以外のブロックに、第1から第4位置検出パターン以上の大きさの連続したパターンが出現することはない。   FIG. 3 is a diagram showing an example of an identification code used in the identification code reading system shown in FIG. The identification code 11 shown in FIG. 3 is a two-dimensional code having a size of 35 × 35 cells, divided into 9 × 9 blocks, and having one cell of bright separation space 23 between adjacent blocks. Therefore, the separation space is a lattice-like pattern with 8 × 8 columns and a cell interval of 1 cell width. The first position detection pattern 12A is in the lower right 3 × 3 block and the 3 × 3 separation space, and the second position detection pattern 12D is in the upper right 2 × 2 block and the 2 × 2 separation space. The third position detection pattern 12B is located in the 3 (horizontal) × 2 (vertical) block and the 3 × 2 separation space portion, and the lower left 2 (horizontal) × 3 (vertical) block and the 2 × 3 separation space portion. Are provided with fourth position detection patterns 12C, respectively. Therefore, a continuous pattern having a size larger than that of the first to fourth position detection patterns does not appear in the blocks other than the first to fourth position detection patterns of the identification code 11.

識別コード11のコード部分の最小単位はセルである。識別コード11は、通常正方形又は長方形の形状をとる。他の形状も可能だが、二次元コードの多くは四角形であり、第1実施形態の二次元コードも正方形であるが、これに限定されるものではなく、長方形でも他の形状でもよい。   The minimum unit of the code portion of the identification code 11 is a cell. The identification code 11 usually takes a square or rectangular shape. Although other shapes are possible, most of the two-dimensional codes are quadrangular, and the two-dimensional code of the first embodiment is also square. However, the shape is not limited to this, and may be rectangular or other shapes.

一般に、二次元コードは明暗のセルでデータを表し、識別コード11もコード部は明暗のセルでデータを表す。さらに、識別コード11は、35×35セルの正方形であるが、これよりサイズの大きなコードや、長方形のような縦横の大きさを変えた形状にすることも可能である。35×35セルの正方形の二次元コードを、これをバージョン2×2と呼ぶ。ここで、最小のバージョンは1×1であり、この時のセルサイズは27×27となる。絵柄の埋込は、縦横のバージョンが共に2以上の場合に可能とする。バージョンが1×1の際に絵柄を埋め込まない理由は、データ量が少ないにも関わらず、絵柄を埋め込むと、さらにデータ量が少なくなり、認識してもほとんどデータが得られないことになるため、上記のような制限を加えた。識別コード11は、縦方向及び横方向にそれぞれ伸張できる。横バージョンが2、縦バージョンが3の場合、バージョン2×3と表記する。バージョンが1上がるごとに、セルサイズが8大きくなり、ブロック数が2大きくなる。よって、バージョン3×4では、セルサイズは43×51になる。バージョンは1から20まで選択可能であるが、これに限定されるものではない。   In general, the two-dimensional code represents data in light and dark cells, and the identification code 11 also represents data in light and dark cells. Furthermore, although the identification code 11 is a 35 × 35 cell square, it can be formed into a code having a larger size or a shape such as a rectangle whose vertical and horizontal sizes are changed. A square two-dimensional code of 35 × 35 cells is referred to as version 2 × 2. Here, the minimum version is 1 × 1, and the cell size at this time is 27 × 27. The embedding of the pattern is possible when both the vertical and horizontal versions are 2 or more. The reason for not embedding a picture when the version is 1 × 1 is that even though the amount of data is small, if the pattern is embedded, the amount of data is further reduced, and even if it is recognized, almost no data can be obtained. The above restrictions were added. The identification code 11 can be extended in the vertical direction and the horizontal direction, respectively. When the horizontal version is 2 and the vertical version is 3, it is written as version 2 × 3. As the version increases by 1, the cell size increases by 8 and the number of blocks increases by 2. Therefore, in version 3 × 4, the cell size is 43 × 51. The version can be selected from 1 to 20, but is not limited to this.

第1位置検出パターン12Aは、暗セルの部分が、8×8セルの1セル幅の正方形枠と、正方形枠の中心の2×2の正方形と、を有する。第2位置検出パターン12Dは、暗セルの部分が、4×4セルの1セル幅の正方形枠を有する。第3位置検出パターン12Bは、暗セルの部分が、8×4セルの1セル幅の長方形枠を有する、横長の長方形枠である。第4位置検出パターン12Cは、暗セルの部分が、4×8セルの1セル幅の長方形枠を有する、縦長の長方形枠である。   In the first position detection pattern 12A, the dark cell portion includes a square frame having a width of 1 cell of 8 × 8 cells and a 2 × 2 square at the center of the square frame. In the second position detection pattern 12D, the dark cell portion has a square frame of 1 × 4 cells of 4 × 4 cells. The third position detection pattern 12B is a horizontally long rectangular frame in which the dark cell portion has a rectangular cell with a width of 1 cell of 8 × 4 cells. The fourth position detection pattern 12C is a vertically long rectangular frame in which a dark cell portion has a rectangular cell with a width of 1 × 4 × 8 cells.

識別コード11では、正方形の二次元コードの4隅に4個の異なる位置検出パターンを配置する。なお、位置検出パターンが異なるというのは、形状、大きさ、二次元コード上での配置方向が異なる場合であり、線幅の比率が異なる場合も含まれる。ただし、撮影条件等の影響を受けるため、色の違いは対象とせず、明暗の二値画像を対象とする。   In the identification code 11, four different position detection patterns are arranged at the four corners of the square two-dimensional code. Note that the position detection patterns are different when the shape, the size, and the arrangement direction on the two-dimensional code are different, and also include the case where the line width ratios are different. However, since it is affected by shooting conditions and the like, the difference in color is not targeted, but a light and dark binary image is targeted.

識別コード11では、位置検出パターンは、正方形又は長方形の各頂点付近に配置する。これは、1箇所に配置する場合より、できるだけ離れて配置する方が汚れの影響を分散できるためである。ただし、位置検出パターンの配置位置は、4隅に限定されるものではない。識別コード11のように、位置検出パターンとして、正方形だけでなく、長方形のものを用いることで、形状・傾き・大きさの区別が容易にできるため、高速に認識できる。また中抜きした長方形は、他の写り込みと区別するのが容易であり、データの無駄が少ない。   In the identification code 11, the position detection pattern is arranged near each vertex of a square or a rectangle. This is because the influence of dirt can be dispersed by arranging them as far as possible rather than arranging them at one place. However, the position of the position detection pattern is not limited to the four corners. Like the identification code 11, not only a square but also a rectangular shape is used as a position detection pattern, so that the shape, the inclination, and the size can be easily distinguished, so that it can be recognized at high speed. In addition, the hollowed rectangle is easy to distinguish from other reflections, and there is little waste of data.

4個の位置検出パターンを配置する理由は、解析において高精度で座標のマッピングを計算するのに用いる二次元の射影変換では、コードのセルと、そのセルに対応する撮影画像の座標を計算するために、4組の座標の組をパラメータとして与えることが望ましいためである。位置検出パターン数が2個又は3個しかない場合でも、座標を補間することで、4点を算出した上で射影変換を行うことは可能であるが、ななめからの撮影や、歪み、ぼけなどで正確な座標が得にくく、データ抽出の精度に大きく影響するため、識別コード11では4個の位置検出パターンを配置している。   The reason for arranging the four position detection patterns is that in the two-dimensional projective transformation used to calculate the mapping of coordinates with high accuracy in the analysis, the cell of the code and the coordinates of the captured image corresponding to the cell are calculated. This is because it is desirable to give four sets of coordinates as parameters. Even if there are only two or three position detection patterns, it is possible to perform projective transformation after calculating four points by interpolating the coordinates, but shooting from the lick, distortion, blurring, etc. In the identification code 11, four position detection patterns are arranged because it is difficult to obtain accurate coordinates and greatly affects the accuracy of data extraction.

また、位置検出パターンが異なる理由は、認識できなかった位置検出パターンがあった場合でも、認識できなかった位置検出パターンが確実に特定でき、認識できなかった位置検出パターンの座標の予測が可能になり、位置検出パターンの訂正が可能になるためである。すべて同じ位置検出パターンを用いた場合、認識できなかった位置検出パターンの特定は、すべて異なる位置検出パターンを用いた場合ほど容易ではなく、位置検出パターンの訂正が困難になる。   Also, the reason why the position detection pattern is different is that even if there is a position detection pattern that could not be recognized, the position detection pattern that could not be recognized can be reliably identified, and the coordinates of the position detection pattern that could not be recognized can be predicted. This is because the position detection pattern can be corrected. When all the same position detection patterns are used, it is not easy to specify the position detection patterns that could not be recognized as much as when different position detection patterns are used, and correction of the position detection patterns becomes difficult.

識別コード11の4個の位置検出パターン以外の56ブロックは、データ部であり、実データブロック、誤り訂正符号ブロック、バージョン情報ブロック、フォーマット情報ブロック、及び絵柄埋込情報ブロックと、を含む。   56 blocks other than the four position detection patterns of the identification code 11 are data portions, and include an actual data block, an error correction code block, a version information block, a format information block, and a design embedding information block.

上記のように、データ部は3×3セルを1ブロックとし、ブロック単位でデータを埋め込む。データ部は、バージョン情報ブロック15及び16と、フォーマット情報ブロック17と、絵柄埋込情報ブロック18A、18B、19A及び19Bと、を有し、残りのブロックが実データブロック22である。識別コード11では、実データブロック22の一部を、誤り訂正符号と、位置補正パターンとして利用する。   As described above, the data portion includes 3 × 3 cells as one block and embeds data in units of blocks. The data section includes version information blocks 15 and 16, a format information block 17, and pattern embedding information blocks 18A, 18B, 19A and 19B, and the remaining blocks are actual data blocks 22. In the identification code 11, a part of the actual data block 22 is used as an error correction code and a position correction pattern.

したがって、位置検出パターン、バージョン情報ブロック、フォーマット情報ブロック、絵柄埋込情報ブロック、位置補正パターンを設けるブロック、さらに誤り訂正符号ブロックを除いた、残りのブロック22が、実データブロックである。もし、絵柄の埋め込みが行われる場合には、絵柄埋込情報ブロックが指示する絵柄埋め込みブロックも実データブロックから除く。実データは、実データブロックに属するブロックについて、左上から右に順にデータを敷き詰め、敷き詰め終わったら1ブロック下の左から敷き詰めるという具合に順に記録する。   Therefore, the remaining blocks 22 excluding the position detection pattern, version information block, format information block, picture embedding information block, block provided with the position correction pattern, and error correction code block are actual data blocks. If the pattern is embedded, the pattern embedded block indicated by the pattern embedded information block is also excluded from the actual data block. The actual data is recorded in order such that the blocks belonging to the actual data block are laid out in order from the upper left to the right, and laid from the left one block below when the laying is completed.

ブロックは、3×3セルを有し、各セルは明と暗の1ビットを表すので、1ブロックは最大9ビットの情報を持つ(9ビット表現)が、ここでは画像のぼけ・ぶれに対する耐性を高めるため、1ブロック当たりのデータ量を9ビットのデータ量より小さく設定できるようにしている。なお、識別コード11では、ブロックを3×3セルのサイズとしたが、ブロックサイズはこれに限定されるものではなく、最小である1×1セルのサイズや、縦と横のセルサイズが異なるなどのブロックサイズも可能である。   A block has 3 × 3 cells, and each cell represents one bit of light and dark, so one block has a maximum of 9-bit information (9-bit representation), but here is resistant to blurring and blurring of the image Therefore, the data amount per block can be set smaller than the 9-bit data amount. In the identification code 11, the block size is 3 × 3 cells, but the block size is not limited to this, and the minimum 1 × 1 cell size and the vertical and horizontal cell sizes are different. Block sizes such as are also possible.

バージョン情報ブロックは、識別コード11のサイズに関する情報を記録し、縦バージョン情報ブロック15と、横バージョン情報ブロック16の2種類存在し、それぞれ対応するバージョン情報が記録される。縦バージョン情報ブロック15及び横バージョン情報ブロック16は、それぞれ同じ情報を記憶した2個のブロックを離れた2箇所に配置することにより、汚れ等で欠損するリスクを分散させる。バージョン情報として、バージョン数(縦横各1から20)までの数値を表すブロックを配置する。   The version information block records information related to the size of the identification code 11, and there are two types of versions, the vertical version information block 15 and the horizontal version information block 16, and corresponding version information is recorded. The vertical version information block 15 and the horizontal version information block 16 disperse the risk of missing due to dirt or the like by disposing two blocks each storing the same information at two locations apart from each other. As version information, a block representing a numerical value of the version number (vertical and horizontal 1 to 20) is arranged.

フォーマット情報ブロック17は、絵柄埋込フラグ(1ビット)と、データブロック種別データ(2ビット)からなるフォーマット情報を記録し、同じ情報を記憶した3個のブロックを離れた3箇所に配置する。絵柄埋込フラグは、絵柄埋込の有無、すなわち絵柄埋込領域が設けられているか否かを示す。絵柄埋込が有の場合、絵柄埋込情報ブロックが設けられる。データブロック種別データは、データブロックの種別を示し、データブロックの種別とは、1ブロック当たりのデータ容量であり、6、7、9ビット/ブロックのいずれかを選択する。データ量は9ビット>7ビット>6ビット表現の順に少なくなるが、データの読み取りのしやすさは、6ビット>7ビット>9ビットの順であり、ぼけやぶれの発生具合と、データ量を勘案して、選択する。これについては後述する。   The format information block 17 records format information composed of a pattern embedding flag (1 bit) and data block type data (2 bits), and arranges three blocks storing the same information at three positions apart. The pattern embedding flag indicates whether or not a pattern is embedded, that is, whether or not a pattern embedding area is provided. When the pattern embedding is present, a pattern embedding information block is provided. The data block type data indicates the type of the data block. The data block type is the data capacity per block, and any of 6, 7, and 9 bits / block is selected. The amount of data decreases in the order of 9 bits> 7 bits> 6 bits, but the readability of the data is in the order of 6 bits> 7 bits> 9 bits. Take into account and choose. This will be described later.

埋め込まれる絵柄は、ブロック単位で埋め込まれ、隣接した複数のブロックが絵柄埋込領域である場合には、その間の分離スペースも絵柄埋込領域に含まれる。埋め込まれる絵柄の外形は四角形であり、絵柄の画像は、セル単位の2値画像に限定されず、どのようなものでもよい。また、絵柄を埋め込む四角形のブロックは、複数個あってもよい。例えば、絵柄は、セルより高分解能の多値画像でも、カラー画像でもよく、もちろんセル単位の2値画像でもよい。第1実施形態では、絵柄埋め込みの制限として、コード上側ブロック2行、左側ブロック2列、下側ブロック3行、右ブロック3列には絵柄を埋め込まないものとする。この範囲は二次元コードの仕様により、絵柄の埋め込み範囲外の部分に画像の情報を持つ絵柄埋込情報ブロックを配置する。   The design to be embedded is embedded in units of blocks, and when a plurality of adjacent blocks are design embedding regions, a separation space between them is also included in the design embedding region. The external shape of the pattern to be embedded is a rectangle, and the image of the pattern is not limited to a binary image in cell units, and any image may be used. Also, there may be a plurality of rectangular blocks in which the pattern is embedded. For example, the pattern may be a multi-value image having a higher resolution than the cell, a color image, or, of course, a binary image in units of cells. In the first embodiment, as a limitation of embedding the pattern, it is assumed that the pattern is not embedded in the upper code block 2 rows, the left block 2 columns, the lower block 3 rows, and the right block 3 columns. In this range, according to the specification of the two-dimensional code, a pattern embedding information block having image information is arranged in a portion outside the pattern embedding range.

絵柄埋込情報ブロックは、絵柄を埋め込む領域のサイズ及びブロック位置に関する情報を縦横それぞれで記録し、縦埋込情報ブロック18A及び18Bと、横埋込情報ブロック19A及び19Bの2種類存在し、それぞれ対応するバージョン情報が記録される。縦埋込情報ブロック18A及び18Bは、絵柄埋め込み高さ(3ビット又は6ビット)及び絵柄埋込オフセット高さ(3ビット又は6ビット)を記録する。横埋込情報ブロック19A及び19Bは、絵柄埋込幅(3ビット又は6ビット)及び絵柄埋込オフセット幅(3ビット又は6ビット)を指定する。なお、3ビット又は6ビットにするかは、後述するようにバージョン情報に関係し、バージョンが2〜4の場合には3ビット、バージョンが5〜20の場合には6ビット必要であり、バージョン2〜4の場合には、縦埋込情報ブロック18B及び横埋込情報ブロック19Bは不要である。   The pattern embedding information block records information on the size and block position of the area in which the pattern is embedded in the vertical and horizontal directions, and there are two types of vertical embedding information blocks 18A and 18B and horizontal embedding information blocks 19A and 19B. Corresponding version information is recorded. The vertical embedding information blocks 18A and 18B record the design embedding height (3 bits or 6 bits) and the design embedding offset height (3 bits or 6 bits). The horizontal embedding information blocks 19A and 19B designate a picture embedding width (3 bits or 6 bits) and a picture embedding offset width (3 bits or 6 bits). Whether to use 3 bits or 6 bits is related to version information as will be described later. If the version is 2 to 4, 3 bits are required, and if the version is 5 to 20, 6 bits are required. In the case of 2 to 4, the vertical embedding information block 18B and the horizontal embedding information block 19B are unnecessary.

絵柄埋込情報ブロックは、フォーマット情報ブロックで絵柄埋込フラグが立っていた場合のみ存在する。識別コード11は、埋込絵柄の個数が1つのみの場合を想定しており、複数の埋込絵柄を複数領域に埋め込むことを想定した場合には、フォーマット情報ブロックで絵柄埋込フラグのビット数を増加させて絵柄埋込領域数を示すようにすると共に、上記の絵柄埋込情報ブロックを絵柄枚数分設ける。絵柄のサイズと絵柄の埋込開始位置は、ブロック単位で指定する。ブロックの座標を左上隅のブロックを原点として(n,m)と表現し、横ブロック数をblW個、縦ブロック数をblH個とする。第1実施形態では、絵柄の埋め込み領域は、左上(2,2)、右下((blW−4,blH−4)からなる矩形の領域に限定される。絵柄の最大横ブロック数はblW−5個、最大縦ブロック数はblH−5個となる。   The pattern embedding information block exists only when the pattern embedding flag is set in the format information block. The identification code 11 assumes that the number of embedding patterns is only one, and if it is assumed that a plurality of embedding patterns are embedded in a plurality of areas, the bit of the pattern embedding flag in the format information block The number is increased to indicate the number of pattern embedding areas, and the above-mentioned pattern embedding information blocks are provided for the number of patterns. The design size and design embedding start position are specified in units of blocks. The block coordinates are expressed as (n, m) with the block at the upper left corner as the origin, the number of horizontal blocks is blW, and the number of vertical blocks is blH. In the first embodiment, the pattern embedding area is limited to a rectangular area consisting of upper left (2, 2) and lower right ((blW-4, blH-4). The maximum number of horizontal blocks of the pattern is blW-. Five and the maximum number of vertical blocks is blH-5.

絵柄の位置は、始点(左上)となるブロック座標と、ブロックサイズの情報を絵柄埋込情報ブロックとしてコード内に埋め込むことで、コード解析時にどの位置に絵柄が入っているかを認識できるようにする。バージョン情報ブロックと同様に、横と縦で別々に扱う。横はblW−5が8未満の時(横バージョン2〜4)と、それ以外の場合(横バージョン5〜20)でデータ量を分け、縦も同様にする。blWと、blHの値は、横と縦のバージョンを解析することで求められる。   The position of the picture is embedded in the code as block embedding information blocks with the block coordinates that are the starting point (upper left) and the block size so that the position of the picture can be recognized during code analysis. . Similar to the version information block, it is handled separately in the horizontal and vertical directions. In the horizontal direction, the amount of data is divided when blW-5 is less than 8 (horizontal version 2 to 4) and in other cases (horizontal version 5 to 20), and the vertical length is the same. The values of blW and blH can be obtained by analyzing the horizontal and vertical versions.

blWが13未満の時、横のブロックサイズは最小1、最大8ブロックであり、8通りは3ビットで表すことができ、同様に横のオフセットブロック数は2から8まで7通りあり、これも3ビットで表せるため、合計が6ビットとなる。そのため、ブロックを6ビット表現し、これらは1ブロックで表現可能である。縦も同様にする。blWが13以上の時、横のブロックサイズは6ビットで表し、同様に横のオフセットブロック数も6ビットで表す。よって、2ブロックを使って表現することになる。縦も同様にする。   When blW is less than 13, the horizontal block size is a minimum of 1 and a maximum of 8 blocks, 8 can be represented by 3 bits, and similarly there are 7 horizontal offset blocks, 2 to 8, Since it can be represented by 3 bits, the total is 6 bits. Therefore, a block is represented by 6 bits, and these can be represented by one block. The same applies to the vertical. When blW is 13 or more, the horizontal block size is represented by 6 bits, and similarly, the number of horizontal offset blocks is represented by 6 bits. Therefore, it is expressed using 2 blocks. The same applies to the vertical.

横埋込情報ブロック19A及び19Bは、左上及び右下の横バージョン情報ブロックの外側(上側及び下側)に、縦埋込情報ブロック18A及び18Bは、左下及び右下の縦バージョン情報ブロックの外側(左側及び右側)に配置する。   The horizontal embedding information blocks 19A and 19B are outside the upper left and lower right horizontal version information blocks (upper and lower sides), and the vertical embedding information blocks 18A and 18B are outside the lower left and lower right vertical version information blocks. (Left side and right side)

絵柄を埋め込まない場合、すなわちフォーマット情報ブロックの絵柄埋込フラグが「無し」を示す場合、絵柄埋込情報ブロック及び絵柄埋め込みの領域が不要になるため、コードが効率的になる。   When the pattern is not embedded, that is, when the pattern embedding flag of the format information block indicates “None”, the code embedding information block and the pattern embedding area become unnecessary, and the code becomes efficient.

位置補正パターンは、実データブロック、誤り訂正符号ブロック、絵柄が埋め込まれている場合には絵柄埋込情報ブロックの座標補正に用いる目的のパターンである。識別コード11における概ねの座標は位置検出パターンから取得できるが、紙のよれ、曲がり、レンズの歪み、位置検出パターン取得時のズレによりデータ部の座標に誤差がでるので、これを修正する目的で設ける。位置補正パターンは、位置検出パターンと異なり、他のノイズと区別する必要がなく、位置検出パターンが算出できれば位置補正パターンの位置は容易に判明する。したがって、位置補正パターンは細かな座標補正がしやすい形状が望ましい。   The position correction pattern is a target pattern used for the coordinate correction of the actual data block, the error correction code block, and the pattern embedding information block when the pattern is embedded. Although the approximate coordinates in the identification code 11 can be acquired from the position detection pattern, an error occurs in the coordinates of the data portion due to paper warping, bending, lens distortion, and displacement at the time of position detection pattern acquisition. Provide. Unlike the position detection pattern, the position correction pattern does not need to be distinguished from other noises. If the position detection pattern can be calculated, the position of the position correction pattern can be easily determined. Therefore, it is desirable that the position correction pattern has a shape that facilitates fine coordinate correction.

識別コード11では、位置補正パターンは、決められたセルの組合せからなるブロック(位置補正ブロック)を実データの代わりに等間隔に配置する。ブロックの中心1セルを暗、その周囲を明にしたブロックを、ブロック座標(7n,7m)(n,mは0以上の整数)がデータ部であれば配置する。ただし、その座標に、位置検出ブロック、バージョン情報ブロック、フォーマット情報ブロック、絵柄埋込情報ブロック及び絵柄が存在すべき時は、配置しない。ここでは、ブロック座標は、ブロックの左上の座標基準座標を(0,0)とし、右隣のブロックを(1,0)と表現している。なお、位置補正パターンを設けるブロックは、上記に限られない。   In the identification code 11, the position correction pattern arranges blocks (position correction blocks) composed of predetermined cell combinations at regular intervals instead of actual data. A block in which the center cell of the block is dark and the surrounding area is bright is arranged if the block coordinates (7n, 7m) (n and m are integers of 0 or more) are data portions. However, when the position detection block, the version information block, the format information block, the design embedding information block and the design should exist at the coordinates, they are not arranged. Here, with respect to the block coordinates, the upper left coordinate reference coordinate of the block is (0, 0), and the block on the right is expressed as (1, 0). The block for providing the position correction pattern is not limited to the above.

実データは、メッセージと、メッセージを修飾するヘッダー(メッセージ種類(メッセージのエンコード)・メッセージサイズ)を合わせたセグメントを、メッセージ数だけ並べる。また特殊なセグメントとして、メッセージを含まない、終端フラグだけが入ったセグメントを用意し、実データの容量が余った場合に終端フラグのセグメントを配置し、その後に埋め草を配置する。実データはデータブロック種別データが示す1ブロック当たりのデータ容量に従い、ブロック単位に分割する。同様に誤り訂正符号も、ブロック単位に分割する。コンピュータ1Bは、識別コードを認識すると共に、実データに含まれる情報も合わせて抽出する。   In the actual data, a message and a segment combining the header (message type (message encoding) and message size) that qualifies the message are arranged by the number of messages. As a special segment, a segment that does not include a message and contains only a termination flag is prepared. When the capacity of actual data is excessive, a segment of the termination flag is arranged, and then padding is arranged. The actual data is divided into blocks according to the data capacity per block indicated by the data block type data. Similarly, the error correction code is also divided into blocks. The computer 1B recognizes the identification code and also extracts information included in the actual data.

誤り訂正符号にリードソロモン符号を使った場合、誤り訂正はワード単位で行われるため、1ワードを1ブロックとすることが望ましい。1ワードが複数のブロックにまたがる場合、1つのブロックに汚れが発生した場合でも、そのブロックが関係する全てのワードが誤り訂正の対象となり、訂正の効率が悪くなる。訂正原因となる汚れや、スポットライトによる色とびは、1箇所に集中することが多いが、ブロックにすることにより同時に訂正対象となるデータを1箇所にまとめる効果があり、効率的な訂正を可能にし、コードを認識させる可能性を高める。   When a Reed-Solomon code is used as the error correction code, error correction is performed in units of words, so it is desirable to make one word into one block. When one word spans a plurality of blocks, even when one block is contaminated, all words related to the block are subjected to error correction, and the correction efficiency is deteriorated. Dirt that causes corrections and color jumps due to spotlights are often concentrated in one place, but by making a block, the data to be corrected can be gathered in one place at the same time, enabling efficient correction. And increase the possibility of recognizing the code.

図4及び図5は、図1の物品管理システムにおいて物品画像を物品情報と関連付けてデータベースに記憶させる動作のフローチャートである。ここでは、端末1が指定する物品を含む物品画像が予めデータベース3Aに予め保存されており、図2に示す保管箱A及び保管箱Cにそれぞれ貼り付けられた図3に示す識別コードを撮影する場合について説明する。また、データベース3Aに予め保存される物品画像としては、以前の撮影した物品画像と登録時に予め用意した物品画像のいずれを用いてもよい。   4 and 5 are flowcharts of operations for storing the article image in the database in association with the article information in the article management system of FIG. Here, an article image including an article designated by the terminal 1 is stored in advance in the database 3A, and the identification codes shown in FIG. 3 attached to the storage box A and the storage box C shown in FIG. The case will be described. Further, as the article image stored in advance in the database 3A, either a previously photographed article image or an article image prepared in advance at the time of registration may be used.

先ず、ディスプレイ1Cに表示すべき物品画像に対応する物品が、図示しないテンキー等の操作部を用いて指定されるので、コンピュータ1Bは、指定された物品に対応する物品画像を抽出するための指令をコンピュータ3Bに送信する(ステップS1)。   First, since an article corresponding to an article image to be displayed on the display 1C is designated by using an operation unit such as a numeric keypad (not shown), the computer 1B instructs to extract an article image corresponding to the designated article. Is transmitted to the computer 3B (step S1).

次に、コンピュータ3Bは、コンピュータ1Bが指定した物品に対応する物品画像を抽出するための指令を、コンピュータ1Bから受信する(ステップS2)。次に、コンピュータ3Bは、データベース3Aにアクセスして、コンピュータ1Bが指定した物品に対応する物品画像を抽出する(ステップS3)。   Next, the computer 3B receives from the computer 1B a command for extracting an article image corresponding to the article designated by the computer 1B (step S2). Next, the computer 3B accesses the database 3A and extracts an article image corresponding to the article designated by the computer 1B (step S3).

次に、コンピュータ3Bは、データベース3Aから抽出した物品画像をコンピュータ1Bに送信する(ステップS4)。次に、コンピュータ1Bは、コンピュータ3Bがデータベース3Aから抽出した物品画像を受信し(ステップS5)、カメラ1Aによって撮影する物品を迅速に見つけることができるようにするために、受信した物品画像を、ディスプレイ1Cの画面に表示する(ステップS6)。   Next, the computer 3B transmits the article image extracted from the database 3A to the computer 1B (step S4). Next, the computer 1B receives the article image extracted by the computer 3B from the database 3A (step S5), and in order to be able to quickly find the article to be photographed by the camera 1A, It is displayed on the screen of the display 1C (step S6).

次に、カメラ1Aが、物品を撮影し(ステップS7)、コンピュータ1Bは、カメラ1Aが撮影した物品を含む物品画像を、ディスプレイ1Cの画面に表示する(ステップS8)。図6は、撮影した物品画像の表示例を示す図である。図6において、画面30に表示される一つの物品画像30’に含まれる物品31,32は、保管箱A,Cにそれぞれ対応し、印刷された識別コード31A,32Aが物品31,32にそれぞれ貼り付けられている。   Next, the camera 1A photographs the article (step S7), and the computer 1B displays an article image including the article photographed by the camera 1A on the screen of the display 1C (step S8). FIG. 6 is a diagram illustrating a display example of a photographed article image. In FIG. 6, articles 31 and 32 included in one article image 30 ′ displayed on the screen 30 correspond to storage boxes A and C, respectively, and printed identification codes 31A and 32A are assigned to articles 31 and 32, respectively. It is pasted.

識別コード31A,32Aは、それぞれカメラ1Aにより撮影され、コンピュータ1Bにより読み取られる。図6に示す例において画面30(物品画像30’)の幅及び長さをそれぞれw,hとし、左上のコーナーの座標を原点O(すなわち、(0,0))とした場合、右上のコーナーAの座標、右下のコーナーBの座標及び左下のコーナーCの座標はそれぞれ、(w−1,0),(w−1,h−1)及び(0,h−1)で表される。   The identification codes 31A and 32A are photographed by the camera 1A and read by the computer 1B. In the example shown in FIG. 6, if the width and length of the screen 30 (article image 30 ′) are w and h, respectively, and the coordinates of the upper left corner are the origin O (ie (0, 0)), the upper right corner. The coordinates of A, the coordinates of the lower right corner B, and the coordinates of the lower left corner C are represented by (w-1, 0), (w-1, h-1) and (0, h-1), respectively. .

次に、コンピュータ1Bは、カメラ1Aが撮影した画像中の識別コード31A,32Aを認識し、物品名及び管理者についての情報である物品情報を識別コード31A,32Aからそれぞれ抽出し(ステップS9)、抽出した物品情報を物品画像30’に重畳して表示する(ステップS10)。   Next, the computer 1B recognizes the identification codes 31A and 32A in the image photographed by the camera 1A, and extracts the article information that is information about the article name and the manager from the identification codes 31A and 32A, respectively (step S9). The extracted article information is displayed superimposed on the article image 30 ′ (step S10).

図7は、物品情報が重畳された物品画像の表示例を示す図である。図7の物品画像30’において、物品名が保管箱Aであり、管理者が管理人1であることを示す物品情報31Bが識別コード31Aを含む物品31の画像上に、物品名が保管箱Cであり、管理者が管理人2であることを示す物品情報32Bが識別コード32Aを含む物品32の画像上に、それぞれ重畳して表示される。   FIG. 7 is a diagram illustrating a display example of an article image on which article information is superimposed. In the article image 30 ′ of FIG. 7, the article name is the storage box A, and the article information 31B indicating that the manager is the manager 1 is on the image of the article 31 including the identification code 31A. The article information 32B indicating that the manager is the manager 2 is displayed on the image of the article 32 including the identification code 32A.

次に、コンピュータ1Bは、物品画像及び物品情報をコンピュータ3Bに送信し(ステップS11)、コンピュータ3Bは、物品画像及び物品情報をコンピュータ1Bから受信する(ステップS12)。次に、コンピュータ3Bは、物品画像を物品情報に関連付けてデータベース3Aに保存し、処理フローを終了する。   Next, the computer 1B transmits the article image and article information to the computer 3B (step S11), and the computer 3B receives the article image and article information from the computer 1B (step S12). Next, the computer 3B stores the article image in the database 3A in association with the article information, and ends the processing flow.

したがって、保管箱Aに対応する物品31を含む物品画像30’は、物品情報31B(IDが0001であり、物品名が保管箱Aであり、管理者が管理人1であることを示す情報)に関連してデータベース3Aに保存され、保管箱Cに対応する物品32を含む物品画像30’は、物品情報32B(IDが0003であり、物品名が保管箱Cであり、管理者が管理人2であることを示す情報)に関連してデータベース3Aに保存される。   Therefore, the article image 30 ′ including the article 31 corresponding to the storage box A has article information 31B (information indicating that the ID is 0001, the article name is the storage box A, and the manager is the manager 1). The article image 30 ′ including the article 32 corresponding to the storage box C and stored in the database 3A is related to the article information 32B (ID is 0003, the article name is the storage box C, and the manager is the manager. 2) is stored in the database 3A.

本実施の形態では、コンピュータ1Bは、物品情報を識別コード31A,32Aからそれぞれ抽出するのと同時に、認識した識別コード31A,32Aをそれぞれ識別コード情報に変換する。また、本実施の形態では、コンピュータ1Bは、物品情報31B,32Bの画面30(物品画像30’)内での表示位置を決定するために、変換した識別コード情報に基づいて、識別コード31A,32Aの中心座標CA(cxa,cya),CB(cxb,cyb)をそれぞれ計算する。図8は、識別コードの中心座標の算出を説明するための図である。図8に示す識別コードXは、図2に示す識別コードと同一の形式を有し、識別コード31A,32Aにそれぞれ対応する。   In the present embodiment, the computer 1B extracts the article information from the identification codes 31A and 32A, and simultaneously converts the recognized identification codes 31A and 32A into identification code information. In the present embodiment, the computer 1B uses the identification code 31A, based on the converted identification code information to determine the display position of the article information 31B, 32B in the screen 30 (article image 30 ′). The center coordinates CA (cxa, cya) and CB (cxb, cyb) of 32A are calculated. FIG. 8 is a diagram for explaining the calculation of the center coordinates of the identification code. The identification code X shown in FIG. 8 has the same format as the identification code shown in FIG. 2, and corresponds to the identification codes 31A and 32A, respectively.

コンピュータ1Bは、物品画像30’を解析することによって、識別コードXの位置検出パターンX0のコーナーP0の座標(px0,py0)、位置検出パターンXのコーナーP1の座標(px1,py1)、位置検出パターンX2のコーナーP2の座標(px2,py2)及び位置検出パターンX3のコーナーP3の座標(px3,py3)を取得することができる。   The computer 1B analyzes the article image 30 ′, thereby detecting the coordinates (px0, py0) of the corner P0 of the position detection pattern X0 of the identification code X, the coordinates (px1, py1) of the corner P1 of the position detection pattern X, and the position detection. The coordinates (px2, py2) of the corner P2 of the pattern X2 and the coordinates (px3, py3) of the corner P3 of the position detection pattern X3 can be acquired.

位置検出パターンXの中心座標C(cx,cy)を、コーナーP0,P1,P2,P3の座標、識別コードXの対角線上にあるコーナーP0,P2の座標、又は識別コードXの対角線上にあるコーナーP1,P3の座標から求めることができる。中心座標C(cx,cy)をコーナーP0,P1,P2,P3の座標から求める場合、中心座標Cのx座標cxは、(px0+px1+px2+px3)/4となり、中心座標Cのy座標cyは、(py0+py1+py2+py3)/4となる。また、中心座標C(cx,cy)を識別コードXの対角線上にあるコーナーP0,P2の座標から求める場合、中心座標Cのx座標cxは、(px0+px2)/2となり、中心座標Cのy座標cyは、(py0+py2)/2となる。   The center coordinates C (cx, cy) of the position detection pattern X are on the coordinates of the corners P0, P1, P2, P3, the coordinates of the corners P0, P2 on the diagonal line of the identification code X, or the diagonal line of the identification code X. It can be obtained from the coordinates of the corners P1 and P3. When the central coordinate C (cx, cy) is obtained from the coordinates of the corners P0, P1, P2, and P3, the x coordinate cx of the central coordinate C is (px0 + px1 + px2 + px3) / 4, and the y coordinate cy of the central coordinate C is (py0 + py1 + py2 + py3). ) / 4. When the center coordinate C (cx, cy) is obtained from the coordinates of the corners P0 and P2 on the diagonal line of the identification code X, the x coordinate cx of the center coordinate C is (px0 + px2) / 2, and y of the center coordinate C The coordinate cy is (py0 + py2) / 2.

コンピュータ1Bは、識別コード31A,32Aの中心座標CA(cxa,cya),CB(cxb,cyb)をそれぞれ、識別コード情報と同一のフォーマットの位置座標情報に変換し、識別コード情報及び位置座標情報を、物品画像、物品情報及び識別コードを認識した時刻(日時)についての時刻情報とともにコンピュータ3Bに送信する。   The computer 1B converts the center coordinates CA (cxa, cya) and CB (cxb, cyb) of the identification codes 31A and 32A into position coordinate information in the same format as the identification code information, and the identification code information and the position coordinate information Are transmitted to the computer 3B together with time information about the time (date and time) when the product image, product information and identification code are recognized.

図9は、図1の物品管理システムにおいて撮影した物品画像を抽出してディスプレイの画面に表示させる動作のフローチャートである。この処理フローは、図4及び図5に示す処理フローで撮影された物品画像中の物品の状態を確認するために図4及び図5に示す処理フローの終了直後又は図4及び図5に示す処理フローを終了してから所定の期間(例えば、1日)経過した後に実行される。ここでは、図2に示す保管箱A又は保管箱Cに対応する物品を含む物品画像30’をデータベース3Aから抽出する場合について説明する。   FIG. 9 is a flowchart of an operation for extracting an article image photographed in the article management system of FIG. 1 and displaying it on the display screen. This processing flow is shown immediately after the end of the processing flow shown in FIGS. 4 and 5 or in FIGS. 4 and 5 in order to confirm the state of the article in the article image photographed in the processing flow shown in FIGS. It is executed after a predetermined period (for example, one day) has elapsed since the end of the processing flow. Here, a case where an article image 30 ′ including articles corresponding to the storage box A or the storage box C shown in FIG. 2 is extracted from the database 3 </ b> A will be described.

先ず、ディスプレイ4Bに表示すべき物品画像に対応する物品が、図示しないマウス等の操作部を用いて指定されるので、コンピュータ4Aは、指定された物品に対応する物品画像を抽出するための指令をコンピュータ3Bに送信する(ステップS21)。   First, since an article corresponding to an article image to be displayed on the display 4B is designated using an operation unit such as a mouse (not shown), the computer 4A instructs to extract an article image corresponding to the designated article. Is transmitted to the computer 3B (step S21).

次に、コンピュータ4Bは、コンピュータ4Aが指定した物品に対応する物品画像を抽出するための指令を、コンピュータ4Bから受信する(ステップS22)。次に、コンピュータ3Bは、データベース3Aにアクセスして、コンピュータ4Aが指定した物品に対応する物品画像を抽出する(ステップS23)。   Next, the computer 4B receives from the computer 4B a command for extracting an article image corresponding to the article designated by the computer 4A (step S22). Next, the computer 3B accesses the database 3A and extracts an article image corresponding to the article designated by the computer 4A (step S23).

次に、コンピュータ3Bは、データベース3Aから抽出した物品画像をコンピュータ4Aに送信する(ステップS24)。次に、コンピュータ4Aは、コンピュータ3Bがデータベース3Aから抽出した物品画像を受信し(ステップS25)、受信した物品画像を、ディスプレイ4Bの画面に表示し(ステップS26)、処理フローを終了する。   Next, the computer 3B transmits the article image extracted from the database 3A to the computer 4A (step S24). Next, the computer 4A receives the article image extracted from the database 3A by the computer 3B (step S25), displays the received article image on the screen of the display 4B (step S26), and ends the processing flow.

図10は、物品確認の際の物品画像の表示例を示す図である。図10に示すように、物品名が保管箱Aであり、管理者が管理人1であり、確認日時が2013年4月1日であることを示す物品情報31B’と、物品名が保管箱Cであり、管理者が管理人2であり、確認日時が2013年4月1日であることを示す物品情報32B’とが、物品画像30’に重畳して表示される。   FIG. 10 is a diagram illustrating a display example of an article image at the time of article confirmation. As shown in FIG. 10, the article name is the storage box A, the manager is the manager 1, the article information 31B ′ indicating that the confirmation date is April 1, 2013, and the article name is the storage box. The article information 32B ′ indicating that the manager is the manager 2 and the confirmation date is April 1, 2013 is superimposed on the article image 30 ′.

図11は、物品確認後にデータベースに格納されるデータの一例を示す図である。図11に示すように、保管箱A及び保管箱Cにそれぞれ対応する物品画像の欄には、物品画像30’がそれぞれ保存され、保管箱Aに対応する物品31及び保管箱Cに対応する物品32がいずれも正常な状態であることを示すために、保管箱A及び保管箱Cにそれぞれ対応する物品確認の欄に「実施済み」と記入され、確認日時の欄に実際に確認した日時(2013年4月1日)が記入される。一方、物品画像30’に含まれる物品の状態が異常である(例えば、保管箱Aが保管箱Cではなく保管箱Bに隣接している)場合、物品確認の欄を「未実施」のままにするとともに確認日時の欄をブランクにすることによって、物品画像30’に含まれる物品の状態が異常であることを示し、物品が異常状態であるために問題を解決する旨を端末4側(管理者側)から端末1側(例えば、棚卸業者側)に連絡することができる。   FIG. 11 is a diagram illustrating an example of data stored in the database after article confirmation. As shown in FIG. 11, article images 30 ′ are stored in the column of article images corresponding to the storage box A and the storage box C, respectively, and the article 31 corresponding to the storage box A and the article corresponding to the storage box C are stored. In order to show that 32 is in a normal state, “performed” is entered in the article confirmation column corresponding to each of the storage box A and the storage box C, and the date and time of actual confirmation ( April 1, 2013) is entered. On the other hand, when the state of the article included in the article image 30 ′ is abnormal (for example, the storage box A is adjacent to the storage box B instead of the storage box C), the article confirmation column remains “not implemented”. And confirming that the state of the article included in the article image 30 ′ is abnormal, and that the problem is solved because the article is in an abnormal state. It is possible to contact the terminal 1 side (for example, the inventory trader side) from the manager side.

本実施の形態によれば、撮影した物品31,32を含む物品画像30’を、識別コード31A,32Aが付された物品31,32に関する物品情報31B,32Bと関連付けてデータベース3Aに記憶させ、物品画像30’をデータベース3Aから抽出し、抽出した物品画像30’をディスプレイ4Bの画面表示することによって、物品31,32に付された識別コード31A,32Aを認識する際に物品31,32の状態を正確に判断することができる。したがって、端末1側で物品31,32の正常な状態を知らない場合でも、端末4側で物品31,32が正常な状態であるか否か(物品31,32の収納場所が正確であるか否か、物品31,32が破損していないか否か等)を判断することができる。   According to the present embodiment, the article image 30 ′ including the photographed articles 31 and 32 is stored in the database 3A in association with the article information 31B and 32B related to the articles 31 and 32 with the identification codes 31A and 32A. By extracting the article image 30 ′ from the database 3A and displaying the extracted article image 30 ′ on the screen of the display 4B, the identification codes 31A and 32A attached to the articles 31 and 32 are recognized. The state can be determined accurately. Therefore, even if the terminal 1 side does not know the normal state of the articles 31, 32, whether or not the articles 31, 32 are in a normal state on the terminal 4 side (whether the storage location of the articles 31, 32 is accurate). Or whether or not the articles 31 and 32 are damaged, etc.).

また、本実施の形態によれば、カメラ1Aが識別コード31A,32Aが付された物品31,32を撮影する前に、コンピュータ3Bがデータベース3Aから抽出した物品画像をディスプレイ1Cの画面に表示するので、端末1側で物品31,32の形状を知らない場合でも物品31,32を迅速に見つけることができる。したがって、物品31,32の状態を確認したうえで物品31,32の検索、個数の確認作業を実施できるので、物品31,32を探す時間を短縮することができる。   Further, according to the present embodiment, before the camera 1A photographs the articles 31, 32 with the identification codes 31A, 32A, the article image extracted from the database 3A by the computer 3B is displayed on the screen of the display 1C. Therefore, even when the terminal 1 does not know the shape of the articles 31 and 32, the articles 31 and 32 can be quickly found. Therefore, since the search of the articles 31 and 32 and the confirmation operation of the number of articles 31 and 32 can be performed after confirming the state of the articles 31 and 32, the time for searching for the articles 31 and 32 can be shortened.

また、カメラ1Aが識別コードが付された物品を撮影する度に取得した複数の物品画像を物品情報と関連付けてデータベース3Aに記憶させた場合には、データベース3Aに保存された複数の物品画像を互いに比較することによって、物品31,32の状態変化を確認することができる。   When a plurality of article images acquired each time the camera 1A photographs an article with an identification code is stored in the database 3A in association with the article information, the plurality of article images stored in the database 3A are stored. By comparing each other, the state change of the articles 31 and 32 can be confirmed.

また、識別コード31A,32Aとして二次元コードを利用することによって、物品画像30’内の位置座標(例えば、中心座標)を取得することができるので、物品情報31B,32Bを識別コード31A,32Aに重ねて表示させることで物品画像30’内の物品31,32の位置を示すことができる。   Further, by using the two-dimensional code as the identification codes 31A and 32A, the position coordinates (for example, center coordinates) in the article image 30 ′ can be acquired, so that the article information 31B and 32B are used as the identification codes 31A and 32A. The positions of the articles 31 and 32 in the article image 30 ′ can be shown by displaying them superimposed on each other.

また、二次元コードのデータ量が一次元コードのデータ量より多いので、コード解析のみで多くの情報を物品画像に重畳して表示することができる。さらに、コンピュータ1Bが1回の撮影で複数の識別コードを同時に認識することができるので、物品画像30’内に複数の物品情報を表示することによって物品同士の配置状態を示すことができる。   Further, since the data amount of the two-dimensional code is larger than the data amount of the one-dimensional code, a large amount of information can be superimposed and displayed on the article image only by code analysis. Furthermore, since the computer 1B can simultaneously recognize a plurality of identification codes in one image, the arrangement state of the articles can be indicated by displaying a plurality of article information in the article image 30 '.

本発明は、上記実施の形態に限定されるものではなく、幾多の変更及び変形が可能である。例えば、データベースをサーバの代わりに端末に設けることもできる。また、図4及び図5の処理フローにおいて、ステップS1〜S6を省略することもできる。また、物品確認の際の物品画像として、図6又は図7に示す物品画像をディスプレイの画面上に表示してもよい。   The present invention is not limited to the above-described embodiment, and many changes and modifications can be made. For example, the database can be provided in the terminal instead of the server. Also, steps S1 to S6 can be omitted in the processing flows of FIGS. Moreover, you may display the article image shown in FIG. 6 or FIG. 7 on the screen of a display as an article image in the case of article confirmation.

識別コードを解析して得られた位置座標として、識別コードの中心座標の代わりに、識別コードに含まれる位置検出パターンの任意の位置(例えば、位置検出パターンのコーナー)の座標、識別コードの上端から所定の距離(例えば、10画素)離れた位置の座標等を用いることができる。識別コードを解析して得られた位置座標の数は単数でも複数でもよい。   As the position coordinates obtained by analyzing the identification code, instead of the center coordinates of the identification code, the coordinates of an arbitrary position (for example, the corner of the position detection pattern) of the position detection pattern included in the identification code, the upper end of the identification code The coordinates of a position that is a predetermined distance (for example, 10 pixels) away from can be used. The number of position coordinates obtained by analyzing the identification code may be singular or plural.

1,4 端末
1A カメラ(撮影部)
1a レンズ
1B コンピュータ(識別コード認識部及び物品情報抽出部)
1b イメージセンサ
1C,4B ディスプレイ
1c アナログ・デジタル変換器(AD)
1D,3C,4C 通信インタフェース
2 ネットワーク(通信経路)
3 サーバ
3A データベース
3B コンピュータ(物品画像抽出部)
4A コンピュータ
11,31A,32A 識別コード
12A 第1位置検出パターン
12B 第3位置検出パターン
12C 第4位置検出パターン
12D 第2位置検出パターン
15 バージョン情報ブロック(縦)
16 バージョン情報ブロック(横)
17 フォーマット情報ブロック
18A,18B 絵柄埋込情報ブロック(縦)
19A,19B 絵柄埋込情報ブロック(横)
30 画面
30’ 物品画像
31,32 物品
31B,32B,31B’,32B’ 物品情報
1,4 terminals 1A Camera (shooting unit)
1a lens 1B computer (identification code recognition unit and article information extraction unit)
1b Image sensor 1C, 4B Display 1c Analog to digital converter (AD)
1D, 3C, 4C Communication interface 2 Network (communication route)
3 server 3A database 3B computer (article image extraction unit)
4A Computer 11, 31A, 32A Identification code 12A First position detection pattern 12B Third position detection pattern 12C Fourth position detection pattern 12D Second position detection pattern 15 Version information block (vertical)
16 Version information block (horizontal)
17 Format information block 18A, 18B Pattern embedding information block (vertical)
19A, 19B Pattern embedding information block (horizontal)
30 screen 30 ′ article image 31, 32 article 31B, 32B, 31B ′, 32B ′ article information

Claims (4)

画像として読取可能な識別コードが付された物品を撮影する撮影手段と、
撮影した物品を含む物品画像中の識別コードを認識する識別コード認識手段と、
前記識別コードが付された物品に関する物品情報を、前記識別コードから抽出する物品情報抽出手段と、
前記物品情報を前記物品画像に重畳して表示する第1の表示手段と、
前記物品画像を前記物品情報と関連付けて記憶するデータベースと、
前記物品画像を前記データベースから抽出する物品画像抽出手段と、
前記物品画像抽出手段が抽出した前記物品画像を表示する第2の表示手段と、
を備え、
前記物品情報は、ID情報を有し、
前記データベースは、前記物品情報が有する前記ID情報と、以前に物品が撮影された物品画像とを関連づけて記憶しており、
前記物品画像抽出手段は、前記識別コードから抽出された前記物品情報が有する前記ID情報と一致する、前記データベースに記憶されている前記ID情報と関連付けて、前記撮影手段により撮影された前記物品画像を前記データベースに新たに記憶させ、
前記識別コードは、
二進コードで表されるデータをセル化して、二次元のマトリックス状にパターンとして配置した二次元コードであって、
位置検出パターンと、
前記二次元のマトリックスの前記位置検出パターン以外の領域を分割した複数のデータブロックと、
隣接する前記複数のデータブロック間に設けられた分離スペースと、を備え、
前記複数のデータブロックは、誤り訂正の単位に応じて分割されている二次元コードであることを特徴とする物品管理システム。
Photographing means for photographing an article with an identification code readable as an image;
Identification code recognition means for recognizing an identification code in an article image including a photographed article;
Article information extracting means for extracting article information relating to the article to which the identification code is attached from the identification code;
First display means for displaying the article information superimposed on the article image;
A database for storing the article image in association with the article information;
Article image extraction means for extracting the article image from the database;
Second display means for displaying the article image extracted by the article image extraction means;
With
The article information includes ID information,
The database stores the ID information included in the article information in association with an article image in which the article was previously photographed,
The article image extracting means is the article image photographed by the photographing means in association with the ID information stored in the database that matches the ID information included in the article information extracted from the identification code. Is newly stored in the database ,
The identification code is
A two-dimensional code in which data represented by a binary code is converted into a cell and arranged as a pattern in a two-dimensional matrix,
A position detection pattern;
A plurality of data blocks obtained by dividing an area other than the position detection pattern of the two-dimensional matrix;
A separation space provided between the plurality of adjacent data blocks, and
The article management system, wherein the plurality of data blocks are two-dimensional codes divided according to error correction units .
前記物品画像抽出手段は、前記識別コードから抽出された前記物品情報が有する前記ID情報と関連付けて、物品の確認結果と、物品の確認が実施された日時とを、前記データベースに記憶させる、ことを特徴とする請求項1に記載の物品管理システム。   The article image extracting means stores in the database the confirmation result of the article and the date and time when the article was confirmed in association with the ID information included in the article information extracted from the identification code. The article management system according to claim 1. 前記物品情報は、管理者情報を有することを特徴とする請求項1又は2に記載の物品管理システム。   The article management system according to claim 1, wherein the article information includes manager information. 画像として読取可能な識別コードが付された物品をカメラで撮影する撮影ステップと、
撮影した物品を含む物品画像中の識別コードをコンピュータによって認識する識別コード認識ステップと、
コンピュータが、前記識別コードが付された物品に関する物品情報を、前記識別コードから抽出する物品情報抽出ステップと、
前記物品情報を前記物品画像に重畳して第1のディスプレイに表示する第1の表示ステップと、
コンピュータが、前記物品画像を前記物品情報と関連付けてデータベースに記憶させる記憶ステップと、
コンピュータが、前記物品画像を前記データベースから抽出する物品画像抽出ステップと、
前記物品画像抽出ステップで抽出した前記物品画像を第2のディスプレイに表示する第2の表示ステップと、
を備え、
前記物品情報は、ID情報を有し、
前記データベースは、予め、前記物品情報が有する前記ID情報と、以前に物品が撮影された物品画像とを関連づけて記憶しており、
前記記憶ステップは、前記識別コードから抽出された前記物品情報が有する前記ID情報と一致する、前記データベースに記憶されている前記ID情報と関連付けて、前記撮影ステップにより撮影された前記物品画像を前記データベース新たに記憶させ、
前記識別コードは、
二進コードで表されるデータをセル化して、二次元のマトリックス状にパターンとして配置した二次元コードであって、
位置検出パターンと、
前記二次元のマトリックスの前記位置検出パターン以外の領域を分割した複数のデータブロックと、
隣接する前記複数のデータブロック間に設けられた分離スペースと、を備え、
前記複数のデータブロックは、誤り訂正の単位に応じて分割されている二次元コードであることを特徴とする物品管理方法。
A photographing step of photographing an article with an identification code readable as an image with a camera;
An identification code recognition step for recognizing an identification code in an article image including the photographed article by a computer;
An article information extracting step in which the computer extracts article information relating to the article to which the identification code is attached from the identification code;
A first display step of superimposing the article information on the article image and displaying it on a first display;
A storage step in which the computer stores the article image in a database in association with the article information;
An article image extraction step in which the computer extracts the article image from the database;
A second display step of displaying the article image extracted in the article image extraction step on a second display;
With
The article information includes ID information,
The database previously stores the ID information included in the article information in association with an article image in which the article has been previously photographed,
In the storage step, the article image photographed in the photographing step is associated with the ID information stored in the database that matches the ID information included in the article information extracted from the identification code. Memorize a new database ,
The identification code is
A two-dimensional code in which data represented by a binary code is converted into a cell and arranged as a pattern in a two-dimensional matrix,
A position detection pattern;
A plurality of data blocks obtained by dividing an area other than the position detection pattern of the two-dimensional matrix;
A separation space provided between the plurality of adjacent data blocks, and
The article management method, wherein the plurality of data blocks are two-dimensional codes divided according to error correction units .
JP2013202392A 2013-09-27 2013-09-27 Article management system and method Expired - Fee Related JP6230355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013202392A JP6230355B2 (en) 2013-09-27 2013-09-27 Article management system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013202392A JP6230355B2 (en) 2013-09-27 2013-09-27 Article management system and method

Publications (2)

Publication Number Publication Date
JP2015069358A JP2015069358A (en) 2015-04-13
JP6230355B2 true JP6230355B2 (en) 2017-11-15

Family

ID=52835972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013202392A Expired - Fee Related JP6230355B2 (en) 2013-09-27 2013-09-27 Article management system and method

Country Status (1)

Country Link
JP (1) JP6230355B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133573A (en) * 2017-04-12 2017-09-05 宇龙计算机通信科技(深圳)有限公司 A kind of method and apparatus for finding article

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6301288B2 (en) * 2015-07-13 2018-03-28 東日本メディコム株式会社 Drug support system, drug support method and program
JP6386977B2 (en) * 2015-07-13 2018-09-05 東日本メディコム株式会社 Drug information providing system, drug information providing method and program
JP6590610B2 (en) * 2015-09-15 2019-10-16 共同印刷株式会社 Method, apparatus and program
JP6679891B2 (en) * 2015-11-12 2020-04-15 日本電気株式会社 Inspection processing device, inspection system, inspection processing method and program
JP6577968B2 (en) * 2017-03-13 2019-09-18 株式会社Ihiインフラシステム Evidence data storage system and program
JP6606209B2 (en) * 2018-02-27 2019-11-13 東日本メディコム株式会社 Drug support system, drug support method and program
KR102123112B1 (en) * 2019-10-15 2020-06-15 조대원 System and method for managing hospital asset
JP6831891B2 (en) * 2019-10-16 2021-02-17 東日本メディコム株式会社 Drug administration support system, drug administration support method and program
KR102216885B1 (en) * 2020-01-31 2021-02-17 임시원 Method and apparatus for managing hospital assets of mental health medicine
KR102177852B1 (en) * 2020-01-31 2020-11-11 임시원 Method and apparatus for managing hospital assets of mental health medicine

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004345826A (en) * 2003-05-23 2004-12-09 Nichirei Corp Recording sensor and reading device
JP2007279155A (en) * 2006-04-03 2007-10-25 Mitsubishi Electric Corp Information terminal and image display method
JP5136302B2 (en) * 2008-03-27 2013-02-06 株式会社デンソーウェーブ Two-dimensional code, two-dimensional code generation method, computer-readable program for displaying two-dimensional code, authentication method using two-dimensional code, and information providing method using two-dimensional code
JP5310040B2 (en) * 2009-02-02 2013-10-09 カシオ計算機株式会社 Imaging processing apparatus and program
JP5613592B2 (en) * 2011-03-01 2014-10-29 シャープ株式会社 Bar code reader

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107133573A (en) * 2017-04-12 2017-09-05 宇龙计算机通信科技(深圳)有限公司 A kind of method and apparatus for finding article

Also Published As

Publication number Publication date
JP2015069358A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
JP6230355B2 (en) Article management system and method
TWI570629B (en) Dimensional code, two-dimensional code of the analytical system and the two-dimensional code of the system
US9785876B2 (en) Data transmission using optical codes
CN109784323B (en) Image recognition method and device, electronic equipment and computer storage medium
JP6091708B2 (en) 2D code, 2D code analysis system
JP2012103789A (en) Object display device and object display method
JP2015045952A (en) Position information display system and method
JP2011150460A (en) System and method for managing warehousing/shipping
AU2014331291A1 (en) Data transmission using optical codes
JP2014032039A (en) Inspection support system and method
KR102375325B1 (en) Method for detection and recognition of distant high-density visual markers
JP7259754B2 (en) Information processing device, information processing method, and program
CN111275152A (en) Two-dimensional code, encoding method and decoding method of two-dimensional code, decoding device of two-dimensional code and electronic system
JP6471835B2 (en) Information processing apparatus, control method, and program
WO2016166914A1 (en) Two-dimensional code, two-dimensional code record carrier, method for reading two-dimensional code, program for reading two-dimensional code, and device for reading two-dimensional code
JP6245914B2 (en) Identification code reading system and method
JP2017097622A (en) Information processing apparatus, information processing method, and program
JP6165579B2 (en) Identification code reading system and method
JP6253330B2 (en) Identification code reading system and method
CN101180657A (en) Information terminal
JP4675055B2 (en) Marker processing method, marker processing apparatus, program, and recording medium
JP4444684B2 (en) Processing method of captured image of object, image display system, program, and recording medium
TW200937299A (en) Optical identification code and marking method of the same and recognition method of the same and goods marked with the same, recognition method of colour and computer program executing the ridognition method of colour, auto identification code using col
JP2013131058A (en) Two-dimensional code, recording device, position specification device, and device and program for identification
JP5637824B2 (en) Image processing apparatus and method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170822

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171017

R150 Certificate of patent or registration of utility model

Ref document number: 6230355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees