WO2015064107A1 - 管理システム、リスト作成装置、データ構造および印刷ラベル - Google Patents

管理システム、リスト作成装置、データ構造および印刷ラベル Download PDF

Info

Publication number
WO2015064107A1
WO2015064107A1 PCT/JP2014/005497 JP2014005497W WO2015064107A1 WO 2015064107 A1 WO2015064107 A1 WO 2015064107A1 JP 2014005497 W JP2014005497 W JP 2014005497W WO 2015064107 A1 WO2015064107 A1 WO 2015064107A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
identification
unit
list
management
Prior art date
Application number
PCT/JP2014/005497
Other languages
English (en)
French (fr)
Inventor
達勇 秋山
康義 松本
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US15/032,216 priority Critical patent/US9836665B2/en
Priority to JP2015544813A priority patent/JP6569532B2/ja
Publication of WO2015064107A1 publication Critical patent/WO2015064107A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/077Constructional details, e.g. mounting of circuits in the carrier
    • G06K19/07749Constructional details, e.g. mounting of circuits in the carrier the record carrier being capable of non-contact communication, e.g. constructional details of the antenna of a non-contact smart card
    • G06K19/07758Constructional details, e.g. mounting of circuits in the carrier the record carrier being capable of non-contact communication, e.g. constructional details of the antenna of a non-contact smart card arrangements for adhering the record carrier to further objects or living beings, functioning as an identification tag
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1447Methods for optical code recognition including a method step for retrieval of the optical code extracting optical codes from image or text carrying said optical code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Definitions

  • the present invention relates to a management system that manages a management object using a list, a list creation device used in the management system, a list creation method, a management method, a computer-readable recording medium that records a management program, a data structure, and a print label. .
  • Patent Document 1 describes an example of a code reading device for reducing the load of identification processing for service display such as discount labels.
  • the code reading device described in Patent Literature 1 includes a storage unit that stores a pattern image for recognizing a service display pattern and service contents in association with each other, and an imaging unit. Then, an image that matches the pattern image stored in the storage unit is detected from the image captured by the imaging unit by pattern identification, and the corresponding service content is output.
  • Patent Document 2 describes an example of a label inspection apparatus that performs label inspection using pattern recognition.
  • label master data including specific characters at the four corners of the label to be inspected and their position coordinates is created and stored in advance in a plurality of character fonts.
  • the label inspection apparatus described in patent document 2 extracts the character font displayed on the label to be inspected from the label inspection data obtained by photographing the label of the product on the transport means. Then, the label inspection apparatus described in Patent Document 2 compares and inspects the label master data that uses the same character font as the extracted character font and the specific characters and coordinates of the label inspected data.
  • Patent Document 3 describes a server system that can register a user's captured image as a reference image for image search.
  • Patent Document 4 detects and detects the inclination angle of a multilayer image (for example, an image obtained by separating an original image into a character line image portion and a pattern portion other than the character line image portion).
  • a multilayer image for example, an image obtained by separating an original image into a character line image portion and a pattern portion other than the character line image portion.
  • An example of an image processing apparatus that performs rotation processing according to an inclination angle is described.
  • Patent Document 5 describes an image search device. When searching for similar images, the image search device described in Patent Document 5 displays an image stored in an image storage unit in order to designate a reference image using a part of the search screen as a reference image region. Then, the image search device described in Patent Document 5 displays a condition icon iconized for selecting a desired search condition from among a plurality of search conditions in an adjacent search condition area, The similar image obtained as a search result is displayed in the similar image area.
  • a dedicated reading device For example, in a system where the number of managed objects is not so large, a system where the data format of the identifier of managed objects varies depending on the customer, such as office moving work, or a system that wants to recognize managed objects in free format such as handwritten characters Is mentioned.
  • Patent Document 1 describes a method of identifying the type of label using an image pattern recognition technique.
  • Patent Document 1 is based on the premise that a plurality of types of labels that are limited in advance are identified, and is not intended to identify the labels themselves (individual labels that are actually attached to products or the like).
  • Patent Document 1 does not describe anything to make it possible to identify individual labels that are not limited in advance, and to reduce the amount of work for that purpose.
  • the number of labels to be identified exceeds 100, or when it is desired to identify handwritten labels, it is difficult to register a sufficient pattern image for each label in advance. Even if images taken from all directions for each label can be registered as a pattern image, an erroneous label may be recognized if the orientation of the label image obtained for list collation varies. On the other hand, in order to obtain a label image with the correct orientation for list matching, it is troublesome for the user to photograph the label with the correct orientation every time. In addition, the user can adjust the direction of a light product, but the user may not be able to adjust the direction depending on the management target.
  • Patent Document 2 also presupposes that specific characters, character coordinates, and a plurality of character fonts at the four corners of a label to be inspected are registered in advance as label master data. For this reason, when the number of labels to be identified is large, when the format is not determined, or when label information cannot be registered in advance, it is difficult to apply or it takes time to register the list.
  • Patent Documents 1 and 2 even when the number of labels to be identified is large or the format of the label can be changed, both at the time of list creation and at the time of list matching while obtaining sufficient identification performance. However, it is not considered to reduce the labor and processing load.
  • Patent Document 3 describes a technique for registering a user's photographed image as a reference image for image search, but it is not intended to make it possible to identify an object that is a subject only by the image.
  • Patent Document 4 is a technique that simply detects the tilt angle of an image and corrects the tilt, and does not describe any application of the technique.
  • the label-attached item can be identified even if the label is not printed.
  • the subject is not limited to the label as long as the list is collated using image recognition technology.
  • the main object is to provide a management system, a list creation device, a list creation method, a management method, a computer-readable recording medium recording a management program, a data structure, and a print label.
  • the management system is an identification image for identifying a management object, and an identification image in which a unique identifier is associated with each identification unit that is a minimum unit for identifying the management object is registered.
  • a list storage means for storing a list of managed objects to be managed, and an identification unit which is a predetermined part of the managed object or a predetermined incidental attached to the managed object from the input image, and identifies the managed object
  • An identification image generating unit that detects an identification unit having a possible characteristic and generates an identification image in which the detected identification unit is represented in a predetermined direction and size in an image region, and an identification unit of a management target
  • An identification image registration means for registering an identification image generated from the first image as an identification image of a designated identification unit in the management object list when the first image is input;
  • Knowledge Identification image collating means for collating with each of the identification images registered in the management object list using the identification image generated from the second image as a key image when the second image obtained by photographing the image is input It is characterized
  • the list creation device is an identification image for identifying a management object, and an identification in which a unique identifier is associated with each identification unit that is a minimum unit for identifying the management object.
  • a list storage means for storing a list of managed objects in which an image is registered, and an identification unit that is a predetermined part of the managed object or a predetermined incidental object attached to the managed object from the input image.
  • An identification image generating means for detecting an identification unit having a feature capable of identifying an object and generating an identification image represented by a predetermined orientation and size in the image region;
  • An identification image registration means for registering an identification image generated from the first image in the management object list as an identification image of a designated identification unit when a first image obtained by photographing the image is input The And wherein the door.
  • the information processing apparatus is an identification unit that is a predetermined part of a management object or a predetermined accessory attached to the management object, and identifies the management object.
  • the identification unit of the management target is detected from the first image, and the detected identification unit has a predetermined orientation and An identification image expressed in size is generated, and the information processing apparatus associates the identification image generated from the first image with a unique identifier for each identification unit that is a minimum unit for identifying a management target.
  • the identification image for identifying the management object is registered in the management object list in which the identification image is registered.
  • the management method enables the information processing apparatus to identify the management target object by using an identification unit that is a predetermined part of the management target object or a predetermined accessory attached to the management target object.
  • an identification unit that is a predetermined part of the management target object or a predetermined accessory attached to the management target object.
  • the identification unit of the management object is detected from the first image, and the detected identification unit has a predetermined orientation and size within the image area.
  • the information processing apparatus associates the identification image generated from the first image with a unique identifier for each identification unit that is a minimum unit for identifying the management object,
  • the information processing apparatus receives a second image obtained by photographing an identification part of the management object, the second image From the image, the identification part of the management object is detected,
  • the issued identification unit generates an identification image represented in a predetermined direction and size in the image area, and the information processing apparatus uses the identification image generated from the second image as a key image, and manages the object list
  • the management object is identified by collating with each of the identification images registered in.
  • a computer-readable recording medium on which a management program according to an aspect of the present invention is recorded is an identification image for identifying a management object, and is provided for each identification unit that is a minimum unit for identifying the management object.
  • a predetermined part of the management object or a management object in a computer having a list storage means for storing a management object list in which an identification image associated with a unique identifier is registered or an access means accessible to the list storage means
  • a first image obtained by photographing an identification unit that is a predetermined accessory attached to an object and has a feature capable of identifying the management target is input from the first image
  • a process for detecting an identification part of an object and generating an identification image represented by a predetermined orientation and size in the image area The identification images, in association with a unique identifier for each identification unit which is a minimum unit that identifies the managed objects, characterized in that to execute a process of registering the managed object list.
  • a data structure is a data structure applied to a list for managing a management object, and an identifier of an identification unit that is a minimum unit for identifying a management object, and its identification
  • An identification unit that is a predetermined part of a management object belonging to a unit or a predetermined accessory attached to the management object and has a feature capable of identifying the management object is within the region of the identification image. It includes an identification image represented by a predetermined direction and size and an accompanying image representing information on a management object belonging to the identification unit.
  • a printed label according to an aspect of the present invention is a printed label used for identifying a management target in a management system that manages the management target using a list, and has a feature that can specify a direction.
  • the description field includes one area and a description field that is a reference area for the user to describe characters, and whether the difference between the color of the area other than the description field and the description field and the character color is a predetermined amount or more.
  • the description field and a frame with a line having a color difference between the color of the area other than the description field and the character color of a predetermined amount or more are provided, or a delimiter is provided at the boundary of the description field And a region.
  • a management system and a list creation device capable of suppressing labor and processing load both at the time of list creation and at the time of list collation while obtaining sufficient identification performance without requiring a dedicated reading device.
  • a list creation method, a management method, a computer-readable recording medium recording a management program, a data structure, and a print label can be provided.
  • FIG. 3 is a block diagram illustrating a configuration example of an identification image generation unit 14.
  • FIG. It is a flowchart which shows an example of the list creation operation
  • FIG. It is a block diagram which shows the minimum structural example of the management system common to each embodiment of this invention. It is a figure which shows an example of a structure of the information processing apparatus which implement
  • FIG. 1 is a block diagram illustrating a configuration example of a management system according to the first embodiment.
  • the management system shown in FIG. 1 includes a list storage unit 11, a registration image input unit 12, a search image input unit 13, an identification image generation unit 14, an identification image registration unit 15, and an identification image collation unit 16. Is provided.
  • the list storage unit 11 is a management target in which an identification image for identifying a management target is registered in association with a unique identifier for each identification unit that is a minimum unit for identifying the management target (including a person).
  • the identification unit is generally a unit to which an identification code is attached.
  • the identification unit may be, for example, each of the management objects (individuals).
  • a unit other than the individual may be used as long as it is a unit for managing the management target object, and may be a unit including a plurality of management target objects such as a type unit, a destination unit, a production unit (slot, etc.).
  • the registration image input unit 12 inputs a registration image obtained by photographing the management object identification unit.
  • the identification unit is a predetermined part of the management object or a predetermined attachment attached to the management object, and is a predetermined part or a predetermined attachment having a feature that can identify the management object.
  • the identification unit may be, for example, a printed label attached to the management object. Further, when the management target is a person, the identification unit may be a face. Further, when the management target is a product or the like, the identification unit may be the entire package. Note that the identification unit preferably has a feature capable of specifying the direction of the identification unit in addition to the feature capable of identifying the management target.
  • the search image input unit 13 inputs a search image obtained by photographing the management object identification unit.
  • the identification image generation unit 14 detects the identification unit from the input image, and generates an identification image in which the detected identification unit is represented in a predetermined direction and size.
  • the input image is a registration image or a search image.
  • the predetermined direction and size may be different for each identification unit.
  • a plurality of identification units may be set. In that case, a plurality of identification images are generated.
  • the identification image generation unit 14 obtains a desired identification image by performing the following processing, for example. Adjust the size of the area to be cut out from the input image so that the orientation and size of the identification part in the generated image region are a predetermined “correct orientation” and “correct size (or occupancy)”.
  • a method is known in which a pair of points corresponding to each other between a key image and an identification image is obtained, and an affine transformation parameter between the key image and the identification image is used using the corresponding relationship.
  • a shooting screen including a preview area that can be used to align the identification unit in the image is prepared, and the identification unit is shot using the preview area.
  • an image including a size identifying unit may be obtained.
  • the identification image registration unit 15 registers the identification image generated from the registration image in the management target list as the identification image of the designated identification unit. Specifically, the identification image registration unit 15 may store the identification image generated from the registration image in the list storage unit 11 in association with the identifier of the designated identification unit.
  • the user may be allowed to input together with the registration image.
  • the user may specify an identifier of an identification unit to be registered, or may specify that it is a new identification unit instead of the identifier.
  • the identification image registration unit 15 may assign a new identifier and register the generated identification image in association with the assigned identifier.
  • the identification image collation unit 16 collates with each of the identification images registered in the management target list using the identification image generated from the search image as a key image.
  • the identification image collation unit 16 may collate by calculating the degree of coincidence between the key image and each of the identification images registered in the management target object list using an image recognition technique.
  • the identification image collation unit 16 may be, for example, the degree of coincidence of each identification image calculated with the key image as a collation result as a collation result.
  • the identification image matching unit 16 may be an identifier associated with the identification image that is most similar, that is, the highest matching degree.
  • the identification image collation unit 16 outputs a plurality of sets of identification images and identifiers in descending order of matching.
  • the identification image collating unit 16 compares the predesignated area of the key image with the predesignated area of the identification image instead of collating the key image with the identification image registered in the management target list.
  • the degree of coincidence may be determined by.
  • the predesignated area of the key image is, for example, a user description area described later.
  • region designated beforehand of the identification image is a user description area
  • the identification image collation unit 16 automatically detects a partial area (such as a standard label or a face) from the key image and each of the identification images registered in the management target list using a known image recognition method. The detected partial areas may be compared with each other.
  • FIG. 2 is a block diagram illustrating a configuration example of the identification image generation unit 14.
  • the identification image generation unit 14 includes an area detection unit 141, an area cutout unit 142, and an inclination correction unit 143.
  • the region detection unit 141 detects the image region of the identification unit included in the input image.
  • the region cutout unit 142 cuts out a predetermined image region including the identification unit from the input image based on the information on the image region of the identification unit detected by the region detection unit 141, and generates a partial image having the cut out image region. .
  • the inclination correction unit 143 corrects the inclination of the generated partial image.
  • the area detection unit 141 is, for example, an image for detecting an identification unit from an input image, and based on a master image that is an image representing the characteristics of the identification unit, an image area of the identification unit included in the input image May be detected.
  • the region cutout unit 142 may cut out an image region corresponding to a circumscribed rectangle of the image region of the identification unit, for example.
  • the region cutout unit 142 cuts out a rectangular region having a predetermined size centered on the image region of the identification unit in anticipation of a region to be cut out after correction, such as when the inclination correction unit 143 performs rotation processing. Also good.
  • the inclination correction unit 143 may perform not only two-dimensional angle conversion such as performing rotation processing on a partial image, but also known three-dimensional angle conversion processing. For example, a method of obtaining a pair of corresponding points between a key image and an identification image and using a homography matrix, a basic matrix, a basic matrix, etc. between the key image and the identification image using the correspondence relationship.
  • two-dimensional angle conversion such as performing rotation processing on a partial image
  • three-dimensional angle conversion processing for example, a method of obtaining a pair of corresponding points between a key image and an identification image and using a homography matrix, a basic matrix, a basic matrix, etc. between the key image and the identification image using the correspondence relationship.
  • the processing procedure of the area cutout unit 142 and the inclination correction unit 143 is not limited to this.
  • the area cutout unit 142 first specifies only the area to be cut out, corrects the inclination of the area specified by the inclination correction unit 143, and then the identification unit sets the predetermined size from the corrected image.
  • the region may be cut out as follows.
  • an identification image represented by a predetermined direction and size can be generated.
  • the inclination correction unit 143 is omitted. It is also possible to do. In such a case, by generating an identification image having an image region corresponding to the circumscribed rectangle of the identification unit from the input image, the direction of the identification unit in the image region is relative to the management object. An identification image fixed in a direction that matches the direction can be obtained.
  • the list storage unit 11 is realized by a storage device, for example.
  • the registration image input unit 12 and the search image input unit 13 are realized by, for example, an input device capable of inputting image data such as an imaging unit, and an interface unit with an external device including such an input device.
  • the identification image generation unit 14, the identification image registration unit 15, and the identification image search unit 16 are realized by an information processing apparatus 600 that operates according to a program such as a CPU (Central Processing Unit) as shown in FIG. .
  • the information processing apparatus 600 includes the following configuration, for example.
  • the operation of the management system of the present embodiment is broadly classified into a list creation operation for registering necessary information in a list and a list collation operation for retrieving the list to obtain necessary information.
  • FIG. 3 is a flowchart showing an example of the list creation operation of the management system of this embodiment.
  • the registration image input unit 12 first inputs a registration image obtained by photographing the management object identification unit (step S101).
  • the identification image generation unit 14 detects the identification unit from the input registration image, and the detected identification unit generates an identification image represented by a predetermined direction and size in the image area (step S102). ).
  • the identification image registration unit 15 registers the generated identification image in the management object list as an identification image of the designated identification unit (step S103).
  • step S104 If there is another management object to be registered, the process returns to step S101 and the above operation is repeated (Yes in step S104).
  • FIG. 4 is a flowchart showing an example of the list collation operation of the management system of this embodiment.
  • the search image input unit 13 inputs a search image obtained by photographing the management object identification unit (step S201).
  • the identification image generation unit 14 detects the identification unit from the input search image, and the detected identification unit generates an identification image represented by a predetermined direction and size in the image area (step S202). ).
  • the identification image collation unit 16 collates with each of the identification images registered in the management target object list using the generated identification image as a key image (step S203). And the identification image collation part 16 outputs a collation result (step S204).
  • the identification image represented by a predetermined direction and size is generated both when the list is registered and when the list is collated, one is held, and the other is held. Used for collation with things. Therefore, according to the management system of the present embodiment, it is possible to reduce labor and processing load both during list creation and list collation while obtaining sufficient identification performance. This is because the user simply shoots the identification part of the management object to be registered in the list, and the identification image as a substitute for the identification code is automatically registered in the list. This is because the list can be automatically verified.
  • the management system of this embodiment uses image recognition processing for collation of the list, it can correspond to a free format.
  • the identification image as an image that is easy for humans to recognize (an image that does not include many extra objects such as the background and that has a fixed orientation), it is easy to see when the list is displayed, and convenience is improved. improves.
  • the management object is lost, an effect that a person can easily search using the identification image as a clue can be obtained.
  • FIG. 5 is a block diagram showing another configuration example of the management system of the present embodiment.
  • the management system shown in FIG. 5 includes a storage device 110, a list creation device 120, and a list collation device 130.
  • the storage device 110 includes a list storage unit 11.
  • the list creation device 120 includes a registration image input unit 12, an identification image generation unit 14 ⁇ / b> A, and an identification image registration unit 15.
  • the list collation device 130 includes a search image input unit 13, an identification image generation unit 14B, and an identification image collation unit 16.
  • the identification image generation unit 14 ⁇ / b> A and the identification image generation unit 14 ⁇ / b> B use a predetermined method so that the identification image generation unit 14 ⁇ / b> B and the identification image generation unit 14 ⁇ / b> B have the same orientation and the same size. Is generated.
  • the identification image generation unit 14A and the identification image generation unit 14B may be realized by the same functional module.
  • each apparatus does not include the identification image generation unit 14A and the identification image generation unit 14B, but a predetermined server including the identification image generation unit 14 is prepared, and processing is requested from the server to obtain an identification image. It is good also as a structure.
  • FIG. 6 is a block diagram illustrating a configuration example of the management system according to the second embodiment.
  • the management system illustrated in FIG. 6 further includes a master image storage unit 17, an additional information input unit 18, an additional information registration unit 19, and a list display unit 20 as compared with the first embodiment illustrated in FIG. The point is different.
  • the master image storage unit 17 stores a master image.
  • the master image is an image for detecting the identification unit from the input image, and is an image in which the characteristics of the identification unit are expressed.
  • the master image may be an image obtained by photographing an unfilled print label.
  • the master image may be an image representing a general “face” (for example, an image obtained by statistically processing face images of a plurality of people, etc.).
  • the number of master images is not limited to one.
  • the identification image is for determining what is to be listed (managed object), and the master image is for determining whether to be listed (managed object). And their roles are different.
  • the master image stored in the master image storage unit 17 is used when the identification image generation unit 14 performs trimming processing, enlargement / reduction processing, rotation processing, and tilt correction processing on the input image.
  • the additional information input unit 18 inputs additional information which is information registered in the management target list in association with the identifier in addition to the identification image. Further, the additional information registration unit 19 registers the additional information input by the additional information input unit 18 in the management target list as additional information of a specified identification unit.
  • the designation of the identification unit may be input by the user together with the input of the additional information, or when the identification unit is entered following the registration of the identification image, the designation in the registration image may be taken over. It is also possible to use the result of collation of the identification image.
  • Additional information is not particularly limited as long as it is information related to the management target.
  • the additional information may be, for example, information indicating the state of the management target, or the number of the additional information when there are a plurality of additional information.
  • the additional information may be information indicating a transport status such as arrival / non-arrival for each checkpoint and arrival date / time when applied to the physical distribution system.
  • the information which shows a conveyance condition may be the identification image (key image) produced
  • the additional information may include information indicating the contents of the management target.
  • the information indicating the contents may be an image of the contents or characters indicating the contents (hereinafter referred to as a contents image).
  • a print label or the like that describes characters or the like indicating the content may be attached to each managed object.
  • a master image for detecting the print label may be prepared.
  • a label indicating the contents, an image of the contents, or the like may be attached to a predetermined frame or the like of each management object, and the images may be photographed with a fixed camera.
  • the identification image which is a key image for search in this way, by registering a content image that can be recognized by the user and recognized as an object to be managed as an accompanying image, the user's confirmation work is facilitated.
  • the accompanying image is a generic term for images other than the identification image registered in association with the identifier, and is not limited to the content image as long as it is an image representing information on the management target. Similar to the identification image, according to the configuration in which the image is held in the image format, the user can register the data simply by photographing, and the manual input can be saved.
  • the list display unit 20 appropriately displays the registered contents of the management target list stored in the list storage unit 11.
  • the list display unit 20 generates a list display screen that displays the registered contents of the list, and presents the registered contents of the management target list to the user.
  • the list display screen may include, for example, an identification image for each identifier and an area for displaying additional information, if any, as a list. Note that a scroll function may be provided when the number is large.
  • the list display unit 20 may provide a user with a registration screen and a search screen.
  • the registration screen and the search screen may be generated and displayed by the identification image registration unit 15 and the identification image collation unit 16.
  • the registration screen includes, for example, a preview area for shooting of the identification unit, a preview area of the generated identification image, a button for instructing shooting, and a simple display area for easily displaying the contents currently registered in the list. And a button for designating different identification units.
  • the distinction of the identification unit means that the processing target is shifted to the next identification unit.
  • a preview area for capturing an accompanying image may be included.
  • the shooting preview area is an area in which an image is displayed in conjunction with the imaging means.
  • the preview area is an area for allowing the user to confirm the processing target, and is an area for displaying an image to be processed.
  • the search screen is, for example, a preview area for taking a search image, a preview area for an identification image generated from the search image, a button for instructing collation, and a specific element for displaying a list element recognized as a result of collation.
  • An element display area and a button for instructing registration of designated additional information for the list element shown in the specific element display area may be included.
  • the search screen may include the following elements, for example. ⁇ Preview area for photographing of search image ⁇ Preview area of identification image generated from search image ⁇ Button for instructing collation ⁇ Specific element display area for displaying list element recognized as a result of collation ⁇ Specific element display area
  • 5 is not only an area for displaying the identification image of the recognized list element, but also an area for displaying an accompanying image, particularly a content image. May be included.
  • the master image storage unit 17 is realized by a storage device, for example.
  • the additional information input unit 18 is realized by, for example, an imaging unit, an input device that can input image data, or an interface unit that inputs information from such an input device.
  • the additional information input unit 18 is realized by an input device capable of inputting image data and other information such as an imaging unit, a mouse, a keyboard, and a touch panel, and an interface unit with an external device including such an input device.
  • the additional information registration unit 19 is realized by an information processing apparatus that operates according to a program such as a CPU, for example.
  • the list display unit 20 operates according to an output device (including a display device) that can output screen information such as a display or a printer, an interface unit with an external device including such an output device, and a program such as a CPU. This is realized by an information processing apparatus.
  • FIG. 7 is a flowchart illustrating an example of a list creation operation of the management system according to the present embodiment. Note that the same steps as those in the first embodiment are denoted by the same step numbers and description thereof is omitted.
  • the additional information input unit 18 receives input of additional information from the user (step S301).
  • the input of the additional information is not limited to after the identification image registration process, but can be accepted at any time.
  • the additional information registration unit 19 registers the input additional information in the management target list as additional information of the specified identification unit (step S302).
  • step S104 If there is another management object to be registered, the process returns to step S101 and the above operation is repeated (Yes in step S104).
  • the list display unit 20 If there is no other management target object to be registered (No in step S104), the list display unit 20 generates a list display screen and displays the registration contents of the management target list stored in the list storage unit 11. (Step S303). Note that the list display unit 20 generates a list display screen in accordance with a user instruction even if there are other management objects to be registered, and the list of management objects stored in the list storage unit 11 at that time is displayed. The registered contents may be displayed.
  • FIG. 8 is a flowchart showing an example of the list collation operation of the management system of this embodiment.
  • the additional information input unit 18 continues to accept input of additional information from the user (step S401).
  • the additional information input unit 18 may receive an input of information indicating a transport status at the check point together with information indicating the check point.
  • the input of the additional information is not limited to after the identification image collating process, and can be accepted at any time.
  • the additional information input unit 18 uses information indicating confirmation OK (information indicating arrival, arrival date and time, etc.) as information indicating the transport status at the checkpoint. ) May be entered automatically.
  • the additional information registration unit 19 registers the input additional information in the management target list as additional information of the identification unit specified or specified as a result of collation (step S402).
  • step S403 If there is another management target to be verified, the process returns to step S201 and the above operation is repeated (Yes in step S403).
  • the list display unit 20 If there is no other management object to be collated (No in step S403), the list display unit 20 generates a list display screen and displays the registered content of the management object list stored in the list storage unit 11. (Step S404).
  • the list display unit 20 generates a list display screen in accordance with a user instruction even if there is another management target to be collated, and the management target list stored in the list storage unit 11 at the time of generation. The registered contents of may be displayed.
  • additional information can be registered following registration or verification of an identification image.
  • Such labor can be reduced.
  • by registering accompanying images (particularly, content images) as additional information it is possible to provide a list that is easily understood by the human eye.
  • the key image used for collation is registered as information which shows a conveyance condition, a collation mistake can be corrected later.
  • FIG. 6 shows an example in which all the components are mounted on one device (for example, a personal computer, a tablet terminal, etc.), but in this embodiment, each component has two or more components. It may be implemented separately in devices.
  • FIG. 9 is a block diagram showing another configuration example of the management system of the present embodiment.
  • the management system shown in FIG. 9 is different from the configuration shown in FIG. 5 in that the storage device 110 further includes a master image storage unit 17. Further, the difference is that the list creation device 120 further includes an additional information input unit 18A and an additional information registration unit 19A, and the list collation device 130 further includes an additional information input unit 18B and an additional information registration unit 19B.
  • the master image storage unit 17 may be the same as the master image storage unit 17 described above.
  • the additional information input units 18A and 18B may be the same as the additional information input unit 18 described above.
  • the additional information registration units 19A and 19B may be the same as the additional information registration unit 19 described above.
  • FIG. 10 is an explanatory diagram showing an overview of list creation processing and list collation processing performed by the management system of the present embodiment.
  • the management object in the present embodiment is a package that is to be transported.
  • the identification unit is a printed label attached to the package to be transported.
  • the destination of the package is entered on the printed label. Note that the description of the package and the printed label has a one-to-one correspondence.
  • the identification unit of the management object is each (individual) of the management objects.
  • Examples of a method of associating a package with a printed label on a one-to-one basis include, for example, writing a number or the like for identification on a package at the same destination, and writing it on a printed label.
  • FIG. 11 is a block diagram showing a configuration example of the management system of the present embodiment.
  • the management system illustrated in FIG. 11 includes a storage device 310, a check list creation unit 320, and a check list collation unit 330.
  • the storage device 310 includes a check list storage unit 311 and a master image storage unit 312.
  • the check list storage unit 311 is a part corresponding to the list storage unit 11 described above, and is associated with a unique ID for each package, a label image corresponding to an identification image for identifying the package, additional information, Stores a checklist of packages to be registered.
  • the additional information includes at least a content image obtained by photographing the contents of the baggage, and a label image as a key image and arrival / non-arrival for each checkpoint.
  • Checkpoints include the carry-out source, intermediate point, and relocation destination.
  • the master image storage unit 312 is a part corresponding to the master image storage unit 17 described above, and is an image for detecting a print label from an input image, and is an image that represents the features of the print label.
  • the print labels attached to the respective packages are common, and an image taken from the front with no print label filled in is used as the master image.
  • the check list creation unit 320 includes a registration image input unit 321, a label image generation unit 322, a label image registration unit 323, an additional information input unit 324, an additional information registration unit 325, and a check list display unit 326. With.
  • the registration image input unit 321 corresponds to the registration image input unit 12 described above.
  • the registration image input unit 321 inputs, for example, a registration image obtained by photographing a print label of a package to be transported at the carry-out source.
  • the registration image input unit 321 inputs a registration image including a print label of a package to be transported as a subject by controlling the imaging unit or capturing image data in accordance with a user operation.
  • the registration image input unit 321 may display a label shooting screen or the like that provides a shooting function for shooting the print label, and provide an interface for shooting the print label to the user.
  • the label image generation unit 322 is a part corresponding to the identification image generation unit 14 described above.
  • the label image generation unit 322 detects a print label from the input registration image based on the master image stored in the master image storage unit 312, and the detected print label is displayed in a predetermined direction and size. Generate a labeled image.
  • the label image generation unit 322 generates a label image in which the print label included in the registration image is represented by the same orientation and size as the orientation and size of the print label shown in the master image. . If the orientation and size of the print label included in the registration image is not the same as the orientation and size of the print label, trimming processing, enlargement / reduction processing, rotation processing, and tilt correction are performed on the input image. Process.
  • the combination of feature points extracted from the image may be detected by comparing with the master image.
  • a correspondence relationship between feature points obtained from an image such as SIFT (Scale-Invariant Feature Transform) feature points, SURF (Speeded Up Up Robust Features) feature points, corner feature points, and the like.
  • SIFT Scale-Invariant Feature Transform
  • SURF Speeded Up Up Robust Features
  • corner feature points corner feature points, and the like.
  • International Publication No. 13/089004 pamphlet or the method described in US Pat. No. 6,711,293 may be used.
  • International Publication No. 13/089004 pamphlet describes an example of a local feature point based method.
  • the label image generation unit 322 uses a local feature point base method, for example, acquires a local region for performing feature amount extraction from information on characteristic points (feature points) extracted from the image, and acquires the acquired local region.
  • a feature vector may be generated for a sub-region as a result of the division. Then, the feature vector generated from the input image in this way is collated with the feature vector generated from the master image, and the correspondence relationship between the feature points is obtained. Then, a parameter relating to geometric transformation between the master image and the input image is obtained using the correspondence relationship of the obtained feature points, and a label area in the input image is detected from the obtained parameter and the master image.
  • the label area may be detected using the shape of the print label. More specifically, a generalized Hough transform may be used. Further, if four straight lines are detected by the Hough transform and an area surrounded by the four straight lines is detected, the master image can be omitted. In addition, it is also possible to detect the label area by printing a special mark on the print label and detecting the mark.
  • the master image and the input image may be compared to obtain the label area and the position correction parameter (the above-described geometric conversion parameter or the like).
  • the inclination may be corrected by comparing an image in the detected label area with information designating “correct orientation”.
  • a combination of feature points extracted from an image is compared with a combination of feature points extracted from a master image registered in the “correct orientation” in advance to obtain an inclination correction amount.
  • the printed label is rectangular, the shape can be used. That is, you may rotate so that the side of a rectangle may become horizontal or vertical.
  • a special mark whose direction can be specified is printed on the label, and the amount of inclination correction may be obtained based on the direction of the mark. If similar special marks are printed on the master image, the inclination correction amount can be obtained by comparing the inclination degrees of these marks. Based on the correction amount thus determined, the inclination of the input image (in particular, a predetermined image area including the label area) is corrected.
  • FIG. 10 shows an example in which an image in which a label area is cut out from an input image and corrected in the correct direction is generated as a label image.
  • an image including a peripheral portion to which a print label is attached may be generated as a label image.
  • a partial image obtained by cutting out the circumscribed rectangular area of the printed label represented in the correct orientation determined with respect to the package may be generated as the label image.
  • the label image registration unit 323 is a part corresponding to the identification image registration unit 15 described above.
  • the label image registration unit 323 registers the label image generated from the registration image by the label image generation unit 322 in the check list as an identification image of the specified identification unit in response to a registration instruction from the user.
  • a new ID is assigned every time a label image is registered.
  • the additional information input unit 324 is a part corresponding to the above-described additional information input unit 18 and includes an accompanying image input unit 327 and a checkpoint input unit 328 in the present embodiment.
  • the accompanying image input unit 327 inputs an accompanying image as additional information.
  • the accompanying image input unit 327 inputs a content image obtained by capturing the contents of the baggage or characters indicating the content by controlling the imaging means or capturing image data in response to a user operation.
  • the accompanying image input unit 327 may display a content image shooting screen that provides a shooting function for shooting the content, and provide an interface for shooting the content image to the user.
  • the accompanying image input unit 327 may have a function of detecting and cutting out an area (content area) where the contents of the luggage are represented from the input image.
  • the accompanying image input unit 327 may detect the second print label on which characters or the like indicating the contents are described using a method similar to the method of detecting the print label that is the identification unit.
  • the checkpoint input unit 328 inputs information indicating a location (checkpoint) to be checked as additional information.
  • the checkpoint input unit 328 prepares a checkpoint selection screen, for example, and allows the user to select a location (checkpoint) to be checked from a plurality of preset locations, and inputs the selection result To do.
  • the additional information registration unit 325 corresponds to the additional information registration unit 19 described above, and registers the additional information input via the additional information input unit 324 in the check list as additional information of a specified identification unit. To do.
  • the check list display unit 326 is a part corresponding to the list display unit 20 described above, and appropriately displays the registration contents of the check list stored in the check list storage unit 311.
  • the check list collation unit 330 includes a search image input unit 331, a label image generation unit 332, a label image collation unit 333, an additional information input unit 334, an additional information registration unit 335, and a check list display unit 336.
  • the search image input unit 331 is a part corresponding to the search image input unit 13 described above.
  • the search image input unit 331 inputs, for example, a search image obtained by photographing a printed label of a package that has been carried at each check point.
  • the search image input unit 331 inputs a search image that includes a printed label of a carried baggage as a subject by controlling the imaging unit or capturing image data in accordance with a user operation.
  • the search image input unit 331 may display a label shooting screen or the like that provides a shooting function for shooting a print label, and provide an interface for shooting the print label to the user.
  • the label image generation unit 332 is a part corresponding to the identification image generation unit 14 described above.
  • the label image generation unit 322 detects a print label from the input search image based on the master image stored in the master image storage unit 312, and the detected print label is displayed in a predetermined direction and size. Generate a labeled image.
  • the label image generation method is the same as that of the label image generation unit 322.
  • the label image matching unit 333 is a part corresponding to the identification image matching unit 16 described above.
  • the label image collation unit 333 collates each label image registered in the check list with the label image generated from the search image as a key image, and outputs a collation result To do.
  • the label image collation unit 333 of the present embodiment has a collation function for determining whether a label image obtained from an image photographed at a certain place matches a label image obtained from an image photographed at another place.
  • the label image collating unit 333 calculates the degree of coincidence between the key image and each of the label images registered in the check list, and determines based on the calculated degree of coincidence.
  • the label image collating unit 333 performs a predesignated area of the key image (for example, a user described area described later) and a predesignated area of the label image (for example, described later). The degree of coincidence may be determined by comparing with (user description area).
  • a method of checking the degree of coincidence of label images it is preferable to preferentially use a method of comparing images at a signal level such as a difference between images or a normalization function.
  • a character image collation technique for collating character string images using character arrangement may be used.
  • a character image matching technique described in International Publication No. 10/053109 pamphlet may be used.
  • the connected area is a group of areas in the binary image.
  • the additional information input unit 334 is a part corresponding to the additional information input unit 18 described above, and includes a check result input unit 337 in the present embodiment.
  • the check result input unit 337 inputs, as additional information, information indicating a checkpoint, and information indicating a conveyance status at the checkpoint (information indicating presence of arrival, arrival date / time, etc.).
  • the check result input unit 337 automatically displays information indicating confirmation OK as information indicating the transport status at the check point for the parcel. You may enter in.
  • the information indicating confirmation OK is, for example, information indicating the presence of arrival, the arrival date and time, and the like. Whether or not a package has been specified can be determined according to whether or not the list elements to be candidates have been narrowed down to one and the confirmation result of the collation result by the user.
  • the check result input unit 337 provides an interface that allows the user to directly input the check result without canceling or correcting the check result or checking with an image when the result of the package recognition by the check is not reliable. Also good. For example, when the check result input unit 337 has already registered in the list information indicating the transport status of the package at the check point, the check result input unit 337 may display the fact to the user.
  • the additional information registration unit 335 corresponds to the additional information registration unit 19 described above, and registers the additional information input via the additional information input unit 334 in the check list as additional information of a specified identification unit. To do.
  • the check list display unit 336 is a part corresponding to the list display unit 20 described above, and appropriately displays the registration contents of the check list stored in the check list storage unit 311.
  • the check list display unit 336 may display not only the registration contents of the check list but also the total results (progress status etc.) obtained from the registration contents.
  • FIG. 13 is an explanatory diagram showing an example of a registration screen displayed by the registration image input unit 321 or the additional information input unit 324 (particularly, the accompanying image input unit 327).
  • the registration screen shown in FIG. 13 includes a label image preview area A101, an accompanying image preview area A102, a shooting button A103, an accompanying image shooting end button A104, a list image display area A105, and a return button A106.
  • the label image preview area A101 (hereinafter simply referred to as the preview area A101) is a preview area for printing a printed label and for confirming the generated label image.
  • the preview area A101 functions as a preview screen of the imaging unit in the initial state. Shooting is performed by pressing (or touching) the shooting button A103. After shooting, a label image generated from the shot image (registration image) is displayed in the preview area A101. Further, the label image generated from the photographed image is registered in a new list by the photographing instruction for the preview area A101.
  • the accompanying image preview area A102 (hereinafter simply referred to as the preview area A102) is a preview area for photographing the accompanying image and confirming the generated accompanying image, but nothing is displayed in the initial state.
  • an accompanying image shooting mode is set, and the preview area A102 functions as a preview screen of the imaging unit. Shooting is performed by pressing the shooting button A103. After shooting, the preview area A102 functions as a preview screen of the imaging means for the next shooting.
  • the shot image is registered in the list as an accompanying image with an ID associated with the currently displayed label image.
  • the shooting button A103 is a button for instructing shooting.
  • the accompanying image shooting end button A104 is a button for instructing the end of the accompanying image shooting mode. By pressing the accompanying image shooting end button A104, the accompanying image shooting mode is ended, and the mode is switched to the label image shooting mode (initial state).
  • the list image display area A105 is an area in which images currently registered in the check list (label images and accompanying images if any) are grouped and displayed for each ID.
  • the list image display area A105 can be scrolled horizontally as schematically indicated by arrows in FIG. 13, and the displayed image or image group can be selected (the same applies to the arrows in FIGS. 14 and 15). Is).
  • the screen shifts to a correction screen.
  • the return button A106 is a button for instructing to end the screen and return to the original screen or the upper screen.
  • FIG. 14 is an explanatory diagram illustrating an example of a correction screen displayed by the registration image input unit 321 or the additional information input unit 324 (particularly, the accompanying image input unit 327).
  • the modification screen shown in FIG. 14 includes a label image preview area B101, an accompanying image preview area B102, a discard button B103, a list image display area B104, and a return button B105.
  • the label image preview area B101 and the accompanying image preview area B102 display the label image and the accompanying image that are targeted for correction.
  • the correction target is an image selected in the list image display area of the registration screen before shifting to the correction screen or the correction screen. For example, when a label image is clicked in the list image display area, an image group having an ID associated with the label image is a correction target. In this case, the clicked label image and accompanying image are displayed in the preview areas B101 and B102.
  • a scroll function may be provided in the preview area B102. For example, when an accompanying image is clicked in the list image display area, the accompanying image is a correction target.
  • the clicked associated image and the label image associated with the ID of the associated image are displayed in the preview areas B101 and B102.
  • the discard button B103 is pressed while the preview area B101 in which the label image is displayed is activated by a selection operation, the entire ID is deleted from the list after confirming the user again.
  • the discard button B103 is pressed in a state where one of the preview areas B102 in which the accompanying image is displayed is activated by the selection operation, the accompanying image is deleted from the list after the user confirmation again. .
  • the other screen elements are the same as those in the registration screen shown in FIG.
  • FIG. 15 is an explanatory diagram illustrating an example of a search / registration screen displayed by the search image input unit 331 or the additional information input unit 334 (particularly, the check result input unit 337).
  • the search / registration screen shown in FIG. 15 includes the following elements. Search label image preview area C101 Recognition result display area C102 -Shooting button C103 -Check result input button C104 List image display area C105 -Return button C106 Check result display area C107
  • the search label image preview area C101 (hereinafter simply referred to as the preview area C101) is a preview area for photographing a print label as a key image and for confirming the generated label image.
  • the preview area C101 functions as a preview screen of the imaging unit in the initial state. Shooting is performed by pressing the shooting button C103. After shooting, a label image generated from the shot image (search image) is displayed in the preview area C101.
  • the label image generated from the shot image is used as a key image and collated with the list.
  • the recognition result display area C102 is an area for displaying an identification image recognized as a result of collation or an identification image that is a candidate thereof together with an accompanying image with an ID associated with the identification image.
  • the combination of the identification image and the accompanying image is displayed, for example, arranged in descending order of coincidence.
  • the recognition result display area C102 When the user selects a label image in the list image display area C105, the selected identification image and an accompanying image with an ID associated with the identification image are displayed in the recognition result display area C102.
  • the check result input button C104 is a button for instructing registration of a check result (confirmation OK) with respect to a package having an ID associated with the identification image displayed in the recognition result display area C102. It should be noted that the check result at which check point may be selected when the confirmation screen is displayed.
  • the check result display area C107 is an area for displaying check results (including other checkpoints) registered in the list regarding the package having the ID associated with the identification image being displayed in the recognition result display area C102. is there.
  • the order of display in the list image display area C105 may be the recognition order, that is, the order of high matching.
  • FIG. 16 is an explanatory diagram showing an example of a list display screen displayed by the check list display unit 326 or the check list display unit 336.
  • the list display screen shown in FIG. 16 includes an area D101 for displaying the registration contents of the check list and an area D102 for displaying the totaling result (progress status etc.) obtained from the registration contents.
  • the list display screen of this example when an image included in the area D101 is clicked, the image is enlarged and displayed.
  • the check result at each check point can be canceled or manually corrected.
  • FIG. 17 and FIG. 18 are explanatory diagrams showing an example of a print label design.
  • the printed label preferably includes an area E101 suitable for extracting a label area and an area E102 suitable for character image collation.
  • the region E101 includes a feature whose direction can be specified, such as the length of the lower end being larger than the upper end.
  • a fixed design E103 is printed so that the local feature amount can be easily extracted when the label area is extracted.
  • the area E102 is a user description area that can be freely described by the user.
  • the area E102 may be expressed as a user description area E102.
  • the outer shape of the region E101 and the region E102 is preferably rectangular so that the region can be easily extracted.
  • region E101 is colored with colors other than a background and a character color.
  • FIGS. 19 to 22 are explanatory diagrams showing other design examples of the user description area E102.
  • the user description area E102 has a description field that is a reference area for a user to describe a character (including special characters such as symbols) and a light field (difference from the background color) such as yellow. May be printed in a color equal to or less than a predetermined amount (see symbol E104-1). As described above, when coloring that is visible to a person but difficult to distinguish on a machine is performed, as shown in FIG. Can be easily separated. Therefore, the printed label can be easily written by the user while maintaining the identification performance.
  • the distribution of pixel values constituting a character and the distribution of pixel values constituting a background are separated from each other.
  • the background print color may be obtained in advance by experiments and the color may be printed.
  • the input image is a registration image or a search image.
  • the imaging means is a camera, a scanner, or the like.
  • the pixel value constituting the character is a luminance value or a color pixel value such as RGB (red, green, blue).
  • the pixel values constituting the background are luminance values or color pixel values such as RGB.
  • the background refers to an area in which characters are not written or printed in the user-written area.
  • the background is, for example, a part of the user description area other than the description field (a margin part of the user description area), a border line of the description field, if any, and a part of the description field that is not printed in an unfilled state ( A blank area of the description field).
  • the overlap between the distribution of the pixel values constituting the character and the distribution of the pixel values constituting the background is zero.
  • the overlap between the distributions is not necessarily zero, and an arbitrary upper limit value may be set. For example, it is possible to set the upper limit of the number of pixels in which both distributions overlap as follows.
  • ⁇ , ⁇ , and ⁇ are real numbers of 0 to 1
  • n is a real number of 0 to 4 in general.
  • a threshold value of a luminance value (or pixel value) for separating a character and a background in advance. It is also possible to use a statistical method for determining whether each pixel is a character or a background, such as a discriminant analysis method also called Otsu's binarization. It is also possible to formulate it as an optimization problem in consideration of the influence of adjacent pixels and obtain a result.
  • the user description area E102 may be printed with a light color or a thin line (may be a dotted line) along the description field (see reference numeral E104-2).
  • a delimiter may be printed at the boundary of the description field (see reference numeral E104-3). In the case of a delimiter, even a dark color can be easily separated by extracting connected regions.
  • the separator may be printed in the same or similar color as the assigned character color. At this time, it is also possible to collate all the connected areas without distinguishing the character connected area and the separator connected area.
  • the design of the printed label shown above is an example to the last, and is not limited to these. Elements (various regions) included in the print label, configuration and position in the region, and the like can be changed as appropriate.
  • the user can manage the transport status of the package that is the transport target with a simple screen operation.
  • FIG. 11 shows an example in which the check list creation unit 320 and the check list collation unit 330 are separately implemented, but the check list creation unit 320 and the check list collation unit 330 are implemented without being separated. It is also possible. In such a case, the label image generation units 322 and 332 may be implemented as one label image generation unit. Similarly, the additional information registration units 325 and 335 and the check list display units 326 and 336 can be implemented as one unit.
  • FIG. 24 is a block diagram showing a minimum configuration example of the management system according to the present invention.
  • the management system illustrated in FIG. 24 includes a list storage unit 501, an identification image generation unit 502, an identification image registration unit 503, and an identification image collation unit 504.
  • the list storage unit 501 (for example, the list storage unit 11 and the check list storage unit 311) stores a management target list in which an identification image for identifying a management target is registered.
  • a unique identifier is associated with each identification unit, which is the minimum unit for identifying the management object.
  • the identification image generation unit 502 (for example, the identification image generation unit 14 and the label image generation units 322 and 332) identifies, from the input image, a predetermined part of the management object or a predetermined accompanying object attached to the management object. And an identification unit having a feature capable of identifying the management object. Then, the identification image generation unit 502 generates an identification image in which the detected identification unit is represented in a predetermined direction and size within the image region.
  • the identification image registration unit 503 (for example, the identification image registration unit 15 and the label image registration unit 323) is generated from the first image when the first image obtained by capturing the identification unit of the management target is input.
  • the identification image is registered in the management object list as an identification image of the designated identification unit.
  • the identification image collation unit 504 (for example, the identification image collation unit 16 and the label image collation unit 333) is generated from the second image when the second image obtained by photographing the identification unit of the management target is input. Using the identification image as a key image, the identification image is collated with each of the identification images registered in the management object list.
  • the identification image generation unit 502 may include the following configuration.
  • a region detection unit that detects an image region of the identification unit included in the input image.
  • Is a region correction unit that performs processing for correcting the inclination of the identification image generated by the region cutting unit / region cutting unit that generates an identification image including the cut image region
  • the tilt correction unit may perform three-dimensional angle conversion so that the orientation of the identification unit in the corrected image area is a predetermined correct direction.
  • the identification image generation unit may include the following configuration.
  • An area detection unit that detects the image area of the identification unit included in the input image. Based on the information of the image area of the identification unit detected by the area detection unit, an image area corresponding to the circumscribed rectangle of the identification unit from the input image
  • a region cutout unit that generates an identification image composed of a predetermined image region cut out
  • the management system includes a master image storage unit that stores an image for detecting the identification unit from the input image and that represents an image of the characteristics of the identification unit, and the identification image generation unit includes: An identification image may be generated from the input image based on the master image.
  • the list storage unit 501 may store a management target list in which an accompanying image in which information on the management target is displayed is registered in association with the identifier.
  • the management system includes an accompanying image input unit that inputs an accompanying image of a management object belonging to the specified identification unit, and the input accompanying image as an accompanying image of the specified identification unit.
  • An accompanying image registration unit for registering in the object data list may be provided.
  • the management system may also include a display unit that displays a search result screen including an area for displaying the following image when the second image is input.
  • a key image that is an identification image obtained from the second image, a registered identification image that is the identification image most similar to the key image in the management target list, and an associated image of the identification unit to which the registered identification image belongs
  • the identification unit may be a printed label attached to the management object.
  • the management system is a management system for managing, for example, a package to be transported in a logistics system.
  • the management target may be a package that is a transport target.
  • the list storage unit may further store a management target list in which information indicating the package transportation status is registered in association with the identifier.
  • the management system may include a status registration unit.
  • the situation registration unit causes the user to input a search screen obtained by photographing the package as the second image for each checkpoint.
  • the status registration unit associates the information indicating the transport status of the package with the identifier of the management object recognized as a result of the verification using the identification image obtained from the input search screen as a key image. Register to the property data list.
  • the situation registration unit associates the identification image obtained from the input first screen with the identified identifier, and information indicating the cargo transportation situation at the checkpoint is already registered. This may be displayed to the user. Further, the status registration unit may count the number of times recognized twice and register it in the list.
  • the management system is a management system for managing packages that are targeted for delivery in, for example, a distribution system.
  • the management system may include a checkpoint registration unit.
  • the checkpoint registration unit further associates the identifier with the identifier, and further stores a list storage unit that stores a management object list in which information indicating the checkpoint is registered, and information indicating the checkpoint of the specified identification unit. Register to the data list.
  • the identification image registration unit 503 collates the identification image with each of the identification images registered in the management object list as a key image, and the degree of coincidence with the key image is predetermined.
  • the degree of coincidence with the key image is predetermined.
  • the image is mainly described as being in gray scale, but a color image may be used.
  • the color image can be converted to gray scale using an expression for converting from an arbitrary color space (RGB, YUV, etc.) to gray scale.
  • the above-described matching processing is performed in each space by dividing each channel image in the color space (for example, in the case of RGB, an image having R as a pixel value, an image having G as a pixel value, and an image having B as a pixel value). And the results may be integrated by a method such as logical sum (OR) or logical product (AND).
  • a clustering method known in the color space may be applied to use a group of colors of the same cluster as the connected region.
  • an image feature amount may be extracted from the master image and registered.
  • the process of extracting the image feature amount from the master image at the time of collation with the registration image can be omitted, so that the identification area detection process operates at high speed.
  • the present invention is not limited to a physical distribution system, and can be suitably applied to uses for managing people and things using a list.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Development Economics (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Strategic Management (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

専用の読取機器を必要とせずに、リスト作成時とリスト照合時の両方においてかかる手間および処理負荷を抑えることができ、かつ十分な識別性能を得る。 管理システムは、管理対象物リストを記憶するリスト記憶手段と、入力画像から、管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する識別画像生成手段と、管理対象物の識別部を撮影した第1の画像が入力された場合に、第1の画像から生成された識別画像を、指定された識別単位の識別子と関連づけて管理対象物リストに登録する識別画像登録手段と、管理対象物の識別部を撮影した第2の画像が入力された場合に、第2の画像から生成された識別画像をキー画像として、管理対象物リストに登録されている識別画像の各々と照合する識別画像照合手段とを備える。

Description

[規則37.2に基づきISAが決定した発明の名称] 管理システム、リスト作成装置、データ構造および印刷ラベル
 本発明は、リストを用いて管理対象物を管理する管理システム、それに用いられるリスト作成装置、リスト作成方法、管理方法、管理用プログラムを記録したコンピュータ読み取り可能な記録媒体、データ構造および印刷ラベルに関する。
 多くの物流システムでは、運搬対象である荷物リストを用いて、各荷物が目的の場所に正しく運搬されたか否かを確認している。当該荷物リストには、各荷物の識別子と関連付けられて運搬状況等が登録されている。
 物流システムに限らず、商品の在庫管理やユーザの入退室管理など、リストを用いて管理対象物(人を含む)の状態等を管理するシステムは数多く存在する。しかし、電子的に作成されるリストを用いて管理対象物を管理する管理システムであっても、管理対象物の数が多くなると、リストへのデータ登録やリストとのデータ照合のための識別子の入力を手入力で行うのは煩雑であり、ミスも生じやすい。このため、符号化された情報を読み取るバーコードリーダやIC(Integrated Circuit)タグリーダ等の専用の読取機器を用いて管理対象物に付された印刷ラベルやICタグ等から識別子を読み取り、コンピュータに入力することが行われている。
 物やラベルを識別する技術に関連して、特許文献1には、値引きラベル等のサービス表示の識別処理の負荷を軽減するためのコード読み取り装置の例が記載されている。特許文献1に記載されているコード読み取り装置は、サービス表示をパターン認識するためのパターン画像とサービス内容とを関連付けて記憶する記憶部と、撮像手段とを備えている。そして、撮像手段が撮影した画像から記憶部に記憶されたパターン画像に適合する画像をパターン識別により検出し、対応するサービス内容を出力する。
 また、特許文献2には、パターン認識を利用してラベル検査を行うラベル検査装置の例が記載されている。特許文献2に記載されたラベル検査装置では、被検査対象のラベルの四隅の特定文字とその位置座標を含むラベルマスターデータを予め複数の文字フォントで作成し、格納している。そして、特許文献2に記載されたラベル検査装置は、搬送手段上の生産物のラベルを撮影して得られるラベル被検査データから被検査対象のラベルに表示される文字フォントを抽出する。そして、特許文献2に記載されたラベル検査装置は、抽出した文字フォントと同一の文字フォントを使用するラベルマスターデータとラベル被検査データの特定文字と座標を比較、検査する。
 また、特許文献3には、ユーザの撮影画像を画像検索のリファレンス画像として登録可能なサーバシステムが記載されている。
 また、画像の加工技術に関連して、特許文献4には、多層画像(例えば、原画を文字線画部分と文字線画部分以外の絵柄部分とに分離した画像)の傾き角度を検出し、検出した傾き角度に応じて回転処理を行う画像処理装置の例が記載されている。
 また、特許文献5には、画像検索装置が記載されている。特許文献5に記載された画像検索装置は、類似画像の検索に際して、検索画面の一部を基準画像領域として、基準画像を指定するために画像記憶部に格納されている画像を表示させる。そして、特許文献5に記載された画像検索装置は、隣接する検索条件領域に、複数の検索条件中から所望の検索条件を選択するためにアイコン化された条件アイコンを表示させ、さらには、隣接する類似画像領域に検索結果として得られた類似画像を表示させる。
特開2013-050787号公報 特開2012-174101号公報 特開2010-218372号公報 特開2007-323381号公報 特開2010-072749号公報
 バーコードリーダやICタグリーダ等の専用の読取機器を用いる場合、各管理対象物の識別子をバーコードに変換してラベルに印刷したり、ICタグに書き込む作業が必要となるため、手間がかかるという問題がある。また、専用の読取機器を用意しなければならないため、コストがかかるという問題がある。また、識別子のデータ形式を変更しようとするとソフトウェアの変更が伴うなど、識別子の仕様変更が容易でないという問題がある。
 このため、専用の読取機器の導入は困難である場合がある。例えば、管理対象物の数がそれほど多くないシステムや、オフィスの引っ越し業務のように管理対象物の識別子のデータ形式が顧客によって異なるシステムや、手書き文字など自由な書式で管理対象物を認識したいシステムの場合が挙げられる。
 なお、特許文献1には、画像のパターン認識技術を用いてラベルの種類を識別する方法が記載されている。しかしながら、特許文献1は、予め限定された複数種類のラベルの種類を識別することを前提としており、ラベルそのもの(実際に商品等に貼られた個々のラベル)を識別しようというものではない。特許文献1には、予め限定されない個々のラベルを識別可能にするための工夫や、そのための作業量の低減等について、何ら記載されていない。
 例えば、識別したいラベルの数が100を超える場合や、手書きラベルを識別したい場合に、各ラベルについて予め十分なパターン画像を登録しておくことは困難である。また、仮に各ラベルについてあらゆる方向から撮影した画像をパターン画像として登録できたとしても、リスト照合用に得たラベル画像の向きがばらばらであれば、誤ったラベルを認識する可能性がある。その一方で、リスト照合用に正しい向きのラベル画像を得ようと、毎回ユーザに正しい向きでラベルを撮影させるのは煩雑である。また、軽い商品であればユーザが向きを調整できるが、管理対象物によってはユーザが向きを調整できない場合もある。なお、ユーザに手間をかけさせないよう、リスト照合時にコンピュータがラベル画像を数度ずつ回転させて照合を行うことも考えられるが、照合の度に何度も回転処理を行うのは負荷がかかる。このように、特許文献1に記載された方法を用いてラベルそのものを識別しようとすると、十分な識別性能が得られないか、十分な識別性能を得るためにリスト登録時またはリスト照合時にユーザに手間がかかったり、処理負荷がかかる。
 特許文献2に記載されている方法も、予めラベルマスターデータとして、検査対象とするラベルの四隅の特定文字と文字座標と複数の文字フォントとが登録されていることを前提としている。このため、識別したいラベルの数が多い場合や、書式が決まっていない場合や、予めラベルの情報が登録できない場合には、適用が困難であるか、リスト登録に手間がかかる。
 このように、特許文献1,2には、識別したいラベルの数が多い場合やラベルの書式が変わりうる場合であっても、十分な識別性能を得つつ、リスト作成時とリスト照合時の両方においてかかる手間や処理負荷を低減させようといったことは考慮されていない。
 なお、特許文献3には、ユーザの撮影画像を画像検索のリファレンス画像として登録する技術が記載されているが、その画像だけで被写体とされた物を識別可能にしようというものではない。
 また、特許文献4に記載されている技術は、単に画像の傾き角度を検出して、傾きを補正する技術であって、その技術の利用先については何ら記載されていない。
 なお、物流システムに管理システムを適用することを考えると、仮にラベルが印字切れの状態であっても、そのラベルが付された物を識別できることが好ましい。なお、画像認識技術を利用してリストの照合を行う方法であれば、被写体はラベルに限られない。
 そこで、本発明は、上述した点に鑑み、専用の読取機器を必要とせずに、リスト作成時とリスト照合時の両方においてかかる手間および処理負荷を抑えることができ、かつ十分な識別性能が得られる管理システム、リスト作成装置、リスト作成方法、管理方法、管理用プログラムを記録したコンピュータ読み取り可能な記録媒体、データ構造および印刷ラベルを提供することを主たる目的とする。
 本発明の一態様による管理システムは、管理対象物を識別するための識別画像であって、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子が関連付けられた識別画像が登録される管理対象物リストを記憶するリスト記憶手段と、入力画像から、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する識別画像生成手段と、管理対象物の識別部を撮影した第1の画像が入力された場合に、第1の画像から生成された識別画像を、指定された識別単位の識別画像として管理対象物リストに登録する識別画像登録手段と、管理対象物の識別部を撮影した第2の画像が入力された場合に、第2の画像から生成された識別画像をキー画像として、管理対象物リストに登録されている識別画像の各々と照合する識別画像照合手段とを備えたことを特徴とする。
 また、本発明の一態様によるリスト作成装置は、管理対象物を識別するための識別画像であって、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子が関連付けられた識別画像が登録される管理対象物リストを記憶するリスト記憶手段と、入力画像から、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する識別画像生成手段と、管理対象物の識別部を撮影した第1の画像が入力された場合に、第1の画像から生成された識別画像を、指定された識別単位の識別画像として管理対象物リストに登録する識別画像登録手段とを備えたことを特徴とする。
 また、本発明の一態様によるリスト作成方法は、情報処理装置が、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を撮影した第1の画像が入力された場合に、第1の画像から管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成し、情報処理装置が、第1の画像から生成された識別画像を、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子と関連付けて、管理対象物を識別するための識別画像が登録される管理対象物リストに登録することを特徴とする。
 また、本発明の一態様による管理方法は、情報処理装置が、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を撮影した第1の画像が入力された場合に、第1の画像から管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成し、情報処理装置が、第1の画像から生成された識別画像を、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子と関連付けて、管理対象物を識別するための識別画像が登録される管理対象物リストに登録し、情報処理装置が、管理対象物の識別部を撮影した第2の画像が入力された場合に、第2の画像から、管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成し、情報処理装置が、第2の画像から生成された識別画像をキー画像として、管理対象物リストに登録されている識別画像の各々と照合して、管理対象物を識別することを特徴とする。
 また、本発明の一態様による管理用プログラムを記録したコンピュータ読み取り可能な記録媒体は、管理対象物を識別するための識別画像であって、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子が関連付けられた識別画像が登録される管理対象物リストを記憶するリスト記憶手段またはリスト記憶手段にアクセス可能なアクセス手段を備えたコンピュータに、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を撮影した第1の画像が入力された場合に、第1の画像から管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する処理、および第1の画像から生成された識別画像を、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子と関連付けて、管理対象物リストに登録する処理を実行させることを特徴とする。
 また、本発明の一態様によるデータ構造は、管理対象物を管理するためのリストに適用されるデータ構造であって、管理対象物を識別する最小の単位である識別単位の識別子と、その識別単位に属する管理対象物所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部が、当該識別画像の領域内において所定の向きおよび大きさで表された識別画像と、その識別単位に属する管理対象物に関する情報が表された付随画像とを含むことを特徴とする。
 また、本発明の一態様による印刷ラベルは、リストを用いて管理対象物を管理する管理システムにおいて管理対象物を識別するために用いられる印刷ラベルであって、向きを特定可能な特徴を有する第1領域と、ユーザが文字を記載する目安となる領域である記載フィールドを含み、かつ記載フィールドおよび記載フィールド以外の当該領域の色と文字色との差が所定量以上であるか、記載フィールドに、記載フィールドおよび記載フィールド以外の当該領域の色と文字色との差が所定量以上の色の線による枠が設けられているか、または、記載フィールドの境界に区切り記号が設けられている第2領域とを含むことを特徴とする。
 本発明によれば、専用の読取機器を必要とせずに、十分な識別性能を得つつ、リスト作成時とリスト照合時の両方においてかかる手間および処理負荷を抑えることができる管理システム、リスト作成装置、リスト作成方法、管理方法、管理用プログラムを記録したコンピュータ読み取り可能な記録媒体、データ構造および印刷ラベルを提供することができる。
本発明の第1の実施形態の管理システムの構成例を示すブロック図である。 識別画像生成部14の構成例を示すブロック図である。 第1の実施形態の管理システムのリスト作成動作の一例を示すフローチャートである。 第1の実施形態の管理システムのリスト照合動作の一例を示すフローチャートである。 第1の実施形態の管理システムの他の構成例を示すブロック図である。 本発明の第2の実施形態の管理システムの構成例を示すブロック図である。 第2の実施形態の管理システムのリスト作成動作の一例を示すフローチャートである。 第2の実施形態の管理システムのリスト照合動作の一例を示すフローチャートである。 第2の実施形態の管理システムの他の構成例を示すブロック図である。 本発明の第3の実施形態におけるリスト作成処理およびリスト照合処理の概要を示す説明図である。 第3の実施形態の管理システムの構成例を示すブロック図である。 ラベル画像の他の例を示す説明図である。 登録画面の例を示す説明図である。 修正画面の例を示す説明図である。 検索・登録画面の例を示す説明図である。 リスト表示画面の一例を示す説明図である。 印刷ラベルのデザイン例を示す説明図である。 印刷ラベルのデザイン例を示す説明図である。 印刷ラベルのユーザ記載領域のデザイン例を示す説明図である。 印刷ラベルのユーザ記載領域のデザイン例を示す説明図である。 印刷ラベルのユーザ記載領域のデザイン例を示す説明図である。 印刷ラベルのユーザ記載領域のデザイン例を示す説明図である。 ユーザ記載領域203に対して求めたヒストグラムの例を示す説明図である。 本発明の各実施形態に共通する管理システムの最小の構成例を示すブロック図である。 本発明の各実施形態における管理システムを実現する情報処理装置の構成の一例を示す図である。
 (第1の実施形態)
 以下、本発明の実施形態を図面を参照して説明する。まず、図1を参照して、本発明の第1の実施形態の管理システムを説明する。図1は、第1の実施形態の管理システムの構成例を示すブロック図である。図1に示す管理システムは、リスト記憶部11と、登録用画像入力部12と、検索用画像入力部13と、識別画像生成部14と、識別画像登録部15と、識別画像照合部16とを備える。
 リスト記憶部11は、管理対象物(人を含む。)を識別する最小の単位である識別単位ごとに固有の識別子と関連付けて、管理対象物を識別するための識別画像が登録される管理対象物リストを記憶する。識別単位は、一般に識別コードが付される単位である。識別単位は、例えば、管理対象物の各々(個体)であってもよい。個体以外にも、管理対象物を管理する単位であればよく、種別単位、行き先単位、生産単位(スロット等)など複数の管理対象物が含まれるような単位であってもよい。
 登録用画像入力部12は、管理対象物の識別部を撮影した登録用画像を入力する。識別部は、管理対象物の所定の部分または管理対象物に付される所定の付随物であって、当該管理対象物を識別可能な特徴を有する所定の部分または所定の付随物である。識別部は、例えば、管理対象物に付される印刷ラベルであってもよい。また、管理対象物が人の場合に、識別部は顔であってもよい。また、管理対象物が商品等の場合に、識別部はパッケージ全体であってもよい。なお、識別部は、管理対象物を識別可能な特徴に加えて、当該識別部の向きを特定可能な特徴を有していることが好ましい。
 検索用画像入力部13は、管理対象物の識別部を撮影した検索用画像を入力する。
 識別画像生成部14は、入力画像から識別部を検出し、検出された識別部が所定の向きおよび大きさで表された識別画像を生成する。ここで、入力画像は、登録用画像または検索用画像である。また、所定の向きおよび大きさは、識別単位ごとに異なっていてもよい。また、1つの識別単位につき複数設定されていてもよい。その場合、識別画像を複数生成する。識別画像生成部14は、例えば、以下の処理等を施すことによって、所望の識別画像を得る。
・生成される画像領域内における識別部の向きおよび大きさが予め定められている「正しい向き」および「正しい大きさ(もしくは占有率)」となるように入力画像から切り取る領域のサイズを調整。
・識別部を含む領域に対して既知の拡大・縮小処理や回転処理や傾きの補正処理。
例えば、キー画像と識別画像との間で対応する点の対を求め、その対応関係を利用して、キー画像と識別画像との間のアフィン変換パラメータを用いる方法が知られている。なお、識別部の撮影用に、画像内の識別部の位置合わせ等ができるプレビュー領域を含む撮影用画面を用意し、そのプレビュー領域を利用して識別部を撮影させるなどして、所望の向きおよび大きさの識別部が含まれる画像を得てもよい。
 識別画像登録部15は、登録用画像が入力された場合に、登録用画像から生成された識別画像を、指定された識別単位の識別画像として管理対象物リストに登録する。具体的に、識別画像登録部15は、指定された識別単位の識別子と関連付けて、登録用画像から生成された識別画像をリスト記憶部11に記憶させればよい。
 識別単位の指定方法としては、例えば、登録用画像の入力と併せてユーザに入力させてもよい。例えば、ユーザに登録先とする識別単位の識別子を指定させてもよいし、識別子の代わりに新たな識別単位である旨を指定させてもよい。識別画像登録部15は、例えば、ユーザから新たな識別単位である旨が指定された場合は、新たな識別子を割り当て、割り当てた識別子と関連付けて、生成された識別画像を登録してもよい。
 識別画像照合部16は、検索用画像が入力された場合に、検索用画像から生成された識別画像をキー画像として、管理対象物リストに登録されている識別画像の各々と照合する。識別画像照合部16は、画像認識技術を用いて、キー画像と、管理対象物リストに登録されている識別画像の各々との間の一致度を算出することによって、照合してもよい。識別画像照合部16は、例えば、照合結果として、照合の際に算出した各識別画像のキー画像に対する一致度であってもよい。識別画像照合部16は、最も類似したすなわち最も一致度の高い識別画像に関連付けられた識別子であってもよい。識別画像照合部16は、一致度の高い順に複数の識別画像と識別子の組を出力する。識別画像照合部16は、キー画像と管理物対象リストに登録されている識別画像とを照合する代わりに、キー画像の予め指定された領域と識別画像の予め指定された領域とを比較することで一致度を判定してもよい。この場合において、キー画像の予め指定された領域は、例えば、後述するユーザ記載領域である。また、識別画像の予め指定された領域は、例えば、後述するユーザ記載領域)である。また、識別画像照合部16は、キー画像と管理対象物リストに登録されている識別画像の各々とから部分的な領域(定型のラベルや顔など)を既知の画像認識手法を用いて自動検出し、検出した部分的な領域同士を比較してもよい。
 また、図2は、識別画像生成部14の構成例を示すブロック図である。図2に示す例では、識別画像生成部14は、領域検出部141と、領域切取部142と、傾き補正部143とを含む。
 領域検出部141は、入力画像に含まれる識別部の画像領域を検出する。領域切取部142は、領域検出部141によって検出された識別部の画像領域の情報を基に、入力画像から識別部を含む所定の画像領域を切り取り、切り取った画像領域を有する部分画像を生成する。傾き補正部143は、生成された部分画像の傾きを補正する。
 領域検出部141は、例えば、入力画像から識別部を検出するための画像であって、識別部の特徴が表された画像であるマスタ画像を基に、入力画像に含まれる識別部の画像領域を検出してもよい。
 領域切取部142は、例えば、識別部の画像領域の外接矩形に相当する画像領域を切り取ってもよい。また、領域切取部142は、傾き補正部143で回転処理を行う場合など、補正後に切り取られる領域が出ることを見越して、識別部の画像領域を中心にした所定のサイズの矩形領域を切り取ってもよい。
 傾き補正部143は、例えば、部分画像に対して回転処理を行うなど2次元の角度変換を行うだけでなく、既知の3次元での角度変換処理を行ってもよい。例えば、キー画像と識別画像との間で対応する点の対を求め、その対応関係を利用して、キー画像と識別画像との間でホモグラフィー行列や基礎行列、基本行列などを用いる方法がコンピュータビジョンの分野で知られている。
 なお、領域切取部142と傾き補正部143の処理手順はこの限りではない。例えば、領域切取部142は、最初は切り取りたい領域を指定するだけにとどめ、傾き補正部143に指定した領域に対して傾きを補正させた後、補正後の画像から識別部が所定のサイズとなるように領域を切り出してもよい。
 上述したような識別画像生成部14によれば、所定の向きおよび大きさで表された識別画像を生成できる。また、印刷ラベルなど、管理対象物に対する識別部の向きが固定されている場合であって、管理対象物の向きが一定の登録用画像が容易に撮影できる場合には、傾き補正部143を省略することも可能である。そのような場合には、入力画像から識別部の外接矩形に相当する画像領域を有する識別画像を生成することにより、画像領域内において識別部の向きが、管理対象物に対する識別部の相対的な向きと一致する向きに固定された識別画像を得ることができる。
 本実施形態において、リスト記憶部11は、例えば記憶装置によって実現される。また、登録用画像入力部12および検索用画像入力部13は、例えば撮像手段などの画像データを入力可能な入力装置や、そのような入力装置を含む外部機器とのインタフェース部によって実現される。また、識別画像生成部14、識別画像登録部15および識別画像検索部16は、例えば、図25に示すような、CPU(Central Processing Unit)等のプログラムに従って動作する情報処理装置600によって実現される。情報処理装置600は、例えば以下の構成を含む。
・CPU601
・ROM(Read Only Memory)602
・RAM(Ramdom Access Memory)603
・RAMにロードされるプログラム604
・プログラムを格納する記憶装置605
・記憶媒体606の読み書きを行うドライブ装置607
・ネットワーク609と接続する通信インタフェース608
・データの入出力を行う入出力インタフェース610
・各構成要素を接続するバス611
 次に、本実施形態の管理システムの動作を説明する。本実施形態の管理システムの動作は、必要な情報をリストに登録するリスト作成動作と、リストを検索して必要な情報を得るリスト照合動作とに大別される。
 図3は、本実施形態の管理システムのリスト作成動作の一例を示すフローチャートである。図3に示すように、まず登録用画像入力部12が、管理対象物の識別部を撮影した登録用画像を入力する(ステップS101)。
 次いで、識別画像生成部14が、入力された登録用画像から識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する(ステップS102)。
 次いで、識別画像登録部15が、生成された識別画像を、指定された識別単位の識別画像として管理対象物リストに登録する(ステップS103)。
 他に登録する管理対象物があれば、ステップS101に戻り、以上の動作を繰り返す(ステップS104のYes)。
 また、図4は、本実施形態の管理システムのリスト照合動作の一例を示すフローチャートである。図4に示すように、まず検索用画像入力部13が、管理対象物の識別部を撮影した検索用画像を入力する(ステップS201)。
 次いで、識別画像生成部14が、入力された検索用画像から識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する(ステップS202)。
 次いで、識別画像照合部16が、生成された識別画像をキー画像として、管理対象物リストに登録されている識別画像の各々と照合する(ステップS203)。そして、識別画像照合部16が、照合結果を出力する(ステップS204)。
 以上のように、本実施形態の管理システムでは、リストの登録時とリストの照合時の両方で所定の向きおよび大きさで表された識別画像を生成し、一方を保持し、他方を保持したものとの照合に用いている。したがって、本実施形態の管理システムによれば、十分な識別性能を得つつ、リスト作成時とリスト照合時の両方においてかかる手間および処理負荷を抑えることができる。なぜなら、ユーザはリストに登録したい管理対象物の識別部を撮影するだけで、識別コードの代わりとなる識別画像が自動でリストに登録され、また照合したい管理対象物の識別部を撮影するだけで、自動でリストとの照合を行えるからである。
 また、本実施形態の管理システムではリストの照合に画像認識処理を用いているので、自由な書式に対応できる。また、識別画像を、人が認識しやすい画像(背景など余計な物が多く含まれず、また向きが固定された画像)で保持することにより、リストを表示した際に視認しやすく、利便性が向上する。また、管理対象物を紛失した場合に識別画像を手がかりにして人が捜しやすいといった効果も得られる。
 なお、図1にはすべての構成要素が1つの装置に実装される例が示されているが、例えば、図5に示すように、各構成要素は2以上の装置に分かれて実装されてもよい。図5は、本実施形態の管理システムの他の構成例を示すブロック図である。図5に示す管理システムは、記憶装置110と、リスト作成装置120と、リスト照合装置130とを備えている。本例において、記憶装置110は、リスト記憶部11を含む。また、リスト作成装置120は、登録用画像入力部12と、識別画像生成部14Aと、識別画像登録部15とを含む。また、リスト照合装置130は、検索用画像入力部13と、識別画像生成部14Bと、識別画像照合部16とを含む。
 なお、図5に示す例において、識別画像生成部14Aと識別画像生成部14Bとは、少なくとも同じ識別単位であれば同じ向きおよび同じ大きさとなるように予め定められた方法を用いて、識別画像を生成する。例えば、識別画像生成部14Aと識別画像生成部14Bとを同じ機能モジュールによって実現してもよい。また、例えば識別画像生成部14Aと識別画像生成部14Bとを各装置では備えずに、識別画像生成部14を備えた所定のサーバを用意し、そのサーバに処理を依頼して識別画像を得る構成としてもよい。
 (第2の実施形態)
 次に、本発明の第2の実施形態について説明する。図6は、第2の実施形態の管理システムの構成例を示すブロック図である。図6に示す管理システムは、図1に示す第1の実施形態と比べて、さらにマスタ画像記憶部17と、付加情報入力部18と、付加情報登録部19と、リスト表示部20とを備える点が異なる。
 マスタ画像記憶部17は、マスタ画像を記憶する。マスタ画像は、上述したように、入力画像から識別部を検出するための画像であって、識別部の特徴が表された画像である。例えば、識別部が印刷ラベルであれば、マスタ画像は未記入の印刷ラベルを撮影した画像であってもよい。また、印刷部が顔であれば、マスタ画像は一般的な「顔」を表した画像(例えば、複数の人の顔画像を統計的に処理して平均化した画像等)であってもよい。また、マスタ画像は1つに限られない。なお、識別画像はリスト化の対象とされるもの(管理対象物)を判別するためのものであり、マスタ画像はリスト化の対象かどうか(管理対象物か否か)を判定するためのものであって、両者の役割は異なる。
 マスタ画像記憶部17に記憶されたマスタ画像は、識別画像生成部14における、入力画像に対するトリミング処理や拡大・縮小処理や回転処理や傾きの補正処理の際に利用される。
 付加情報入力部18は、識別画像の他に識別子と関連付けて管理対象物リストに登録される情報である付加情報を入力する。また、付加情報登録部19は、付加情報入力部18が入力した付加情報を、指定された識別単位の付加情報として管理対象物リストに登録する。識別単位の指定は、付加情報の入力と併せてユーザに入力させてもよいし、識別画像の登録に続けて入力される場合には、登録用画像における指定を引き継いでもよい。また、識別画像の照合の結果を利用することも可能である。
 付加情報は、管理対象物に関する情報であれば特に問わない。付加情報は、例えば、管理対象物の状態を示す情報や、複数ある場合にはその個数であってもよい。また、付加情報は、物流システムに適用される場合に、チェックポイントごとの到達有無や到達日時といった運搬状況を示す情報であってもよい。また、運搬状況を示す情報は、例えば、各チェックポイントにおいて検索用画像から生成された識別画像(キー画像)であってもよい。キー画像を運搬状況を示す情報として登録しておけば、仮に照合ミスがあっても後で容易に確認できる。
 また、付加情報は、管理対象物の中身を示す情報を含んでいてもよい。中身を示す情報は、中身または中身を示す文字等を撮影した画像(以下、中身画像という。)であってもよい。
 また、中身画像を自動で抽出するために、例えば、各管理対象物に中身を示す文字等を記載する印刷ラベル等を付してもよい。そのような場合に、その印刷ラベルを検出するためのマスタ画像を用意してもよい。また、各管理対象物の予め定められた枠内等に中身を示すラベルや中身を撮影した画像等を貼っておき、それを固定カメラで撮影してもよい。
 このように検索用のキー画像となる識別画像とは別に、ユーザが見て管理対象物を認識できる中身画像を付随画像として登録しておくことによって、ユーザの確認作業が容易になる。なお、付随画像は、識別子と関連付けて登録される、識別画像以外の画像の総称であって、管理対象物に関する情報が表された画像であれば中身画像に限らない。識別画像と同様、画像形式で保持する構成によれば、ユーザは撮影するだけでデータを登録でき、手入力の手間が省ける。
 また、リスト表示部20は、リスト記憶部11に記憶されている管理対象物リストの登録内容を適宜表示する。リスト表示部20は、例えば、リストの登録内容を表示するリスト表示画面を生成して、管理対象物リストの登録内容をユーザに提示する。
 リスト表示画面は、例えば、識別子ごとの識別画像とあれば付加情報とを一覧にして表示する領域とを含んでいてもよい。なお、数が多い場合にはスクロール機能を設けてもよい。
 また、リスト表示部20は、リスト表示画面以外にも、登録画面や、検索画面をユーザに提供してもよい。なお、登録画面や検索画面は、識別画像登録部15や識別画像照合部16が生成し、表示してもよい。
 登録画面は、例えば、識別部の撮影用のプレビュー領域と、生成された識別画像のプレビュー領域と、撮影を指示するボタンと、現在リストに登録されている内容を簡単に表示する簡易表示領域と、識別単位の別を指定するボタンとを含んでいてもよい。ここで、識別単位の別とは、処理対象を次の識別単位へ移行する旨等である。なお、さらに付随画像の撮影用のプレビュー領域を含んでいてもよい。ここで、撮影用のプレビュー領域は、撮像手段と連動して画像を表示する領域である。また、プレビュー領域は、ユーザに処理の対象を確認させるための領域であって、処理の対象とする画像を表示する領域である。
 検索画面は、例えば、検索用画像の撮影用のプレビュー領域と、検索用画像から生成された識別画像のプレビュー領域と、照合を指示するボタンと、照合の結果認識されたリスト要素を表示する特定要素表示領域と、特定要素表示領域に示されるリスト要素に対して指定の付加情報の登録を指示するボタンとを含んでいてもよい。
 検索画面は、例えば、以下の要素を含んでいてもよい。
・検索用画像の撮影用のプレビュー領域
・検索用画像から生成された識別画像のプレビュー領域
・照合を指示するボタン
・照合の結果認識されたリスト要素を表示する特定要素表示領域
・特定要素表示領域に示されるリスト要素に対して指定の付加情報の登録を指示するボタン
特定要素表示領域は、認識されたリスト要素の識別画像を表示する領域だけでなく、付随画像、特に中身画像を表示する領域を含んでいてもよい。入力画像から検出された識別画像であるキー画像と、照合の結果認識されたリスト内の識別画像である登録識別画像と、その登録識別画像と関連付けられている付随画像とを同時に表示することにより、人が照合結果を認識しやすくできる。すなわち、人目によってもキー画像と登録識別画像とを見比べることができ、認識結果が誤っていた場合にユーザが認識結果を訂正できる。また、登録識別画像だけでなく中身画像も併せて表示することで、管理対象物の中身が見えない場合にもそれが何かを知ることができる。したがって、物の場合などに扱いがしやすくなり、利便性が向上する。
 本実施形態において、マスタ画像記憶部17は、例えば記憶装置によって実現される。また、付加情報入力部18は、例えば撮像手段や画像データを入力可能な入力装置またはそのような入力装置から情報を入力するインタフェース部によって実現される。また、付加情報入力部18は、例えば撮像手段、マウス、キーボード、タッチパネルなどの画像データその他の情報を入力可能な入力装置や、そのような入力装置を含む外部機器とのインタフェース部によって実現される。付加情報登録部19は、例えば、CPU等のプログラムに従って動作する情報処理装置によって実現される。リスト表示部20は、例えば、ディスプレイやプリンタなど画面情報を出力可能な出力装置(表示装置を含む)や、そのような出力装置を含む外部機器とのインタフェース部と、CPU等のプログラムに従って動作する情報処理装置とによって実現される。
 次に、本実施形態の管理システムの動作を説明する。本実施形態の管理システムの動作も、リスト作成動作とリスト照合動作とに大別される。まず、リスト作成動作について説明する。図7は、本実施形態の管理システムのリスト作成動作の一例を示すフローチャートである。なお、第1の実施形態と同様の処理については同じステップ番号を付し、説明を省略する。
 図7に示すように、本実施形態では、ステップS103における識別画像の登録処理に続いて付加情報入力部18が、ユーザから付加情報の入力を受け付ける(ステップS301)。なお、付加情報の入力は、識別画像の登録処理の後に限らず、随時受け付け可能とする。
 付加情報が入力されると、付加情報登録部19が、入力された付加情報を、指定された識別単位の付加情報として管理対象物リストに登録する(ステップS302)。
 他に登録する管理対象物があれば、ステップS101に戻り、以上の動作を繰り返す(ステップS104のYes)。
 他に登録する管理対象物がなければ(ステップS104のNo)、リスト表示部20が、リスト表示画面を生成して、リスト記憶部11に記憶されている管理対象物リストの登録内容を表示する(ステップS303)。なお、リスト表示部20は、他に登録する管理対象物があっても、ユーザの指示に応じてリスト表示画面を生成し、その時点でリスト記憶部11に記憶されている管理対象物リストの登録内容を表示してもよい。
 次に、リスト照合動作について説明する。図8は、本実施形態の管理システムのリスト照合動作の一例を示すフローチャートである。
 図8に示す例では、ステップS204において識別画像の照合処理が完了すると、続けて付加情報入力部18が、ユーザから付加情報の入力を受け付ける(ステップS401)。付加情報入力部18は、例えば、チェックポイントを示す情報とともに、当該チェックポイントにおける運搬状況を示す情報の入力を受け付けてもよい。なお、付加情報の入力は、識別画像の照合処理の後に限らず、随時受け付け可能とする。また、付加情報入力部18は、例えば、ユーザが照合結果を確認してOKであれば、当該チェックポイントにおける運搬状況を示す情報として、確認OKを示す情報(到達有りを示す情報、到達日時等)を自動で入力してもよい。
 付加情報が入力されると、付加情報登録部19が、入力された付加情報を、指定されたまたは照合の結果特定された識別単位の付加情報として管理対象物リストに登録する(ステップS402)。
 他に照合する管理対象物があれば、ステップS201に戻り、以上の動作を繰り返す(ステップS403のYes)。
 他に照合する管理対象物がなければ(ステップS403のNo)、リスト表示部20が、リスト表示画面を生成して、リスト記憶部11に記憶されている管理対象物リストの登録内容を表示する(ステップS404)。なお、リスト表示部20は、他に照合する管理対象物があっても、ユーザの指示に応じてリスト表示画面を生成し、その生成時点でリスト記憶部11に記憶されている管理対象物リストの登録内容を表示してもよい。
 以上のように、本実施形態によれば、識別画像の登録または照合に続いて付加情報を登録できるので、第1の実施形態の効果に加えて、さらにリスト作成時とリスト照合時の両方においてかかる手間を低減できる。また、付加情報として付随画像(特に、中身画像)を登録することにより、人目にわかりやすいリストを提供できる。また、運搬状況を示す情報として、照合に用いたキー画像を登録しておけば、照合ミスを後から修正できる。
 また、図6にはすべての構成要素が1つの装置(例えば、パーソナルコンピュータや、タブレット端末等)に実装される例が示されているが、本実施形態においても、各構成要素は2以上の装置に分かれて実装されてもよい。図9は、本実施形態の管理システムの他の構成例を示すブロック図である。図9に示す管理システムは、図5に示した構成と比べて、記憶装置110がさらにマスタ画像記憶部17を含む点が異なる。また、リスト作成装置120が付加情報入力部18Aと付加情報登録部19Aとをさらに含み、リスト照合装置130が付加情報入力部18Bと付加情報登録部19Bとをさらに含む点が異なる。なお、マスタ画像記憶部17は、上述したマスタ画像記憶部17と同様でよい。また、付加情報入力部18A、18Bは、上述した付加情報入力部18と同様よい。また、付加情報登録部19A、19Bは、上述した付加情報登録部19と同様よい。
 (第3の実施形態)
 次に、本発明の第3の実施形態について説明する。以下では、オフィスを対象とした引っ越し用の物流システムにおいて、運搬対象とされた荷物(コンピュータ等が梱包された段ボール等)を管理するための管理システムに本発明を適用した例を示す。図10は、本実施形態の管理システムが行うリスト作成処理およびリスト照合処理の概要を示す説明図である。図10に示すように、本実施形態における管理対象物は運搬対象とされた荷物である。また、識別部は、運搬対象とされた荷物に付される印刷ラベルである。印刷ラベルには、荷物の行き先等が記入される。なお、荷物と印刷ラベルの記載とは1対1に対応するものとする。すなわち、本実施形態では、管理対象物の識別単位は管理対象物の各々(個体)とする。荷物と印刷ラベルとを1対1で対応付ける方法としては、例えば、同じ行き先の荷物にはさらに識別用に番号等を記載する、印刷ラベルに手書きで記載する等が挙げられる。
 図11は、本実施形態の管理システムの構成例を示すブロック図である。図11に示す管理システムは、記憶装置310と、チェックリスト作成部320と、チェックリスト照合部330とを備える。
 記憶装置310は、チェックリスト記憶部311と、マスタ画像記憶部312とを含む。
 チェックリスト記憶部311は、上述したリスト記憶部11に相当する部分であって、荷物ごとに固有のIDと対応付けて、荷物を識別するための識別画像に相当するラベル画像と、付加情報とが登録される荷物のチェックリストを記憶する。
 また、付加情報は、荷物の中身を撮影した中身画像と、チェックポイントごとの到達有無、到達日時およびキー画像としたラベル画像とを少なくとも含む。チェックポイントは、搬出元、中間地点、移転先等である。
 マスタ画像記憶部312は、上述したマスタ画像記憶部17に相当する部分であって、入力画像から印刷ラベルを検出するための画像であって、印刷ラベルの特徴が表された画像であるマスタ画像を記憶する。本実施形態では、各荷物に付される印刷ラベルは共通であるとし、印刷ラベルを未記入の状態で正面から撮影した画像をマスタ画像に用いる。
 また、チェックリスト作成部320は、登録用画像入力部321と、ラベル画像生成部322と、ラベル画像登録部323と、付加情報入力部324と、付加情報登録部325と、チェックリスト表示部326とを備える。
 登録用画像入力部321は、上述した登録用画像入力部12に相当する部分である。登録用画像入力部321は、例えば搬出元において、運搬対象とされた荷物の印刷ラベルを撮影した登録用画像を入力する。例えば、登録用画像入力部321は、ユーザ操作に応じて撮像手段を制御するまたは画像データを取り込むなどして、運搬対象とされた荷物の印刷ラベルを被写体に含む登録用画像を入力する。その際、登録用画像入力部321は、印刷ラベルを撮影するための撮影機能を提供するラベル撮影画面等を表示して、ユーザに印刷ラベルを撮影するためのインタフェースを提供してもよい。
 ラベル画像生成部322は、上述した識別画像生成部14に相当する部分である。ラベル画像生成部322は、マスタ画像記憶部312に記憶されているマスタ画像を基に、入力された登録用画像から印刷ラベルを検出し、検出された印刷ラベルが所定の向きおよび大きさで表されたラベル画像を生成する。本実施形態では、ラベル画像生成部322は、登録用画像に含まれる印刷ラベルが、マスタ画像に表されている印刷ラベルの向きおよび大きさと同じ向きおよび大きさで表されたラベル画像を生成する。なお、登録用画像に含まれる印刷ラベルの向きおよび大きさが、印刷ラベルの向きおよび大きさと同じでない場合には、入力画像に対して、トリミング処理や拡大・縮小処理や回転処理や傾きの補正処理を行う。
 なお、入力画像からラベル領域を検出する方法としては、例えば、画像中から抽出される特徴点の組み合わせをマスタ画像と比較することにより検出してもよい。例えば、SIFT(Scale-Invariant Feature Transform)特徴点、SURF(Speeded Up Robust Features)特徴点、コーナー特徴点など、画像中から求められる特徴点の対応関係を利用できる。具体例として、国際公開第13/089004号パンフレットに記載の方法や、米国特許第6711293号明細書に記載の方法を用いてもよい。例えば、国際公開第13/089004号パンフレットには、局所特徴点ベース手法の例が記載されている。ラベル画像生成部322は、局所特徴点ベース手法を用いて、例えば、画像から抽出される特徴的な点(特徴点)の情報から特徴量抽出を行う局所領域を取得し、取得した局所領域を分割した結果であるサブ領域に対して特徴ベクトルを生成してもよい。そして、このようにして入力画像から生成された特徴ベクトルを、マスタ画像から生成された特徴ベクトルと照合して、特徴点の対応関係を求める。そして、求めた特徴点の対応関係を利用して、マスタ画像と入力画像との間の幾何変換に関するパラメータを求め、求めたパラメータとマスタ画像とから入力画像中のラベル領域を検出する。
 また、例えば、印刷ラベルが長方形である場合には、印刷ラベルの形状を利用してラベル領域を検出してもよい。より具体的には、一般化ハフ変換を用いてもよい。また、ハフ変換で4本の直線を検出し、4本の直線で囲まれる領域を検出するようにすれば、マスタ画像を省略できる。この他、印刷ラベルに特殊なマークを印刷しておき、そのマークを検出することにより、ラベル領域を検出することも可能である。
 また、傾きの補正量を求める方法としては、例えば、マスタ画像と入力画像とを比較して、ラベル領域と位置補正パラメータ(上述した幾何変換パラメータ等)を求めることにより行ってもよい。また、例えば検出されたラベル領域における画像と「正しい向き」を指定する情報との比較により傾きを補正してもよい。また、例えば、画像中から抽出される特徴点の組み合わせと、予め「正しい向き」に登録しておいたマスタ画像から抽出される特徴点の組み合わせとを比較して、傾きの補正量を求めてもよい。また、例えば、印刷ラベルが長方形であれば、その形状を利用することも可能である。すなわち、長方形の辺が水平または垂直になるように回転させてもよい。また、ラベルに向きを特定可能な特殊なマークを印刷しておき、そのマークの向きを基に傾きの補正量を求めてもよい。なお、マスタ画像にも同様の特殊なマークを印刷しておけば、これらマークの傾き度合いを比較して、傾きの補正量を求めることも可能である。そのようにして求めた補正量を基に、入力画像(特に、ラベル領域を含む所定の画像領域)の傾きを補正する。
 なお、図10に示す例では、入力画像からラベル領域を切り出して正しい向きに補正した画像をラベル画像として生成する例が示されている。しかしながら、例えば、図12(a)に示すように、印刷ラベルが付された周りの部分を含む画像をラベル画像として生成してもよい。また、図12(b)に示すように、荷物に対して定められた正しい向きで表された印刷ラベルの外接矩形領域を切り出してなる部分画像をラベル画像として生成してもよい。荷物の一部や荷物に対する印刷ラベルの相対的な向きの情報をラベル画像に含めることにより、ラベル画像の識別性を高めることができる。
 ラベル画像登録部323は、上述した識別画像登録部15に相当する部分である。ラベル画像登録部323は、ラベル画像生成部322によって登録用画像から生成されたラベル画像を、ユーザからの登録指示に応じて、指定された識別単位の識別画像としてチェックリストに登録する。本実施形態では、ラベル画像を登録するごとに新たなIDを割り当てる。
 また、付加情報入力部324は、上述した付加情報入力部18に相当する部分であって、本実施形態では、付随画像入力部327とチェックポイント入力部328とを含む。
 付随画像入力部327は、付加情報として、付随画像を入力する。例えば、付随画像入力部327は、ユーザ操作に応じて撮像手段を制御するまたは画像データを取り込むなどして荷物の中身または中身を示す文字等を撮影した中身画像を入力する。その際、付随画像入力部327は、中身を撮影するための撮影機能を提供する中身画像撮影画面を表示して、ユーザに中身画像を撮影するためのインタフェースを提供してもよい。
 また、付随画像入力部327は、入力された画像から荷物の中身が表された領域(中身領域)を検出して切り出す機能を有していてもよい。付随画像入力部327は、例えば、識別部である印刷ラベルを検出する方法と同様の方法を用いて、中身を示す文字等が記載された第2の印刷ラベルを検出してもよい。
 チェックポイント入力部328は、付加情報として、チェック対象となるロケーション(チェックポイント)を示す情報を入力する。チェックポイント入力部328は、例えば、チェックポイント選択画面等を用意して、ユーザに予め設定されている複数のロケーションのうち、チェック対象となるロケーション(チェックポイント)を選択させ、その選択結果を入力する。
 付加情報登録部325は、上述した付加情報登録部19に相当する部分であって、付加情報入力部324を介して入力された付加情報を、指定された識別単位の付加情報としてチェックリストに登録する。
 チェックリスト表示部326は、上述したリスト表示部20に相当する部分であって、チェックリスト記憶部311に記憶されているチェックリストの登録内容を適宜表示する。
 また、チェックリスト照合部330は、検索用画像入力部331と、ラベル画像生成部332と、ラベル画像照合部333と、付加情報入力部334と、付加情報登録部335と、チェックリスト表示部336とを備える。
 検索用画像入力部331は、上述した検索用画像入力部13に相当する部分である。検索用画像入力部331は、例えば各チェックポイントにおいて、運ばれてきた荷物の印刷ラベルを撮影した検索用画像を入力する。例えば、検索用画像入力部331は、ユーザ操作に応じて撮像手段を制御するまたは画像データを取り込むなどして、運ばれてきた荷物の印刷ラベルを被写体に含む検索用画像を入力する。その際、検索用画像入力部331は、印刷ラベルを撮影するための撮影機能を提供するラベル撮影画面等を表示して、ユーザに印刷ラベルを撮影するためのインタフェースを提供してもよい。
 ラベル画像生成部332は、上述した識別画像生成部14に相当する部分である。ラベル画像生成部322は、マスタ画像記憶部312に記憶されているマスタ画像を基に、入力された検索用画像から印刷ラベルを検出し、検出された印刷ラベルが所定の向きおよび大きさで表されたラベル画像を生成する。ラベル画像の生成方法は、ラベル画像生成部322と同様である。
 ラベル画像照合部333は、上述した識別画像照合部16に相当する部分である。ラベル画像照合部333は、検索用画像が入力された場合に、検索用画像から生成されたラベル画像をキー画像として、チェックリストに登録されているラベル画像の各々と照合し、照合結果を出力する。
 本実施形態のラベル画像照合部333は、ある場所で撮影された画像から得たラベル画像と、別の場所で撮影された画像から得たラベル画像が一致するか否かを判定する照合機能を有する。具体的には、ラベル画像照合部333は、キー画像と、チェックリストに登録されているラベル画像の各々との間の一致度を算出し、算出された各々の一致度に基づいて判定する。ラベル画像照合部333は、キー画像とラベル画像とを照合する代わりに、キー画像の予め指定された領域(例えば、後述するユーザ記載領域)とラベル画像の予め指定された領域(例えば、後述するユーザ記載領域)とを比較することで一致度を判定してもよい。ラベル画像の一致度を見る方法としては、画像間の差分や正規化関数など、画像を信号レベルで比較する方法を優先的に用いることが好ましい。また、文字の配置を使って、文字列画像を照合する文字画像照合技術を利用してもよい。例えば、国際公開第10/053109号パンフレットに記載されている文字画像照合技術を用いてもよい。国際公開第10/053109号パンフレットには、二値化後に得られる連結領域の配置を利用して、予め登録された画像と、検索質問となる画像(キー画像)との一致度を判定する方法が記載されている。連結領域は、二値画像におけるひとまとまりの領域である。
 なお、照合対象とされた両画像に対して文字認識処理を行うことも可能である。その場合は、文字認識結果を基にテキストベースで比較してもよい。また、照合対象とされた両画像にバーコードが含まれる場合には、当該バーコードの読み取り結果であるテキストを比較してもよい。
 付加情報入力部334は、上述した付加情報入力部18に相当する部分であって、本実施形態では、チェック結果入力部337を含む。
 チェック結果入力部337は、付加情報として、チェックポイントを示す情報とともに、当該チェックポイントにおける運搬状況を示す情報(到達有りを示す情報、到達日時等)を入力する。
チェック結果入力部337は、ラベル画像照合部333による照合の結果、リスト内の荷物が特定された際には、その荷物に対する当該チェックポイントにおける運搬状況を示す情報として、確認OKを示す情報を自動で入力してもよい。確認OKを示す情報は、例えば、到達有りを示す情報、到達日時等である。なお、荷物が特定されたか否かは、候補とされるリスト内要素が1つに絞られたか否かや、ユーザによる照合結果の確認結果に応じて判定できる。
 また、チェック結果入力部337は、照合による荷物の認識結果が信頼できない場合に、チェック結果を取り消しまたは修正したり、画像による照合を伴わずにユーザが直接チェック結果を入力できるインタフェースを提供してもよい。チェック結果入力部337は、例えば、リストに、既に当該チェックポイントにおける荷物の運搬状況を示す情報が登録されている場合に、ユーザにその旨を表示してもよい。
 付加情報登録部335は、上述した付加情報登録部19に相当する部分であって、付加情報入力部334を介して入力された付加情報を、指定された識別単位の付加情報としてチェックリストに登録する。
 チェックリスト表示部336は、上述したリスト表示部20に相当する部分であって、チェックリスト記憶部311に記憶されているチェックリストの登録内容を適宜表示する。チェックリスト表示部336は、チェックリストの登録内容だけでなく、登録内容から求まる集計結果(進捗状況等)を表示してもよい。
 また、図13は、登録用画像入力部321または付加情報入力部324(特に、付随画像入力部327)が表示する登録画面の例を示す説明図である。図13に示す登録画面は、ラベル画像プレビュー領域A101と、付随画像プレビュー領域A102と、撮影ボタンA103と、付随画像撮影終了ボタンA104と、リスト画像表示領域A105と、戻るボタンA106とを含む。
 ラベル画像プレビュー領域A101(以下、単にプレビュー領域A101という。)は、印刷ラベルの撮影用および生成されたラベル画像の確認用のプレビュー領域である。プレビュー領域A101は、初期状態では、撮像手段のプレビュー画面として機能する。撮影ボタンA103の押下(またはタッチ)により撮影が行われる。撮影後、プレビュー領域A101には、撮影画像(登録用画像)から生成されたラベル画像が表示される。また、プレビュー領域A101に対する撮影指示により、撮影画像から生成されたラベル画像が新たなリストに登録される。
 付随画像プレビュー領域A102(以下、単にプレビュー領域A102という。)は、付随画像の撮影用および生成された付随画像の確認用のプレビュー領域であるが、初期状態では特に何も表示されない。ラベル画像が生成されてプレビュー領域A101に表示されると付随画像撮影モードとなって、プレビュー領域A102は、撮像手段のプレビュー画面として機能する。撮影ボタンA103の押下により撮影が行われる。撮影後、プレビュー領域A102は、次の撮影のための撮像手段のプレビュー画面として機能する。また、プレビュー領域A102に対する撮影指示により、撮影画像が、表示中のラベル画像に関連付けられたIDの付随画像としてリストに登録される。
 撮影ボタンA103は、撮影を指示するボタンである。また、付随画像撮影終了ボタンA104は、付随画像撮影モードの終了を指示するボタンである。付随画像撮影終了ボタンA104の押下により、付随画像撮影モードが終了し、ラベル画像撮影モード(初期状態)に切り替わる。
 リスト画像表示領域A105は、チェックリスト内に現在登録されている画像(ラベル画像とあれば付随画像)を、IDごとにグループ化して表示する領域である。リスト画像表示領域A105は、図13に模式的に矢印で示すように、横スクロールができ、また表示中の画像または画像グループの選択が可能である(矢印に関しては、図14及び図15も同様である)。リスト画像表示領域A105に表示中の画像または画像グループが選択されると、修正画面に移行する。
 戻るボタンA106は、当該画面を終了し、元の画面または上位画面に戻る旨を指示するボタンである。
 図14は、登録用画像入力部321または付加情報入力部324(特に、付随画像入力部327)が表示する修正画面の例を示す説明図である。図14に示す修正画面は、ラベル画像プレビュー領域B101と、付随画像プレビュー領域B102と、捨てるボタンB103と、リスト画像表示領域B104と、戻るボタンB105とを含む。
 ラベル画像プレビュー領域B101および付随画像プレビュー領域B102(以下、単にプレビュー領域B101およびプレビュー領域B102という。)は、修正対象とされたラベル画像および付随画像を表示する。修正対象は、当該修正画面または当該修正画面に移行する前の登録画面のリスト画像表示領域において選択された画像である。例えば、リスト画像表示領域内においてラベル画像がクリックされた場合には、当該ラベル画像に関連付けられたIDの画像グループが修正対象とされる。その場合、クリックされたラベル画像と付随画像とがプレビュー領域B101およびB102に表示される。なお、付随画像が複数ある場合は、プレビュー領域B102にスクロール機能を設けてもよい。また、例えばリスト画像表示領域内において付随画像がクリックされた場合には、当該付随画像が修正対象とされる。その場合、クリックされた付随画像と、その付随画像のIDに関連するラベル画像とがプレビュー領域B101およびB102に表示される。また、ラベル画像が表示されているプレビュー領域B101を選択操作によりアクティブにした状態で、捨てるボタンB103が押下された場合には、再度のユーザ確認の上、リストからID全体が削除される。付随画像が表示されているプレビュー領域B102の1つを選択操作によりアクティブにした状態で、捨てるボタンB103が押下された場合には、再度のユーザ確認の上、リストから当該付随画像が削除される。
 なお、他の画面要素に関しては図13に示された登録画面における画面要素と同様である。
 また、図15は、検索用画像入力部331または付加情報入力部334(特に、チェック結果入力部337)が表示する検索・登録画面の例を示す説明図である。図15に示す検索・登録画面は、以下の要素を含む。
・検索用ラベル画像プレビュー領域C101
・認識結果表示領域C102
・撮影ボタンC103
・チェック結果入力ボタンC104
・リスト画像表示領域C105
・戻るボタンC106
・チェック結果表示領域C107
 検索用ラベル画像プレビュー領域C101(以下、単にプレビュー領域C101という。)は、キー画像とする印刷ラベルの撮影用および生成されたラベル画像の確認用のプレビュー領域である。プレビュー領域C101は、初期状態では、撮像手段のプレビュー画面として機能する。撮影ボタンC103の押下により撮影が行われる。撮影後、プレビュー領域C101には、撮影画像(検索用画像)から生成されたラベル画像が表示される。また、プレビュー領域C101に対する撮影指示により、撮影画像から生成されたラベル画像をキー画像としてリストとの照合が行われる。
 認識結果表示領域C102は、照合の結果、認識された識別画像またはその候補とされた識別画像を、その識別画像に関連付けられたIDの付随画像とともに表示する領域である。識別画像と付随画像の組は、例えば、一致度の高い順に並べられて表示される。なお、ユーザが、リスト画像表示領域C105内のラベル画像を選択した場合、認識結果表示領域C102には、選択された識別画像とその識別画像に関連付けられたIDの付随画像とが表示される。
 チェック結果入力ボタンC104は、認識結果表示領域C102に表示中の識別画像に関連付けられているIDの荷物に関して、チェック結果(確認OK)の登録を指示するボタンである。なお、どのチェックポイントにおけるチェック結果とするかを、確認画面に移行する際に選択できるようにしてもよい。
 チェック結果表示領域C107は、認識結果表示領域C102に表示中の識別画像に関連付けられているIDの荷物に関して、リストに登録されているチェック結果(他のチェックポイントを含む。)を表示する領域である。
 なお、他の画面要素に関しては図13に示された登録画面における画面要素と同様である。なお、本例では、リスト画像表示領域C105に表示する順番を認識順位、すなわち一致度の高い順としてもよい。
 また、図16は、チェックリスト表示部326またはチェックリスト表示部336が表示するリスト表示画面の一例を示す説明図である。図16に示すリスト表示画面は、チェックリストの登録内容を表示する領域D101と、登録内容から求まる集計結果(進捗状況等)とを表示する領域D102とを含む。また、本例のリスト表示画面では、領域D101に含まれる画像をクリックすると、拡大表示される。また、各チェックポイントでのチェック結果に対して、チェック結果の取り消しや手入力による修正が可能である。
 なお、図示した各種図面はあくまで一例であって、これらに限定されない。各画面に含ませる要素(ボタンや各種表示用の領域等)や領域内の構成や位置などは適宜変更されうる。
 次に、本発明の管理システムに好適な印刷ラベルについて図面を用いて説明する。図17および図18は、印刷ラベルのデザイン例を示す説明図である。図17および図18に示すように、印刷ラベルは、ラベル領域の抽出に適した領域E101と、文字画像照合に適した領域E102とを含むことが好ましい。さらに、領域E101は、図17に示すように、上端に比べて下端の長さが大きいなど、向きを特定可能な特徴が含まれていることが好ましい。また、図18に示すように、ラベル領域の抽出時に局所特徴量が抽出しやすい、固定のデザインE103が印刷されていることが好ましい。なお、本例では、領域E102が、ユーザによって自由な記載が可能なユーザ記載エリアとなる。以下、領域E102をユーザ記載領域E102と表現する場合がある。なお、領域E101と領域E102とは、簡単に領域抽出ができるよう、外形形状が矩形であることが好ましい。また、領域E101は、背景および文字色以外の色で色づけされていることが好ましい。
 また、図19~図22は、ユーザ記載領域E102の他のデザイン例を示す説明図である。例えば、図19に示すように、ユーザ記載領域E102は、ユーザが文字(記号などの特殊文字を含む)を記載する目安となる領域である記載フィールドが黄色などの薄い色(背景色との差が所定量以下の色)で印刷されていてもよい(符号E104-1参照。)。このように、人には見えるが、機械には見分けがつきにくい着色を施すと、図23に示すように、ユーザ記載領域E102に対するヒストグラム上における画素値の分布が大きく二分されて、文字と背景との分離をしやすくできる。したがって、識別性能を保ったままユーザが記載しやすい印刷ラベルとすることができる。例えば、本システムの入力画像の少なくともいずれかの撮影に利用する撮像手段で印刷ラベルを撮影した際に、文字を構成する画素値の分布と、背景を構成する画素値の分布が互いに離れるような背景の印刷色を予め実験により求め、その色を印刷するようにすればよい。ここで、入力画像は、登録用画像または検索用画像である。撮像手段は、カメラ、スキャナ等である。文字を構成する画素値は、輝度値又はRGB(赤、緑、青)等カラーの画素値である。背景を構成する画素値は、輝度値又はRGB等カラーの画素値である。また、背景とは、ユーザ記載領域のうち文字が記入も印刷もされていない領域をいう。背景は、例えば、記載フィールド以外のユーザ記載領域の部分(ユーザ記載領域の余白部分)と、あれば記載フィールドの枠線と、記載フィールドのうち未記入の状態で何も印刷されていない部分(記載フィールドの余白部分)とを含む領域である。文字と背景との分離の容易性を考えると、文字を構成する画素値の分布と背景を構成する画素値の分布との間のオーバーラップは0であるのが好ましい。なお、背景に用いられた色が鮮明に撮影されない場合を想定すると、分布間のオーバーラップは必ずしも0でなくてよく、任意の上限値を設定してもよい。例えば、両者の分布がオーバーラップする画素の数の上限を、以下のように設定することも可能である。
画素数の上限=(α×(記載フィールドとユーザ記載領域の余白部分との境界線の長さ)+β×(ユーザ記載領域の余白部分と文字との境界線の長さ)+γ×(文字と記載フィールドの余白部分との境界線の長さ))×n
 なお、α、β、γは0以上1以下の実数、nは通常0以上4以下の実数である。このようにすれば、連結領域を求める方法として、予め文字と背景とを分離する輝度値(もしくは画素値)の閾値を設定しておくことが可能である。また、大津の二値化とも呼ばれる判別分析法(discriminant analysis method)などの、各画素が文字か背景かを決定する統計的手法を用いることも可能である。また、隣接画素の影響を考慮して最適化問題として定式化し結果を得ることも可能である。
 また、例えば、図20に示すように、ユーザ記載領域E102は、記載フィールドに沿って薄い色または細い線(点線でも可)が印刷されていてもよい(符号E104-2参照。)。また、図21に示すように、項目名だけが印刷され、記載フィールドの区分け線がなくてもよい。また、図22に示すように、ユーザ記載領域E102は、記載フィールドの境界に区切り記号が印刷されていてもよい(符号E104-3参照。)。区切り記号であれば、濃い色であっても連結領域の抽出処理によって簡単に切り離すことができる。また、区切り記号は措定される文字色と同じまたは類似した色で印刷してあってもよい。このときは、文字の連結領域と区切り記号の連結領域とを区別せずに、すべての連結領域を照合することも可能である。
 なお、上記で示した印刷ラベルのデザインはあくまで一例であって、これらに限定されない。印刷ラベルに含ませる要素(各種領域)や領域内の構成や位置などは適宜変更されうる。
 以上のように、本実施形態によれば、ユーザは簡単な画面操作だけで運搬対象とされた荷物の運搬状況を管理できる。
 なお、図11では、チェックリスト作成部320とチェックリスト照合部330とが分かれて実装される例が示されているが、チェックリスト作成部320とチェックリスト照合部330とを分けずに実装することも可能である。そのような場合には、ラベル画像生成部322と332とは、1つのラベル画像生成部として実装してもよい。付加情報登録部325と335、チェックリスト表示部326と336についても同様に1つの部として実装できる。
 次に、本発明の各実施形態に共通する管理システムの最小構成について説明する。図24は、本発明による管理システムの最小の構成例を示すブロック図である。図24に示す管理システムは、リスト記憶部501と、識別画像生成部502と、識別画像登録部503と、識別画像照合部504とを備える。
 リスト記憶部501(例えば、リスト記憶部11、チェックリスト記憶部311)は、管理対象物を識別するための識別画像が登録される管理対象物リストを記憶する。識別画像は、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子が関連付けられている。
 識別画像生成部502(例えば、識別画像生成部14、ラベル画像生成部322、332)は、入力画像から、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を検出する。そして、識別画像生成部502は、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する。
 識別画像登録部503(例えば、識別画像登録部15、ラベル画像登録部323)は、管理対象物の識別部を撮影した第1の画像が入力された場合に、第1の画像から生成された識別画像を、指定された識別単位の識別画像として管理対象物リストに登録する。
 識別画像照合部504(例えば、識別画像照合部16、ラベル画像照合部333)は、管理対象物の識別部を撮影した第2の画像が入力された場合に、第2の画像から生成された識別画像をキー画像として、管理対象物リストに登録されている識別画像の各々と照合する。
 したがって、最小構成の管理システムによれば、十分な識別性能を得つつ、リスト作成時とリスト照合時の両方においてかかる手間および処理負荷を抑えることができる。
 また、識別画像生成部502は、以下の構成を含んでもよい。
・入力画像に含まれる識別部の画像領域を検出する領域検出部
・領域検出部によって検出された識別部の画像領域の情報を基に、入力画像から識別部の画像領域を含む所定の画像領域を切り取り、切り取った画像領域からなる識別画像を生成する領域切取部
・領域切取部によって生成された識別画像に対して、傾きを補正する処理を行う傾き補正部
 傾き補正部は、補正後の画像領域内における識別部の向きが、予め定められている正しい向きとなるように3次元の角度変換を行ってもよい。
 また、識別画像生成部は、以下の構成を含んでもよい。
・入力画像に含まれる識別部の画像領域を検出する領域検出部
・領域検出部によって検出された識別部の画像領域の情報を基に、入力画像から識別部の外接矩形に相当する画像領域を切り取り、切り取った所定の画像領域からなる識別画像を生成する領域切取部
 また、管理システムは、入力画像から識別部を検出するための画像であって、識別部の特徴が表された画像であるマスタ画像を記憶するマスタ画像記憶部を備え、識別画像生成部は、マスタ画像を基に、入力画像から識別画像を生成してもよい。
 また、リスト記憶部501は、識別子と関連付けて、さらに、管理対象物に関する情報が表された付随画像が登録される管理対象物リストを記憶してもよい。そのような場合に、管理システムは、指定された識別単位に属する管理対象物の付随画像を入力する付随画像入力部と、入力された付随画像を、指定された識別単位の付随画像として管理対象物データリストに登録する付随画像登録部とを備えていてもよい。
 また、管理システムは、第2の画像が入力された場合に、以下の画像を表示する領域を含む検索結果画面を表示する表示部を備えていてもよい。
・第2の画像から得た識別画像であるキー画像
・管理対象物リスト内でキー画像と最も類似した識別画像である登録識別画像
・登録識別画像が属する識別単位の付随画像
 また、識別部が、管理対象物に付される印刷ラベルであってもよい。
 また、管理システムは、例えば、物流システムにおいて、運搬対象とされた荷物を管理するための管理システムである。そして、この管理システムは、管理対象物が、運搬対象とされた荷物であってもよい。そのような場合に、リスト記憶部は、識別子と関連付けて、さらに、荷物の運搬状況を示す情報が登録される管理対象物リストを記憶してもよい。また、管理システムは、状況登録部を備えていてもよい。状況登録部は、チェックポイントごとに、第2の画像として荷物を撮影して得られた検索用画面をユーザに入力させる。そして、状況登録部は、入力された検索用画面から得られる識別画像をキー画像として用いた照合の結果、認識された管理対象物の識別子と関連付けて、荷物の運搬状況を示す情報を管理対象物データリストに登録する。
 また、状況登録部は、入力された第1の画面から得られる識別画像の照合結果、特定された識別子に関連付けて、既に当該チェックポイントにおける荷物の運搬状況を示す情報が登録されている場合に、ユーザにその旨を表示してもよい。また、状況登録部は、重複して認識された回数を数えて、リストに登録してもよい。
 また、管理システムは、例えば、物流システムにおいて、配送対象とされた荷物を管理するための管理システムである。そして、この管理システムは、チェックポイント登録部を備えていてもよい。チェックポイント登録部は、識別子と関連付けて、さらに、チェックポイントを示す情報が登録される管理対象物リストを記憶するリスト記憶部と、指定された識別単位のチェックポイントを示す情報を、管理対象物データリストに登録する。
 また、識別画像登録部503は、識別画像を登録する前に、当該識別画像をキー画像として管理対象物リストに登録されている識別画像の各々と照合し、当該キー画像との一致度が所定の値以上の識別画像が管理対象物リストに登録されている場合に、ユーザにその旨を表示してもよい。
 また、上記の例では、主に画像をグレースケールであるものとして説明したが、カラー画像を用いてもよい。カラー画像を用いる場合、任意の色空間(RGB、YUV等)からグレースケールに変換する式を用いて、カラー画像をグレースケールに変換することができる。また、色空間の各チャンネル画像(例えば、RGBの場合はRを画素値とする画像、Gを画素値とする画像、Bを画素値とする画像)に分けてそれぞれの空間において上述の照合処理を行い、論理和(OR)や論理積(AND)などの方法で結果を統合してもよい。また、カラー画像から連結領域を求める場合は、色空間内で既知のクラスタリング手法を適用して、同一クラスタの色のひとまとまりを連結領域として利用してもよい。
 また、上記では、画像同士の照合方法の例として、照合対象の画像のそれぞれから計算される画像特徴量同士を比較する例が示されている。そのような画像特徴量の比較によって画像同士の照合を行う場合、照合先となる識別画像をリストに登録する際に、該識別画像から画像特徴量を抽出し、抽出された画像特徴量を付加情報としてリストに登録してもよい。このようにすることで、キー画像との照合時にリスト内の各識別画像から画像特徴量を抽出する処理が省略可能になるため、照合処理が高速に動作する利点がある。なお、入力された登録用画像から識別部の画像領域を検出する際に行われる登録用画像とマスタ画像との照合においても同様である。すなわち、マスタ画像を登録する際にマスタ画像から画像特徴量を抽出して登録してもよい。このようにすることで、登録用画像との照合時にマスタ画像から画像特徴量を抽出する処理が省略可能になるため、識別領域の検出処理が高速に動作する利点がある。
 以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態及び実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2013年10月31日に出願された日本出願特願2013-226175を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、物流システムに限らず、リストを用いて人や物を管理する用途に好適に適用可能である。
11、501 リスト記憶部
12、321 登録用画像入力部
13、331 検索用画像入力部
14、14A、14B、502 識別画像生成部
141 領域検出部
142 領域切取部
143 傾き補正部
15、503 識別画像登録部
16、504 識別画像照合部
17、312 マスタ画像記憶部
18、18A、18B、324、334 付加情報入力部
19、19A、19B、325、335 付加情報登録部
20、20A、20B リスト表示部
110、310 記憶装置
120 リスト作成装置
130 リスト照合装置
311 チェックリスト記憶部
320 チェックリスト作成部
322、332 ラベル画像生成部
323 ラベル画像登録部
326、336 チェックリスト表示部
327 付随画像入力部
328 チェックポイント入力部
330 チェックリスト照合部
333 ラベル画像照合部
337 チェック結果入力部
600 情報処理装置
601  CPU
602  ROM
603  RAM
604  プログラム
605  記憶装置
606  記憶媒体
607  ドライブ装置
608  通信インタフェース
609  ネットワーク
610  入出力インタフェース
611  バス

Claims (15)

  1.  管理対象物を識別するための識別画像であって、当該管理対象物を識別する最小の単位である識別単位ごとに固有の識別子が関連付けられた識別画像が登録される管理対象物リストを記憶するリスト記憶手段と、
     入力画像から、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する識別画像生成手段と、
     管理対象物の識別部を撮影した第1の画像が入力された場合に、前記第1の画像から生成された識別画像を、指定された識別単位の識別画像として前記管理対象物リストに登録する識別画像登録手段と、
     管理対象物の識別部を撮影した第2の画像が入力された場合に、前記第2の画像から生成された識別画像をキー画像として、前記管理対象物リストに登録されている識別画像の各々と照合する識別画像照合手段とを備えた
     ことを特徴とする管理システム。
  2.  前記識別画像生成手段は、
     前記入力画像に含まれる識別部の画像領域を検出する領域検出手段と、
     前記領域検出手段によって検出された識別部の画像領域の情報を基に、前記入力画像から識別部の画像領域を含む所定の画像領域を切り取り、切り取った画像領域からなる識別画像を生成する領域切取手段と、
     前記領域切取手段によって生成された識別画像に対して、傾きを補正する処理を行う傾き補正手段とを含む
     請求項1に記載の管理システム。
  3.  前記傾き補正手段は、補正後の画像領域内における識別部の向きが、予め定められている正しい向きとなるように3次元の角度変換を行う
     請求項2に記載の管理システム。
  4.  前記識別画像生成手段は、
     前記入力画像に含まれる識別部の画像領域を検出する領域検出手段と、
     前記領域検出手段によって検出された識別部の画像領域の情報を基に、前記入力画像から識別部の外接矩形に相当する画像領域を切り取り、切り取った前記所定の画像領域からなる識別画像を生成する領域切取手段とを含む
     請求項1に記載の管理システム。
  5.  入力画像から識別部を検出するための画像であって、当該識別部の特徴が表された画像であるマスタ画像を記憶するマスタ画像記憶手段を備え、
     前記識別画像生成手段は、前記マスタ画像を基に、入力画像から識別画像を生成する
     請求項1から請求項4のうちのいずれか1項に記載の管理システム。
  6.  前記リスト記憶手段は、識別子と関連付けて、さらに、管理対象物に関する情報が表された付随画像が登録される管理対象物リストを記憶し、
     指定された識別単位に属する管理対象物の付随画像を入力する付随画像入力手段と、
     入力された付随画像を、指定された識別単位の付随画像として前記管理対象物データリストに登録する付随画像登録手段とを備えた
     請求項1から請求項5のうちのいずれか1項に記載の管理システム。
  7.  前記第2の画像が入力された場合に、前記第2の画像から得た識別画像であるキー画像と、管理対象物リスト内で前記キー画像と最も類似した識別画像である登録識別画像と、前記登録識別画像が属する識別単位の付随画像とを表示する領域を含む検索結果画面を表示する表示手段を備えた
     請求項6に記載の管理システム。
  8.  前記識別部が、管理対象物に付される印刷ラベルである
     請求項1から請求項7のうちのいずれか1項に記載の管理システム。
  9.  物流システムにおいて、運搬対象とされた荷物を管理するための管理システムであって、
     管理対象物が、前記運搬対象とされた荷物であり、
     前記リスト記憶手段は、識別子と関連付けて、さらに、前記荷物の運搬状況を示す情報が登録される管理対象物リストを記憶し、
     チェックポイントごとに、前記第2の画像として荷物を撮影して得られた検索用画面をユーザに入力させ、入力された前記検索用画面から得られる識別画像をキー画像として用いた照合の結果、認識された管理対象物の識別子と関連付けて、前記荷物の運搬状況を示す情報を前記管理対象物リストに登録する状況登録手段を備えた
     請求項1から請求項8のうちのいずれか1項に記載の管理システム。
  10.  管理対象物を識別するための識別画像であって、当該管理対象物を識別する最小の単位である識別単位ごとに固有の識別子が関連付けられた識別画像が登録される管理対象物リストを記憶するリスト記憶手段と、
     入力画像から、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する識別画像生成手段と、
     管理対象物の識別部を撮影した第1の画像が入力された場合に、前記第1の画像から生成された識別画像を、指定された識別単位の識別画像として前記管理対象物リストに登録する識別画像登録手段とを備えた
     ことを特徴とするリスト作成装置。
  11.  情報処理装置が、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を撮影した第1の画像が入力された場合に、前記第1の画像から管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成し、
     情報処理装置が、前記第1の画像から生成された識別画像を、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子と関連付けて、管理対象物を識別するための識別画像が登録される管理対象物リストに登録する
     ことを特徴とするリスト作成方法。
  12.  情報処理装置が、管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を撮影した第1の画像が入力された場合に、前記第1の画像から管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成し、
     情報処理装置が、前記第1の画像から生成された識別画像を、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子と関連付けて、管理対象物を識別するための識別画像が登録される管理対象物リストに登録し、
     情報処理装置が、管理対象物の識別部を撮影した第2の画像が入力された場合に、前記第2の画像から、管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成し、
     情報処理装置が、前記第2の画像から生成された識別画像をキー画像として、前記管理対象物リストに登録されている識別画像の各々と照合して、管理対象物を識別する
     ことを特徴とする管理方法。
  13.  管理対象物を識別するための識別画像であって、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子が関連付けられた識別画像が登録される管理対象物リストを記憶するリスト記憶手段または前記リスト記憶手段にアクセス可能なアクセス手段を備えたコンピュータに、
     管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部を撮影した第1の画像が入力された場合に、前記第1の画像から管理対象物の識別部を検出し、検出された識別部が画像領域内において所定の向きおよび大きさで表された識別画像を生成する処理、および
     前記第1の画像から生成された識別画像を、管理対象物を識別する最小の単位である識別単位ごとに固有の識別子と関連付けて、前記管理対象物リストに登録する処理
     を実行させるための管理用プログラムを記録したコンピュータ読み取り可能な記録媒体。
  14.  管理対象物を管理するためのリストに適用されるデータ構造であって、
     前記管理対象物を識別する最小の単位である識別単位の識別子と、前記識別単位に属する管理対象物の所定の部分または管理対象物に付される所定の付随物である識別部であって当該管理対象物を識別可能な特徴を有する識別部が、当該識別画像の領域内において所定の向きおよび大きさで表された識別画像と、前記識別単位に属する管理対象物に関する情報が表された付随画像とを含む
     ことを特徴とするデータ構造。
  15.  リストを用いて管理対象物を管理する管理システムにおいて前記管理対象物を識別するために用いられる印刷ラベルであって、
     向きを特定可能な特徴を有する第1領域と、
     ユーザが文字を記載する目安となる領域である記載フィールドを含み、かつ前記記載フィールドおよび前記記載フィールド以外の当該領域の色と文字色との差が所定量以上であるか、前記記載フィールドに、前記記載フィールドおよび前記記載フィールド以外の当該領域の色と文字色との差が所定量以上の色の線による枠が設けられているか、または、記載フィールドの境界に区切り記号が設けられている第2領域とを含む
     ことを特徴とする印刷ラベル。
PCT/JP2014/005497 2013-10-31 2014-10-30 管理システム、リスト作成装置、データ構造および印刷ラベル WO2015064107A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/032,216 US9836665B2 (en) 2013-10-31 2014-10-30 Management system, list production device, method, computer readable recording medium, data structure, and printed label
JP2015544813A JP6569532B2 (ja) 2013-10-31 2014-10-30 管理システム、リスト作成装置、リスト作成方法、管理方法及び管理用プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013226175 2013-10-31
JP2013-226175 2013-10-31

Publications (1)

Publication Number Publication Date
WO2015064107A1 true WO2015064107A1 (ja) 2015-05-07

Family

ID=53003733

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/005497 WO2015064107A1 (ja) 2013-10-31 2014-10-30 管理システム、リスト作成装置、データ構造および印刷ラベル

Country Status (3)

Country Link
US (1) US9836665B2 (ja)
JP (1) JP6569532B2 (ja)
WO (1) WO2015064107A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027569A (ja) * 2015-07-16 2017-02-02 日本電気株式会社 受け取り支援システム、受け取り支援方法、受け取り支援プログラム、情報処理装置、及び端末装置
CN109791652A (zh) * 2016-09-06 2019-05-21 亚马逊科技公司 捆绑单元识别和跟踪
JP2019191663A (ja) * 2018-04-18 2019-10-31 株式会社プレーン 収納物品管理システム及び収納物品管理システムに用いる表示片
WO2020040012A1 (ja) * 2018-08-23 2020-02-27 大日本印刷株式会社 特定装置、特定システム、特定方法、生成方法、コンピュータプログラム及び学習モデル
JP2021051044A (ja) * 2019-09-26 2021-04-01 株式会社イシダ 検査装置及びラベル貼付装置
US11341739B2 (en) 2016-02-15 2022-05-24 Nec Corporation Image processing device, image processing method, and program recording medium

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201803795D0 (en) * 2018-03-09 2018-04-25 Prisymid Ltd Label data processing system
US11854185B2 (en) * 2018-11-29 2023-12-26 Nec Corporation Individual identification apparatus
CN109840699A (zh) * 2019-01-23 2019-06-04 深圳壹账通智能科技有限公司 合格投资者线上评估方法、装置、计算机设备和存储介质
CN109919155B (zh) * 2019-03-13 2021-03-12 厦门商集网络科技有限责任公司 一种文本图像的倾斜角矫正方法及终端
JP7146001B2 (ja) * 2021-02-26 2022-10-03 株式会社日立物流 作業支援システム、作業支援方法及びプログラム
CN113837030B (zh) * 2021-09-06 2024-03-22 中国福利会国际和平妇幼保健院 用于疫情防控的人员智能管控方法、系统及计算机设备
CN114155374B (zh) * 2022-02-09 2022-04-22 深圳爱莫科技有限公司 冰激凌图像训练方法、检测方法及处理设备
CN114933176A (zh) * 2022-05-14 2022-08-23 江苏经贸职业技术学院 一种采用人工智能的3d视觉码垛系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150603A (ja) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd 画像処理装置およびプログラム
JP2004196550A (ja) * 2002-12-05 2004-07-15 Yoshimitsu Kagiwada 物流管理システムおよび方法、並びに、物流情報記録媒体
JP2006072919A (ja) * 2004-09-06 2006-03-16 Canon System Solutions Inc データエントリ装置及びその制御方法、プログラム
JP2007034549A (ja) * 2005-07-26 2007-02-08 Oki Electric Ind Co Ltd 提案書設計管理システム
JP2008245012A (ja) * 2007-03-28 2008-10-09 Casio Comput Co Ltd 画像処理装置及びプログラム
JP2009049886A (ja) * 2007-08-22 2009-03-05 Casio Comput Co Ltd 画像検索装置、撮影装置、画像検索方法及びプログラム
JP2009140058A (ja) * 2007-12-04 2009-06-25 Rakuten Inc 情報提供プログラム、情報提供装置、及び情報提供方法
JP2012234345A (ja) * 2011-04-28 2012-11-29 Fujitsu Frontech Ltd 帳票読取装置、角印検出方法、および、角印検出プログラム
JP2013084071A (ja) * 2011-10-07 2013-05-09 Hitachi Computer Peripherals Co Ltd 帳票認識方法および帳票認識装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323381A (ja) 2006-06-01 2007-12-13 Fuji Xerox Co Ltd 画像傾き検出装置、画像処理装置、画像傾き検出プログラム、画像処理プログラム
JP5259315B2 (ja) 2008-09-16 2013-08-07 オリンパスイメージング株式会社 画像検索装置、デジタルカメラ、画像検索方法および画像検索用プログラム
JP5525737B2 (ja) 2009-03-18 2014-06-18 オリンパス株式会社 サーバシステム、端末装置、プログラム、情報記憶媒体及び画像検索方法
JP2012174101A (ja) 2011-02-23 2012-09-10 Oki Electric Ind Co Ltd ラベル検査システム、ラベル検査装置及びラベル検査プログラム
JP5502821B2 (ja) 2011-08-30 2014-05-28 東芝テック株式会社 コード読取装置、販売データ処理装置およびプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150603A (ja) * 2001-11-12 2003-05-23 Olympus Optical Co Ltd 画像処理装置およびプログラム
JP2004196550A (ja) * 2002-12-05 2004-07-15 Yoshimitsu Kagiwada 物流管理システムおよび方法、並びに、物流情報記録媒体
JP2006072919A (ja) * 2004-09-06 2006-03-16 Canon System Solutions Inc データエントリ装置及びその制御方法、プログラム
JP2007034549A (ja) * 2005-07-26 2007-02-08 Oki Electric Ind Co Ltd 提案書設計管理システム
JP2008245012A (ja) * 2007-03-28 2008-10-09 Casio Comput Co Ltd 画像処理装置及びプログラム
JP2009049886A (ja) * 2007-08-22 2009-03-05 Casio Comput Co Ltd 画像検索装置、撮影装置、画像検索方法及びプログラム
JP2009140058A (ja) * 2007-12-04 2009-06-25 Rakuten Inc 情報提供プログラム、情報提供装置、及び情報提供方法
JP2012234345A (ja) * 2011-04-28 2012-11-29 Fujitsu Frontech Ltd 帳票読取装置、角印検出方法、および、角印検出プログラム
JP2013084071A (ja) * 2011-10-07 2013-05-09 Hitachi Computer Peripherals Co Ltd 帳票認識方法および帳票認識装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027569A (ja) * 2015-07-16 2017-02-02 日本電気株式会社 受け取り支援システム、受け取り支援方法、受け取り支援プログラム、情報処理装置、及び端末装置
JP2020113342A (ja) * 2015-07-16 2020-07-27 日本電気株式会社 受け取り支援システム、受け取り支援方法、受け取り支援プログラム、情報処理装置、及び端末装置
US11341739B2 (en) 2016-02-15 2022-05-24 Nec Corporation Image processing device, image processing method, and program recording medium
CN109791652A (zh) * 2016-09-06 2019-05-21 亚马逊科技公司 捆绑单元识别和跟踪
JP2019534219A (ja) * 2016-09-06 2019-11-28 アマゾン テクノロジーズ インコーポレイテッド バンドル化したユニットの識別及びトラッキング
JP2019191663A (ja) * 2018-04-18 2019-10-31 株式会社プレーン 収納物品管理システム及び収納物品管理システムに用いる表示片
WO2020040012A1 (ja) * 2018-08-23 2020-02-27 大日本印刷株式会社 特定装置、特定システム、特定方法、生成方法、コンピュータプログラム及び学習モデル
JP2021051044A (ja) * 2019-09-26 2021-04-01 株式会社イシダ 検査装置及びラベル貼付装置

Also Published As

Publication number Publication date
JPWO2015064107A1 (ja) 2017-03-09
JP6569532B2 (ja) 2019-09-04
US9836665B2 (en) 2017-12-05
US20160275368A1 (en) 2016-09-22

Similar Documents

Publication Publication Date Title
JP6569532B2 (ja) 管理システム、リスト作成装置、リスト作成方法、管理方法及び管理用プログラム
US9785627B2 (en) Automated form fill-in via form retrieval
JP6025522B2 (ja) 画像処理装置、画像処理方法、画像処理システム及びプログラム
US20120070086A1 (en) Information reading apparatus and storage medium
US9870549B2 (en) Virtual postage based on image recognition
CN107403128B (zh) 一种物品识别方法及装置
JP6278276B2 (ja) 物体識別装置、物体識別方法、及びプログラム
JP6831951B2 (ja) 画像認識システム
CN107133615B (zh) 信息处理设备和信息处理方法
US9575935B2 (en) Document file generating device and document file generation method
US20220415008A1 (en) Image box filtering for optical character recognition
JP2019045909A (ja) 画像認識システム
CN107403179B (zh) 一种物品包装信息的注册方法及装置
TW202013239A (zh) 影像處理系統、影像處理方法及程式產品
TW202006597A (zh) 影像處理系統、影像處理方法及程式產品
JP2018042067A (ja) 画像処理システム、画像処理方法、情報処理装置
JP7449505B2 (ja) 情報処理システム
JP7231165B2 (ja) 検証システム
US20180173481A1 (en) Information processing apparatus, program, printing apparatus, and printing system
US9152885B2 (en) Image processing apparatus that groups objects within image
WO2019181441A1 (ja) 情報処理装置、制御方法、及びプログラム
JP6941331B2 (ja) 画像認識システム
WO2023171132A1 (ja) 情報処理システム
US20170200383A1 (en) Automated review of forms through augmented reality
JP2002133367A (ja) 文字認識装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14858951

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015544813

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15032216

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14858951

Country of ref document: EP

Kind code of ref document: A1