WO2020039567A1 - 物体照合装置 - Google Patents

物体照合装置 Download PDF

Info

Publication number
WO2020039567A1
WO2020039567A1 PCT/JP2018/031229 JP2018031229W WO2020039567A1 WO 2020039567 A1 WO2020039567 A1 WO 2020039567A1 JP 2018031229 W JP2018031229 W JP 2018031229W WO 2020039567 A1 WO2020039567 A1 WO 2020039567A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
registered
partial image
collation
data
Prior art date
Application number
PCT/JP2018/031229
Other languages
English (en)
French (fr)
Inventor
石山 塁
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/269,583 priority Critical patent/US11983864B2/en
Priority to PCT/JP2018/031229 priority patent/WO2020039567A1/ja
Priority to JP2020537980A priority patent/JP7215485B2/ja
Publication of WO2020039567A1 publication Critical patent/WO2020039567A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61JCONTAINERS SPECIALLY ADAPTED FOR MEDICAL OR PHARMACEUTICAL PURPOSES; DEVICES OR METHODS SPECIALLY ADAPTED FOR BRINGING PHARMACEUTICAL PRODUCTS INTO PARTICULAR PHYSICAL OR ADMINISTERING FORMS; DEVICES FOR ADMINISTERING FOOD OR MEDICINES ORALLY; BABY COMFORTERS; DEVICES FOR RECEIVING SPITTLE
    • A61J2205/00General identification or selection means
    • A61J2205/30Printed labels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61JCONTAINERS SPECIALLY ADAPTED FOR MEDICAL OR PHARMACEUTICAL PURPOSES; DEVICES OR METHODS SPECIALLY ADAPTED FOR BRINGING PHARMACEUTICAL PRODUCTS INTO PARTICULAR PHYSICAL OR ADMINISTERING FORMS; DEVICES FOR ADMINISTERING FOOD OR MEDICINES ORALLY; BABY COMFORTERS; DEVICES FOR RECEIVING SPITTLE
    • A61J2205/00General identification or selection means
    • A61J2205/40General identification or selection means by shape or form, e.g. by using shape recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61JCONTAINERS SPECIALLY ADAPTED FOR MEDICAL OR PHARMACEUTICAL PURPOSES; DEVICES OR METHODS SPECIALLY ADAPTED FOR BRINGING PHARMACEUTICAL PRODUCTS INTO PARTICULAR PHYSICAL OR ADMINISTERING FORMS; DEVICES FOR ADMINISTERING FOOD OR MEDICINES ORALLY; BABY COMFORTERS; DEVICES FOR RECEIVING SPITTLE
    • A61J3/00Devices or methods specially adapted for bringing pharmaceutical products into particular physical or administering forms
    • A61J3/007Marking tablets or the like

Definitions

  • the present invention relates to an object matching device, an object matching method, an object printing device, an object printing method, and a recording medium.
  • Patent Document 1 describes an example of a technology for performing authenticity determination on a tablet basis.
  • the technology described in Patent Literature 1 (hereinafter referred to as a related technology of the present invention) is an apparatus for printing characters on a tablet. A random pattern resulting from irregularities is obtained and registered in advance as registration data. Then, at the time of collation, authenticity judgment (authentication judgment) is performed by comparing the image data of the random pattern acquired from the same predetermined area of the tablet to be collated with the registered data.
  • the reason that the related art of the present invention sets the tablet surface that does not include characters as the predetermined area is that, in a device that prints characters on a tablet, verification is performed from one of an image before character printing and an image after character printing. This is because data is acquired, registered data is acquired from the other, and a correlation value between the two is calculated.
  • a random pattern formed by fine irregularities formed on the tablet surface in the process of manufacturing each tablet is used for authenticity determination.
  • a random pattern due to fine irregularities on the tablet surface is difficult to visually recognize in the first place, it is basically difficult to clearly capture an image.
  • a ring illumination unit is used to obtain a random pattern from a peripheral portion where a shadow appears more strongly than in a central portion, so that an improvement is achieved.
  • a special lighting device such as a ring lighting unit is required.
  • the position of the camera needs to be accurate.
  • An object of the present invention is to provide an object matching device that solves the above-mentioned problem.
  • An object matching device includes: Acquisition means for acquiring an image of an object to be verified on which characters are printed, Extracting means for extracting, from the image, a partial image of a predetermined size including the character as a collation partial image; By comparing the registered partial image obtained from the registration target object and the registration partial image and registered in advance, a determination unit that determines the identity of the comparison target object and the registration target object, Is provided.
  • an object printing apparatus Printing means for printing characters on the registration target object, Acquisition means for acquiring an image of the object on which the characters are printed, Extracting means for extracting a partial image of a predetermined size including the character as a registered partial image from the image, Storage means for storing the registered partial image as data for determining the identity of the object, Is provided.
  • the object matching method Obtain an image of the object to be verified with the printed characters, From the image, extract a partial image of a predetermined size including the character as a collation partial image, By comparing the matching partial image with a registered partial image acquired from the registration target object and registered in advance, the identity of the matching target object and the registration target object is determined.
  • the object printing method Print text on the object to be registered, Obtaining an image of the object on which the characters are printed, From the image, extract a partial image of a predetermined size including the character as a registered partial image, The registered partial image is stored as data for determining the identity of the object.
  • Computer Acquisition means for acquiring an image of an object to be verified on which characters are printed
  • Extracting means for extracting, from the image, a partial image of a predetermined size including the character as a collation partial image
  • a determination unit that determines the identity of the comparison target object and the registration target object, And record the program to make it work.
  • Computer Acquisition means for acquiring an image of an object to be registered on which characters are printed
  • Extracting means for extracting a partial image of a predetermined size including the character as a registered partial image from the image
  • a registration unit that registers the registration partial image in a storage unit as data for determining the identity of the object
  • FIG. 1 is a diagram illustrating a configuration of a tablet printing apparatus according to a first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of image data used as print data in the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a state where printing is performed on a tablet by an inkjet printer in the first embodiment of the present invention.
  • FIG. 4 is a schematic diagram illustrating a print portion formed by printing a line segment pattern having a length of W on a tablet having a posture directly facing a print head in the first embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a configuration of a tablet printing apparatus according to a first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of image data used as print data in the first embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a state where printing is performed on a tablet by an inkjet printer in the first embodiment of the present invention.
  • FIG. 4 is a schematic
  • FIG. 4 is a schematic diagram illustrating a print portion formed by printing a line segment pattern having a length W on a tablet having a posture that does not directly face a print head in the first embodiment of the present invention. It is a figure showing the example of the shape of a tablet.
  • FIG. 3 is a diagram illustrating an example of a top view of a tablet on which image data is printed in the first embodiment of the present invention.
  • FIG. 3 is an enlarged view of a part of a character portion in image data printed on a tablet in the first embodiment of the present invention.
  • FIG. 2 is a block diagram of a control unit of the tablet printing apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating a hardware configuration example of a control unit of the tablet printing apparatus according to the first embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of an image including a tablet after printing and a registered partial image acquired from the image in the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an example of tablet contour data acquired from an image including a printed tablet in the first embodiment of the present invention.
  • FIG. 5 is a diagram illustrating another example of the contour data of the tablet acquired from the image including the tablet after printing in the first embodiment of the present invention. 4 shows an example of registration information of a database in the tablet printing apparatus according to the first embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a processing example of a control unit in the tablet printing apparatus according to the first embodiment of the present invention. It is a lineblock diagram of a tablet collation device concerning a 2nd embodiment of the present invention. It is a figure showing the example of hardware constitutions of the tablet collation device concerning a 2nd embodiment of the present invention. It is a flow chart which shows the example of processing of the tablet collation device concerning a 2nd embodiment of the present invention. It is a flow chart which shows the example of processing of the collation data acquisition part in the tablet collation device concerning a 2nd embodiment of the present invention.
  • FIG. 14 is an explanatory diagram of another method in which the collation data acquisition unit in the tablet collation device according to the second embodiment of the present invention creates a corrected image. It is a flow chart which shows the example of processing of the judgment part in the tablet collation device concerning a 2nd embodiment of the present invention. It is a flow chart which shows other processing examples of a judgment part in a tablet collation device concerning a 2nd embodiment of the present invention. It is a block diagram of an object printing device concerning a 3rd embodiment of the present invention. It is a block diagram of an object matching device concerning a 4th embodiment of the present invention.
  • the tablet printing apparatus is configured to print characters on tablets to be registered by inkjet printing.
  • the tablet printing apparatus is configured to acquire an image of a tablet on which characters are printed.
  • the tablet printing apparatus is configured to extract a partial image of a predetermined size including characters from the image as a registered partial image.
  • the tablet printing apparatus is configured to extract tablet contour data from the image as registered contour data.
  • the tablet printing apparatus is configured to store the registered partial image and the registered contour data as data for determining the identity of tablets.
  • FIG. 1 is a diagram showing a configuration of a tablet printing apparatus according to the present embodiment.
  • the tablet printing apparatus according to the present embodiment includes a hopper 2 for supplying tablets 1 and a belt conveyor 3 for conveying the tablets 1 supplied by the hopper 2.
  • the belt conveyor 3 may have a guide (not shown) for stabilizing the posture (orientation) of the tablet 1 during transportation.
  • the belt conveyor 3 may have a guide formed of concave portions aligned in the transport direction. The posture of the tablet 1 supplied from the hopper 2 is stabilized because a part of the tablet 1 is accommodated in the concave portion of the guide.
  • the tablet printing apparatus includes a detection camera 4 for detecting the tablets 1 on the belt conveyor 3 and an ink jet printer 5 for printing characters on the tablets 1 detected by the detection camera 4.
  • a registration camera 6 for acquiring an image of the tablet 1 printed by the inkjet printer 5, a database 7, a control unit 8, a non-defective product storage box 9, a defective product discharge unit 12, and a defective product storage box. 13 is provided.
  • the detection camera 4 is an imaging unit that images the tablet 1 conveyed on the belt conveyor 3 from above a predetermined location on the belt conveyor 3.
  • the control unit 8 analyzes the image of the detection camera 4 to determine whether or not the tablet 1 exists at a predetermined position on the belt conveyor 3, and if so, the exact position and posture (orientation) of the tablet 1. Etc. can be detected.
  • the inkjet printer 5 is a printing unit that prints predetermined characters on the tablet 1.
  • the characters to be printed are predetermined.
  • “characters” are not limited to characters in a narrow sense such as katakana, hiragana, and alphabets, but include symbols and figures.
  • the color of the characters is set to a color that can be clearly distinguished from the surface color of the tablet 1.
  • the size and shape of the characters are set so that all of the characters fit in the tablet 1.
  • the printing operation of the inkjet printer 5 is controlled by the control unit 8.
  • the control unit 8 detects the position, posture, and the like of the tablet 1 based on the image captured by the detection camera 4 and moves the tablet 1 to a position specified for the tablet 1 on the belt conveyor 3 based on the detected information.
  • the inkjet printer 5 is controlled at the timing when the designated character is printed.
  • FIG. 2 shows an example of image data 14 used as print data.
  • the image data 14 of this example is an example in which character strings “Pharma” and “Systems” are printed in two rows at a predetermined character interval using a predetermined font.
  • the color of the characters in the image data 14 is set to be different from the surface color of the tablet 1.
  • the background color of the characters in the image data 14 is set to, for example, colorless.
  • the horizontal and vertical sizes of the image data 14 are W and H, respectively.
  • the character arrangement may be set so that the horizontal and vertical sizes of the circumscribed rectangle of the character string in the image data are the same as W and H described above.
  • a frame representing the outline of the image data 14 may be set in a color different from the surface color of the tablet 1.
  • the image data 14 is also called a character reference image or a reference character pattern.
  • FIG. 3 is a diagram showing a state where printing is performed on the tablet 1 by the inkjet printer 5.
  • characters “Pharma” and “Systems” are printed.
  • the posture of the tablet 1 at the time of printing when the state in which the image data 14 is printed on the tablet 1 is observed from directly above, the horizontal and vertical sizes, the character shapes, and the like of the image data 14 printed on the tablet 1 are observed.
  • the size matches the image data 14 used as the print data. The reason is as follows.
  • FIG. 4A shows a print portion 15 formed by printing a line segment pattern having a length W on the tablet 1 having a posture facing the print head.
  • FIG. 4B shows a print portion 16 formed by printing a line segment pattern having a length W on the tablet 1 having a posture that does not face the print head.
  • Both print portions 15, 16 appear to be the same length W when viewed from the print head side. Therefore, as described above, regardless of the posture of the tablet 1 at the time of printing, the horizontal and vertical sizes of the image data 14 printed on the tablet 1 and the shape and size of the character are the image data used as the printing data. It will be the same as 14th.
  • the tablet 1 is directly opposed to the print head, for example, as shown in FIG. When defined by the existing side surface portion 1c, it means that the curved surface portion 1a faces the print head.
  • the registration camera 6 is an imaging unit that captures an image including the entire tablet 1 from directly above at the timing when the tablet 1 after printing by the inkjet printer 5 is conveyed directly below the camera 6. Therefore, when the tablet 1 maintains the same posture from the printing position to the imaging position of the registration camera 6, the horizontal and vertical sizes of the printed image data 14 in the image of the tablet 1 captured by the registration camera 6 The shape and size of the characters match those of the image data 14.
  • the registration camera 6 is configured to acquire the image of the tablet 1 with a resolution that allows the shape and arrangement of the dots formed by the ink ejected from the inkjet printer 5 to print the image data 14 to be distinguishable. ing.
  • FIG. 6A shows an example of a top view of three tablets on which image data 14 is printed.
  • FIG. 6B is an enlarged view of the character "T" in the image data 14 printed on the three tablets. As shown in FIG. 6B, even in the case of the same character “T”, the shape and arrangement of the dots of the printing portions constituting the same are different from each other.
  • the defective product discharging unit 12 operates to discharge the tablets 1 delivered on the belt conveyor 3 to the defective product storage box 13 based on the control of the control unit 8.
  • the defective product storage box 13 is a discharge place for storing the defective tablets discharged by the defective product discharge unit 12.
  • the non-defective product storage box 9 is a storage location for storing non-defective tablets 1 that have not been discharged by the defective discharge unit 12.
  • the control unit 8 checks the printing state of the tablet 1 based on the image of the tablet 1 captured by the registration camera 6, and controls the defective product discharging unit 12 to control the defective product 1 Is discharged to the defective product storage box 13.
  • the control unit 8 acquires data for determining tablet identity from the image of the tablet 1 captured by the registration camera 6 and registers the tablet 1 in the database 7 for the tablet 1 having no printing failure.
  • FIG. 7 is a block diagram of the control unit 8.
  • the control unit 8 includes a print control unit 21, a defective product detection unit 22, and a registration data acquisition unit 23.
  • a control unit 8 includes a communication interface unit 31, an operation input unit 32 such as a keyboard and a mouse, a screen display unit 33 such as a liquid crystal display, and a storage unit such as a memory and a hard disk.
  • An information processing device 36 such as a personal computer having an arithmetic processing unit 35 such as one or more microprocessors, and a program 37 can be realized.
  • the program 37 is read from an external computer-readable storage medium into the storage unit 34 when the information processing device 36 is started up, and is printed on the arithmetic processing unit 35 by controlling the operation of the arithmetic processing unit 35.
  • the control unit 21, the defective product detection unit 22, and the registration data acquisition unit 23 are realized.
  • the print control unit 21 detects the position and orientation of the tablet 1 from the image captured by the detection camera 4, and outputs information such as the detected position of the tablet 1, the transport speed of the belt conveyor 3, and the print speed of the inkjet printer 5. Then, the timing at which the print instruction is output to the inkjet printer 5 is calculated, and the print instruction is transmitted to the inkjet printer 5 at the calculated timing.
  • the defective product detection unit 22 determines whether characters printed on the tablet 1 from the image including the printed tablet 1 imaged by the registration camera 6 are free from defects such as print misalignment or blurred printing, or are missing from the tablet 1. It is determined whether or not there is a defect, and if it is determined that there is a printing failure or a defect, the defective product discharge unit 12 is controlled to discharge the tablet 1 from the belt conveyor 3. In addition, the defective product detection unit 22 notifies the registration data acquisition unit 23 of the identification information (for example, the frame number of the image and the photographing time) of the image including the tablet 1 determined to be defective.
  • the identification information for example, the frame number of the image and the photographing time
  • the registration data acquisition unit 23 acquires, as a registered partial image, an area of the image data 14 printed on the tablet 1 from an image including the printed tablet 1 captured by the registration camera 6.
  • the registration data acquiring unit 23 acquires contour data of the tablet 1 as registered contour data from an image including the printed tablet 1 captured by the registration camera 6. Further, the registration data acquisition unit 23 registers the acquired two types of registration data, the registered partial image and the registered contour data, as a pair in the database 7.
  • the registration data acquisition unit 23 does not acquire the registration data from the image including the tablet 1 determined to be defective by the defective product discharge unit 12.
  • FIG. 9 shows an example of an image 41 including the printed tablet 1 captured by the registration camera 6 and a registered partial image 42 acquired from the image.
  • the registration data acquisition unit 23 acquires a circumscribed rectangle including all characters existing in the image of the tablet 1 as the registration partial image 42.
  • the registration data acquisition unit 23 recognizes characters from the image of the tablet 1 by a method such as pattern matching, generates a circumscribed rectangle including all the recognized characters, and generates the circumscribed rectangle. Is acquired as the registered partial image 42.
  • the registration data acquisition unit 23 recognizes the outline from the image of the tablet 1 by a method such as pattern matching, and determines the outline within the recognized outline.
  • the image area is acquired as the registered partial image 42.
  • the acquired registered partial image 42 includes both a portion printed by ink and a non-printed portion where the tablet surface is exposed.
  • FIG. 10A shows an example of the outline data 43 of the tablet 1 obtained from the image including the printed tablet 1 captured by the registration camera 6.
  • the outline data 43 is an example of the outline data of the tablet 1 printed in the posture facing the print head.
  • FIG. 10B shows another example of the contour data 43 of the tablet 1 obtained from the image.
  • the contour data 43 shown in FIG. 10B is an example of the contour data of the tablet 1 printed in an inclined direction without directly facing the print head. In the tablet 1 printed in an inclined direction, not only the outline of the curved surface portion 1a but also a part of the outline of the side surface portion 1c and the lower curved surface portion 1b not shown in FIG. 10A are acquired.
  • the contour data 43 may be, for example, a binary image having a value of 1 for the contour portion and a value of 0 for the rest.
  • the outline data 43 may be data that approximates the outline with as many line segments as possible and includes a set of line segments and vertex coordinates that are connection points of the line segments.
  • the registration data acquisition unit 23 outputs the contour data of the character printed on the tablet 1 by the inkjet printer 5 in addition to the contour data of the shape of the tablet 1 as shown in FIGS. May be obtained. Further, when any fixed pattern is applied to the surface of the tablet 1 before printing by the inkjet printer 5, the contour data of the fixed pattern is acquired in addition to the contour data of the shape of the tablet 1. Good.
  • Examples of the fixed pattern include characters, figures, symbols, design pictures, and bar codes.
  • a capsule tablet or the like in which the upper and lower parts are separately colored is an example.
  • the appearance of the fixed pattern applied to the tablet 1 changes depending on the posture of the tablet 1 even when the fixed pattern is applied to the same place of the tablet 1. It can be used as data for determination.
  • a form that does not use such a fixed pattern is naturally included in the present invention.
  • FIG. 11 shows an example of registration information in the database 7. Referring to FIG. 11, a pair of registered partial images 45-1 to 45-n and registered outline data 46-1 to 46-n is registered in the database 7.
  • FIG. 12 is a flowchart showing a processing example of the control unit 8.
  • the print control unit 21 of the control unit 8 acquires the captured image from the detection camera 4 (Step S1), analyzes the image, and confirms the position of the tablet 1 (Step S2).
  • the print control unit 21 controls the inkjet printer 5 so as to print the reference character pattern at a timing when the tablet 1 passes immediately below the print head of the inkjet printer 5 (Step S3).
  • the image of the tablet 1 after the printing process is captured by the registration camera 6.
  • the defective product detection unit 22 and the registration data acquisition unit 23 of the control unit 8 acquire the captured image from the registration camera 6 (Step S4).
  • the defective product detection unit 22 determines the quality of the printing from the acquired image (step S5). It is discharged (step S9).
  • the registration data acquisition unit 23 acquires a registration partial image and registration contour data from the image acquired from the registration camera 6 (step S7).
  • the registered data acquisition unit 23 associates the acquired registered partial image with the registered contour data and registers the registered partial image in the database 7 (Step S8).
  • the accuracy of the collation for determining the identity of tablets can be improved.
  • the reason for this is that a random pattern of a printing portion formed by ink jet printing on a tablet can be imaged with good reproducibility and sharpness compared to a random pattern caused by irregularities on the tablet surface.
  • registered contour data representing the posture of the tablet is acquired as data for determining the identity of the tablet. That is, it is possible to determine the identity of tablets based on the posture of the tablets at the time of printing.
  • the tablet collation device is, for example, a device for determining whether a tablet obtained in the market is a genuinely manufactured (true tablet) or a fake.
  • FIG. 13 is a configuration diagram of the tablet collation device according to the present embodiment.
  • the tablet collation device according to the present embodiment includes a camera 51, a collation data acquisition unit 52, a database 53, a determination unit 54, and an output unit 55.
  • a tablet collation device includes a camera 60, a communication interface unit 61, an operation input unit 62 such as a keyboard and a mouse, a screen display unit 63 such as a liquid crystal display, a memory and a hard disk.
  • an information processing device 66 such as a personal computer or a smartphone having a storage unit 64 such as a microprocessor and an arithmetic processing unit 65 such as one or more microprocessors, and a program 67.
  • the program 67 is read into the storage unit 64 from an external computer-readable storage medium when the information processing device 66 is started up, and controls the operation of the arithmetic processing unit 65 so that the program 67
  • a data acquisition unit 52, a database 53, a determination unit 54, and an output unit 55 are realized.
  • the camera 51 is an imaging unit that images the tablet 1 to be authenticated.
  • a user who performs authenticity determination using the tablet collation device places the tablet 1 to be authenticated on a table or the like with the curved surface portion 1a on which the characters are printed facing upward, and removes the entire tablet 1 An image is taken by the camera 51.
  • the collation data acquisition unit 52 is configured to acquire a partial image of a predetermined size including characters from the image including the tablet 1 captured by the camera 51 as a collation partial image.
  • the collation data acquisition unit 52 is configured to acquire contour data of the tablet 1 from the image as collation contour data.
  • the database 53 stores two or more types of registration data similar to the database 7 provided in the tablet printing apparatus shown in FIG. 1, that is, one or more pairs of registered partial images and registered contour data in advance.
  • the database 53 stores a three-dimensional model of the tablet 1 to be collated in advance.
  • the method of expressing the three-dimensional model is arbitrary, and for example, a surface or a solid may be used.
  • the contour data of the fixed pattern applied to the surface of the tablet 1 in addition to the contour data of the shape of the tablet 1 the three-dimensional model of the tablet 1 to be collated is applied to the surface of the tablet 1. It is configured to include data of a fixed pattern.
  • the determination unit 54 compares the collation partial image and collation contour data acquired by the collation data acquisition unit 52 with the registered partial image and registered contour data stored in the database 53, and the tablet 1 is manufactured properly. It is configured to determine whether the product is a genuine product (true tablet) or a fake product.
  • the output unit 55 is configured to display the determination result of the determination unit 54 on the screen display unit 63 or to transmit the determination result to an external terminal through the communication interface unit 61.
  • FIG. 15 is a flowchart illustrating a processing example of the tablet matching device according to the present embodiment.
  • the camera 51 captures an image including the tablet 1 according to a user's camera operation (step S11).
  • the collation data acquisition unit 52 acquires two types of collation data, a collation partial image and collation contour data, from the image including the tablet 1 captured by the camera 51 (step S12).
  • the determination unit 54 compares the collation partial image and the collation contour data acquired by the collation data acquisition unit 52 with the registered partial image and the registered contour data previously stored in the database 53, and Is determined (step S13).
  • the output unit 55 outputs the determination result of the determination unit 54 (Step S14).
  • FIG. 16 is a flowchart showing a processing example of the collation data acquisition unit 52.
  • the collation data acquisition unit 52 sets the image of the tablet 1 captured by the camera 51 as an original image, and extracts a collation partial image from the original image (Step S21).
  • the method of extracting the collation partial image is the same as the method in which the registration data acquisition unit 23 of the tablet printing device extracts the registered partial image from the image.
  • the collation data acquisition unit 52 determines the horizontal and vertical sizes of the collation partial image extracted from the original image, the shape and size of the character, and the horizontal and vertical sizes of the image data 14 as the reference character pattern, The degree of similarity between the collation partial image and the reference character pattern is calculated by comparing the reference character pattern and the reference character pattern (step S22).
  • the method of obtaining the similarity is arbitrary.
  • the collation data acquisition unit 52 may set the maximum correlation value between the collation partial image extracted from the original image and the reference character pattern as the similarity.
  • the reference character pattern used by the collation data acquisition unit 52 is the same as the image data 14 used as printing data by the inkjet printer 5 of the tablet printing apparatus.
  • the collation partial image matches the reference character pattern.
  • the posture of the tablet 1 when imaged by the camera 51 is different from the posture of the tablet 1 when characters are printed on the tablet 1, the collation partial image is distorted with respect to the reference character pattern. For example, when the printed portion 15 in FIG. 4A is observed from a direction that does not directly face the tablet 1, it looks like a pattern of W 'shorter than W.
  • the collation data acquisition unit 52 compares the similarity with a threshold (Step S23). Next, if the similarity is equal to or larger than the threshold (YES in step S23), the matching data acquisition unit 52 outputs the matching partial image extracted in step S21 to the determining unit 54 (step S24). The collation data acquisition unit 52 extracts the contour data of the tablet 1 from the original image, and outputs the extracted contour data to the determination unit 54 as collation contour data (step S25).
  • the method of extracting the matching contour data is the same as the method by which the registered data acquisition unit 23 of the tablet printing device extracts the registered contour data from the image.
  • the collation data acquisition unit 52 performs the following processing.
  • the collation data acquisition unit 52 creates an image of the tablet 1 having the same posture as that of the tablet 1 when the characters are printed by the camera 51 from the original image by image processing (step S26).
  • the created image is called a corrected image. The details of the method of creating this corrected image will be described later.
  • the collation data acquisition unit 52 acquires a collation partial image from the corrected image using the same method as in step S21, and outputs the acquired collation partial image to the determination unit 54 (step S27).
  • the collation data acquisition unit 52 acquires the contour data of the tablet 1 from the corrected image, and outputs the acquired contour data to the determination unit 54 as collation contour data (Step S28).
  • FIG. 17 is a flowchart showing an example of a method for creating a corrected image.
  • the collation data acquisition unit 52 first acquires a three-dimensional model of the tablet 1 to be collated from the database 53 (Step S31).
  • the collation data acquisition unit 52 performs positioning between the three-dimensional model and the image of the tablet 1 in the original image (step S32).
  • positioning means that the position and angle of view of the virtual camera that captures the three-dimensional model match the position and angle of view of the camera 51 that captures the original image. That is, the position and the angle of view of the virtual camera that can be imaged in the same manner as the image of the tablet 1 in the original image are determined.
  • the collation data acquisition unit 52 performs the matching process between the three-dimensional model and the image of the tablet 1 in the original image while changing the position and the angle of view of the virtual camera, for example.
  • the position of the three-dimensional model and the image of the tablet 1 in the original image are aligned.
  • the collation data acquisition unit 52 texture-maps the tablet image in the original image to the aligned three-dimensional model (step S33). That is, the tablet image is mapped to the surface polygon of the aligned three-dimensional model.
  • the collation data acquisition unit 52 determines the viewpoint at which the collation partial image including the character texture-mapped to the three-dimensional model matches the reference character pattern, that is, the position of the virtual camera (step S34). Next, the collation data acquisition unit 52 acquires, as a corrected image, an image of the three-dimensional model at the determined viewpoint, that is, an image obtained by capturing the three-dimensional model from the determined viewpoint (step S35).
  • FIG. 18 is an explanatory diagram of another method for correcting the distortion of the collation partial image extracted from the original image.
  • an image 71 is a collation partial image extracted from the original image
  • an image 72 is image data 14 which is print data.
  • the collation data acquisition unit 52 detects the vertices 71a, 71b, 71c, 71d of the image 71 and associates them with the vertices 72a, 72b, 72c, 72d of the image 72.
  • the collation data acquisition unit 52 corrects the distortion of the image 71 so that the image 71 becomes a rectangle having the same size and aspect ratio as the image 72.
  • Such a collation data acquisition unit 52 can be realized using software such as Photoshop (registered trademark) having a distortion correction function.
  • FIG. 19 is a flowchart illustrating a processing example of the determination unit 54.
  • the determination unit 54 focuses on one of a pair of a registered partial image and registered contour data stored in the database 53 (step S41).
  • the determination unit 54 calculates the similarity between the registered contour data of the pair of interest and the matching contour data (step S42).
  • the similarity between the contour data of the tablets is determined by the correlation processing between the collation partial image and the registered partial image by pattern matching of the binarized contour data and comparison operation between the feature values extracted from the binarized contour data. Can be calculated with a smaller amount of calculation than that of The similarity becomes larger as the contour data are more similar, and becomes smaller if they are not similar.
  • the determination unit 54 compares the similarity with a preset threshold TH1 (step S43). Next, when the similarity is less than the threshold value TH1, the determination unit 54 omits the matching process (steps S44 and S45) using the registered partial image of the pair of interest, and proceeds to step S46. If the similarity is equal to or larger than the threshold value TH1, the determination unit 54 calculates a correlation value between the registered partial image of the pair of interest and the collation partial image using a phase-only correlation method or the like (step S44). The correlation value is close to 1 when the registered partial image and the collation partial image are acquired from the same tablet 1. Next, the determination unit 54 compares the correlation value with a preset threshold TH2 (Step S45).
  • the determination unit 54 determines that the tablet 1 is a real tablet (step S49). Then, the determination unit 54 ends the processing in FIG. If the correlation value is less than the threshold value TH2, the determination unit 54 proceeds to step S46.
  • step S ⁇ b> 46 the determination unit 54 shifts the focus to one of the next pair of the registered partial image and the registered contour data stored in the database 53. Then, the determining unit 54 returns to Step S42 and repeats the same processing as the above-described processing.
  • the determination unit 54 finishes paying attention to all pairs in the database 53 (YES in step S47), it determines that the tablet 1 is a fake tablet (step S48). Then, the determination unit 54 ends the processing in FIG.
  • FIG. 20 is a flowchart illustrating another processing example of the determination unit 54.
  • the determination unit 54 calculates the similarity between all the registered contour data stored in the database 53 and the matching contour data (step S51).
  • the determination unit 54 sorts the pair of the registered partial image and the registered contour data in the database 53 in descending order of similarity between the registered contour data and the matching contour data, and sets the sorted pairs into a pair set. It is stored (step S52).
  • the determination unit 54 focuses on the pair having the largest similarity in the pair set (step S53), and compares the similarity with a preset threshold TH1 (step S54). Next, if the similarity is less than the threshold value TH1, the determination unit 54 determines that the tablet 1 is a fake tablet (step S59). Then, the determination unit 54 ends the processing in FIG. On the other hand, if the similarity is equal to or greater than the threshold value TH1, the determination unit 54 calculates a correlation value between the registered partial image of the pair of interest and the matching partial image using a phase-only correlation method or the like (step S55). . Next, the determination unit 54 compares the correlation value with a preset threshold value TH2 (Step S56).
  • the determination unit 54 determines that the tablet 1 is a real tablet (step S60). Then, the determination unit 54 ends the processing in FIG. If the correlation value is less than the threshold value TH2, the determination unit 54 shifts the focus to one of the pair having the next highest similarity in the pair set (step S57). Then, the determining unit 54 returns to Step S54 and repeats the same processing as the above-described processing. When the determination unit 54 finishes paying attention to all pairs in the pair set (YES in step S58), it determines that tablet 1 is a fake tablet (step S59). Then, the determination unit 54 ends the processing in FIG.
  • a tablet matching device with high matching accuracy can be obtained.
  • the reason is that a collation partial image including the character is extracted from the image of the collation target tablet on which the character is printed, and the collation partial image and a registered partial image acquired from the true tablet and registered in advance. This is for determining the identity of the tablets to be compared by comparing.
  • the determination unit 54 of the tablet matching device calculates the similarity between the matching contour data of the tablet 1 and the registered contour data obtained from the true tablet and registered in advance, and compares the similarity with the threshold value. This is because the necessity of performing the correlation operation between the collation partial image including the character and the registered partial image is determined, and the number of times of performing the correlation operation with a large amount of calculation is reduced.
  • the random pattern obtained from the image of the tablet to be checked on which the characters are printed is bright and dark caused by the presence or absence of the attachment of the dark color ink, and is originally obtained clearly. This is because the random pattern does not change much even if the imaging direction is slightly different between the registration and the collation.
  • the collation data acquisition unit 52 of the tablet collation device calculates a corrected image in which distortion of the original image has been corrected, and acquires a collation partial image from the corrected image.
  • FIG. 21 is a block diagram of the object printing apparatus according to the present embodiment.
  • the object printing apparatus 100 includes a printing unit 101, an obtaining unit 102, an extracting unit 103, and a storage unit 104.
  • the printing unit 101 is configured to print characters on an object to be registered.
  • the object may be, for example, a tablet or an object other than a tablet, for example, a confectionery, a semiconductor component, a mechanical component, a product package, or the like.
  • the printing unit 101 can be configured by, for example, an ink jet printer, but is not limited thereto.
  • the obtaining unit 102 is configured to obtain an image of an object on which characters are printed by the printing unit 101.
  • the acquisition unit 102 can be configured by, for example, a camera, but is not limited thereto.
  • the extracting unit 103 is configured to extract a registered partial image including the character from the image acquired by the acquiring unit 102.
  • the extracting unit 103 can be configured, for example, in the same manner as the registration data acquisition unit 23 of the object printing apparatus according to the first embodiment, but is not limited thereto.
  • the storage unit 104 is configured to store the registration partial image extracted by the extraction unit 103 as data for determining the identity of the registration target object.
  • the object printing apparatus 100 configured as described above operates as follows. First, the printing unit 101 prints a character on an object to be registered. Next, the acquiring unit 102 acquires an image of the object on which the character is printed by the printing unit 101. Next, the extracting unit 103 extracts a registered partial image including the character from the image acquired by the acquiring unit 102. Next, the storage unit 104 stores the registered partial image extracted by the extraction unit 103 as data for determining the identity of the registration target object.
  • the matching accuracy for determining the identity of the object can be improved.
  • the reason is that the random pattern of the printed part due to the characters printed on the object can be clearly imaged without using a special lighting device compared to the random pattern caused by the shadow on the object surface, so it should be extracted with good reproducibility This is because
  • FIG. 22 is a block diagram of the object matching device according to the present embodiment.
  • the object matching device 110 includes an acquisition unit 111, an extraction unit 112, and a determination unit 113.
  • the acquisition unit 111 is configured to acquire an image of an object to be verified on which characters are printed.
  • the object may be, for example, a tablet or an object other than a tablet, for example, a confectionery, a semiconductor component, a mechanical component, a product package, or the like.
  • the acquisition unit 111 can be configured by, for example, a camera, but is not limited thereto.
  • the extracting unit 112 is configured to extract a collation partial image including the character from the image acquired by the acquiring unit 111.
  • the extracting unit 112 can be configured, for example, in the same manner as the collation data acquisition unit 52 of the object collation device according to the second embodiment of the present invention, but is not limited thereto.
  • the determination unit 113 compares the collation partial image extracted by the extraction unit 112 with a registered partial image acquired from the true object and registered in advance, so as to determine the identity of the collation target object. It is configured.
  • the determination unit 113 can be configured, for example, in the same manner as the determination unit 54 of the object matching device according to the second embodiment of the present invention, but is not limited thereto.
  • the object matching device 110 configured as above operates as follows. First, the obtaining unit 111 obtains an image of an object to be verified on which characters are printed. Next, the extracting unit 112 extracts a matching partial image including the character from the image acquired by the acquiring unit 111. Next, the determination unit 113 determines the identity of the object to be verified by comparing the verification partial image extracted by the extraction unit 112 with a registered partial image acquired from the true object and registered in advance. .
  • the matching accuracy for determining the identity of objects can be improved.
  • the reason is that the random pattern of the printed part due to the characters printed on the object can be clearly imaged without using a special lighting device compared to the random pattern caused by the shadow on the object surface, so it should be extracted with good reproducibility This is because
  • the contour data of the tablet is used as the data representing the posture of the tablet.
  • the data representing the posture of the tablet is not limited to the contour data of the tablet.
  • the data representing the orientation of the tablet may be the data representing the posture of the tablet.
  • the data representing the tablet orientation may be, for example, data representing the degree to which the curved surface portion 1b of the tablet 1 faces the camera, but is not limited thereto.
  • the direction of the tablet can be determined by pattern matching from the contour data of the tablet, for example.
  • the contour data of tablets having different directions is prepared as reference contour data, and the direction corresponding to the reference contour data matching the registered contour data or the matching contour data can be determined as the tablet direction.
  • the contour data of the object and the data representing the orientation of the object can be used as the data representing the posture of the object.
  • the data representing the posture of the object includes, in addition to the outline data of the shape of the object, the outline of the fixed pattern on the surface of the object. It may be configured.
  • characters and barcodes such as the shipping destination name, shipping number, date and time, etc.
  • a product package conveyed by a belt conveyor in an object printing device that prints, etc. it extracts not only the outline of the package shape but also the outline of a fixed pattern printed on the package as outline data.
  • it extracts not only the outline of the package shape but also the outline of a fixed pattern printed on the package as outline data.
  • the object matching device in addition to the outline data of the shape of the object, data representing the outline of the fixed pattern applied to the surface of the object is extracted as the matching outline data from the image of the product package to be checked. May be used for verification.
  • the partial image including the character and the contour data representing the posture of the tablet are used to determine the identity of the tablet.
  • the outline data representing the posture of the tablet may be omitted. That is, the registration data acquisition unit 23 of the tablet printing apparatus may be configured not to acquire the registered contour data. Further, the collation data acquisition unit 52 of the tablet collation device may be configured not to acquire collation contour data.
  • the registration data acquisition unit 23 of the tablet printing apparatus performs the same correction processing as the processing performed by the collation data acquisition unit 52 of the tablet collation apparatus (the processing shown in FIGS. 17 and 18). May be performed.
  • the present invention can be used for authenticity determination of an object such as authenticity determination for each tablet.
  • the collation posture data is configured to include data representing an outline of the outer shape of the object.
  • the collation posture data is configured to include data representing a contour of a fixed pattern applied to the surface of the object, 4.
  • the extraction unit detects a distortion of the printed character by comparing a region of the character in the image with a reference image of the character, and corrects the collation partial image based on the detected distortion. , The object matching device according to any one of supplementary notes 1 to 4.
  • the extracting means performs alignment between the image and a pre-registered object 3D model, texture-maps the image on the aligned object 3D model, and texture-maps the object 3D model.
  • a viewpoint in which the character pattern in the obtained image matches a reference character pattern is determined, and a partial image of a predetermined size including the character is used as the collation partial image from the image of the object 3D model of the determined viewpoint.
  • Extract The object matching device according to any one of supplementary notes 1 to 4.
  • the extracting means extracts, from the image of the three-dimensional model of the object after the alignment, posture data of the object as collation posture data,
  • the determination unit compares the object to be collated with the registration object by comparing the collation partial image and the collation posture data with a registered partial image and registered posture data acquired from the object to be registered and registered in advance. Determine identity with the target object, The object matching device according to attachment 6.
  • An object printing apparatus comprising: [Appendix 9] The extracting means extracts, from the image, posture data of the object as registered posture data, The storage means stores the registered partial image and the registered attitude data as data for determining the identity of the object.
  • the extracting unit detects a distortion of the printed character by comparing the character region in the image with a reference image of the character, and corrects the registered partial image based on the detected distortion.
  • the extracting means performs alignment between the image and a pre-registered object 3D model, texture-maps the image on the aligned object 3D model, and texture-maps the object 3D model. A viewpoint in which the character pattern in the obtained image matches the reference character pattern is determined, and a partial image of a predetermined size including the character is used as the registered partial image from the image of the object three-dimensional model of the determined viewpoint. Extract, 10. The object printing apparatus according to supplementary note 8 or 9.
  • the extracting means extracts posture data of the object as registered posture data from the image of the three-dimensional object after the alignment,
  • the storage unit stores the registered partial image and the registered posture data as data for determining the identity of the object.
  • An object printing apparatus according to supplementary note 11.
  • Appendix 13 Obtain an image of the object to be verified with the printed characters, From the image, extract a partial image of a predetermined size including the character as a collation partial image, By comparing the collation partial image and the registered partial image acquired from the registration target object and registered in advance, the identity of the collation target object and the registration target object is determined.
  • Object matching method is a method for Object matching method.
  • the posture data of the object is extracted as collation posture data
  • the collation object and the registration object are compared by comparing the collation partial image and the collation posture data with a registration partial image and registration posture data acquired from the registration object and registered in advance. Determine the identity of the object, An object matching method according to attachment 13.
  • the distortion of the printed character is detected by comparing the character area in the image with the reference image of the character, and the collation partial image is corrected based on the detected distortion.
  • the image is aligned with a previously registered object 3D model, the image is texture-mapped on the aligned object 3D model, and texture-mapped on the object 3D model. Determining a viewpoint at which the character pattern in the image matches a reference character pattern, and extracting a partial image of a predetermined size including the character from the image of the object three-dimensional model at the determined viewpoint as the collation partial image Do An object matching method according to attachment 13 or 14.
  • the posture data of the object is extracted as collation posture data from the image of the object three-dimensional model after the positioning,
  • the collation partial image and the collation posture data are compared with a registration partial image and registration posture data, which are acquired from the registration target object and registered in advance, so that the collation target object and the registration posture data are compared.
  • Determine identity with the target object An object matching method according to attachment 16;
  • [Appendix 18] Print text on the object to be registered, Obtaining an image of the object on which the characters are printed, From the image, extract a partial image of a predetermined size including the character as a registered partial image, The registered partial image is stored as data for determining the identity of the object, Object printing method.
  • the posture data of the object is extracted as registered posture data
  • the registered partial image and the registered attitude data are stored as data for determining the identity of the object. 19.
  • the distortion of the printed character is detected by comparing the character region in the image with the reference image of the character, and the registered partial image is corrected based on the detected distortion. 20.
  • the image is aligned with a previously registered object 3D model, the image is texture-mapped on the aligned object 3D model, and texture-mapped on the object 3D model.
  • Computer Acquisition means for acquiring an image of an object to be verified on which characters are printed
  • Extracting means for extracting, from the image, a partial image of a predetermined size including the character as a collation partial image
  • a determination unit that determines the identity of the matching target object and the registration target object
  • a computer-readable recording medium on which a program for causing a computer to function is recorded.
  • Computer Acquisition means for acquiring an image of an object to be registered on which characters are printed, Extracting means for extracting a partial image of a predetermined size including the character as a registered partial image from the image, A registration unit that registers the registration partial image in a storage unit as data for determining the identity of the object; A computer-readable recording medium on which a program for causing a computer to function is recorded.
  • Defective product discharge unit 13 Defective product discharge box 14 Image data 15 used as printing data 15 Printed part 16 Printed part 21
  • Print control unit 22 Defective product detection unit 23 Registered data acquisition unit 31

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Medical Preparation Storing Or Oral Administration Devices (AREA)

Abstract

物体照合装置は、取得手段と抽出手段と判定手段とを備える。取得手段は、文字が印刷された照合対象の物体を撮像した画像を取得する。抽出手段は、画像から、文字を含む所定サイズの部分画像を照合部分画像として抽出する。判定手段は、照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、照合対象の物体と登録対象の物体との同一性を判定する

Description

物体照合装置
 本発明は、物体照合装置、物体照合方法、物体印刷装置、物体印刷方法、および記録媒体に関する。
 近年、医薬品の偽造品問題が深刻化している。また、途上国・新興国では、パッケージから錠剤を取り出して販売している。そのため、錠剤単位での真贋判定が要望されている。
 錠剤単位で真贋判定を行う技術の一例が特許文献1に記載されている。特許文献1に記載される技術(以下、本発明の関連技術と記す)は、錠剤に文字を印刷する装置において、錠剤の周縁部に近い、文字を含まない所定領域に分布する錠剤表面の微細な凹凸に起因するランダムパターンを取得して登録データとして事前に登録する。そして、照合時には、照合対象の錠剤の同じ所定領域から取得したランダムパターンの画像データと登録データとを比較することにより真贋判定(真偽判定)を実施する。なお、本発明の関連技術が文字を含まない錠剤表面を所定領域とする理由は、錠剤に対して文字を印刷する装置において、文字印刷前の画像または文字印刷後の画像のうちの一方から照合データを取得し、他方から登録データを取得し、両者の相関値を計算しているためである。
特開2017-97389号公報
 本発明の関連技術では、個々の錠剤の製造過程で錠剤表面に形成される微細な凹凸によるランダムパターンを真贋判定に利用する。しかし、錠剤表面の微細な凹凸によるランダムパターンは、そもそも視覚的に見えにくいため、鮮明に撮像するのは基本的に難しい。本発明の関連技術では、リング照明ユニットを使用して中央部に比較して陰影が強く表れる周縁部からランダムパターンを取得するようにして改善を図っている。しかし、リング照明ユニットなどの特殊な照明装置が必要である。また、カメラの位置も正確である必要がある。そのため、リング照明ユニットなどの特殊な照明装置を所持していない一般人が、スマートフォンのカメラなどを利用して、照合対象の錠剤から鮮明なランダムパターンを取得するのは困難である。その結果、照合精度が低下する、という課題があった。かかる課題は、錠剤だけでなく物体固有のランダムパターンを有する任意の物体においても生じ得る。
 本発明の目的は、上述した課題を解決する物体照合装置を提供することにある。
 本発明の一形態に係る物体照合装置は、
 文字が印刷された照合対象の物体を撮像した画像を取得する取得手段と、
 前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出する抽出手段と、
 前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する判定手段と、
を備える。
 また、本発明の他の形態に係る物体印刷装置は、
 登録対象の物体に文字を印刷する印刷手段と、
 前記文字が印刷された前記物体を撮像した画像を取得する取得手段と、
 前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出する抽出手段と、
 前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶する記憶手段と、
を備える。
 また、本発明の他の形態に係る物体照合方法は、
 文字が印刷された照合対象の物体を撮像した画像を取得し、
 前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出し、
 前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する。
 また、本発明の他の形態に係る物体印刷方法は、
 登録対象の物体に文字を印刷し、
 前記文字が印刷された前記物体を撮像した画像を取得し、
 前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出し、
 前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶する。
 また、本発明の他の形態に係るコンピュータ読み取り可能な記録媒体は、
 コンピュータを、
 文字が印刷された照合対象の物体を撮像した画像を取得する取得手段と、
 前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出する抽出手段と、
 前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する判定手段と、
して機能させるためのプログラムを記録する。
 また、本発明の他の形態に係るコンピュータ読み取り可能な記録媒体は、
 コンピュータを、
 文字が印刷された登録対象の物体を撮像した画像を取得する取得手段と、
 前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出する抽出手段と、
 前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶手段に登録する登録手段と、
して機能させるためのプログラムを記録する。
 本発明は、上述した構成を有することにより、照合精度の高い物体照合が行える。
本発明の第1の実施形態に係る錠剤印刷装置の構成を示す図である。 本発明の第1の実施形態において印刷用データとして使用する画像データの例を示す図である。 本発明の第1の実施形態においてインクジェットプリンタにより錠剤に印刷が行われる様子を示す図である。 本発明の第1の実施形態において、プリントヘッドに正対する姿勢を有する錠剤に対して長さWの線分パターンを印刷してできる印刷部位を示す模式図である。 本発明の第1の実施形態において、プリントヘッドに対して正対しない姿勢を有する錠剤に対して長さWの線分パターンを印刷してできる印刷部位を示す模式図である。 錠剤の形状の例を示す図である。 本発明の第1の実施形態において、画像データを印刷した錠剤の上面図の例を示す図である。 本発明の第1の実施形態において、錠剤に印刷された画像データ中の一部の文字部分の拡大図である。 本発明の第1の実施形態に係る錠剤印刷装置の制御ユニットのブロック図である。 本発明の第1の実施形態に係る錠剤印刷装置の制御ユニットのハードウェア構成例を示すブロック図である。 本発明の第1の実施形態において、印刷後の錠剤を含む画像とその画像から取得された登録部分画像の例を示す図である。 本発明の第1の実施形態において、印刷後の錠剤を含む画像から取得した錠剤の輪郭データの一例を示す図である。 本発明の第1の実施形態において、印刷後の錠剤を含む画像から取得した錠剤の輪郭データの他の例を示す図である。 本発明の第1の実施形態に係る錠剤印刷装置におけるデータベースの登録情報の例を示す。 本発明の第1の実施形態に係る錠剤印刷装置における制御ユニットの処理例を示すフローチャートである。 本発明の第2の実施形態に係る錠剤照合装置の構成図である。 本発明の第2の実施形態に係る錠剤照合装置のハードウェア構成例を示す図である。 本発明の第2の実施形態に係る錠剤照合装置の処理例を示すフローチャートである。 本発明の第2の実施形態に係る錠剤照合装置における照合データ取得部の処理例を示すフローチャートである。 本発明の第2の実施形態に係る錠剤照合装置における照合データ取得部が補正画像を作成する方法の一例を示すフローチャートである。 本発明の第2の実施形態に係る錠剤照合装置における照合データ取得部が補正画像を作成する他の方法の説明図である。 本発明の第2の実施形態に係る錠剤照合装置における判定部の処理例を示すフローチャートである。 本発明の第2の実施形態に係る錠剤照合装置における判定部の他の処理例を示すフローチャートである。 本発明の第3の実施形態に係る物体印刷装置のブロック図である。 本発明の第4の実施形態に係る物体照合装置のブロック図である。
 次に本発明の実施の形態について図面を参照して詳細に説明する。
[第1の実施形態]
 先ず、本発明の第1の実施形態に係る錠剤印刷装置について説明する。
 本実施の形態に係る錠剤印刷装置は、登録対象の錠剤にインクジェット印刷により文字を印刷するように構成されている。また、錠剤印刷装置は、文字が印刷された錠剤を撮像した画像を取得するように構成されている。また、錠剤印刷装置は、上記画像から文字を含む所定サイズの部分画像を登録部分画像として抽出するように構成されている。また、錠剤印刷装置は、上記画像から錠剤の輪郭データを登録輪郭データとして抽出するように構成されている。また、錠剤印刷装置は、上記登録部分画像と上記登録輪郭データとを、錠剤の同一性を判定するためのデータとして記憶するように構成されている。
 図1は本実施形態に係る錠剤印刷装置の構成を示す図である。図1を参照すると、本実施形態に係る錠剤印刷装置は、錠剤1を供給するためのホッパ2と、ホッパ2により供給された錠剤1を搬送するためのベルトコンベア3とを備えている。ベルトコンベア3は、搬送中の錠剤1の姿勢(向き)を安定させるための図示しないガイドを有していてよい。例えば、ベルトコンベア3は、搬送方向に沿って整列配置された凹部からなるガイドを有していてよい。ホッパ2から供給された錠剤1は、その一部がガイドの凹部に収容されることにより、姿勢が安定する。
 また、本実施形態に係る錠剤印刷装置は、ベルトコンベア3上の錠剤1を検出するための検出用カメラ4と、検出用カメラ4で検出された錠剤1に対して文字を印刷するインクジェットプリンタ5と、インクジェットプリンタ5による印刷が行われた錠剤1の画像を取得する登録用カメラ6と、データベース7と、制御ユニット8と、良品格納ボックス9と、不良品排出ユニット12と、不良品格納ボックス13とを備えている。
 検出用カメラ4は、ベルトコンベア3上を搬送される錠剤1を、ベルトコンベア3の所定の場所の上方から撮像する撮像手段である。制御ユニット8は、検出用カメラ4の画像を解析することにより、ベルトコンベア3の所定の場所に錠剤1が存在するか否か、存在する場合には錠剤1の正確な位置および姿勢(向き)等を検出することができる。
 インクジェットプリンタ5は、錠剤1に所定の文字を印刷する印刷手段である。印刷する文字は、予め定められている。また、本明細書において、「文字」とは、カタカナ、ひらがな、アルファベットなどの狭義の意味の文字に限定されず、記号や図形などを含む。文字の色は、錠剤1の表面色と明確に区別できる色に設定される。また、文字のサイズ、形状は、錠剤1に全ての文字の全体が収まるように設定される。インクジェットプリンタ5は、制御ユニット8により印刷動作が制御される。
 制御ユニット8は、検出用カメラ4により撮像された画像に基づいて、錠剤1の位置や姿勢等を検出し、検出した情報に基づいてベルトコンベア3上の錠剤1に対して指定された位置に指定された文字が印刷されるタイミングでインクジェットプリンタ5を制御する。
 図2は、印刷用データとして使用する画像データ14の例を示す。この例の画像データ14は、「ファーマ」と「システムズ」なる文字列が所定の字体を使用して、所定の文字間隔で、2段に印刷される例である。画像データ14中の文字の色は錠剤1の表面色と異なるように設定されている。また、画像データ14中の文字の背景色は、例えば無色に設定されている。また、画像データ14の横、縦のサイズは、それぞれW、Hである。画像データ中の文字列の外接矩形の横、縦のサイズが、上記W、Hと同じになるように文字の配置が設定されていてよい。或いは、画像データ14の輪郭を表す枠が錠剤1の表面色と異なる色で設定されていてもよい。画像データ14は、文字の基準画像あるいは基準文字パターンとも呼ぶ。
 図3は、インクジェットプリンタ5により錠剤1に印刷が行われる様子を示す図である。図3を参照すると、錠剤1は、ベルトコンベア3によりインクジェットプリンタ5の図示しないプリントヘッドの下を通過する際に、「ファーマ」、「システムズ」という文字が印刷されている。ここで、印刷時の錠剤1の姿勢にかかわらず、錠剤1に画像データ14を印刷した状態を直上から観察すると、錠剤1に印刷された画像データ14の横、縦のサイズ、文字の形状やサイズは、印刷用データとして使用した画像データ14に一致する。その理由は以下の通りである。
 図4Aは、プリントヘッドに正対する姿勢を有する錠剤1に対して長さWの線分パターンを印刷してできる印刷部位15を示す。また、図4Bは、プリントヘッドに対して正対しない姿勢を有する錠剤1に対して長さWの線分パターンを印刷してできる印刷部位16を示す。どちらの印刷部位15、16も、プリントヘッド側から観察する限り、同じ長さWに見える。それ故、上述したように、印刷時の錠剤1の姿勢にかかわらず、錠剤1に印刷された画像データ14の横、縦のサイズ、文字の形状やサイズは、印刷用データとして使用した画像データ14のものと一致することになる。なお、錠剤1がプリントヘッドに正対するとは、例えば図5に示すように、錠剤1の形状が、文字が印刷される曲面部1aと、その反対側の曲面部1bと、それらの間に存在する側面部1cとで規定される場合、曲面部1aがプリントヘッドに正対している状態を意味するものとする。
 登録用カメラ6は、インクジェットプリンタ5によって印刷が行われた後の錠剤1がカメラ6の直下に搬送されてきたタイミングで、直上から錠剤1の全体を含む画像を撮像する撮像手段である。従って、錠剤1が印刷位置から登録用カメラ6の撮像場所まで同じ姿勢を維持する場合、登録用カメラ6で撮像された錠剤1の画像中の印刷された画像データ14の横、縦のサイズ、文字の形状やサイズは、画像データ14のものと一致する。一方、同じ画像データ14を印刷した場合であっても、プリンタヘッドから噴射された微細なインク粒によって形成される印刷部位のドットの形状および配置は、インク粒が着弾する箇所の凹凸、印刷時の錠剤の姿勢、インクの浸透むら等の多くの要因によって決定され、決して同じにはなり得ず、また後に再現することも極めて困難である。そのため、インクによる印刷部位のランダムパターンは、錠剤の同一性を判定するデータとして利用することができる。そのため、登録用カメラ6は、画像データ14を印刷するためにインクジェットプリンタ5から噴射されたインクによって形成されたドットの形状および配置が判別可能な分解能で錠剤1の画像を取得するように構成されている。
 図6Aは、画像データ14を印刷した3つの錠剤の上面図の例を示す。また、図6Bは、上記3つの錠剤に印刷された画像データ14中の文字「テ」の部分の拡大図を示す。図6Bに示されるように、同じ「テ」という文字であっても、それを構成する印刷部位のドットの形状および配置は互いに相違している。
 再び図1を参照すると、不良品排出ユニット12は、制御ユニット8の制御に基づいて、ベルトコンベア3上を配送されている錠剤1を不良品格納ボックス13に排出するように動作する。
 不良品格納ボックス13は、不良品排出ユニット12により排出された不良品の錠剤を格納するための排出場所である。良品格納ボックス9は、不良品排出ユニット12により排出されなかった良品の錠剤1を格納するための格納場所である。
 制御ユニット8は、登録用カメラ6により撮像された錠剤1の画像に基づいて、錠剤1の印刷状態を確認し、印刷不良の場合には不良品排出ユニット12を制御して不良品の錠剤1が不良品格納ボックス13に排出されるように制御する。また、制御ユニット8は、印刷不良でない錠剤1については、登録用カメラ6により撮像された錠剤1の画像から錠剤の同一性を判定するためのデータを取得し、データベース7に登録する。
 図7は制御ユニット8のブロック図である。図7を参照すると、制御ユニット8は、印刷制御部21と不良品検出部22と登録データ取得部23とを備えている。このような制御ユニット8は、例えば図8に示すように、通信インタフェース部31と、キーボードやマウスなどの操作入力部32と、液晶ディスプレイ等の画面表示部33と、メモリやハードディスク等の記憶部34と、1以上のマイクロプロセッサ等の演算処理部35とを有するパーソナルコンピュータ等の情報処理装置36と、プログラム37とで実現することができる。プログラム37は、情報処理装置36の立ち上げ時等に外部のコンピュータ読み取り可能な記憶媒体から記憶部34に読み込まれ、演算処理部35の動作を制御することにより、演算処理部35上に、印刷制御部21、不良品検出部22、および登録データ取得部23を実現する。
 印刷制御部21は、検出用カメラ4により撮像された画像から錠剤1の位置および姿勢などを検出し、検出した錠剤1の位置とベルトコンベア3の搬送速度とインクジェットプリンタ5の印刷速度等の情報から、インクジェットプリンタ5に対して印刷指示を出力するタイミングを算出し、算出したタイミングでインクジェットプリンタ5に対して印刷指示を送信する。
 不良品検出部22は、登録用カメラ6により撮像された印刷後の錠剤1を含む画像から錠剤1に印刷された文字に印刷ずれや印刷のかすれなどの不具合がないか、錠剤1に欠け等の欠陥がないか否かを判定し、印刷不良または欠陥があると判定した場合、その錠剤1をベルトコンベア3から排出するよう不良品排出ユニット12を制御する。また、不良品検出部22は、不良品と判定した錠剤1を含む画像の識別情報(例えば画像のフレーム番号や撮影時刻など)を登録データ取得部23に通知する。
 登録データ取得部23は、登録用カメラ6により撮像された印刷後の錠剤1を含む画像から、錠剤1に印刷された画像データ14の領域を登録部分画像として取得する。また、登録データ取得部23は、登録用カメラ6により撮像された印刷後の錠剤1を含む画像から、錠剤1の輪郭データを登録輪郭データとして取得する。また、登録データ取得部23は、上記取得した登録部分画像と登録輪郭データとの2種類の登録データをペアにして、データベース7に登録する。登録データ取得部23は、不良品排出ユニット12により不良品と判定された錠剤1を含む画像からは上記登録データは取得しない。
 図9は、登録用カメラ6により撮像された印刷後の錠剤1を含む画像41とその画像から取得された登録部分画像42の例を示す。図9に示す例では、登録データ取得部23は、錠剤1の画像中に存在する全ての文字を包含する外接矩形を登録部分画像42として取得している。登録部分画像42の取得では、登録データ取得部23は、例えば、錠剤1の画像からパターンマッチング等の方法によって文字を認識し、認識した全ての文字を包含する外接矩形を生成し、外接矩形内の画像領域を登録部分画像42として取得する。或いは、登録データ取得部23は、印刷用データとして使用する画像データ14に輪郭線が存在する場合、錠剤1の画像から当該輪郭線をパターンマッチング等の方法によって認識し、認識した輪郭線内の画像領域を登録部分画像42として取得する。取得された登録部分画像42には、インクによる印刷部位および錠剤表面が露出した非印刷部位の双方が含まれている。
 図10Aは、登録用カメラ6により撮像された印刷後の錠剤1を含む画像から取得した錠剤1の輪郭データ43の一例を示す。この輪郭データ43は、プリントヘッドに正対する姿勢で印刷が行われた錠剤1の輪郭データの例である。図10Bは、画像から取得した錠剤1の輪郭データ43の他の例を示す。図10Bに示す輪郭データ43は、プリントヘッドに正対せずに傾いた向きで印刷が行われた錠剤1の輪郭データの例である。傾いた向きで印刷が行われた錠剤1では、曲面部1aの輪郭だけでなく、図10Aでは現れていない側面部1cや下側の曲面部1bの輪郭の一部が取得されている。輪郭データ43は、例えば、輪郭部分が値1、それ以外が値0の2値画像であってよい。或いは、輪郭データ43は、輪郭をできるだけ忠実に多数の線分で近似し、線分と線分の接続点である頂点座標の組からなるデータであってもよい。また、登録データ取得部23は、錠剤1の輪郭データとして、図10A、図10Bに示すような錠剤1の形状の輪郭データに加えて、インクジェットプリンタ5によって錠剤1に印刷された文字の輪郭データを取得するように構成されていてよい。さらに、インクジェットプリンタ5による印刷前に錠剤1の表面に何らかの定形パターンが施されている場合、錠剤1の形状の輪郭データに加えて、上記定形パターンの輪郭データを取得するように構成されていてよい。定形パターンの例として、文字、図形、記号、デザイン画、バーコードなどがある。例えば、上下が別々の色に塗り分けられたカプセル錠剤などがその一例である。このように錠剤1に施されている定形パターンは、錠剤1の同じ場所に施されていても錠剤1の姿勢によって見え方が変化するため、錠剤1の形状の輪郭データと同様に同一性を判定するデータとして利用することができる。錠剤1の形状の輪郭データだけでなく、定形パターンを利用することにより、より高精度な真贋判定あるいは照合の枝刈りが可能になる。但し、そのような定形パターンを利用しない形態も当然本発明に含まれる。
 図11は、データベース7の登録情報の例を示す。図11を参照すると、データベース7は、登録部分画像45-1~45-nと登録輪郭データ46-1~46-nとのペアが登録されている。
 図12は、制御ユニット8の処理例を示すフローチャートである。ホッパ2により供給された錠剤1がベルトコンベア3上を搬送されて検出用カメラ4の直下を通過すると、検出用カメラ4によりその錠剤1の画像が撮像される。制御ユニット8の印刷制御部21は、この撮像された画像を検出用カメラ4から取得し(ステップS1)、その画像を解析して錠剤1の位置を確認する(ステップS2)。次に、印刷制御部21は、錠剤1がインクジェットプリンタ5のプリントヘッドの直下を通過するタイミングで基準文字パターンを印刷するようにインクジェットプリンタ5を制御する(ステップS3)。
 次に、印刷処理が行われた錠剤1が登録用カメラ6の直下を通過すると、登録用カメラ6により印刷処理後の錠剤1の画像が撮像される。制御ユニット8の不良品検出部22および登録データ取得部23は、この撮像された画像を登録用カメラ6から取得する(ステップS4)。次に、不良品検出部22は、取得した画像から印刷の良否を判定し(ステップS5)、不良の場合(ステップS6でNO)、錠剤1を不良品排出ユニット12により不良品格納ボックス13に排出する(ステップS9)。他方、不良でない場合、登録データ取得部23は、登録用カメラ6から取得した画像から、登録部分画像と登録輪郭データとを取得する(ステップS7)。次に、登録データ取得部23は、取得した登録部分画像と登録輪郭データとを対応付けてデータベース7に登録する(ステップS8)。
 次に本実施形態の効果を説明する。
 第1に、錠剤の同一性を判定するための照合の精度を高めることができることである。その理由は、錠剤にインクジェット印刷したインクによる印刷部位のランダムパターンは、錠剤表面の凹凸に起因するランダムパターンに比べて、再現性良く且つ鮮明に撮像できるためである。
 第2に、文字を含む部分画像である登録部分画像と共に、錠剤の姿勢を表す登録輪郭データを、錠剤の同一性を判定するためのデータとして取得するため、文字を含む部分画像だけでなく、印刷時の錠剤の姿勢に基づいて錠剤の同一性を判定することができることである。
[第2の実施形態]
 次に、本発明の第2の実施形態に係る錠剤照合装置について説明する。本実施形態に係る錠剤照合装置は、例えば市場で入手した錠剤が正規に製造された本物(真の錠剤)であるのか、偽物であるのかを判定するための装置である。
 図13は、本実施形態に係る錠剤照合装置の構成図である。図13を参照すると、本実施形態に係る錠剤照合装置は、カメラ51と、照合データ取得部52と、データベース53と、判定部54と、出力部55とを備えている。このような錠剤照合装置は、例えば図14に示すように、カメラ60と、通信インタフェース部61と、キーボードやマウスなどの操作入力部62と、液晶ディスプレイ等の画面表示部63と、メモリやハードディスク等の記憶部64と、1以上のマイクロプロセッサ等の演算処理部65とを有するパーソナルコンピュータあるいはスマートフォン等の情報処理装置66と、プログラム67とで実現することができる。プログラム67は、情報処理装置66の立ち上げ時等に外部のコンピュータ読み取り可能な記憶媒体から記憶部64に読み込まれ、演算処理部65の動作を制御することにより、演算処理部65上に、照合データ取得部52と、データベース53と、判定部54と、出力部55とを実現する。
 カメラ51は、真贋判定の対象とされる錠剤1を撮像する撮像手段である。錠剤照合装置を使用して真贋判定を行う利用者は、真贋判定の対象とされる錠剤1を文字が印刷された曲面部1aを上にしてテーブルなどの上に載置し、錠剤1全体をカメラ51で撮像する。
 照合データ取得部52は、カメラ51で撮像された錠剤1を含む画像から、文字を含む所定サイズの部分画像を照合部分画像として取得するように構成されている。また、照合データ取得部52は、上記画像から錠剤1の輪郭データを照合輪郭データとして取得するように構成されている。
 データベース53は、図1に示した錠剤印刷装置に備わるデータベース7と同様の2種類の登録用データ、即ち登録部分画像と登録輪郭データのペアを1以上事前に記憶している。また、データベース53は、照合対象となる錠剤1の3次元モデルを事前に記憶している。3次元モデルの表現方法は任意であり、例えばサーフェス、ソリッドを使用してよい。錠剤1の形状の輪郭データに加えて、錠剤1の表面に施されている定形パターンの輪郭データを使用する場合、照合対象となる錠剤1の3次元モデルは、錠剤1の表面に施されている定形パターンのデータを含んで構成されている。
 判定部54は、照合データ取得部52により取得された照合部分画像および照合輪郭データと、データベース53に記憶されている登録部分画像および登録輪郭データとを比較して、錠剤1が正規に製造された本物(真の錠剤)であるのか、偽物であるのかを判定するように構成されている。
 出力部55は、判定部54の判定結果を、画面表示部63に表示し、または、通信インタフェース部61を通じて外部の端末へ送信するように構成されている。
 図15は、本実施形態に係る錠剤照合装置の処理例を示すフローチャートである。図15を参照すると、先ず、カメラ51は、利用者のカメラ操作に従って錠剤1を含む画像を撮像する(ステップS11)。次に、照合データ取得部52は、カメラ51で撮像された錠剤1を含む画像から、照合部分画像と照合輪郭データとの2種類の照合データを取得する(ステップS12)。次に、判定部54は、照合データ取得部52により取得された照合部分画像および照合輪郭データと、データベース53に事前に記憶されている登録部分画像および登録輪郭データとを比較して、錠剤1の真贋を判定する(ステップS13)。次に、出力部55は、判定部54の判定結果を出力する(ステップS14)。
 続いて、照合データ取得部52および判定部54の処理を詳細に説明する。
 先ず、照合データ取得部52の処理を詳細に説明する。
 図16は、照合データ取得部52の処理例を示すフローチャートである。図16を参照すると、照合データ取得部52は、カメラ51によって撮像された錠剤1の画像をオリジナル画像とし、オリジナル画像から照合部分画像を抽出する(ステップS21)。照合部分画像を抽出する方法は、錠剤印刷装置の登録データ取得部23が画像から登録部分画像を抽出する方法と同じである。
 次に、照合データ取得部52は、オリジナル画像から抽出した照合部分画像の横および縦のサイズ、文字の形状やサイズと、基準文字パターンである画像データ14の横および縦のサイズ、文字の形状やサイズとを比較することにより、照合部分画像と基準文字パターンとの類似度を算出する(ステップS22)。類似度の求め方は任意である。例えば、照合データ取得部52は、オリジナル画像から抽出した照合部分画像と基準文字パターンとの相関値の最大値を類似度としてよい。照合データ取得部52が使用する基準文字パターンは、錠剤印刷装置のインクジェットプリンタ5が印刷用データとして使用する画像データ14と同じである。カメラ51で撮像した際の錠剤1の姿勢が、その錠剤1に文字を印刷した際の錠剤1の姿勢と同一であるならば、照合部分画像と基準文字パターンとは一致する。しかし、カメラ51で撮像した際の錠剤1の姿勢が、その錠剤1に文字を印刷した際の錠剤1の姿勢と相違すると、照合部分画像は基準文字パターンに対して歪みが生じる。例えば図4Aの印刷部位15を、錠剤1に正対しない方向から観察すると、Wより短いW’のパターンに見える。
 次に、照合データ取得部52は、類似度を閾値と比較する(ステップS23)。次に、照合データ取得部52は、類似度が閾値以上であれば(ステップS23でYES)、ステップS21で抽出した照合部分画像を判定部54に出力する(ステップS24)。また、照合データ取得部52は、オリジナル画像から錠剤1の輪郭データを抽出し、この抽出した輪郭データを照合輪郭データとして判定部54に出力する(ステップS25)。照合輪郭データを抽出する方法は、錠剤印刷装置の登録データ取得部23が画像から登録輪郭データを抽出する方法と同じである。
 他方、照合データ取得部52は、類似度が閾値未満であれば(ステップS23でNO)、以下の処理を行う。
 先ず、照合データ取得部52は、文字を印刷したときの錠剤1の姿勢と同じ姿勢の錠剤1をカメラ51で撮像した画像をオリジナル画像から画像処理によって作成する(ステップS26)。この作成した画像を補正画像と呼ぶ。この補正画像を作成する方法の詳細は後述する。
 次に、照合データ取得部52は、ステップS21と同様の方法を使用して、補正画像から照合部分画像を取得し、この取得した照合部分画像を判定部54に出力する(ステップS27)。次に、照合データ取得部52は、補正画像から錠剤1の輪郭データを取得し、この取得した輪郭データを照合輪郭データとして判定部54に出力する(ステップS28)。
 次に、オリジナル画像から補正画像を作成する方法の詳細を説明する。
 図17は、補正画像を作成する方法の一例を示すフローチャートである。図17を参照すると、照合データ取得部52は、先ず、照合対象の錠剤1の3次元モデルをデータベース53から取得する(ステップS31)。次に、照合データ取得部52は、3次元モデルとオリジナル画像中の錠剤1の画像との位置合わせを行う(ステップS32)。ここで言う位置合わせとは、3次元モデルを撮像する仮想的なカメラの位置および画角を、オリジナル画像を撮像したカメラ51の位置および画角に一致させることである。即ち、オリジナル画像中の錠剤1の画像と同じように撮像できる仮想的なカメラの位置および画角を決定することである。カメラ51の位置等は未知であるため、照合データ取得部52は、例えば仮想的なカメラの位置および画角を変更しながら、3次元モデルとオリジナル画像中の錠剤1の画像のマッチング処理を行うことにより、3次元モデルとオリジナル画像中の錠剤1の画像との位置合わせを行う。
 次に照合データ取得部52は、オリジナル画像中の錠剤の画像を、位置合わせした3次元モデルにテクスチャマッピングする(ステップS33)。即ち、位置合わせした3次元モデルの表面ポリゴンに対して錠剤の画像をマッピングする。
 次に照合データ取得部52は、3次元モデルにテクスチャマッピングされた文字を含む照合部分画像が基準文字パターンに一致する視点、即ち仮想カメラの位置を決定する(ステップS34)。次に照合データ取得部52は、決定した視点の3次元モデルの画像、即ち決定した視点から3次元モデルを撮像した画像を補正画像として取得する(ステップS35)。
 図18は、オリジナル画像から抽出した照合部分画像の歪みを補正する他の方法の説明図である。図18において、画像71がオリジナル画像から抽出した照合部分画像、画像72が印刷用データである画像データ14である。照合データ取得部52は、画像71の頂点71a、71b、71c、71dを検出し、それぞれを画像72の頂点72a、72b、72c、72dに対応付ける。次に、照合データ取得部52は、画像71を画像72と同じサイズおよび縦横比の長方形になるように画像71の歪みを補正する。このような照合データ取得部52は、歪み補正機能を有するフォトショップ(登録商標)などのソフトウェアを使用して実現することができる。
 次に、判定部54の詳細を説明する。
 図19は、判定部54の処理例を示すフローチャートである。図19を参照すると、判定部54は、データベース53に記憶されている登録部分画像と登録輪郭データとのペアの1つに注目する(ステップS41)。次に、判定部54は、注目中のペアの登録輪郭データと照合輪郭データとの類似度を算出する(ステップS42)。錠剤の輪郭データどうしの類似度は、2値化した輪郭データのパターンマッチングや、2値化した輪郭データから抽出した特徴量どうしの比較演算等によって、照合部分画像と登録部分画像との相関処理に比べて少ない計算量で算出できる。類似度は、互いの輪郭データが類似していればいるほど、大きな値になり、類似していなければ小さな値になる。
 次に、判定部54は、類似度を予め設定された閾値TH1と比較する(ステップS43)。次に、判定部54は、類似度が閾値TH1未満であれば、注目中のペアの登録部分画像による照合処理(ステップS44、S45)を省略し、ステップS46へと進む。また判定部54は、類似度が閾値TH1以上であれば、注目中のペアの登録部分画像と照合部分画像との相関値を、位相限定相関法などを使用して算出する(ステップS44)。相関値は、登録部分画像と照合部分画像とが、同じ錠剤1から取得されている場合、1に近い値となる。次に、判定部54は、相関値を予め設定された閾値TH2と比較する(ステップS45)。次に、判定部54は、相関値が閾値TH2以上であれば、錠剤1は本物の錠剤であると判定する(ステップS49)。そして、判定部54は、図19の処理を終了する。また、判定部54は、相関値が閾値TH2未満であれば、ステップS46へと進む。
 判定部54は、ステップS46では、データベース53に記憶されている登録部分画像と登録輪郭データとの次のペアの1つに注目を移す。そして、判定部54は、ステップS42に戻って、上述した処理と同様の処理を繰り返す。また、判定部54は、データベース53中の全てのペアに注目し終えると(ステップS47でYES)、錠剤1は偽物の錠剤であると判定する(ステップS48)。そして、判定部54は図19の処理を終了する。
 図20は、判定部54の他の処理例を示すフローチャートである。図20を参照すると、判定部54は、データベース53に記憶されている全ての登録輪郭データと照合輪郭データとの類似度を算出する(ステップS51)。次に、判定部54は、データベース53中の登録部分画像と登録輪郭データとのペアを、その登録輪郭データと照合輪郭データとの類似度の降順にソートし、ソート後のペアをペア集合に格納する(ステップS52)。
 次に判定部54は、ペア集合中の類似度の一番大きいペアに注目し(ステップS53)、その類似度を予め設定された閾値TH1と比較する(ステップS54)。次に、判定部54は、類似度が閾値TH1未満であれば、錠剤1は偽物の錠剤であると判定する(ステップS59)。そして、判定部54は図20の処理を終了する。一方、判定部54は、類似度が閾値TH1以上であれば、注目中のペアの登録部分画像と照合部分画像との相関値を、位相限定相関法などを使用して算出する(ステップS55)。次に、判定部54は、相関値を予め設定された閾値TH2と比較する(ステップS56)。次に、判定部54は、相関値が閾値TH2以上であれば、錠剤1は本物の錠剤であると判定する(ステップS60)。そして、判定部54は、図20の処理を終了する。また、判定部54は、相関値が閾値TH2未満であれば、ペア集合中の次に類似度の大きなペアの1つに注目を移す(ステップS57)。そして、判定部54は、ステップS54に戻って、上述した処理と同様の処理を繰り返す。また、判定部54は、ペア集合中の全てのペアに注目し終えると(ステップS58でYES)、錠剤1は偽物の錠剤であると判定する(ステップS59)。そして、判定部54は図20の処理を終了する。
 次に本実施形態の効果を説明する。
 第1に、照合精度の高い錠剤照合装置が得られることである。その理由は、文字が印刷された照合対象の錠剤を撮像した画像から上記文字を含む照合部分画像を抽出し、その照合部分画像と、真の錠剤から取得され予め登録されている登録部分画像とを比較することにより、照合対象の錠剤の同一性を判定するためである。
 第2に、特殊な照明装置を所持していない一般人であってもスマートフォン等のカメラなどを使用して、手軽に鮮明なランダムパターンを撮像して真贋判定できることである。その理由は、文字が印刷された照合対象の錠剤を撮像した画像からは、手軽に鮮明なランダムパターンを得ることができるためである。
 第3に、高速な真贋判定が行えることである。その理由は、文字印刷時の錠剤の姿勢を表す輪郭データを使用して錠剤照合の枝刈りをしているためである。即ち、錠剤照合装置の判定部54は、錠剤1の照合輪郭データと真の錠剤から取得され予め登録されている登録輪郭データとの類似度を算出して、閾値と比較することにより、錠剤1の文字を含む照合部分画像と登録部分画像との相関演算の要否を決定し、演算量の多い相関演算を行う回数を削減しているためである。
 第4に、登録時と照合時の撮像方向の相違に頑健な真贋判定が行えることである。その理由の1つは、本発明の関連技術による錠剤の周縁部の陰影に起因するランダムパターンは、照明が照射される方向(照明方向)が多少ずれるだけでも比較的容易に変化し、それに応じて得られるランダムパターンも変化する。また、そもそも、携帯電話のカメラ等ではレンズ口径が小さいために明暗の感度が悪いため、強い照明を当てなければ、薄い陰影の濃淡を安定して撮像できないことが多い。そのため、同一の錠剤であっても、登録時と照合時の照明方向や照明機材に相違があると、得られるランダムパターンが相違し、照合精度が低下する。これに対して、文字が印刷された照合対象の錠剤を撮像した画像から取得されるランダムパターンは、濃い色のインクの付着の有無によって生じる明暗であり、元々鮮明に得られるものであるため、登録時と照合時とで撮像方向が多少相違してもランダムパターンはあまり変化しないためである。他の理由の1つは、錠剤照合装置の照合データ取得部52は、オリジナル画像の歪みを補正した補正画像を算出し、この補正画像から照合部分画像を取得するためである。
[第3の実施形態]
 次に、本発明の第3の実施形態に係る物体印刷装置について説明する。図21は本実施形態に係る物体印刷装置のブロック図である。
 図21を参照すると、本実施形態に係る物体印刷装置100は、印刷手段101と、取得手段102と、抽出手段103と、記憶手段104とを備えている。
 印刷手段101は、登録対象の物体に文字を印刷するように構成されている。物体は、例えば錠剤であってもよいし、錠剤以外の物体、例えば菓子、半導体部品、機械部品、製品パッケージなどであってよい。印刷手段101は、例えばインクジェットプリンタによって構成することができるが、それに限定されない。取得手段102は、印刷手段101によって文字が印刷された物体を撮像した画像を取得するように構成されている。取得手段102は、例えばカメラによって構成することができるが、それに限定されない。抽出手段103は、取得手段102によって取得された画像から、上記文字を含む登録部分画像を抽出するように構成されている。抽出手段103は、例えば第1の実施形態に係る物体印刷装置の登録データ取得部23と同様に構成することができるが、それに限定されない。記憶手段104は、抽出手段103によって抽出された登録部分画像を、登録対象の物体の同一性を判定するためのデータとして記憶するように構成されている。
 このように構成された物体印刷装置100は、以下のように動作する。先ず印刷手段101は、登録対象の物体に文字を印刷する。次に取得手段102は、印刷手段101によって文字が印刷された物体を撮像した画像を取得する。次に抽出手段103は、取得手段102によって取得された画像から、上記文字を含む登録部分画像を抽出する。次に記憶手段104は、抽出手段103によって抽出された登録部分画像を、登録対象の物体の同一性を判定するためのデータとして記憶する。
 以上のように構成され、動作する物体印刷装置100によれば、物体の同一性を判定するための照合精度を高めることができる。その理由は、物体に印刷した文字による印刷部位のランダムパターンは、物体表面の陰影に起因するランダムパターンに比べて、特殊な照明装置を使わずとも鮮明に撮像できるため、再現性良く抽出することができるためである。
[第4の実施形態]
 次に、本発明の第4の実施形態に係る物体照合装置について説明する。図22は本実施形態に係る物体照合装置のブロック図である。
 図22を参照すると、本実施形態に係る物体照合装置110は、取得手段111と、抽出手段112と、判定手段113とを備えている。
 取得手段111は、文字が印刷された照合対象の物体を撮像した画像を取得するように構成されている。物体は、例えば錠剤であってもよいし、錠剤以外の物体、例えば菓子、半導体部品、機械部品、製品パッケージなどであってよい。取得手段111は、例えばカメラによって構成することができるが、それに限定されない。抽出手段112は、取得手段111によって取得された画像から、上記文字を含む照合部分画像を抽出するように構成されている。抽出手段112は、例えば本発明の第2の実施形態に係る物体照合装置の照合データ取得部52と同様に構成することができるが、それに限定されない。判定手段113は、抽出手段112によって抽出された照合部分画像と、真の物体から取得され予め登録されている登録部分画像とを比較することにより、照合対象の物体の同一性を判定するように構成されている。判定手段113は、例えば本発明の第2の実施形態に係る物体照合装置の判定部54と同様に構成することができるが、それに限定されない。
 このように構成された物体照合装置110は、以下のように動作する。先ず取得手段111は、文字が印刷された照合対象の物体を撮像した画像を取得する。次に抽出手段112は、取得手段111によって取得された画像から、上記文字を含む照合部分画像を抽出する。次に判定手段113は、抽出手段112によって抽出された照合部分画像と、真の物体から取得され予め登録されている登録部分画像とを比較することにより、照合対象の物体の同一性を判定する。
 以上のように構成され、動作する物体照合装置110によれば、物体の同一性を判定するための照合精度を高めることができる。その理由は、物体に印刷した文字による印刷部位のランダムパターンは、物体表面の陰影に起因するランダムパターンに比べて、特殊な照明装置を使わずとも鮮明に撮像できるため、再現性良く抽出することができるためである。
[他の実施形態]
 本発明の他の実施形態について説明する。
 例えば、第1の実施形態に係る錠剤印刷装置および第2の実施形態に係る錠剤照合装置では、錠剤の姿勢を表すデータとして錠剤の輪郭データを使用した。しかし、錠剤の姿勢を表すデータは、錠剤の輪郭データに限定されない。例えば、錠剤の向きを表すデータを、錠剤の姿勢を表すデータとしてもよい。錠剤の向きを表すデータとしては、例えば、カメラに対して錠剤1の曲面部1bが正対している程度を表すデータとすることができるが、それに限定されない。錠剤の向きは、例えば、錠剤の輪郭データからパターンマッチングによって決定することができる。即ち、向きの異なる錠剤の輪郭データを基準輪郭データとして用意しておき、登録輪郭データまたは照合輪郭データとマッチする基準輪郭データに対応する向きを錠剤の向きに決定することができる。このように本発明では、物体の輪郭データ、および、物体の向きを表すデータを、物体の姿勢を表すデータとして用いることができる。また、物体の姿勢を表すデータは、第1および第2の実施形態において既に説明したように、物体の形状の輪郭データに加えて、物体の表面の施されている定形パターンの輪郭を含んで構成されていてもよい。例えば、商品名、絵、デザイン画などによる定形パターンが既に印刷されている直方体などの形状を有する商品パッケージに対して、インクジェット印刷などによって出荷先の名前、出荷番号、日時などの文字やバーコード等を印刷する物体印刷装置において、ベルトコンベアで搬送されてくる商品パッケージに文字を印刷した際、パッケージの形状の輪郭だけでなく、パッケージに印刷されていた定形パターンの輪郭を輪郭データとして抽出し、登録輪郭データとして登録するように構成されていてよい。また、物体照合装置では、照合対象の商品パッケージを撮像した画像から、物体の形状の輪郭データに加えて、物体の表面に施されている定形パターンの輪郭を表すデータを照合輪郭データとして抽出して照合に利用してよい。
 また、第1の実施形態に係る錠剤印刷装置および第2の実施形態に係る錠剤照合装置では、文字を含む部分画像と錠剤の姿勢を表す輪郭データとを、錠剤の同一性を判定するためのデータとしたが、錠剤の姿勢を表す輪郭データを省略するように構成されていてもよい。即ち、錠剤印刷装置の登録データ取得部23は、登録輪郭データを取得しないように構成されていてよい。また、錠剤照合装置の照合データ取得部52は、照合輪郭データを取得しないように構成されていてよい。
 また、第1の実施形態に係る錠剤印刷装置では、錠剤1の姿勢が印刷時と画像取得時とで殆ど変化しないことを前提としていた。また、登録用カメラ6は、インクジェットプリンタ5と同じく錠剤1の直上から錠剤1の画像を撮像するように構成されていた。しかし、錠剤1の姿勢が印刷時と画像取得時とで変化することもあり得る。また、設置スペース等の制限により、登録用カメラ6が錠剤1の直上から錠剤1の画像を撮像することができず、斜め方向から撮像しなければならない場合も考えられる。これらの場合、登録用カメラ6で撮像した錠剤1の画像から抽出される文字を含む登録部分画像は、錠剤照合装置の場合と同様に歪むことになる。そこで、本発明の他の形態として、錠剤印刷装置の登録データ取得部23は、錠剤照合装置の照合データ取得部52で行った処理と同様な補正処理(図17および図18に示される処理)を行うようにしてもよい。
 本発明は、上述した実施形態に限定されるものではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。
 本発明は、錠剤単位での真贋判定など、物体の真贋判定に利用できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 文字が印刷された照合対象の物体を撮像した画像を取得する取得手段と、
 前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出する抽出手段と、
 前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する判定手段と、
を備える物体照合装置。
[付記2]
 前記抽出手段は、前記画像から、前記物体の姿勢データを照合姿勢データとして抽出し、
 前記判定手段は、前記照合部分画像および前記照合姿勢データと、登録対象の物体から取得され予め登録されている登録部分画像および登録姿勢データとを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
付記1に記載の物体照合装置。
[付記3]
 前記照合姿勢データは、前記物体の外形の輪郭を表すデータを含んで構成されている、
付記2に記載の物体照合装置。
[付記4]
 前記照合姿勢データは、前記物体の表面に施されている定形パターンの輪郭を表すデータを含んで構成されている、
付記2または3に記載の物体照合装置。
[付記5]
 前記抽出手段は、前記画像中の前記文字の領域と前記文字の基準画像とを比較して前記印刷された文字の歪みを検出し、前記検出された歪みに基づいて前記照合部分画像を補正する、
付記1乃至4の何れかに記載の物体照合装置。
[付記6]
 前記抽出手段は、前記画像と予め登録されている物体3次元モデルとの位置合わせを行い、前記位置合わせ後の前記物体3次元モデルに前記画像をテクスチャマッピングし、前記物体3次元モデルにテクスチャマッピングされた前記画像中の前記文字のパターンが基準文字パターンに一致する視点を決定し、前記決定した視点の前記物体3次元モデルの画像から前記文字を含む所定サイズの部分画像を前記照合部分画像として抽出する、
付記1乃至4の何れかに記載の物体照合装置。
[付記7]
 前記抽出手段は、前記位置合わせ後の前記物体3次元モデルの画像から、前記物体の姿勢データを照合姿勢データとして抽出し、
 前記判定手段は、前記照合部分画像および前記照合姿勢データと、登録対象の物体から取得され予め登録されている登録部分画像および登録姿勢データとを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
付記6に記載の物体照合装置。
[付記8]
 登録対象の物体に文字を印刷する印刷手段と、
 前記文字が印刷された前記物体を撮像した画像を取得する取得手段と、
 前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出する抽出手段と、
 前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶する記憶手段と、
を備える物体印刷装置。
[付記9]
 前記抽出手段は、前記画像から、前記物体の姿勢データを登録姿勢データとして抽出し、
 前記記憶手段は、前記登録部分画像および前記登録姿勢データを、前記物体の同一性を判定するためのデータとして記憶する、
付記8に記載の物体印刷装置。
[付記10]
 前記抽出手段は、前記画像中の前記文字の領域と前記文字の基準画像とを比較して前記印刷された文字の歪みを検出し、前記検出された歪みに基づいて前記登録部分画像を補正する、
付記8または9に記載の物体印刷装置。
[付記11]
 前記抽出手段は、前記画像と予め登録されている物体3次元モデルとの位置合わせを行い、前記位置合わせ後の前記物体3次元モデルに前記画像をテクスチャマッピングし、前記物体3次元モデルにテクスチャマッピングされた前記画像中の前記文字のパターンが基準文字パターンに一致する視点を決定し、前記決定した視点の前記物体3次元モデルの画像から前記文字を含む所定サイズの部分画像を前記登録部分画像として抽出する、
付記8または9に記載の物体印刷装置。
[付記12]
 前記抽出手段は、前記位置合わせ後の前記物体3次元モデルの画像から、前記物体の姿勢データを登録姿勢データとして抽出し、
 前記記憶手段は、前記登録部分画像と前記登録姿勢データとを、前記物体の同一性を判定するためのデータとして記憶する、
付記11に記載の物体印刷装置。
[付記13]
 文字が印刷された照合対象の物体を撮像した画像を取得し、
 前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出し、
 前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
物体照合方法。
[付記14]
 前記抽出では、さらに、前記画像から、前記物体の姿勢データを照合姿勢データとして抽出し、
 前記判定では、前記照合部分画像および前記照合姿勢データと、登録対象の物体から取得され予め登録されている登録部分画像および登録姿勢データとを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
付記13に記載の物体照合方法。
[付記15]
 前記抽出では、前記画像中の前記文字の領域と前記文字の基準画像とを比較して前記印刷された文字の歪みを検出し、前記検出された歪みに基づいて前記照合部分画像を補正する、
付記13または14に記載の物体照合方法。
[付記16]
 前記抽出では、前記画像と予め登録されている物体3次元モデルとの位置合わせを行い、前記位置合わせ後の前記物体3次元モデルに前記画像をテクスチャマッピングし、前記物体3次元モデルにテクスチャマッピングされた前記画像中の前記文字のパターンが基準文字パターンに一致する視点を決定し、前記決定した視点の前記物体3次元モデルの画像から前記文字を含む所定サイズの部分画像を前記照合部分画像として抽出する、
付記13または14に記載の物体照合方法。
[付記17]
 前記抽出では、前記位置合わせ後の前記物体3次元モデルの画像から、前記物体の姿勢データを照合姿勢データとして抽出し、
 前記判定では、前記照合部分画像と前記照合姿勢データとを、登録対象の物体から取得され予め登録されている登録部分画像と登録姿勢データとを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
付記16に記載の物体照合方法。
[付記18]
 登録対象の物体に文字を印刷し、
 前記文字が印刷された前記物体を撮像した画像を取得し、
 前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出し、
 前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶する、
物体印刷方法。
[付記19]
 前記抽出では、さらに、前記画像から、前記物体の姿勢データを登録姿勢データとして抽出し、
 前記記憶では、前記登録部分画像および前記登録姿勢データを、前記物体の同一性を判定するためのデータとして記憶する、
付記18に記載の物体印刷方法。
[付記20]
 前記抽出では、前記画像中の前記文字の領域と前記文字の基準画像とを比較して前記印刷された文字の歪みを検出し、前記検出された歪みに基づいて前記登録部分画像を補正する、
付記18または19に記載の物体印刷方法。
[付記21]
 前記抽出では、前記画像と予め登録されている物体3次元モデルとの位置合わせを行い、前記位置合わせ後の前記物体3次元モデルに前記画像をテクスチャマッピングし、前記物体3次元モデルにテクスチャマッピングされた前記画像中の前記文字のパターンが基準文字パターンに一致する視点を決定し、前記決定した視点の前記物体3次元モデルの画像から前記文字を含む所定サイズの部分画像を前記登録部分画像として抽出する、
付記18または19に記載の物体印刷方法。
[付記22]
 前記抽出では、前記位置合わせ後の前記物体3次元モデルの画像から、前記物体の姿勢データを登録姿勢データとして抽出し、
 前記記憶では、前記登録部分画像と前記登録姿勢データとを、前記物体の同一性を判定するためのデータとして記憶する、
付記21に記載の物体印刷方法。
[付記23]
 コンピュータを、
 文字が印刷された照合対象の物体を撮像した画像を取得する取得手段と、
 前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出する抽出手段と、
 前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する判定手段と、
して機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
[付記24]
 コンピュータを、
 文字が印刷された登録対象の物体を撮像した画像を取得する取得手段と、
 前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出する抽出手段と、
 前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶手段に登録する登録手段と、
して機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
1…錠剤
1a…曲面部
1b…曲面部
1c…側面部
2…ホッパ
3…ベルトコンベア
4…検出用カメラ
5…インクジェットプリンタ
6…登録用カメラ
7…データベース
8…制御ユニット
9…良品格納ボックス
12…不良品排出ユニット
13…不良品排出ボックス
14…印刷用データとして使用する画像データ
15…印刷部位
16…印刷部位
21…印刷制御部
22…不良品検出部
23…登録データ取得部
31…通信インタフェース部
32…操作入力部
33…画面表示部
34…記憶部
35…演算処理部
36…情報処理装置
37…プログラム
41…印刷後の錠剤を含む画像
42…登録部分画像
43…輪郭データ
45-1~45-n…登録部分画像
46-1~46-n…登録輪郭データ
51…カメラ
52…照合データ取得部
53…データベース
54…判定部
55…出力部
60…カメラ
61…通信インタフェース部
62…操作入力部
63…画面表示部
64…記憶部
65…演算処理部
66…情報処理装置
67…プログラム
71…画像
71a、71b、71c、71d…頂点
72…印刷用データである画像データ
72a、72b、72c、72d…頂点
100…物体印刷装置
101…印刷手段
102…取得手段
103…抽出手段
104…記憶手段
110…物体照合装置
111…取得手段
112…抽出手段
113…判定手段

Claims (24)

  1.  文字が印刷された照合対象の物体を撮像した画像を取得する取得手段と、
     前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出する抽出手段と、
     前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する判定手段と、
    を備える物体照合装置。
  2.  前記抽出手段は、前記画像から、前記物体の姿勢データを照合姿勢データとして抽出し、
     前記判定手段は、前記照合部分画像および前記照合姿勢データと、登録対象の物体から取得され予め登録されている登録部分画像および登録姿勢データとを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
    請求項1に記載の物体照合装置。
  3.  前記照合姿勢データは、前記物体の外形の輪郭を表すデータを含んで構成されている、
    請求項2に記載の物体照合装置。
  4.  前記照合姿勢データは、前記物体の表面に施されている定形パターンの輪郭を表すデータを含んで構成されている、
    請求項2または3に記載の物体照合装置。
  5.  前記抽出手段は、前記画像中の前記文字の領域と前記文字の基準画像とを比較して前記印刷された文字の歪みを検出し、前記検出された歪みに基づいて前記照合部分画像を補正する、
    請求項1乃至4の何れかに記載の物体照合装置。
  6.  前記抽出手段は、前記画像と予め登録されている物体3次元モデルとの位置合わせを行い、前記位置合わせ後の前記物体3次元モデルに前記画像をテクスチャマッピングし、前記物体3次元モデルにテクスチャマッピングされた前記画像中の前記文字のパターンが基準文字パターンに一致する視点を決定し、前記決定した視点の前記物体3次元モデルの画像から前記文字を含む所定サイズの部分画像を前記照合部分画像として抽出する、
    請求項1乃至4の何れかに記載の物体照合装置。
  7.  前記抽出手段は、前記位置合わせ後の前記物体3次元モデルの画像から、前記物体の姿勢データを照合姿勢データとして抽出し、
     前記判定手段は、前記照合部分画像および前記照合姿勢データと、登録対象の物体から取得され予め登録されている登録部分画像および登録姿勢データとを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
    請求項6に記載の物体照合装置。
  8.  登録対象の物体に文字を印刷する印刷手段と、
     前記文字が印刷された前記物体を撮像した画像を取得する取得手段と、
     前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出する抽出手段と、
     前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶する記憶手段と、
    を備える物体印刷装置。
  9.  前記抽出手段は、前記画像から、前記物体の姿勢データを登録姿勢データとして抽出し、
     前記記憶手段は、前記登録部分画像および前記登録姿勢データを、前記物体の同一性を判定するためのデータとして記憶する、
    請求項8に記載の物体印刷装置。
  10.  前記抽出手段は、前記画像中の前記文字の領域と前記文字の基準画像とを比較して前記印刷された文字の歪みを検出し、前記検出された歪みに基づいて前記登録部分画像を補正する、
    請求項8または9に記載の物体印刷装置。
  11.  前記抽出手段は、前記画像と予め登録されている物体3次元モデルとの位置合わせを行い、前記位置合わせ後の前記物体3次元モデルに前記画像をテクスチャマッピングし、前記物体3次元モデルにテクスチャマッピングされた前記画像中の前記文字のパターンが基準文字パターンに一致する視点を決定し、前記決定した視点の前記物体3次元モデルの画像から前記文字を含む所定サイズの部分画像を前記登録部分画像として抽出する、
    請求項8または9に記載の物体印刷装置。
  12.  前記抽出手段は、前記位置合わせ後の前記物体3次元モデルの画像から、前記物体の姿勢データを登録姿勢データとして抽出し、
     前記記憶手段は、前記登録部分画像と前記登録姿勢データとを、前記物体の同一性を判定するためのデータとして記憶する、
    請求項11に記載の物体印刷装置。
  13.  文字が印刷された照合対象の物体を撮像した画像を取得し、
     前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出し、
     前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
    物体照合方法。
  14.  前記抽出では、さらに、前記画像から、前記物体の姿勢データを照合姿勢データとして抽出し、
     前記判定では、前記照合部分画像および前記照合姿勢データと、登録対象の物体から取得され予め登録されている登録部分画像および登録姿勢データとを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
    請求項13に記載の物体照合方法。
  15.  前記抽出では、前記画像中の前記文字の領域と前記文字の基準画像とを比較して前記印刷された文字の歪みを検出し、前記検出された歪みに基づいて前記照合部分画像を補正する、
    請求項13または14に記載の物体照合方法。
  16.  前記抽出では、前記画像と予め登録されている物体3次元モデルとの位置合わせを行い、前記位置合わせ後の前記物体3次元モデルに前記画像をテクスチャマッピングし、前記物体3次元モデルにテクスチャマッピングされた前記画像中の前記文字のパターンが基準文字パターンに一致する視点を決定し、前記決定した視点の前記物体3次元モデルの画像から前記文字を含む所定サイズの部分画像を前記照合部分画像として抽出する、
    請求項13または14に記載の物体照合方法。
  17.  前記抽出では、前記位置合わせ後の前記物体3次元モデルの画像から、前記物体の姿勢データを照合姿勢データとして抽出し、
     前記判定では、前記照合部分画像と前記照合姿勢データとを、登録対象の物体から取得され予め登録されている登録部分画像と登録姿勢データとを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する、
    請求項16に記載の物体照合方法。
  18.  登録対象の物体に文字を印刷し、
     前記文字が印刷された前記物体を撮像した画像を取得し、
     前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出し、
     前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶する、
    物体印刷方法。
  19.  前記抽出では、さらに、前記画像から、前記物体の姿勢データを登録姿勢データとして抽出し、
     前記記憶では、前記登録部分画像および前記登録姿勢データを、前記物体の同一性を判定するためのデータとして記憶する、
    請求項18に記載の物体印刷方法。
  20.  前記抽出では、前記画像中の前記文字の領域と前記文字の基準画像とを比較して前記印刷された文字の歪みを検出し、前記検出された歪みに基づいて前記登録部分画像を補正する、
    請求項18または19に記載の物体印刷方法。
  21.  前記抽出では、前記画像と予め登録されている物体3次元モデルとの位置合わせを行い、前記位置合わせ後の前記物体3次元モデルに前記画像をテクスチャマッピングし、前記物体3次元モデルにテクスチャマッピングされた前記画像中の前記文字のパターンが基準文字パターンに一致する視点を決定し、前記決定した視点の前記物体3次元モデルの画像から前記文字を含む所定サイズの部分画像を前記登録部分画像として抽出する、
    請求項18または19に記載の物体印刷方法。
  22.  前記抽出では、前記位置合わせ後の前記物体3次元モデルの画像から、前記物体の姿勢データを登録姿勢データとして抽出し、
     前記記憶では、前記登録部分画像と前記登録姿勢データとを、前記物体の同一性を判定するためのデータとして記憶する、
    請求項21に記載の物体印刷方法。
  23.  コンピュータを、
     文字が印刷された照合対象の物体を撮像した画像を取得する取得手段と、
     前記画像から、前記文字を含む所定サイズの部分画像を照合部分画像として抽出する抽出手段と、
     前記照合部分画像と登録対象の物体から取得され予め登録されている登録部分画像とを比較することにより、前記照合対象の物体と前記登録対象の物体との同一性を判定する判定手段と、
    して機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  24.  コンピュータを、
     文字が印刷された登録対象の物体を撮像した画像を取得する取得手段と、
     前記画像から、前記文字を含む所定サイズの部分画像を登録部分画像として抽出する抽出手段と、
     前記登録部分画像を、前記物体の同一性を判定するためのデータとして記憶手段に登録する登録手段と、
    して機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2018/031229 2018-08-23 2018-08-23 物体照合装置 WO2020039567A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/269,583 US11983864B2 (en) 2018-08-23 2018-08-23 Object matching device
PCT/JP2018/031229 WO2020039567A1 (ja) 2018-08-23 2018-08-23 物体照合装置
JP2020537980A JP7215485B2 (ja) 2018-08-23 2018-08-23 物体照合装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/031229 WO2020039567A1 (ja) 2018-08-23 2018-08-23 物体照合装置

Publications (1)

Publication Number Publication Date
WO2020039567A1 true WO2020039567A1 (ja) 2020-02-27

Family

ID=69592881

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/031229 WO2020039567A1 (ja) 2018-08-23 2018-08-23 物体照合装置

Country Status (3)

Country Link
US (1) US11983864B2 (ja)
JP (1) JP7215485B2 (ja)
WO (1) WO2020039567A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4024334A4 (en) * 2020-03-27 2022-11-30 NEC Corporation INDIVIDUAL OBJECT IDENTIFICATION SYSTEM
US20230351723A1 (en) * 2020-10-23 2023-11-02 Nec Corporation Individual identification apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230109104A (ko) * 2022-01-12 2023-07-19 시바우라 메카트로닉스 가부시끼가이샤 정제 검사 장치 및 정제 인쇄 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (ja) * 2002-02-27 2003-11-14 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP2012022413A (ja) * 2010-07-12 2012-02-02 Canon Inc 画像処理装置、画像処理方法、およびプログラム
JP2012108752A (ja) * 2010-11-18 2012-06-07 Fuji Xerox Co Ltd 画像処理システム、画像処理装置及び画像処理プログラム
WO2013018613A1 (ja) * 2011-07-29 2013-02-07 日本電気株式会社 照合システム、照合サーバ、照合方法、特徴抽出装置、照合・検索装置及びプログラム
WO2018016214A1 (ja) * 2016-07-21 2018-01-25 日本電気株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5538967B2 (ja) * 2009-06-18 2014-07-02 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP5617246B2 (ja) * 2010-01-12 2014-11-05 ソニー株式会社 画像処理装置、物体選択方法及びプログラム
JP5510924B2 (ja) 2010-02-22 2014-06-04 株式会社ブレイン パンの識別装置とそのプログラム
KR101687613B1 (ko) * 2010-06-21 2016-12-20 엘지전자 주식회사 이동 단말기 및 이것의 그룹 생성 방법
CN104205128B (zh) 2012-01-23 2018-02-16 破赛普提医药有限公司 自动化药物药丸识别
JP6521626B2 (ja) * 2014-12-25 2019-05-29 キヤノン株式会社 被写体追跡装置、方法およびプログラム
JP6751521B2 (ja) 2015-11-18 2020-09-09 富士ゼロックス株式会社 データ取得装置、印刷装置、真贋判定装置およびプログラム
JP2017208032A (ja) 2016-05-20 2017-11-24 株式会社テララコード研究所 真贋判定方法
JP2017217784A (ja) 2016-06-06 2017-12-14 フロイント産業株式会社 固形製剤印刷機及び固形製剤印刷方法
CN111034153B (zh) * 2017-07-31 2022-12-23 株式会社理光 通信系统,分散处理系统,分布式处理方法和记录介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323622A (ja) * 2002-02-27 2003-11-14 Nec Corp 画像認識システム及びその認識方法並びにプログラム
JP2012022413A (ja) * 2010-07-12 2012-02-02 Canon Inc 画像処理装置、画像処理方法、およびプログラム
JP2012108752A (ja) * 2010-11-18 2012-06-07 Fuji Xerox Co Ltd 画像処理システム、画像処理装置及び画像処理プログラム
WO2013018613A1 (ja) * 2011-07-29 2013-02-07 日本電気株式会社 照合システム、照合サーバ、照合方法、特徴抽出装置、照合・検索装置及びプログラム
WO2018016214A1 (ja) * 2016-07-21 2018-01-25 日本電気株式会社 画像処理装置、画像処理方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4024334A4 (en) * 2020-03-27 2022-11-30 NEC Corporation INDIVIDUAL OBJECT IDENTIFICATION SYSTEM
US20230351723A1 (en) * 2020-10-23 2023-11-02 Nec Corporation Individual identification apparatus

Also Published As

Publication number Publication date
JP7215485B2 (ja) 2023-01-31
US20210312210A1 (en) 2021-10-07
JPWO2020039567A1 (ja) 2021-08-10
US11983864B2 (en) 2024-05-14

Similar Documents

Publication Publication Date Title
US9661216B2 (en) Automatic image capture
US9594993B2 (en) Two dimensional barcode and method of authentication of such barcode
KR200483242Y1 (ko) 모바일 디바이스를 이용한 신분증 인식 장치
WO2020039567A1 (ja) 物体照合装置
WO2021017610A1 (zh) 证件真伪验证方法、装置、计算机设备及存储介质
WO2015073920A1 (en) Systems and methods for generating composite images of long documents using mobile video data
KR101535534B1 (ko) 프린터 스테가노그래피 기법을 이용한 위조방지수단이 구비된 문서의 생성 방법 및 그 문서에 대한 위변조 확인 방법
RU2746027C2 (ru) Способ проверки подлинности печатного изделия и терминал обработки данных
US8538170B2 (en) System and method for document location and recognition
US20160072980A1 (en) Creation and Identification of Unforgeable Printable Image Information Data
WO2015008732A1 (ja) 光学文字認識装置
KR100691651B1 (ko) 배경 모델과 문자 모델의 결합에 의해 구조화된 배경 상의 문자를 자동 인식하는 방법
CN111066023A (zh) 检测系统、检测设备及其方法
EP3069298A1 (en) Systems and methods for generating composite images of long documents using mobile video data
JP3018949B2 (ja) 文字読取装置およびその方法
JP2006338330A (ja) 紙片識別装置及び紙片識別方法
WO2021166289A1 (ja) データ登録装置、生体認証装置、および記録媒体
KR101180053B1 (ko) 복사 방지 기능을 구비한 복사 장치 및 그 복사 방지 방법
CN110619060B (zh) 一种条烟图像数据库构建方法及条烟防伪查询方法
US20220230186A1 (en) System for determining authenticity of security labels
KR102240840B1 (ko) 위조방지용지 또는 보안 인쇄 구조를 이용한 진위 여부 확인 시스템
KR102500424B1 (ko) 서명을 포함하는 보안 장치를 검증하는 방법
CN111126283B (zh) 一种自动过滤模糊人脸的快速活体检测方法及系统
US12002250B2 (en) Method for processing digital images
CN115866384A (zh) 对照装置、存储介质及对照方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18930711

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020537980

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18930711

Country of ref document: EP

Kind code of ref document: A1