WO2013011700A1 - 物体識別システム及びプログラム - Google Patents

物体識別システム及びプログラム Download PDF

Info

Publication number
WO2013011700A1
WO2013011700A1 PCT/JP2012/050109 JP2012050109W WO2013011700A1 WO 2013011700 A1 WO2013011700 A1 WO 2013011700A1 JP 2012050109 W JP2012050109 W JP 2012050109W WO 2013011700 A1 WO2013011700 A1 WO 2013011700A1
Authority
WO
WIPO (PCT)
Prior art keywords
classification
image
pattern
objects
acquired
Prior art date
Application number
PCT/JP2012/050109
Other languages
English (en)
French (fr)
Inventor
伊藤 健介
木村 哲也
Original Assignee
富士ゼロックス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士ゼロックス株式会社 filed Critical 富士ゼロックス株式会社
Priority to CN201280029639.1A priority Critical patent/CN104321804B/zh
Priority to EP12814525.7A priority patent/EP2736012B1/en
Publication of WO2013011700A1 publication Critical patent/WO2013011700A1/ja
Priority to US14/083,642 priority patent/US9396414B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/66Trinkets, e.g. shirt buttons or jewellery items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • the present invention relates to an object identification system and a program.
  • the pattern that appears on the surface may be different for each object, and there is a technique for determining the authenticity of the object or identifying the object using the pattern.
  • the pattern acquired for each paper is stored in a database, and the identification target The pattern acquired from the paper is compared with the pattern stored in the database to identify the target paper.
  • One of the objects of the present invention is to provide an object identification system and program capable of narrowing down the number of patterns to be collated with the pattern of an object to be identified using randomness based on an image formed on the object surface.
  • the invention according to claim 1, which achieves the above object, has an acquisition unit for acquiring captured images for each of a plurality of objects each having a unique pattern on the surface and having a predetermined image formed on the surface; For each of the plurality of objects, the object is classified into a plurality of classifications according to characteristics of the object based on the predetermined image formed on the object included in the captured image acquired by the acquisition unit.
  • Classification means for classifying into any one of the plurality of objects, registration means for associating and registering identification information of the object, a pattern image indicating a pattern of the surface of the object, and classification of the object;
  • a candidate for classification of a target object that is one of the plurality of objects is acquired based on a result of classification by the classification unit based on a target object captured image obtained by imaging the target object.
  • Class acquisition means, pattern image acquisition means for acquiring the pattern image registered by the registration means in association with the classification acquired by the classification acquisition means, and the target object imaging among the pattern images acquired by the pattern image acquisition means
  • An object identification system comprising: identification means for identifying identification information associated with a pattern image collated with an image as identification information of the target object.
  • the invention according to claim 2 is the object identification system according to claim 1, wherein the classification unit is configured to, for each of the plurality of objects, based on a captured image acquired by the acquisition unit for the object.
  • the object is classified into one of the plurality of classifications according to a shift of a position where the predetermined image is formed with respect to a reference position of the object.
  • the classification unit includes, for each of the plurality of objects, based on a captured image acquired by the acquisition unit for the object.
  • the object is classified into one of the plurality of classifications according to a noise pattern included in the predetermined image formed on the object.
  • the classification unit includes, for each of the plurality of objects, based on a captured image acquired by the acquisition unit for the object.
  • a shift in the position where the predetermined image is formed with respect to the reference position of the object and a noise pattern included in the predetermined image formed on the object It classify
  • the classification acquisition unit acquires a candidate for classification of the target object together with priority, and the pattern image For each classification acquired by the classification acquisition unit, the acquisition unit acquires the pattern image registered by the registration unit in association with the classification, in association with the priority order of the classification, and the specifying unit has a high priority level. Matching with the target object captured image is performed in the order of pattern images.
  • an image forming apparatus an imaging apparatus, and an object identification apparatus are included, and each of the image forming apparatuses is predetermined on a surface of an object having a unique pattern on the surface.
  • An image forming unit configured to form an image
  • the imaging device includes an imaging unit configured to capture the plurality of objects
  • the object identification device acquires an captured image for each of the plurality of objects from the imaging device.
  • the object is converted into a plurality of objects according to characteristics of the object based on the predetermined image formed on the object included in the captured image acquired by the acquisition unit.
  • Classifying means for classifying into any one of the classifications, for each of the plurality of objects, identification information of the object, a pattern image indicating a pattern of the surface of the object, and the classification of the object
  • a registration means for registering and acquiring a candidate for classification of a target object that is one of the plurality of objects based on a result of classification by the classification means based on a target object captured image obtained by imaging the target object Among the pattern images acquired by the pattern image acquisition means, the pattern image acquisition means for acquiring the pattern image registered by the registration means in association with the classification acquired by the classification acquisition means, and the target object among the pattern images acquired by the pattern image acquisition means And an identifying unit that identifies identification information associated with a pattern image collated with a captured image as identification information of the target object.
  • the invention according to claim 7 is characterized in that an acquisition means for acquiring captured images for each of a plurality of objects each having a unique pattern on the surface and having a predetermined image formed on the surface; For each object, the object is selected from any of a plurality of classifications according to the characteristics of the object based on the predetermined image formed on the object included in the captured image acquired by the acquisition unit. For each of the plurality of objects, registration means for registering the identification information of the object, a pattern image indicating a pattern of the surface of the object, and the classification of the object, and the plurality of the objects A classification object that is obtained based on a result of classification by the classification unit based on a target object captured image obtained by capturing the target object.
  • a pattern image acquisition means for acquiring a pattern image registered by the registration means in association with the classification acquired by the classification acquisition means, and the target object captured image among the pattern images acquired by the pattern image acquisition means; It is a program for causing a computer to function as specifying means for specifying identification information associated with a matched pattern image as identification information of the target object.
  • the number of patterns to be collated with the pattern of the object to be identified can be narrowed down using the randomness based on the image formed on the object surface.
  • the number of patterns to be collated with the pattern of the object to be identified can be narrowed down using the fact that the position of the image formed on the object surface is different for each object.
  • the number of patterns to be collated with the pattern of the object to be identified is narrowed down using the fact that the pattern of noise included in the image formed on the object surface is different for each object. Can do.
  • the collation process can be executed in the order of patterns that are highly likely to be collated with the object to be identified.
  • FIG. 1 is a system configuration diagram of an object identification system according to an embodiment. It is a functional block diagram of an object identification device. It is a figure which shows an example of a captured image. It is a figure explaining the specific example of a position shift vector. It is a figure explaining the specific example of the binarized printing image pattern. It is a figure explaining the specific example of the classification process by the class A. It is a figure which shows the example of the representative pattern produced
  • FIG. 1 shows a system configuration diagram of an object identification system 1 according to the present embodiment.
  • the object identification system 1 includes an image forming apparatus 2, an imaging apparatus 4, and an object identification apparatus 10, and the imaging apparatus 4 and the object identification apparatus 10 are connected so as to be capable of data communication.
  • the image forming apparatus 2 is provided on, for example, an object production line 5 and forms a predetermined image (for example, a character image) on the surface of the object flowing through the production line 5.
  • a predetermined image for example, a character image
  • the object is a circular tablet on which a predetermined character is printed on the surface.
  • the image forming apparatus 2 may form an image on the surface of the tablet by imprinting, or may print (gravure printing or the like) using edible ink.
  • an image printed on the surface of the tablet is referred to as a printed image.
  • the imaging device 4 is a device that images an object (tablet) imaged on the surface by the image forming device 2, and may be provided on the production line 5 in the same manner as the image forming device 2.
  • the imaging device 4 images an object at a predetermined resolution (for example, 600 dpi), and outputs the captured image to the object identification device 10.
  • the object identification device 10 acquires a captured image of an object (tablet) from the imaging device 4, registers identification information and surface pattern information of each object (tablet) based on the acquired captured image, and also identifies an object to be identified.
  • This is a computer that performs a process of identifying identification information of an object (tablet) to be identified by collating surface pattern information of (tablet) with surface pattern information of a registered object (tablet). Details of the object identification device 10 will be described below.
  • FIG. 2 shows a functional block diagram of the object identification device 10.
  • the object identification device 10 includes a captured image acquisition unit 12, an individual image extraction unit 14, an individual information addition unit 16, an image feature extraction unit 18, a classification unit 20, a surface pattern acquisition unit 22, and individual information.
  • a registration unit 24, a target image acquisition unit 26, a classification information acquisition unit 28, a comparison pattern acquisition unit 30, a target pattern acquisition unit 32, a pattern verification unit 34, and a verification result output unit 36 are provided.
  • a computer-readable information storage medium that includes a control unit such as a CPU, a storage unit such as a memory, and an input / output unit that transmits and receives data to and from an external device. It may be realized by reading and executing the program stored in the.
  • the program may be supplied to the object identification device 10 as a computer by an information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or may be supplied via a data communication network such as the Internet. It may be done.
  • the captured image acquisition unit 12 acquires a captured image of an object (tablet) from the imaging device 4.
  • the imaging device 4 and the object identification device 10 are connected via a wired or wireless network, and the captured image acquisition unit 12 receives a captured image transmitted from the imaging device 4 via the network. Good.
  • FIG. 3 shows an example of a captured image acquired by the captured image acquisition unit 12.
  • N tablets are arranged perpendicular to the transport direction, and the captured image shown in FIG. It is assumed that an image of a tablet is included.
  • the mode of the captured image is not limited to the above example, and each tablet may be captured, or N ⁇ M (M is an integer of 2 or more) tablets may be captured together. Also good.
  • the individual image extraction unit 14 extracts an image area (individual image) corresponding to each object (tablet) included in the captured image acquired by the captured image acquisition unit 12. For example, the individual image extracting unit 14 may detect an edge included in the captured image and extract an image region corresponding to one object (tablet) based on the detected edge.
  • the individual information giving unit 16 gives information such as identification information (tablet ID) to the individual image corresponding to each object extracted by the individual image extracting unit 14.
  • the individual information providing unit 16 sets the tablet ID, the identification information (production line ID) of the production line, the row (perpendicular to the conveying direction) number (any one of 1 to N) on the production line, and the production line. It is good also as producing
  • the tablet ID is generated in the above-described manner, it can be determined from the tablet ID at which position on the manufacturing date, the manufacturing line, and the manufacturing line. Further, the tablet ID may include information such as a container ID for identifying a container in which the tablet is stored, or such information may be stored in association with each other.
  • the image feature extraction unit 18 extracts image features for each object based on a print image formed on the object surface included in the individual image for each object extracted by the individual image extraction unit 14.
  • image features used in the present embodiment will be described.
  • the first image feature focuses on the randomness of the positional relationship between the object (tablet) and the print image formed on the object (tablet), and uses the positional relationship as an image feature.
  • a displacement vector indicating the displacement of the center of gravity position of the printed image with respect to the reference position (for example, the center position of the object) of the object (tablet) may be used.
  • FIG. 4 shows a diagram for explaining a specific example of the positional deviation vector.
  • the image feature extraction unit 18 sets the center of the circumscribed circle (or circumscribed rectangle) of the individual image as the reference position (coordinate center (0, 0)) of the object. Further, the image feature extraction unit 18 binarizes the individual image, extracts the print image formed on the object, specifies the center of gravity of the circumscribed rectangle of the extracted print image, starts the reference position, A displacement vector with the center of gravity as the end point is obtained.
  • the second image feature focuses on the randomness of noise included in the print image formed on the object (tablet) and uses a binarized print image pattern as the image feature.
  • FIG. 5 illustrates a specific example of a binarized print image pattern.
  • the print image pattern shown in FIG. 5 extracts, for example, an image area having a predetermined size (horizontal W, vertical H) centered on the center of gravity of the circumscribed rectangle of the black pixel group obtained by binarizing the individual image. It was obtained.
  • the size of the image area to be extracted may be determined based on the size of an ideal print image formed from the original data of the print image.
  • the print image pattern extracted for each object includes noise unique to each object.
  • the classification unit 20 classifies each object (tablet) into a plurality of classifications based on at least one of the first image feature and the second image feature extracted for each individual image of the object (tablet) by the image feature extraction unit 18. Classify either.
  • classification processing by the classification unit 20 will be described.
  • classification unit 20 classifies each object based on the first image feature (position shift vector) extracted from the individual image of each object.
  • the classification based on the first image feature is referred to as classification based on class A.
  • FIG. 6 shows a diagram for explaining a specific example of classification processing by class A.
  • classification classification G1 to Gn (n is an integer of 2 or more)
  • G1 to Gn classification
  • the end point of the misregistration vector is determined.
  • the object corresponding to the positional deviation vector is classified.
  • the coordinate system is divided into 36 coordinate ranges, and the classification is associated with each coordinate range (G1 to G36).
  • the displacement vector relating to the first object is classified as G15
  • the displacement vector relating to the second object is classified as G22.
  • the size of the coordinate range of each classification is uniform, but the coordinate range may be changed according to the distance from the origin.
  • the coordinate range is set larger as the distance from the origin is increased. It may be.
  • the position error vector is classified based on the coordinate range to which the position error vector belongs.
  • the position error vector may be classified based on the length of the position error vector.
  • the range of the length of the positional deviation vector may be defined for each classification, and the classification may be determined according to the range to which the length of the positional deviation vector belongs.
  • the Euclidean distance between the start pixel and the end pixel of the misregistration vector may be used, or an urban area distance (Manhattan distance) may be used.
  • class B classification the classification based on the second image feature (printed image pattern) extracted from the individual image of each object.
  • FIG. 7 shows an example of a representative pattern generated in advance for each of the class B classifications g1 to gm (m is an integer of 2 or more) in the second example.
  • the classification unit 20 generates 1st to mth different patterns by superimposing 1 to m different random noises on the print image data, and classifies the generated first to mth patterns into classifications g1 to Assigned as a representative pattern of gm.
  • the classifying unit 20 calculates the similarity (distance) between the print image pattern extracted from the individual image of each object and each representative pattern of the classifications g1 to gm, and classifies each object with its classification.
  • the print image pattern is determined to be the classification to which the representative pattern that is most similar (that is, the smallest distance) belongs.
  • the classification unit 20 classifies each object based on the combination of the first image feature (position shift vector) extracted from the individual image of each object and the second image feature (printed image pattern).
  • first image feature position shift vector
  • second image feature printed image pattern
  • N, j 1,..., M)
  • i is determined based on the first example described above
  • j is determined based on the second example described above.
  • the surface pattern acquisition unit 22 acquires image information (surface pattern information) of a predetermined region (pattern collection region) from the individual image of each object extracted by the individual image extraction unit 14.
  • the pattern collection area may be set in an image area other than the image area in which the print image in the individual image is formed.
  • FIG. 8 shows an example of the pattern collection area.
  • an area of a predetermined size for example, 32 dots ⁇ 32 dots
  • the pattern collection area 50 is set as the pattern collection area 50 at a position in contact with the right side of the circumscribed rectangle of the print image.
  • the individual information registration unit 24 associates the identification information given by the individual information giving unit 16, the classification information determined by the classification unit 20, and the surface pattern information acquired by the surface pattern acquisition unit 22 with respect to the object. Register with.
  • FIG. 9 shows an example of the pattern information table registered by the individual information registration unit 24.
  • object identification information tablet ID
  • classification information class A classification
  • class B classification class A classification
  • surface pattern information are stored in association with each other.
  • the above is the process of registering information on all objects (tablets) in the database when manufacturing the objects.
  • details of processing for identifying identification information of a target object will be described using, for example, one object (tablet) acquired after a manufactured object (tablet) is distributed as a target object.
  • the target image acquisition unit 26 acquires a captured image obtained by capturing the target object.
  • the target image acquisition unit 26 may acquire, for example, a captured image obtained by capturing the target object with the imaging device 4 from the imaging device 4 (not shown).
  • the target image acquisition unit 26 performs image processing for rotating the captured image to erect when the acquired captured image of the target object is not upright (not facing a predetermined direction). It is good to do.
  • the captured image may be rotated so that the orientation of the print image included in the captured image is in a predetermined direction.
  • the image feature extraction unit 18 extracts the image feature of the target object based on the print image formed on the surface of the target object included in the captured image acquired by the target image acquisition unit 26.
  • the details of the image feature extraction process are the same as those described above, and thus the description thereof is omitted.
  • the classification information acquisition unit 28 acquires a classification candidate to which the target object belongs based on the result of the classification performed by the classification unit 20 based on the image feature of the target object extracted by the image feature extraction unit 18.
  • the coordinate region to which the displacement vector of the target object belongs is set as the first candidate classification, and is close to the displacement vector in other coordinate regions.
  • the classifications may be acquired in order as the second candidate to the Kth candidate.
  • the number of candidates K may be determined in advance, or may be the number of coordinate regions whose distance from the positional deviation vector is within a threshold value.
  • FIG. 10 shows an example of class A classification acquired based on the positional deviation vector of the target image.
  • G11 becomes the first candidate
  • the class G12 close to the boundary of the misregistration vector is the second candidate
  • the next class G5 closest to the boundary is the third.
  • the classification of the first to Kth candidate class B may be acquired in the order in which the representative pattern is similar to the printed image pattern.
  • the number of candidates K may be determined in advance, or may be the number of representative patterns whose similarity (distance) to the representative pattern is within a threshold value.
  • i of the classification Gij is based on the first image feature.
  • j may be acquired based on the second image feature.
  • the comparison pattern acquisition unit 30 acquires the surface pattern information registered by the individual information registration unit 24 in association with the classification acquired by the classification information acquisition unit 28.
  • the classification information acquisition unit 28 acquires the first to Kth classification candidates
  • the surface pattern information associated with the first to Kth classifications may be acquired.
  • the target pattern acquisition unit 32 acquires surface pattern information of the target object (hereinafter, target surface pattern information) from the captured image of the target object.
  • the target pattern acquisition unit 32 may acquire image information (surface pattern information) of a predetermined region (target pattern collection region) from the captured image of the target object.
  • the target pattern collection area may be an image area including the pattern collection area. Further, the target pattern collection area may be set in a region other than the image area where the print image in the individual image is formed.
  • the collation result output unit 36 outputs the collation result by the pattern collation unit 34.
  • the collation result output unit 36 displays the identification information when the pattern collation unit 34 identifies the identification information of the object to be collated with the target object.
  • the fact may be output by displaying it on a display or printing it with a printing device.
  • the object identification device 10 acquires a captured image of an object (tablet) to be registered and identified (S101). If the class identification of class A is not registered (S102: N), the object identification device 10 proceeds to S109, and if the classification of class A is registered (S102: Y), it is included in the captured image.
  • the circumscribed shape of the target object is extracted (S103), and the center position of the extracted circumscribed shape is specified (S104).
  • the object identification device 10 binarizes the captured image (S105), specifies the print image formed on the object (S106), and calculates the gravity center position of the specified print image (S107).
  • the object identification device 10 determines the classification related to the class A of the registered identification target object based on the positional deviation between the center position specified in S104 and the gravity center position calculated in S107 (S108).
  • the object identification device 10 proceeds to S113, and when the classification of class B is registered (S109: Y), the captured image is binarized. An image region (print image pattern) having a predetermined size is extracted based on the size of the print image with the center of gravity position of the print image specified as the center (S110). Then, the object identification device 10 calculates the similarity between the image pattern of the image area extracted in S110 and the representative pattern of each classification related to the predetermined class B (S111), and the most similar representative pattern Based on the above, the classification related to the class B of the registered identification target object is determined (S112).
  • the object identification device 10 extracts surface pattern information from a region having a predetermined position and size other than the region including the print image in the captured image of the object to be registered and identified (S113).
  • the identification information, the classification information determined in S107 and S109, and the surface pattern information extracted in S113 are associated and registered in the database (S114).
  • the object identification device 10 returns to S101 when the registration identification target object remains (S115: N), and ends the registration process when the registration identification target object does not remain (S115: Y). .
  • FIGS. 12, 13, 14A, and 14B the flow of processing (collation processing) for collating and identifying the object (tablet) to be collated and identified performed by the object identifying apparatus 10 is shown in FIGS. 12, 13, 14A, and 14B. This will be described with reference to a flowchart.
  • FIG. 12 shows a flowchart for explaining a first example of collation processing.
  • the flowchart shown in FIG. 12 describes an example in which collation processing is performed using class A classification.
  • the object identification device 10 acquires a captured image of an object (tablet) to be verified (S201).
  • the object identification device 10 extracts the circumscribed shape of the target object included in the captured image (S202), and specifies the center position of the extracted circumscribed shape (S203).
  • the object identification device 10 binarizes the captured image (S204), specifies the print image formed on the object (S205), and calculates the gravity center position of the specified print image (S206).
  • the object identification device 10 determines classification candidates (first to Nth) related to the class A for the object to be collated and identified based on the positional deviation between the center position specified in S203 and the gravity center position calculated in S206. (S207).
  • the object identification device 10 extracts surface pattern information (target surface pattern information) to be used for collation from a region having a predetermined position and size other than the region including the print image from the captured image of the object to be collated and identified. (S208).
  • i is incremented
  • S212 returns to S209.
  • i reaches N in S211 (S211: N) it is determined that there is no object to be collated (S213), and the process is terminated.
  • the object identification device 10 displays the identification information associated with the collated surface pattern information as an object to be identified. (S214), and the process ends.
  • FIG. 13 shows a flowchart for explaining a second example of collation processing.
  • the flowchart shown in FIG. 13 describes an example in which collation processing is performed using class B classification.
  • the object identification device 10 acquires a captured image of an object (tablet) to be identified (S301).
  • the object identification device 10 binarizes the captured image (S302), specifies the print image formed on the object (S303), and calculates the gravity center position of the specified print image (S304).
  • the object identification device 10 extracts an image area (print image pattern) having a predetermined size based on the size of the print image with the center of gravity of the print image calculated in S304 as the center (S305). . Then, the object identification device 10 calculates the similarity between the image pattern of the image area extracted in S305 and the representative pattern of each classification related to the predetermined class B (S306), and the similar representative pattern Based on the order, classification candidates (first to Mth) related to class B are determined for the object to be identified (S307).
  • the object identification device 10 extracts surface pattern information (target surface pattern information) to be used for collation from a region having a predetermined position and size other than the region including the print image from the captured image of the object to be collated and identified. (S308).
  • S310 surface pattern information to be collated
  • i is incremented (S312), and the process returns to S309.
  • i reaches M in S311, (S311: N)
  • S31313 it is determined that there is no object to be collated
  • the object identification device 10 identifies the identification information associated with the collated surface pattern information to identify the object to be collated and identified. Information is determined (S314), and the process is terminated.
  • FIGS. 14A and 14B show a flowchart for explaining a third example of the collation process.
  • the flowchart shown in FIGS. 14A and 14B describes an example in which the matching process is performed using the classification of class A and class B.
  • the object identification device 10 acquires a captured image of an object (tablet) to be verified (S401).
  • the object identification device 10 extracts the circumscribed shape of the target object included in the captured image (S402) and specifies the center position of the extracted circumscribed shape (S403).
  • the object identification device 10 binarizes the captured image (S404), specifies the print image formed on the object (S405), and calculates the center of gravity position of the specified print image (S406).
  • the object identification device 10 determines classification candidates (first to Nth) related to the class A for the object to be collated and identified based on the positional deviation between the center position specified in S403 and the gravity center position calculated in S406. (S407).
  • the object identification apparatus 10 extracts an image area (print image pattern) having a predetermined size based on the size of the print image with the center of gravity of the print image calculated in S406 as the center (S408). . Then, the object identification device 10 calculates the similarity between the image pattern of the image area extracted in S408 and the representative pattern of each classification related to the predetermined class B (S409), and the similar representative pattern Based on the order, classification candidates (first to Mth) related to class B are determined for the object to be identified (S410).
  • the object identification device 10 extracts surface pattern information (target surface pattern information) to be used for collation from a region having a predetermined position and size other than the region including the print image from the captured image of the object to be collated and identified. (S411).
  • S413: N when it is determined that there is no surface pattern information to be collated (S413: N), and j does not reach M (S414: N), j is incremented (S415), and the process returns to S412. .
  • the object identification device 10 displays the identification information associated with the collated surface pattern information as an object to be identified. (S419), and the process ends.
  • such a narrowing is not performed by narrowing down the number of patterns to be collated with the surface pattern information of the object by using the image feature based on the printed image formed on the surface of the object. Compared to, the number of collation processing steps is reduced. Furthermore, when the number of patterns to be collated with the surface pattern information of the object is narrowed down using both class A and class B based on independent image features, the collation processing is performed as compared with the case where either one is used. Fewer steps.
  • the present invention is not limited to the above embodiment.
  • an example in which a circular tablet is used as an object has been described.
  • the object is applied to other objects such as electronic components. Of course, you can do it.
  • the registration device includes a captured image acquisition unit 12, an individual image extraction unit 14, an individual information addition unit 16, an image feature extraction unit 18, a classification unit 20, a surface pattern acquisition unit 22, and an individual information registration unit 24.
  • the verification device may include a target image acquisition unit 26, a classification information acquisition unit 28, a comparison pattern acquisition unit 30, a target pattern acquisition unit 32, a pattern verification unit 34, and a verification result output unit 36.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

 物体識別システム1は、それぞれ表面に固有のパターンを有し、表面に画像が形成された複数の物体ごとの撮像画像を取得し、複数の物体ごとに、当該物体について取得された撮像画像における、当該物体に形成された画像に基づく特徴に応じて、当該物体を複数の分類のいずれかに分類し、複数の物体ごとに、当該物体の識別情報と、当該物体の表面が有するパターンを示すパターン画像と、当該物体の分類とを関連付けて登録する。物体識別システム1は、複数の物体のうちの1つの対象物体の分類の候補を、当該対象物体を撮像した対象物体撮像画像に基づく分類結果に基づいて取得し、取得された分類に関連付けて登録されたパターン画像を取得し、取得されたパターン画像のうち、対象物体撮像画像と照合したパターン画像に関連付けられた識別情報を、対象物体の識別情報として特定する。

Description

物体識別システム及びプログラム
 本発明は、物体識別システム及びプログラムに関する。
 物体ごとに表面に現れるパターンが異なることがあり、当該パターンを利用して物体の真贋を判定したり、物体を識別したりする技術がある。例えば、下記の特許文献1では、紙を構成する繊維の絡み具合の違いから紙の表面に固有のパターンが現れることを利用して、紙ごとに取得したパターンをデータベースに記憶し、識別対象の紙から取得したパターンをデータベースに記憶されたパターンと照合して、対象の紙を識別することを行っている。
特開2004-085212号公報
 本発明の目的の一つは、物体表面に形成される画像に基づくランダム性を利用して識別対象の物体のパターンと照合すべきパターンの数を絞り込むことができる物体識別システム及びプログラムを提供することにある。
 上記目的を達成する請求項1に記載の発明は、それぞれ表面に固有のパターンを有し、当該表面に予め定められた画像が形成された複数の物体ごとの撮像画像を取得する取得手段と、前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に含まれる当該物体に形成された前記予め定められた画像に基づく当該物体の特徴に応じて、当該物体を複数の分類のいずれかに分類する分類手段と、前記複数の物体ごとに、当該物体の識別情報と、当該物体の表面が有するパターンを示すパターン画像と、当該物体の分類とを関連付けて登録する登録手段と、前記複数の物体のうちの1つの物体である対象物体の分類の候補を、当該対象物体を撮像した対象物体撮像画像に基づき前記分類手段が分類した結果に基づいて取得する分類取得手段と、前記分類取得手段が取得した分類に関連付けて前記登録手段が登録したパターン画像を取得するパターン画像取得手段と、前記パターン画像取得手段が取得したパターン画像のうち、前記対象物体撮像画像と照合したパターン画像に関連付けられた識別情報を、前記対象物体の識別情報として特定する特定手段と、を含むことを特徴とする物体識別システムである。
 また、請求項2に記載の発明は、請求項1に記載の物体識別システムにおいて、前記分類手段は、前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に基づいて、当該物体の基準位置に対して前記予め定められた画像が形成された位置のずれに応じて、当該物体を前記複数の分類のいずれかに分類することを特徴とする。
 また、請求項3に記載の発明は、請求項1に記載の物体識別システムにおいて、前記分類手段は、前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に基づいて、当該物体に形成された前記予め定められた画像に含まれるノイズのパターンに応じて、当該物体を前記複数の分類のいずれかに分類することを特徴とする。
 また、請求項4に記載の発明は、請求項1に記載の物体識別システムにおいて、前記分類手段は、前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に基づいて、当該物体の基準位置に対して前記予め定められた画像が形成された位置のずれ、及び、当該物体に形成された前記予め定められた画像に含まれるノイズのパターンの組み合わせに応じて、当該物体を前記複数の分類のいずれかに分類することを特徴とする。
 また、請求項5に記載の発明は、請求項1乃至4のいずれかに記載の物体識別システムにおいて、前記分類取得手段は、前記対象物体の分類の候補を優先順位とともに取得し、前記パターン画像取得手段は、前記分類取得手段が取得した分類ごとに、当該分類に関連付けて前記登録手段が登録したパターン画像を、当該分類の優先順位に関連付けて取得し、前記特定手段は、優先順位が高いパターン画像の順に前記対象物体撮像画像との照合を行うことを特徴とする。
 また、請求項6に記載の発明は、画像形成装置と、撮像装置と、物体識別装置と、を含み、前記画像形成装置は、それぞれ表面に固有のパターンを有する物体の表面に予め定められた画像を形成する画像形成手段を含み、前記撮像装置は、前記複数の物体を撮像する撮像手段を含み、前記物体識別装置は、前記撮像装置から前記複数の物体ごとの撮像画像を取得する取得手段と、前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に含まれる当該物体に形成された前記予め定められた画像に基づく当該物体の特徴に応じて、当該物体を複数の分類のいずれかに分類する分類手段と、前記複数の物体ごとに、当該物体の識別情報と、当該物体の表面が有するパターンを示すパターン画像と、当該物体の分類とを関連付けて登録する登録手段と、前記複数の物体のうちの1つの物体である対象物体の分類の候補を、当該対象物体を撮像した対象物体撮像画像に基づき前記分類手段が分類した結果に基づいて取得する分類取得手段と、前記分類取得手段が取得した分類に関連付けて前記登録手段が登録したパターン画像を取得するパターン画像取得手段と、前記パターン画像取得手段が取得したパターン画像のうち、前記対象物体撮像画像と照合したパターン画像に関連付けられた識別情報を、前記対象物体の識別情報として特定する特定手段と、を含むことを特徴とする物体識別システムである。
 また、請求項7に記載の発明は、それぞれ表面に固有のパターンを有し、当該表面に予め定められた画像が形成された複数の物体ごとの撮像画像を取得する取得手段と、前記複数の物体ごとに、当該物体について前記取得手段により取得された撮像画像に含まれる当該物体に形成された前記予め定められた画像に基づく当該物体の特徴に応じて、当該物体を複数の分類のいずれかに分類する分類手段と、前記複数の物体ごとに、当該物体の識別情報と、当該物体の表面が有するパターンを示すパターン画像と、当該物体の分類とを関連付けて登録する登録手段と、前記複数の物体のうちの1つの物体である対象物体の分類の候補を、当該対象物体を撮像した対象物体撮像画像に基づき前記分類手段が分類した結果に基づいて取得する分類取得手段と、前記分類取得手段が取得した分類に関連付けて前記登録手段が登録したパターン画像を取得するパターン画像取得手段と、前記パターン画像取得手段が取得したパターン画像のうち、前記対象物体撮像画像と照合したパターン画像に関連付けられた識別情報を、前記対象物体の識別情報として特定する特定手段としてコンピュータを機能させるためのプログラムである。
 請求項1、6及び7に記載の発明によれば、物体表面に形成される画像に基づくランダム性を利用して識別対象の物体のパターンと照合すべきパターンの数を絞り込むことができる。
 請求項2に記載の発明によれば、物体表面に形成される画像の位置が物体ごとに異なることを利用して識別対象の物体のパターンと照合すべきパターンの数を絞り込むことができる。
 請求項3に記載の発明によれば、物体表面に形成される画像に含まれるノイズのパターンが物体ごとに異なることを利用して識別対象の物体のパターンと照合すべきパターンの数を絞り込むことができる。
 請求項4に記載の発明によれば、物体表面に形成される画像の位置のずれと、物体表面に形成される画像に含まれるノイズのパターンとの組み合わせを利用することで、どちらか一方を利用する場合に比べて、識別対象の物体のパターンと照合すべきパターンの数をより少なくすることができる。
 請求項5に記載の発明によれば、識別対象の物体と照合する可能性の高いパターンの順に照合処理を実行できる。
本実施形態に係る物体識別システムのシステム構成図である。 物体識別装置の機能ブロック図である。 撮像画像の一例を示す図である。 位置ずれベクトルの具体例を説明する図である。 二値化した印字画像パターンの具体例を説明する図である。 クラスAによる分類処理の具体例を説明する図である。 クラスBの分類ごとに予め生成される代表パターンの例を示す図である。 パターン採取領域の一例を示す図である。 パターン情報テーブルの一例を示す図である。 クラスAの分類候補の一例を示す図である。 登録処理のフローチャートの一例である。 照合処理のフローチャートの一例である。 照合処理のフローチャートの一例である。 照合処理のフローチャートの一例である。 照合処理のフローチャートの一例である。
 以下、本発明を実施するための実施の形態(以下、実施形態という)を、図面に従って説明する。
 図1には、本実施形態に係る物体識別システム1のシステム構成図を示した。図1に示されるように、物体識別システム1は、画像形成装置2、撮像装置4、及び物体識別装置10を含み、撮像装置4と物体識別装置10とはデータ通信可能に接続されている。
 画像形成装置2は、例えば物体の製造ライン5上に設けられ、製造ライン5を流れる物体の表面に予め定められた画像(例えば文字画像等)を形成する。本実施形態では、物体を、その表面に予め定められた文字が印字される円形錠剤とした例について説明する。なお、画像形成装置2は、錠剤の表面に刻印により画像形成してもよいし、食用インクを用いて印刷(グラビア印刷等)してもよい。以下、錠剤の表面に印字される画像を印字画像と称する。
 撮像装置4は、画像形成装置2により表面に画像形成が行われた物体(錠剤)を撮像する装置であり、画像形成装置2と同様に製造ライン5上に設けられることとしてよい。撮像装置4は、予め定められた解像度(例えば600dpi)により物体を撮像し、撮像した撮像画像を物体識別装置10に出力する。
 物体識別装置10は、撮像装置4から物体(錠剤)の撮像画像を取得し、取得した撮像画像に基づいて各物体(錠剤)の識別情報と表面パターン情報とを登録するとともに、識別対象の物体(錠剤)の表面パターン情報と、登録された物体(錠剤)の表面パターン情報とを照合して、識別対象の物体(錠剤)の識別情報を特定する処理を行うコンピュータである。以下、物体識別装置10の詳細について説明する。
 図2には、物体識別装置10の機能ブロック図を示した。図2に示されるように、物体識別装置10は、撮像画像取得部12、個体画像抽出部14、個体情報付与部16、画像特徴抽出部18、分類部20、表面パターン取得部22、個体情報登録部24、対象画像取得部26、分類情報取得部28、比較パターン取得部30、対象パターン取得部32、パターン照合部34、及び照合結果出力部36を備える。
 物体識別装置10に備えられる上記の各部の機能は、CPU等の制御手段、メモリ等の記憶手段、外部デバイスとデータを送受信する入出力手段等を備えたコンピュータが、コンピュータ読み取り可能な情報記憶媒体に格納されたプログラムを読み込み実行することで実現されるものとしてよい。なお、プログラムは光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等の情報記憶媒体によってコンピュータたる物体識別装置10に供給されることとしてもよいし、インターネット等のデータ通信網を介して供給されることとしてもよい。
 撮像画像取得部12は、撮像装置4から物体(錠剤)の撮像画像を取得する。例えば、撮像装置4と物体識別装置10とは、有線又は無線のネットワークを介して接続され、撮像画像取得部12は、当該ネットワークを介して撮像装置4から送信される撮像画像を受信することとしてよい。
 図3には、撮像画像取得部12により取得される撮像画像の一例を示した。本実施形態に係る錠剤の製造ライン5では、N個の錠剤が搬送方向に対して垂直に並べられていることとし、図3に示される撮像画像には、撮像装置4により撮像されたN個の錠剤の画像が含まれていることとする。もちろん、撮像画像の態様は上記の例に限られるものではなく、錠剤1つ1つを撮像してもよいし、N×M(Mは2以上の整数)の錠剤をまとめて撮像することとしてもよい。
 個体画像抽出部14は、撮像画像取得部12により取得した撮像画像に含まれる物体(錠剤)の1つ1つに対応する画像領域(個体画像)を抽出する。例えば、個体画像抽出部14は、撮像画像に含まれるエッジを検出し、検出したエッジに基づいて1つの物体(錠剤)に対応する画像領域を抽出することとしてよい。
 個体情報付与部16は、個体画像抽出部14により抽出した各物体に対応する個体画像に、識別情報(錠剤ID)等の情報を付与する。例えば、個体情報付与部16は、錠剤IDを、製造ラインの識別情報(製造ラインID)、製造ライン上での行(搬送方向と垂直)番号(1~Nのいずれか)、製造ライン上での列(搬送方向)番号、製造日時の組み合わせにより生成することとしてよい。錠剤IDを上記の態様で生成した場合には、錠剤IDから、製造日、製造ライン、製造ライン上のどの位置で生成されたかが分かる。また、錠剤IDには、錠剤が格納される容器を識別する容器ID等の情報を含めてもよいし、こうした情報を関連付けて記憶しておくこととしてもよい。
 画像特徴抽出部18は、個体画像抽出部14により抽出された物体ごとの個体画像に含まれる物体表面に形成された印字画像に基づいて、物体ごとの画像特徴を抽出する。以下、本実施形態において用いる画像特徴の例を2つ説明する。
 第1の画像特徴は、物体(錠剤)と、当該物体(錠剤)に形成される印字画像との位置関係のランダム性に着目し、当該位置関係を画像特徴としたものである。例えば、第1の画像特徴としては、物体(錠剤)の基準位置(例えば、物体の中心位置)に対する、印字画像の重心位置のずれを示す位置ずれベクトルを用いることとしてよい。
 図4には、位置ずれベクトルの具体例を説明する図を示した。図4に示されるように、画像特徴抽出部18は、個体画像の外接円(又は外接矩形)の中心を物体の基準位置(座標中心(0,0))とする。さらに、画像特徴抽出部18は、個体画像を二値化して、物体に形成された印字画像を抽出するとともに、当該抽出された印字画像の外接矩形の重心位置を特定し、基準位置を始点、重心位置を終点とした位置ずれベクトルを得る。
 次に、第2の画像特徴について説明する。第2の画像特徴は、物体(錠剤)に形成される印字画像に含まれるノイズのランダム性に着目し、二値化した印字画像のパターンを画像特徴としたものである。
 図5には、二値化した印字画像パターンの具体例を説明する図を示した。図5に示した印字画像パターンは、例えば個体画像を二値化して得た黒画素群の外接矩形の重心位置を中心とした予め定められたサイズ(横W、縦H)の画像領域を抽出して得たものである。抽出する画像領域のサイズは、印字画像の元データにより形成される理想的な印字画像のサイズに基づいて決定することとしてよい。ここで、物体ごとに抽出される印字画像パターンには物体ごとに固有のノイズが含まれる。
 分類部20は、画像特徴抽出部18により物体(錠剤)の個体画像ごとに抽出した第1の画像特徴、及び第2の画像特徴の少なくとも一方に基づいて、各物体(錠剤)を複数の分類のいずれかに分類する。以下、分類部20による分類処理の例を説明する。
 まず、分類部20が、各物体の個体画像から抽出された第1の画像特徴(位置ずれベクトル)に基づいて、当該各物体を分類する例(第1の例)について説明する。以下、第1の画像特徴による分類をクラスAによる分類と称する。
 図6には、クラスAによる分類処理の具体例を説明する図を示した。図6に示されるように、それぞれの位置ずれベクトルの始点を原点とする座標系において、座標範囲ごとに分類(分類G1~Gn(nは2以上の整数))を定め、位置ずれベクトルの終点が属する座標範囲に基づいて、位置ずれベクトルが対応する物体を分類することとする。図6に示した例では、座標系を36の座標範囲に分割し、それぞれの座標範囲に分類を対応させている(G1~G36)。例えば、第1の物体に係る位置ずれベクトルはG15に、第2の物体に係る位置ずれベクトルはG22に分類される。なお、図6に示した例では、各分類の座標範囲の大きさは均等としたが、原点からの距離に従って座標範囲を変えることとしてよく、例えば、原点から遠ざかるに従って座標範囲を大きく設定するようにしてもよい。
 また、図6に示した例では、位置ずれベクトルの属する座標範囲に基づいて、位置ずれベクトルを分類することとしたが、位置ずれベクトルの長さに基づいて位置ずれベクトルを分類することとしてもよい。具体的には、分類ごとに位置ずれベクトルの長さの範囲を定め、位置ずれベクトルの長さが属する範囲に応じて分類を決定することとしてよい。この際に、位置ずれベクトルの長さには、位置ずれベクトルの始点の画素と終点の画素とのユークリッド距離を用いてもよいし、市街地距離(マンハッタン距離)を用いてもよい。
 次に、分類部20が、各物体の個体画像から抽出された第2の画像特徴(印字画像パターン)に基づいて、当該各物体を分類する例(第2の例)について説明する。以下、第2の画像特徴による分類をクラスBによる分類と称する。
 図7には、第2の例において、クラスBの分類g1~gm(mは2以上の整数)ごとに予め生成される代表パターンの例を示した。まず、分類部20は、印字画像のデータに、1~mの異なるランダムノイズを重畳して、第1~第mの異なるパターンを生成し、生成した第1~第mのパターンを分類g1~gmの代表パターンとして割り当てる。
 次に、分類部20は、各物体の個体画像から抽出された印字画像パターンと、分類g1~gmのそれぞれの代表パターンとの類似度(距離)をそれぞれ算出し、各物体の分類を、その印字画像パターンが最も類似している(すなわち最も距離が小さい)代表パターンの属する分類に決定する。
 最後に、分類部20が、各物体の個体画像から抽出された第1の画像特徴(位置ずれベクトル)と第2の画像特徴(印字画像パターン)との組み合わせに基づいて、当該各物体を分類する例(第3の例)について説明する。
 第3の例では、第1の例に基づく分類G1~Gnと、第2の例に基づく分類g1~gmとの組み合わせにより、1~n・m個の分類Gij(i=1,・・・,n、j=1,・・・,m)を生成し、iを上述した第1の例に基づいて決定し、jを上述した第2の例に基づいて決定することとする。
 表面パターン取得部22は、個体画像抽出部14により抽出した各物体の個体画像から、予め定められた領域(パターン採取領域)の画像情報(表面パターン情報)を取得する。例えば、パターン採取領域は、個体画像における印字画像が形成された画像領域以外の画像領域に設定することとしてよい。
 図8には、パターン採取領域の一例を示した。図8に示す例では、個体画像において、印字画像の外接矩形の右辺と接する位置に予め定められたサイズ(例えば32ドット×32ドット)の領域をパターン採取領域50に設定したものである。
 個体情報登録部24は、物体について、個体情報付与部16により付与された識別情報と、分類部20により決定した分類情報と、表面パターン取得部22により取得された表面パターン情報とを関連付けてデータベースに登録する。
 図9には、個体情報登録部24により登録されたパターン情報テーブルの一例を示した。図9に示されるパターン情報テーブルには、物体識別情報(錠剤ID)、分類情報(クラスAの分類、クラスBの分類)、表面パターン情報が関連付けて記憶される。
 以上が、物体の製造時に、全物体(錠剤)の情報をデータベースに登録する処理である。次に、例えば製造された物体(錠剤)が流通した後に取得された1つの物体(錠剤)を対象物体として、対象物体の識別情報を特定する処理の詳細について説明する。
 対象画像取得部26は、対象物体を撮像した撮像画像を取得する。対象画像取得部26は、例えば図示しない撮像装置4から、当該撮像装置4により対象物体を撮像した撮像画像を取得することとしてよい。なお、対象画像取得部26は、取得した対象物体の撮像画像が正立していない(予め定められた方向を向いていない)場合には、撮像画像を回転させて正立させる画像処理を実行することとしてよい。具体的には、撮像画像に含まれる印字画像の向きが予め定められた方向を向くように、撮像画像を回転させることとしてよい。
 画像特徴抽出部18は、対象画像取得部26により取得した撮像画像に含まれる対象物体の表面に形成された印字画像に基づいて、対象物体の画像特徴を抽出する。画像特徴の抽出処理の詳細については上述した処理と同様であるため説明を省略する。
 分類情報取得部28は、画像特徴抽出部18により抽出された対象物体の画像特徴に基づいて分類部20により行われる分類の結果に基づいて、対象物体の属する分類の候補を取得する。
 例えば、画像特徴に第1の画像特徴(位置ずれベクトル)を用いる場合には、対象物体の位置ずれベクトルが属する座標領域を第1候補の分類とし、他の座標領域のうち位置ずれベクトルに近い順に第2候補~第K候補の分類として取得することとしてよい。候補数Kは予め定められていてもよいし、位置ずれベクトルとの距離が閾値内にある座標領域の数としてもよい。
 図10には、対象画像の位置ずれベクトルに基づいて取得されるクラスAの分類の一例を示した。図10に示されるように、位置ずれベクトルが分類G11にある場合に、G11が第1候補となり、位置ずれベクトルの境界に近い分類G12が第2候補、次に境界に近い分類G5が第3候補としてよい。
 また、画像特徴に第2の画像特徴(印字画像パターン)を用いる場合には、印字画像パターンとの代表パターンが類似する順に第1~第K候補のクラスBの分類を取得することとしてよい。候補数Kは予め定められていてもよいし、代表パターンとの類似度(距離)が閾値内にある代表パターンの数としてもよい。
 そして、画像特徴に第1の画像特徴(位置ずれベクトル)と第2の画像特徴(印字画像パターン)との組み合わせを用いる場合には、分類Gijのうち、iを第1の画像特徴に基づいて取得し、jを第2の画像特徴に基づいて取得することとしてよい。
 比較パターン取得部30は、分類情報取得部28により取得された分類に関連付けて個体情報登録部24により登録された表面パターン情報を取得する。なお、分類情報取得部28により第1~第Kの分類の候補が取得された場合には、第1~第Kの分類の順に関連付けられた表面パターン情報を取得することとしてよい。
 対象パターン取得部32は、対象物体の撮像画像から、対象物体の表面パターン情報(以下、対象表面パターン情報)を取得する。例えば、対象パターン取得部32は、対象物体の撮像画像から、予め定められた領域(対象パターン採取領域)の画像情報(表面パターン情報)を取得することとしてよい。なお、対象パターン採取領域は、パターン採取領域を含む画像領域であることとしてよい。また、対象パターン採取領域は、個体画像における印字画像が形成された画像領域以外に設定することとしてよい。
 パターン照合部34は、対象パターン取得部32により取得された対象表面パターン情報と、比較パターン比較パターン取得部30により取得されたそれぞれの表面パターン情報とを比較し、対象表面パターン情報と照合する表面パターン情報を特定する。具体的には、パターン照合部34は、第i(iの初期値=1)候補の分類について取得された各表面パターン情報と対象表面パターン情報とを比較し、この中で対象表面パターン情報と照合する表面パターン情報がない場合にiをインクリメントして、新たな第i候補の分類について取得された各表面パターン情報と対象表面パターン情報とを比較する処理を、対象表面パターン情報と照合する表面パターン情報が現れるか、照合する表面パターン情報がなくなるまで繰り返し実行する。パターン照合部34は、対象表面パターン情報と照合する表面パターン情報が特定された場合には、当該特定された表面パターン情報に関連付けて登録された識別情報(錠剤ID)をデータベースから取得することとしてよい。
 照合結果出力部36は、パターン照合部34による照合結果を出力する。照合結果出力部36は、パターン照合部34により対象物体と照合する物体の識別情報が特定された場合にはその識別情報を、対象物体と照合する物体の識別情報が特定されなかった場合にはその旨を、ディスプレイに表示したり、印刷装置により印刷したりすること等により出力することとしてよい。
 次に、物体識別装置10により行われる処理の流れを、フローチャートを参照しながら説明する。
 まず、図11に示したフローチャートを参照しながら、登録対象の各物体(錠剤)の表面パターン情報を登録する処理(登録処理)の流れを説明する。
 図11に示したように、物体識別装置10は、登録識別対象の物体(錠剤)の撮像画像を取得する(S101)。ここで、物体識別装置10は、クラスAの分類を登録しない場合には(S102:N)、S109に進み、クラスAの分類を登録する場合には(S102:Y)、撮像画像に含まれる対象物体の外接形状を抽出するとともに(S103)、抽出した外接形状の中心位置を特定する(S104)。
 次に、物体識別装置10は、撮像画像を二値化して(S105)、物体に形成された印字画像を特定し(S106)、特定した印字画像の重心位置を算出する(S107)。物体識別装置10は、S104で特定した中心位置とS107で算出した重心位置との位置ずれに基づいて、登録識別対象の物体のクラスAに係る分類を決定する(S108)。
 次に、物体識別装置10は、クラスBの分類を登録しない場合には(S109:N)、S113に進み、クラスBの分類を登録する場合には(S109:Y)、撮像画像を二値化して特定した印字画像の重心位置を中心として、印字画像のサイズに基づいて予め定められた大きさの画像領域(印字画像パターン)を抽出する(S110)。そして、物体識別装置10は、S110で抽出した画像領域の画像パターンと、予め定められたクラスBに係る各分類の代表パターンとの類似度を算出し(S111)、最も類似している代表パターンに基づいて、登録識別対象の物体のクラスBに係る分類を決定する(S112)。
 物体識別装置10は、登録識別対象の物体の撮像画像において印字画像が含まれる領域以外の予め定められた位置及び大きさの領域から表面パターン情報を抽出し(S113)、登録識別対象の物体の識別情報と、S107やS109で決定した分類の情報と、S113で抽出した表面パターン情報とを関連付けてデータベースに登録する(S114)。
 物体識別装置10は、登録識別対象の物体が残っている場合には(S115:N)、S101に戻り、登録識別対象の物体が残っていない場合には(S115:Y)、登録処理を終える。
 次に、物体識別装置10により行われる照合識別対象の物体(錠剤)を、登録された物体と照合する処理(照合処理)の流れを、図12、図13、図14A及び図14Bに示したフローチャートを参照しながら説明する。
 図12には、照合処理の第1の例を説明するフローチャートを示した。図12に示したフローチャートは、クラスAの分類を用いて照合処理を行う例について説明したものである。
 図12に示されるように、物体識別装置10は、照合識別対象の物体(錠剤)の撮像画像を取得する(S201)。物体識別装置10は、撮像画像に含まれる対象物体の外接形状を抽出するとともに(S202)、抽出した外接形状の中心位置を特定する(S203)。
 次に、物体識別装置10は、撮像画像を二値化して(S204)、物体に形成された印字画像を特定し(S205)、特定した印字画像の重心位置を算出する(S206)。物体識別装置10は、S203で特定した中心位置とS206で算出した重心位置との位置ずれに基づいて、照合識別対象の物体についてクラスAに係る分類の候補(第1~第N)を決定する(S207)。
 物体識別装置10は、照合識別対象の物体の撮像画像から、印字画像が含まれる領域以外の予め定められた位置及び大きさの領域から照合に用いる表面パターン情報(対象表面パターン情報)を抽出する(S208)。
 物体識別装置10は、S207で決定した候補のうち第i(iの初期値=1)の候補に係る分類に関連付けて登録された表面パターン情報をそれぞれ取得し(S209)、取得した表面パターン情報の中に対象表面パターン情報に照合する表面パターン情報があるか否かを判定する(S210)。ここで、照合する表面パターン情報がないと判定された場合であって(S210:N)、iがNに達していないときには(S211:Y)、iをインクリメントして(S212)、S209に戻り、S211でiがNに達しているとき(S211:N)には、照合する物体無しとして(S213)、処理を終了する。一方で、物体識別装置10は、S210で照合する表面パターン情報があると判定された場合には(S210:Y)、当該照合した表面パターン情報に関連付けられた識別情報を、照合識別対象の物体の識別情報に決定して(S214)、処理を終了する。
 図13には、照合処理の第2の例を説明するフローチャートを示した。図13に示したフローチャートは、クラスBの分類を用いて照合処理を行う例について説明したものである。
 図13に示されるように、物体識別装置10は、照合識別対象の物体(錠剤)の撮像画像を取得する(S301)。物体識別装置10は、撮像画像を二値化して(S302)、物体に形成された印字画像を特定し(S303)、特定した印字画像の重心位置を算出する(S304)。
 次に、物体識別装置10は、S304で算出された印字画像の重心位置を中心として、印字画像のサイズに基づいて予め定められた大きさの画像領域(印字画像パターン)を抽出する(S305)。そして、物体識別装置10は、S305で抽出した画像領域の画像パターンと、予め定められたクラスBに係る各分類の代表パターンとの類似度を算出し(S306)、類似している代表パターンの順に基づいて、照合識別対象の物体についてクラスBに係る分類の候補(第1~第M)を決定する(S307)。
 物体識別装置10は、照合識別対象の物体の撮像画像から、印字画像が含まれる領域以外の予め定められた位置及び大きさの領域から照合に用いる表面パターン情報(対象表面パターン情報)を抽出する(S308)。
 物体識別装置10は、S307で決定した候補のうち第i(iの初期値=1)の候補に係る分類に関連付けて登録された表面パターン情報をそれぞれ取得し(S309)、取得した表面パターン情報の中に対象表面パターン情報に照合する表面パターン情報があるか否かを判定する(S310)。ここで、照合する表面パターン情報がないと判定された場合であって(S310:N)、iがMに達していないときには(S311:Y)、iをインクリメントして(S312)、S309に戻り、S311でiがMに達しているとき(S311:N)には、照合する物体無しとして(S313)、処理を終了する。一方で、物体識別装置10は、照合する表面パターン情報があると判定された場合には(S310:Y)、当該照合した表面パターン情報に関連付けられた識別情報を、照合識別対象の物体の識別情報に決定して(S314)、処理を終了する。
 図14A及び図14Bには、照合処理の第3の例を説明するフローチャートを示した。図14A及び図14Bに示したフローチャートは、クラスA及びクラスBの分類を用いて照合処理を行う例について説明したものである。
 図14Aに示されるように、物体識別装置10は、照合識別対象の物体(錠剤)の撮像画像を取得する(S401)。物体識別装置10は、撮像画像に含まれる対象物体の外接形状を抽出するとともに(S402)、抽出した外接形状の中心位置を特定する(S403)。
 次に、物体識別装置10は、撮像画像を二値化して(S404)、物体に形成された印字画像を特定し(S405)、特定した印字画像の重心位置を算出する(S406)。物体識別装置10は、S403で特定した中心位置とS406で算出した重心位置との位置ずれに基づいて、照合識別対象の物体についてクラスAに係る分類の候補(第1~第N)を決定する(S407)。
 次に、物体識別装置10は、S406で算出された印字画像の重心位置を中心として、印字画像のサイズに基づいて予め定められた大きさの画像領域(印字画像パターン)を抽出する(S408)。そして、物体識別装置10は、S408で抽出した画像領域の画像パターンと、予め定められたクラスBに係る各分類の代表パターンとの類似度を算出し(S409)、類似している代表パターンの順に基づいて、照合識別対象の物体についてクラスBに係る分類の候補(第1~第M)を決定する(S410)。
 物体識別装置10は、照合識別対象の物体の撮像画像から、印字画像が含まれる領域以外の予め定められた位置及び大きさの領域から照合に用いる表面パターン情報(対象表面パターン情報)を抽出する(S411)。
 次に、図14Bに示されるように、物体識別装置10は、S407で決定した候補のうち第i(iの初期値=1)の候補に係るクラスAの分類Giと、S410で決定した候補のうち第j(jの初期値=1)の候補に係るクラスBの分類gjに関連付けて登録された表面パターン情報をそれぞれ取得し(S412)、取得した表面パターン情報の中に対象表面パターン情報に照合する表面パターン情報があるか否かを判定する(S413)。ここで、照合する表面パターン情報がないと判定された場合であって(S413:N)、jがMに達していないときには(S414:N)、jをインクリメントして(S415)、S412に戻る。
 物体識別装置10は、S414でiがMに達している場合(S414:Y)であって、iがNに達していないときには(S416:N)、iをインクリメントして(S417)、S412に戻る。また、S416でiがNに達している場合には(S416:Y)、照合する物体無しとして(S418)、処理を終了する。
 一方で、物体識別装置10は、S413で照合する表面パターン情報があると判定された場合には(S413:Y)、当該照合した表面パターン情報に関連付けられた識別情報を、照合識別対象の物体の識別情報に決定して(S419)、処理を終了する。
 なお、図14A及び図14Bに示したフローチャートにおいて、クラスAの第i候補に対してクラスBの第1~M候補を順次組み合わせながら照合する例を示したが、クラスBの第j候補に対してクラスAの第1~N候補を順次組み合わせながら照合してもよいし、クラスAの第i候補とクラスBの第j候補のi+jの値が小さい順にクラスAの第i候補とクラスBの第j候補とを順次組み合わせながら照合することとしてもよい。
 以上説明した物体識別システム1では、物体の表面に形成された印字画像に基づく画像特徴を利用して、物体の表面パターン情報と照合するパターンの数を絞り込むことにより、このような絞り込みをしない場合と比べて、照合処理のステップ数が少なくなる。さらに、それぞれ独立の画像特徴に基づくクラスAとクラスBの両方を用いて物体の表面パターン情報と照合するパターンの数を絞り込んだ場合には、どちらか一方を用いる場合と比べて、照合処理のステップ数がより少なくなる。
 本発明は上記の実施形態に限定されるものではない。例えば、上記の実施形態では、物体に円形錠剤を用いた例を説明したが、表面にランダムパターンと、予め定められた画像が印刷される物体であれば、電子部品等の他の物体に適用することとしてもよいのはもちろんである。
 また、上記の実施形態において、物体識別装置10が登録処理と照合処理とを実行する例を説明したが、登録処理を実行する登録装置と、照合処理を実行する照合装置をそれぞれ分けて構成してもよい。この場合には、登録装置が、撮像画像取得部12、個体画像抽出部14、個体情報付与部16、画像特徴抽出部18、分類部20、表面パターン取得部22、個体情報登録部24を備え、照合装置が、対象画像取得部26、分類情報取得部28、比較パターン取得部30、対象パターン取得部32、パターン照合部34、及び照合結果出力部36を備えることとしてよい。

Claims (7)

  1.  それぞれ表面に固有のパターンを有し、当該表面に予め定められた画像が形成された複数の物体ごとの撮像画像を取得する取得手段と、
     前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に含まれる当該物体に形成された前記予め定められた画像に基づく当該物体の特徴に応じて、当該物体を複数の分類のいずれかに分類する分類手段と、
     前記複数の物体ごとに、当該物体の識別情報と、当該物体の表面が有するパターンを示すパターン画像と、当該物体の分類とを関連付けて登録する登録手段と、
     前記複数の物体のうちの1つの物体である対象物体の分類の候補を、当該対象物体を撮像した対象物体撮像画像に基づき前記分類手段が分類した結果に基づいて取得する分類取得手段と、
     前記分類取得手段が取得した分類に関連付けて前記登録手段が登録したパターン画像を取得するパターン画像取得手段と、
     前記パターン画像取得手段が取得したパターン画像のうち、前記対象物体撮像画像と照合したパターン画像に関連付けられた識別情報を、前記対象物体の識別情報として特定する特定手段と、を含む
     ことを特徴とする物体識別システム。
  2.  前記分類手段は、前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に基づいて、当該物体の基準位置に対して前記予め定められた画像が形成された位置のずれに応じて、当該物体を前記複数の分類のいずれかに分類する
     ことを特徴とする請求項1に記載の物体識別システム。
  3.  前記分類手段は、前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に基づいて、当該物体に形成された前記予め定められた画像に含まれるノイズのパターンに応じて、当該物体を前記複数の分類のいずれかに分類する
     ことを特徴とする請求項1に記載の物体識別システム。
  4.  前記分類手段は、前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に基づいて、当該物体の基準位置に対して前記予め定められた画像が形成された位置のずれ、及び、当該物体に形成された前記予め定められた画像に含まれるノイズのパターンの組み合わせに応じて、当該物体を前記複数の分類のいずれかに分類する
     ことを特徴とする請求項1に記載の物体識別システム。
  5.  前記分類取得手段は、前記対象物体の分類の候補を優先順位とともに取得し、
     前記パターン画像取得手段は、前記分類取得手段が取得した分類ごとに、当該分類に関連付けて前記登録手段が登録したパターン画像を、当該分類の優先順位に関連付けて取得し、
     前記特定手段は、優先順位が高いパターン画像の順に前記対象物体撮像画像との照合を行う
     ことを特徴とする請求項1乃至4のいずれかに記載の物体識別システム。
  6.  画像形成装置と、撮像装置と、物体識別装置と、を含み、
     前記画像形成装置は、それぞれ表面に固有のパターンを有する物体の表面に予め定められた画像を形成する画像形成手段を含み、
     前記撮像装置は、
     前記複数の物体を撮像する撮像手段を含み、
     前記物体識別装置は、
     前記撮像装置から前記複数の物体ごとの撮像画像を取得する取得手段と、
     前記複数の物体ごとに、当該物体について前記取得手段が取得した撮像画像に含まれる当該物体に形成された前記予め定められた画像に基づく当該物体の特徴に応じて、当該物体を複数の分類のいずれかに分類する分類手段と、
     前記複数の物体ごとに、当該物体の識別情報と、当該物体の表面が有するパターンを示すパターン画像と、当該物体の分類とを関連付けて登録する登録手段と、
     前記複数の物体のうちの1つの物体である対象物体の分類の候補を、当該対象物体を撮像した対象物体撮像画像に基づき前記分類手段が分類した結果に基づいて取得する分類取得手段と、
     前記分類取得手段が取得した分類に関連付けて前記登録手段が登録したパターン画像を取得するパターン画像取得手段と、
     前記パターン画像取得手段が取得したパターン画像のうち、前記対象物体撮像画像と照合したパターン画像に関連付けられた識別情報を、前記対象物体の識別情報として特定する特定手段と、を含む
     ことを特徴とする物体識別システム。
  7.  それぞれ表面に固有のパターンを有し、当該表面に予め定められた画像が形成された複数の物体ごとの撮像画像を取得する取得手段と、
     前記複数の物体ごとに、当該物体について前記取得手段により取得された撮像画像に含まれる当該物体に形成された前記予め定められた画像に基づく当該物体の特徴に応じて、当該物体を複数の分類のいずれかに分類する分類手段と、
     前記複数の物体ごとに、当該物体の識別情報と、当該物体の表面が有するパターンを示すパターン画像と、当該物体の分類とを関連付けて登録する登録手段と、
     前記複数の物体のうちの1つの物体である対象物体の分類の候補を、当該対象物体を撮像した対象物体撮像画像に基づき前記分類手段が分類した結果に基づいて取得する分類取得手段と、
     前記分類取得手段が取得した分類に関連付けて前記登録手段が登録したパターン画像を取得するパターン画像取得手段と、
     前記パターン画像取得手段が取得したパターン画像のうち、前記対象物体撮像画像と照合したパターン画像に関連付けられた識別情報を、前記対象物体の識別情報として特定する特定手段
     としてコンピュータを機能させるためのプログラム。
PCT/JP2012/050109 2011-07-21 2012-01-05 物体識別システム及びプログラム WO2013011700A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201280029639.1A CN104321804B (zh) 2011-07-21 2012-01-05 物体识别系统
EP12814525.7A EP2736012B1 (en) 2011-07-21 2012-01-05 Object identification system and program
US14/083,642 US9396414B2 (en) 2011-07-21 2013-11-19 Object identification system and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011159678A JP6031736B2 (ja) 2011-07-21 2011-07-21 物体識別システム及びプログラム
JP2011-159678 2011-07-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/083,642 Continuation US9396414B2 (en) 2011-07-21 2013-11-19 Object identification system and program

Publications (1)

Publication Number Publication Date
WO2013011700A1 true WO2013011700A1 (ja) 2013-01-24

Family

ID=47557899

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/050109 WO2013011700A1 (ja) 2011-07-21 2012-01-05 物体識別システム及びプログラム

Country Status (5)

Country Link
US (1) US9396414B2 (ja)
EP (1) EP2736012B1 (ja)
JP (1) JP6031736B2 (ja)
CN (1) CN104321804B (ja)
WO (1) WO2013011700A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014049015A (ja) * 2012-09-03 2014-03-17 Toshiba Tec Corp 商品認識装置及び商品認識プログラム
US8885916B1 (en) 2014-03-28 2014-11-11 State Farm Mutual Automobile Insurance Company System and method for automatically measuring the dimensions of and identifying the type of exterior siding
US9646345B1 (en) 2014-07-11 2017-05-09 State Farm Mutual Automobile Insurance Company Method and system for displaying an initial loss report including repair information
US10262427B2 (en) * 2014-09-01 2019-04-16 Nec Corporation Determination method, determination system, determination device, and program
CN105045821B (zh) * 2015-06-26 2019-05-14 深圳市金立通信设备有限公司 一种信息处理方法及终端
US10755357B1 (en) 2015-07-17 2020-08-25 State Farm Mutual Automobile Insurance Company Aerial imaging for insurance purposes
CN106611437B (zh) * 2015-10-23 2019-10-22 华为技术有限公司 为三维场景中的多个物体选择材质的方法和装置
JP6751521B2 (ja) * 2015-11-18 2020-09-09 富士ゼロックス株式会社 データ取得装置、印刷装置、真贋判定装置およびプログラム
CN108460389B (zh) 2017-02-20 2021-12-03 阿里巴巴集团控股有限公司 一种识别图像中对象的类型预测方法、装置及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0729003A (ja) * 1993-07-09 1995-01-31 Nec Corp 指紋照合装置
JPH07254066A (ja) * 1994-03-14 1995-10-03 N T T Data Tsushin Kk 物品同定システム
JP2005038389A (ja) * 2003-06-24 2005-02-10 Fuji Xerox Co Ltd 真偽判定方法、装置及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004085212A (ja) 2002-08-22 2004-03-18 Toshiba Corp 光導波路型グルコースセンサ及び光導波路型グルコースセンサ測定方法
US8489987B2 (en) * 2006-07-31 2013-07-16 Ricoh Co., Ltd. Monitoring and analyzing creation and usage of visual content using image and hotspot interaction
JP2009109419A (ja) * 2007-10-31 2009-05-21 Sony Corp 物品識別装置および方法、並びにプログラム
WO2010072745A1 (en) * 2008-12-23 2010-07-01 Alpvision S.A. Method to authenticate genuine tablets manufactured by compressing powder
CN101630361A (zh) * 2008-12-30 2010-01-20 北京邮电大学 一种基于车牌、车身颜色和车标识别的套牌车辆识别设备及方法
DK2725797T3 (da) * 2011-06-23 2019-01-02 Huawei Tech Co Ltd Offset dekoderanordning, offset koderanordning, billedfilteranordning og datastruktur

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0729003A (ja) * 1993-07-09 1995-01-31 Nec Corp 指紋照合装置
JPH07254066A (ja) * 1994-03-14 1995-10-03 N T T Data Tsushin Kk 物品同定システム
JP2005038389A (ja) * 2003-06-24 2005-02-10 Fuji Xerox Co Ltd 真偽判定方法、装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2736012A4 *

Also Published As

Publication number Publication date
JP2013025557A (ja) 2013-02-04
JP6031736B2 (ja) 2016-11-24
US9396414B2 (en) 2016-07-19
CN104321804A (zh) 2015-01-28
EP2736012A4 (en) 2015-05-20
US20140079326A1 (en) 2014-03-20
EP2736012A1 (en) 2014-05-28
CN104321804B (zh) 2017-02-15
EP2736012B1 (en) 2020-03-18

Similar Documents

Publication Publication Date Title
JP6031736B2 (ja) 物体識別システム及びプログラム
CN104464079B (zh) 基于模板特征点及其拓扑结构的多币种面值识别方法
JP4970195B2 (ja) 人物追跡システム、人物追跡装置および人物追跡プログラム
US8792715B2 (en) System and method for forms classification by line-art alignment
JP6143111B2 (ja) 物体識別装置、物体識別方法、及びプログラム
CN102147858B (zh) 车牌字符识别方法
JP4932177B2 (ja) 硬貨分類装置および硬貨分類方法
KR20180022677A (ko) 지문기반 인증을 위한 장치 및 컴퓨터 구현방법
JP4715664B2 (ja) 車両検索システム
JP2011510365A (ja) 動的文書識別フレームワークを用いた文書確認
CN104969268A (zh) 安全文件鉴别及执行鉴别的移动装置
CN103426186A (zh) 一种改进的surf快速匹配方法
CN111340701A (zh) 一种基于聚类法筛选匹配点的电路板图像拼接方法
JP5372183B2 (ja) 硬貨分類装置および硬貨分類方法
JP6487565B2 (ja) 勾配場の特異点の記述子を用いた郵便物の画像のペア作成
CN104766043A (zh) 一种选票图像快速识别的方法
TW202211157A (zh) 個體辨識系統、個體辨識程式及記錄媒體
CN109389017A (zh) 行人再识别方法
JP2003109007A (ja) 帳票様式分類装置、帳票様式分類方法、帳票様式分類プログラムおよび画像照合装置
KR101835105B1 (ko) 위조 인쇄물 감식 방법
CN110310311B (zh) 一种基于盲文的图像配准方法
WO2020189347A1 (ja) 個体識別情報生成方法、個体識別情報生成装置、プログラム
CN114148103A (zh) 一种基于神经网络学习的焊膏印刷标记识别方法及系统
JP2734245B2 (ja) 画像特徴抽出方法及びその装置
CN107194391A (zh) 一种可对抗图像拉伸偏移的智能分析定位电子选票的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12814525

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2012814525

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE