WO2021220826A1 - 個体識別システム - Google Patents

個体識別システム Download PDF

Info

Publication number
WO2021220826A1
WO2021220826A1 PCT/JP2021/015593 JP2021015593W WO2021220826A1 WO 2021220826 A1 WO2021220826 A1 WO 2021220826A1 JP 2021015593 W JP2021015593 W JP 2021015593W WO 2021220826 A1 WO2021220826 A1 WO 2021220826A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
processing unit
condition
feature
identification
Prior art date
Application number
PCT/JP2021/015593
Other languages
English (en)
French (fr)
Inventor
達也 水井
太 須納瀬
文人 寺井
悠一 吉田
満 安倍
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2021220826A1 publication Critical patent/WO2021220826A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the embodiment of the present disclosure relates to an individual identification system capable of identifying an individual based on an individual pattern appearing on the surface of the individual, a so-called individual fingerprint.
  • the present disclosure has been made in view of the above problems, and the purpose of the present disclosure is to reduce the influence of disturbance by setting appropriate conditions according to changes in the environment, and to appropriately bring out the pattern to be characterized.
  • An object of the present invention is to provide an individual identification system capable of improving identification accuracy.
  • the individual identification system includes an image acquisition processing unit capable of executing an image acquisition process for acquiring an image to be identified taken by a registration side and an identification side photographing device as a registered image and an identification image, respectively.
  • a feature point extraction processing unit capable of executing a feature point extraction process for extracting feature points included in the registered image and the identification image acquired by the image acquisition process, and the feature points extracted by the feature point extraction process.
  • a local feature amount calculation processing unit that can execute local feature amount calculation processing that calculates local feature amounts
  • a shooting target condition adjustment processing unit that can execute shooting target condition adjustment processing that adjusts shooting target conditions that are conditions related to the shooting target.
  • a shooting device condition adjustment processing unit capable of executing a shooting device condition adjusting process for adjusting the shooting device condition, which is a condition related to the shooting device.
  • the user operates the shooting target condition adjustment processing unit and the shooting device condition adjustment processing unit to adjust the shooting target condition and the shooting device condition suitable for extracting the feature points and calculating the local feature amount.
  • the shooting target condition adjustment processing unit and the shooting device condition adjustment processing unit to adjust the shooting target condition and the shooting device condition suitable for extracting the feature points and calculating the local feature amount. be able to. Therefore, by setting appropriate conditions according to changes in the environment, the influence of disturbance can be reduced, and the pattern to be characterized can be appropriately highlighted. As a result, the identification accuracy can be improved.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of an individual identification system according to an embodiment.
  • FIG. 2 is a block diagram showing an example of a schematic configuration of an imaging device included in an individual identification system according to an embodiment.
  • FIG. 3 is a block diagram showing an example of a schematic configuration of a feature extraction device included in the individual identification system according to the embodiment.
  • FIG. 4 is a block diagram showing an example of a schematic configuration of a registration processing device included in the individual identification system according to the embodiment.
  • FIG. 5 is a block diagram showing an example of a schematic configuration of a recording device included in the individual identification system according to the embodiment.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of an individual identification system according to an embodiment.
  • FIG. 2 is a block diagram showing an example of a schematic configuration of an imaging device included in an individual identification system according to an embodiment.
  • FIG. 3 is a block diagram showing an example of a schematic configuration of a feature extraction device included in the individual identification system
  • FIG. 6 is a block diagram showing an example of a schematic configuration of a dictionary device included in the individual identification system according to the embodiment.
  • FIG. 7 is a block diagram showing an example of a schematic configuration of an image matching identification device included in the individual identification system according to the embodiment.
  • FIG. 8 is a block diagram showing an example of a schematic configuration of a photographing condition adjusting device included in the individual identification system according to the embodiment.
  • FIG. 9 is a block diagram showing an example of a schematic configuration of a collation identification condition adjusting device included in the individual identification system according to the embodiment.
  • FIG. 10 is a block diagram showing an example of a schematic configuration of a visualization device included in the individual identification system according to the embodiment.
  • FIG. 11 is a first diagram showing an example of the execution result of the feature point extraction process in the individual identification system according to the embodiment.
  • FIG. 12 is a second diagram showing an example of the execution result of the feature point extraction process in the individual identification system according to the embodiment.
  • FIG. 13 is a diagram conceptually showing an example of a method of calculating a global feature amount from a local feature amount in an individual identification system according to an embodiment.
  • FIG. 14 is a diagram conceptually showing an example of a method for generating a global feature dictionary in an individual identification system according to an embodiment.
  • FIG. 15 is a diagram conceptually showing an example of a narrowing process using a global feature amount in an individual identification system according to an embodiment.
  • FIG. 16 is a diagram conceptually showing an example of a specific process using a local feature amount in the individual identification system according to the embodiment.
  • FIG. 17 is a diagram showing an example of a parameter set in the individual identification system according to the embodiment.
  • FIG. 18 is a diagram conceptually showing an example of a positive correspondence score and a negative correspondence score in the individual identification system according to the embodiment.
  • FIG. 19 is a diagram showing an example of a combination of conditions generated by the brute force condition generation process in the individual identification system according to the embodiment.
  • FIG. 20 is a diagram showing an example of a graph generated by the optimum condition presentation process in the individual identification system according to the embodiment.
  • FIG. 21 is a diagram showing an example of display contents displayed on the display device in the feature point display process in the individual identification system according to the embodiment.
  • FIG. 22 is a first diagram showing an example of display contents displayed on the display device in the collation result display process in the individual identification system according to the embodiment.
  • FIG. 23 is a second diagram showing an example of display contents displayed on the display device in the collation result display process in the individual identification system according to the embodiment.
  • each processing unit that is, the functional block described in the present embodiment may be configured by different hardware, or may be configured to share a plurality of devices or processing units by one hardware.
  • the hardware constituting each device and each processing unit is mainly composed of a microcomputer having a storage area such as a CPU, a ROM, a RAM, and a rewritable flash memory, respectively. be able to.
  • the storage area stores an individual identification program for realizing each device and each processing unit. Then, by executing the individual identification program in the CPU, each process in each device and each processing unit can be realized.
  • each processing unit described in the present embodiment executes the computer program stored in the non-transitional substantive storage medium such as the storage area described above by the CPU to execute the processing corresponding to the computer program. It is realized, that is, it is realized by software. In addition, at least a part of each processing unit may be realized by hardware.
  • the individual identification system 1 of the present embodiment compares a plurality of registered images registered in advance with an identification image taken by a photographing device, and identifies a registered image in which the subject of the identification image is shown from among the plurality of registered images. It is a system that can do this.
  • This individual identification system 1 can be used, for example, for tracing parts in factories and the like, but is not limited thereto.
  • the individual identification system 1 includes a photographing device 10, an input device 11, a display device 12, an individual identification device 20, and an adjustment device 30.
  • the individual identification system 1 includes a registration-side photographing device 10 and an identification-side photographing device 10.
  • the registration-side photographing device 10 may be referred to as a registration-side photographing device 10a
  • the identification-side photographing device 10 may be referred to as an identification-side photographing device 10b.
  • the registration side photographing device 10a acquires an image for registration in the individual identification device 20.
  • the identification side photographing device 10b is for photographing a subject to be identified.
  • the registered image mainly means an image taken by the photographing device 10a on the registration side and registered or registered in the individual identification device 20.
  • the identification image mainly means an image taken by the photographing device 10b on the identification side.
  • the photographing device 10 includes a camera 101, a lighting 102, and a stage 103.
  • the camera 101 has a function of photographing a subject such as a work to be photographed.
  • the camera 101 is configured so that the shutter speed, the sensitivity of the image sensor, the resolution, the shooting range, the focus, and the like can be changed by an instruction from the outside.
  • the illumination 102 is for illuminating a subject, and is configured so that the brightness, luminosity, color, and the like can be changed by an instruction from the outside.
  • the stage 103 supports the camera 101 and the illumination 102, and the subject is placed on the stage 103.
  • the stage 103 is configured so that the distance, angle, that is, the posture of the camera 101 or the illumination 102 and the subject can be changed.
  • the input device 11 is an interface that accepts user operations, such as a keyboard and a mouse. The user can operate the input device 11 to make various settings for the adjusting device 30 and the individual identification device 20.
  • the display device 12 is a display capable of displaying characters, images, and the like, and can display information received from the individual identification device 20 and the adjustment device 30. By looking at the information displayed on the display device 12, the user can confirm the result of processing by the individual identification device 20 and the adjustment device 30, the setting contents, and the like.
  • the individual identification device 20 includes a photographing device 21, a feature extraction device 22, a registration processing device 23, a recording device 24, a dictionary device 25, an image matching identification device 26, a photographing condition imparting device 27, and a feature extraction condition imparting device 28.
  • the photographing device 21, the feature extraction device 22, the registration processing device 23, the recording device 24, the photographing condition imparting device 27, and the feature extraction condition imparting device 28 are provided on the registration side and the identification side, respectively.
  • the device surrounded by the broken line a is the device on the registration side
  • the device surrounded by the broken line b is the device on the identification side.
  • the device a on the registration side and the device b on the identification side may be configured with different hardware or may be configured with the same hardware. Further, the individual identification device 20 and the adjustment device 30 may be installed on a cloud server connected to a telecommunication line such as the Internet.
  • the photographing device 21 has a function of controlling the drive of the photographing device 10 and capturing and acquiring an image of the subject. As shown in FIG. 2, the photographing device 21 has a photographing processing unit 211 and an image acquisition processing unit 212.
  • the shooting processing unit 211 drives the shooting device 10 under predetermined conditions to shoot a subject.
  • the predetermined conditions for photographing the photographing device 10 are referred to as photographing conditions.
  • the shooting conditions include, for example, a shooting device condition which is a condition related to the shooting device 10 and a shooting target condition which is a condition related to a subject to be shot.
  • the shooting device conditions are mainly related to optical devices, for example, the shutter speed of the camera 101 of the shooting device 10, the sensitivity of the image sensor, the resolution, the shooting range, the focus, the magnification, the aperture, the type and brightness of the illumination 102, and the like. There are brightness, color, etc.
  • the shooting target condition is a condition relating to a shooting target, that is, a subject, and includes, for example, the posture of the subject, that is, the angle of the subject with respect to the camera 101 and the illumination 102, the distance between the camera 101 and the illumination 102, and the subject.
  • the shooting processing unit 211 can shoot the subject by driving the shooting device 10 by changing the shooting device conditions and the shooting target conditions based on the instruction content received from the shooting condition imparting device 27.
  • the image acquisition processing unit 212 can execute the image acquisition process.
  • the image acquisition process includes a process of acquiring an image of a subject photographed by the photographing device 10 and passing it to the feature extraction device 22.
  • the image acquisition processing unit 212 on the registration side a passes the image taken by the photographing device 10a as a registration image to the feature extraction device 22 on the registration side a.
  • the image acquisition processing unit 212 on the identification side b passes the image captured by the photographing device 10b as an identification image to the feature extraction device 22 on the identification side b.
  • the process of acquiring the registered image performed by the registration side a is referred to as the registration image acquisition process
  • the process of acquiring the identification image performed by the identification side b is referred to as the identification image acquisition process.
  • the image acquisition process may include a process of acquiring an image from a means other than the photographing device 10, such as acquiring an image via the Internet or a storage medium.
  • the feature extraction device 22 has a function of extracting features included in the image acquired from the photographing device 21.
  • the feature extraction device 22 has a function of calculating feature points, local feature amounts, and global feature amounts as image features.
  • the feature extraction device 22 includes a feature point extraction processing unit 221, a local feature amount calculation processing unit 222, a local feature amount group classification processing unit 223, and a global feature amount calculation processing unit 224. ..
  • the feature extraction device 22 receives the feature extraction conditions from the feature extraction condition imparting device 28 and executes the processes in the respective processing units 221 to 224.
  • the feature extraction conditions include, for example, the number of stages of the pyramid image when extracting feature points and calculating the local feature amount, and a threshold value for determining corners and curves.
  • the feature point extraction processing unit 221 can execute the feature point extraction process. As shown in FIG. 11, the feature point extraction process includes a process of extracting one or more feature points P appearing on the surface of the subject S from the image acquired by the image acquisition processing unit 212. In the case of the present embodiment, the feature point extraction process extracts, for example, thousands of feature points from one image. In this case, the feature point extraction processing unit 221 on the registration side a can extract the feature points of the registered image taken by the photographing device 10a on the registration side. Further, the feature point extraction processing unit 221 on the identification side b can extract the feature points of the identification image taken by the photographing device 10b on the identification side.
  • a non-geometric pattern such as a corner or a curve is extracted as a feature point P from the patterns appearing on the surface of the work S, and the pattern is manufactured through the same manufacturing process. It is considered that the individual can be identified even among the same type of parts. This is because, for example, geometric patterns such as straight lines and right angles that appear on the surface of parts are often patterns that appear in common to all parts of that type, and are a feature for identifying individuals among parts. It is hard to become. On the other hand, non-geometric patterns such as corners and curves are often formed by slight differences in conditions during the manufacturing process, and it is considered that many of them are unique to the individual. Therefore, the feature point extraction processing unit 221 of the present embodiment extracts a pattern of a corner or a curve that locally appears on the surface of the subject as the feature point P.
  • the feature point extraction processing unit 221 of the present embodiment uses the luminance gradient intensity distribution obtained from the image of the subject to extract corners and curves that locally appear on the surface of the subject as feature points.
  • the image has a brightness gradient and its intensity between pixels.
  • the spread of the luminance gradient intensity is small, and in the case of a linear pattern, the luminance gradient intensity spreads in a specific direction.
  • the feature point extraction processing unit 221 can extract corners and curves that serve as feature points by searching for a pattern in which the luminance gradient intensity spreads in a plurality of directions.
  • the local feature amount calculation processing unit 222 can execute the local feature amount calculation process.
  • the local feature amount calculation process includes a process of calculating the feature amount of the feature point as a local feature amount based on the brightness gradient of the peripheral region including the feature point extracted by the feature point extraction process.
  • the local feature has the coordinates of the feature point and a 256-bit binary feature. SIFT of the existing technology can be used for the calculation of the feature amount. Further, if possible, another image feature calculation algorithm such as SURF may be used.
  • SURF image feature calculation algorithm
  • the local feature amount calculation processing unit may calculate the local feature amount of the feature points obtained in each pyramid image. By doing so, it is possible to obtain a local feature amount that has scale invariance and is not easily affected by the difference in scale.
  • the local feature group classification processing unit 223 can execute the local feature group classification process.
  • the local feature group classification process is a process that is a preliminary preparation for calculating the global feature amount of the registered image and the identification image.
  • a plurality of local feature amounts A obtained by executing a local feature amount calculation process for each image are used as the local feature amount.
  • It includes a process of classifying into a predetermined number, for example, 64 to 4096 local feature amount groups B according to the value of A.
  • the local feature group classification process includes a process of clustering a large number of local feature A obtained from each image by collecting those having similar values.
  • Each element Bn constituting the local feature amount group B has at least one pair of a feature point obtained from an image and the local feature amount thereof. Note that n in Bn is an integer indicating the number of elements.
  • the local feature group classification process includes a process of classifying the local feature A obtained from each image based on the dictionary information d.
  • the dictionary information d is a typical feature amount of the feature points obtained from the learning image acquired in advance, and is prepared before the execution of the local feature amount classification process.
  • the local feature amount group classification processing unit 223 classifies the local feature amount A to be classified by applying it to the dictionary information d having a feature amount close to the local feature amount A.
  • the global feature amount calculation processing unit 224 can execute the global feature amount calculation processing.
  • the global feature calculation process includes a process of calculating a global feature based on each local feature group B obtained by the local feature separation process. As shown in FIG. 13C, the global feature calculation process calculates the frequency distribution, that is, the histogram obtained by voting for the dictionary information d having a high correlation with each local feature A obtained from the image as the global feature. Including processing. That is, the global feature amount has the local feature amount group B on the horizontal axis and the number of votes voted for each local feature amount group B on the vertical axis. By using the global feature amount calculated in this way, one image can be represented by one feature amount.
  • VLAD or BAG-OF-WORDS can be adopted as the calculation method.
  • the global feature amount calculation process is performed by, for example, calculating the vector V, which is the sum of the difference vectors from the representative value, which is the dictionary information having a high correlation with the local feature amount, as many as the number of representative values.
  • the calculation is performed, and the vector connecting them is calculated as the vector V of the global features.
  • the global feature calculation processing unit 224 applies the local feature obtained from the image to the calculation of the following equation (1) to calculate the vector V of the global feature.
  • the global feature vector V is composed of 64 128-dimensional vectors.
  • the local feature amount included in each local feature amount group B is v
  • the dictionary information is d.
  • the global feature amount dictionary generation process calculates the global feature amount as follows.
  • the global feature quantity is a vector having the number of dimensions of the dictionary information, for example, a vector V having 64 dimensions.
  • the global feature amount dictionary generation processing unit 251 searches for the closest dictionary information d for each feature amount using 64 representative dictionary information, and adds 1 to the elements of the vector V that are close to each other. As a result, the vector V becomes a histogram of the features, and the sum of the elements of the vector V has the same number of features. This vector V is used by dividing the whole by this total number and normalizing it.
  • the registration processing device 23 has a function of recording the data obtained in each processing in the recording device 24.
  • the registration processing device 23 includes a search target image registration processing unit 231, an evaluation image registration processing unit 232, a local feature amount registration processing unit 233, and a global feature amount registration processing unit 234. ..
  • the search target image registration processing unit 231 can execute the search target image registration process.
  • the search target image registration process includes a process of registering a plurality of search target images as registered images in advance in the search target image registration unit 241 of the recording device 24.
  • the evaluation image registration processing unit 232 can execute the evaluation image registration process.
  • the evaluation image registration process includes a process of registering an image used for evaluating the collation process executed by the image collation identification device 26 as an evaluation image in the evaluation image registration unit 242 of the recording device 24.
  • the evaluation image is composed of a registered image group including a plurality of registered images of different subjects, and an identification image of the same subject as one of the registered images and taken under different conditions. Has been done. In this case, there may be a plurality of identification images depending on the number of subjects and conditions. Further, the registered image obtained by photographing the same subject and the identification image are registered as an evaluation image of the recording device 24 in a state of being linked to each other by, for example, assigning the same or partially common identification number or the like. It is registered in the section 242.
  • the local feature amount registration processing unit 233 can execute the local feature amount registration process.
  • the local feature amount registration process includes a process of registering the local feature amount of the feature point extracted from the registered image by the process of the feature extraction device 22 in the local feature amount registration unit 243 of the recording device 24. Further, the local feature amount registration process includes a process of registering the local feature amount of the feature point extracted from the evaluation image by the process in the feature extraction device 22 in the local feature amount registration unit 243 of the recording device 24.
  • the local feature amount registration processing unit 233 registers the local feature amount obtained from each image in association with the image as the extraction source.
  • the global feature amount registration processing unit 234 can execute the global feature amount registration process.
  • the global feature amount registration process includes a process of registering the global feature amount related to the registered image in the global feature amount registration unit 244 of the recording device 24. Further, the global feature amount registration process includes a process of registering the global feature amount related to the evaluation image in the global feature amount registration unit 244 of the recording device 24.
  • the local feature amount registration processing unit 233 registers the global feature amount obtained from each image in association with the image as the extraction source.
  • the recording device 24 has a function of recording various data sent by each registration process of the registration processing device 23, and constitutes a database.
  • the recording device 24 can also be configured by, for example, a computer recording device constituting the individual identification device 20, an external server connected via a network line, or the like.
  • the recording device 24 includes a search target image registration unit 241, an evaluation image registration unit 242, a local feature amount registration unit 243, a global feature amount registration unit 244, and a global feature amount dictionary registration unit 245. doing.
  • the search target image registration unit 241 is a recording area for recording the search target image sent from the search target image registration processing unit 231 of the registration processing device 23.
  • the evaluation image registration unit 242 is a recording area for recording the evaluation image sent from the evaluation image registration processing unit 232 of the registration processing device 23.
  • the local feature amount registration unit 243 is a recording area for recording the local feature amount sent from the local feature amount registration processing unit 233 of the registration processing device 23.
  • the global feature amount registration unit 244 is a recording area for recording the global feature amount sent from the global feature amount registration processing unit 234 of the registration processing device 23.
  • the global feature dictionary registration unit 245 is a recording area for recording the global feature dictionary sent from the global feature dictionary registration processing unit 252 of the dictionary device 25. Before executing the search process in the image matching identification device 26, a plurality of global feature amount dictionaries having a plurality of dictionary information calculated based on the local feature amount obtained from the learning image acquired in advance are registered. ing.
  • the dictionary device 25 has a function of generating a plurality of dictionary information based on feature points extracted from a plurality of images and their local feature amounts, and generating, registering, and setting a global feature amount dictionary based on the dictionary information.
  • the dictionary device 25 has a global feature amount dictionary generation processing unit 251 and a global feature amount dictionary registration processing unit 252.
  • the global feature dictionary generation processing unit 251 can execute the global feature dictionary generation processing.
  • the global feature dictionary generation process includes, for example, a process of generating a global feature dictionary having representative values of each of the local feature groups obtained from a plurality of learning images as dictionary information.
  • the global feature dictionary generation process includes a process of setting the centroid of the local feature group as a representative value in the dictionary information.
  • the dictionary information is an element that constitutes a global feature dictionary, and a plurality of dictionary information is collected to form one global feature dictionary.
  • the global feature dictionary generation processing unit 251 can generate the global feature dictionary as follows. That is, in the global feature dictionary generation process, the global feature dictionary generation processing unit 251 first, as shown in FIGS. 14A and 14B, for example, m images for learning calculated by the feature extraction device 22. Receives local features A from T1 to Tm. Next, as shown in FIG. 14C, the global feature dictionary generation processing unit 251 receives k local features A using, for example, the k-means method, and in this case, 64 clusters, that is, local features. It is classified into groups B1 to Bk, and centroids C1 to Ck are obtained for each of the local feature group B1 to Bk.
  • the global feature dictionary generation processing unit 251 uses the centroids C1 to Ck of the local feature groups B1 to Bk obtained in this way as representative values of the local feature groups B1 to Bk as dictionary information d1.
  • Set to ⁇ dk to generate a global feature dictionary E that summarizes dictionary information d1 to dk.
  • the global feature dictionary generation processing unit 251 generates a plurality of global feature dictionaries E using different learning images T.
  • the dictionary information d1 to dk is not limited to the centroid as long as it is a value representing each local feature group B1 to Bk.
  • the global feature dictionary registration processing unit 252 can execute the global feature dictionary registration process.
  • the global feature dictionary registration process includes a process of recording a plurality of global feature dictionary Eic generated by the global feature dictionary generation process in the global feature dictionary registration unit 245 of the recording device 24.
  • the global feature dictionary E includes a plurality of dictionary information d1 to dk constituting the global feature dictionary E.
  • the image collation identification device 26 has a function of collating the registered image recorded in the recording device 24 with the identification image output from the feature extraction device 22 on the identification side and discriminating the match / mismatch of the images. As shown in FIG. 7, the image collation identification device 26 includes a search processing unit 261, a collation processing unit 262, and a result notification processing unit 263.
  • the search processing unit 261 can execute the search processing.
  • the search process is performed on the global feature amount related to the identification image sent from the feature extraction device 22 on the identification side among the global feature amounts related to the plurality of registered images recorded in the search target image registration unit 241 of the recording device 24. Includes processing to search for highly correlated items.
  • the search processing unit 261 has a narrowing down processing unit 2611 capable of executing the narrowing down process and a specific processing unit 2612 capable of executing the specific processing. That is, in the case of the present embodiment, the search process includes a narrowing process and a specific process.
  • the narrowing down processing executed by the narrowing down processing unit 2611 includes a global feature amount of the identification image from a plurality of registered images registered in the search target image registration unit 241 of the recording device 24. It includes a process of narrowing down a predetermined number of registered images having a global feature amount having a high correlation with the candidates.
  • the number of registered images registered in the search target image registration unit 241 is, for example, several thousand to several hundred thousand, the candidates for the registered image are narrowed down to, for example, several to several tens by the narrowing process.
  • the specific processing executed by the specific processing unit 2612 can be performed by using an image matching method using a local feature amount and an algorithm for verifying the consistency of the geometric arrangement of the feature points.
  • the specific processing unit 2612 compares the local feature amount of the candidate registered image extracted by the narrowing process with the local feature amount of the identification image, and pairs the feature points that minimize the difference in the feature amount from both images. Ask as.
  • the specific processing unit 2612 extracts the feature points whose relative positional relationships with the other feature points do not contradict each other as the corresponding points, and identifies the registered image having the largest number of corresponding points.
  • the narrowing-down process is a process of comparing the global feature amounts of the registered image and the identification image, it is more than a specific process of comparing all the local feature amounts included in the image. Although the accuracy is low, the amount of processing is small and high-speed processing is possible.
  • the specific process is a process of searching for corresponding points for all of the local feature quantities A of the registered image and the identification image, and thus is a narrowing-down process of comparing the global feature quantities. The amount of processing is larger and it takes more time, but the accuracy is better.
  • the search process can identify the same registered image as the identification image from a plurality of registered images at high speed and with high accuracy by executing a two-step process of a narrowing process and a specific process.
  • the collation processing unit 262 can execute the collation process.
  • the collation process is a process that does not involve searching for images, and is executed when the adjusting device 30 collates specific images in order to adjust various conditions, algorithms, parameters, and the like.
  • the collation process is executed using the same algorithm as the algorithm for collating images with each other in the search process. Therefore, the collation processing unit 262 can be a part of the search processing unit 261.
  • Various conditions, algorithms, parameters and the like adjusted by the adjusting device 30 are reflected in the search processing of the search processing unit 261.
  • the collation processing unit 262 can collate the registered image and the identification image of the same subject according to the instruction from the adjusting device 30. Further, the collation processing unit 262 can collate the registered image and the identification image in which different subjects are photographed according to the instruction from the adjusting device 30. The collation processing unit 262 outputs the corresponding points of the local feature amount between the registered image and the identification image.
  • the collation processing unit 262 can execute the collation process using the parameter set received from the collation identification condition adjusting device 32.
  • the parameter set is a combination of values that can be set for each of a plurality of parameters for setting conditions for search processing and collation processing.
  • FIG. 17 are each one parameter set.
  • the result notification processing unit 263 can execute the result notification processing.
  • the result notification process includes a process of outputting the result of the search process and the result of the collation process to the adjusting device 30 or an external device.
  • the result of the search process includes information about the identified registered image.
  • the result of the collation process includes the corresponding points.
  • the shooting condition giving device 27 has a function of giving the above-mentioned shooting conditions to the shooting device 21 in response to an instruction from the shooting condition adjusting device 31 of the adjusting device 30.
  • the feature extraction condition imparting device 28 has a function of imparting a feature extraction condition to the feature extraction device 22 in response to an instruction from the collation identification condition adjusting device 32 of the adjusting device 30.
  • the adjusting device 30 has a function of visualizing the result obtained from the image matching and identifying device 26 and displaying it on the display device 12, and receives feedback from the image matching and identifying device 26 to receive the imaging conditions and feature extraction device 22 of the photographing device 10. It has a function of adjusting various conditions, algorithms, parameters and the like used in the individual identification device 20 such as the conditions and algorithms used in the above. As shown in FIG. 1, the adjusting device 30 includes a photographing condition adjusting device 31, a collation identification condition adjusting device 32, and a visualization device 33.
  • the shooting condition adjusting device 31 adjusts various conditions when shooting a shooting target using the shooting device 10 automatically by receiving feedback from the image matching identification device 26 or manually by receiving an operation from the user. It has a function of instructing the shooting condition imparting device 27 on the conditions. The user can adjust various conditions by processing the shooting condition adjusting device 31, for example, by operating the input device 11. Further, the photographing condition adjusting device 31 has a function of automatically adjusting various conditions according to the number of feature points obtained by the processing of the feature extracting device 22. As shown in FIG. 7, the shooting condition adjusting device 31 includes a shooting device condition adjusting processing unit 311, a shooting target condition adjusting processing unit 312, a brute force condition generation processing unit 313, and an optimum condition presentation processing unit 314. ..
  • the shooting device condition adjustment processing unit 311 can execute the shooting device condition adjustment process for adjusting the shooting device conditions.
  • the conditions mainly related to the optical device for example, the shutter speed of the camera 101 of the shooting device 10, the sensitivity, the resolution, the shooting range, the focus, the brightness and the luminous intensity of the illumination 102, the color, etc. of the image sensor, etc. Is adjusted.
  • the photographing device condition adjustment processing unit 311 transmits the adjusted photographing device condition to the photographing condition imparting device 27.
  • the photographing device 21 mainly operates the camera 101 and the illumination 102 of the photographing device 10 in accordance with the photographing device conditions adjusted by the photographing device condition adjusting processing unit 311 to photograph the photographing target.
  • the shooting target condition adjustment processing unit 312 can execute the shooting target condition adjustment process for adjusting the shooting target condition, which is a condition related to the subject to be shot.
  • the shooting target condition adjustment process for example, the posture of the subject, that is, the angle of the subject with respect to the camera 101 or the illumination 102, the distance between the camera 101 or the illumination 102 and the subject, and the like are adjusted.
  • the shooting target condition adjustment processing unit 312 transmits the adjusted shooting target condition to the shooting condition imparting device 27.
  • the photographing device 21 mainly operates the stage 103 of the photographing device 10 according to the photographing target conditions adjusted by the photographing target condition adjustment processing unit 312 to photograph the photographing target.
  • the brute force condition generation processing unit 313 can execute the brute force condition generation processing.
  • the brute force condition generation process includes a process of generating a combination of a shooting target condition within a preset range and a shooting device condition within a preset range by brute force.
  • the image acquisition process executed by the image acquisition processing unit 212 of the photographing apparatus 21 includes a process of acquiring an image captured under all the conditions generated by the brute force condition generation process.
  • the image acquisition processing unit 212 can acquire a large number of images taken under different conditions, that is, a large number of images taken by waving each of the shooting target condition and the shooting device condition.
  • the lighting distance which is the distance between the subject and the lighting 102
  • the light amount setting value which is the light amount of the lighting 102
  • the brute force condition generation processing unit 313 generates all possible combinations of the illumination distance and the light amount set value by brute force. Then, the image acquisition processing unit 212 automatically shoots under the condition of this brute force combination to acquire the registered image and the identification image.
  • the optimum condition presentation processing unit 314 can execute the optimum condition presentation processing.
  • the optimum condition presentation process among the registered image and the identification image captured under all the conditions generated by the brute force condition generation process, the registered image and the identification image captured by the same subject are collated by the collation processing unit 262. Is executed, and the process of presenting the combination of the shooting target condition and the shooting device condition with a large number of corresponding points obtained by the collation process to the user as the optimum condition or automatically setting the image is included.
  • the optimum condition presentation processing unit 314 may display the optimum condition on the display device 12. As a result, the user can easily find and set the optimum combination of the shooting device condition and the shooting target condition.
  • the optimum condition presentation processing unit 314 determines the graph shown in FIG. 20, for example, from the corresponding points of the respective images.
  • the horizontal axis represents the light intensity set value, that is, Lux
  • the vertical axis represents the corresponding points to generate a graph.
  • the optimum condition presentation processing unit 314 finds a combination of conditions having a large number of corresponding points between the registered image and the identification image and having high robustness from this graph. In this case, it can be seen that the light amount setting value at the apex of the graph of A1 having the illumination distance 1 has a large number of corresponding points and is the most robust.
  • the optimum condition presentation processing unit 314 presents the light amount setting values of the vertices of the graph of A1 at the illumination distance 1 and the illumination distance 1 as the optimum conditions for the combination of the imaging target condition and the imaging device condition. In this way, the optimum condition presentation processing unit 314 presents to the user the optimum combination of the shooting target condition and the shooting device condition.
  • the optimal condition presentation processing unit 314 can also select some candidates for conditions having a large number of corresponding points and high robustness, and present these conditions to the user as recommended conditions. Further, the optimum condition presentation processing unit 314 may perform a process of displaying the graph shown in FIG. 20 on the display device 12.
  • a plurality of feature extraction conditions which are conditions related to the feature point extraction process, are prepared in advance, and the same registered image and identification image taken under all the conditions generated by the brute force condition generation process are prepared in advance. It includes a process of presenting a combination of conditions that maximizes the number of corresponding points obtained by executing a collation process using the feature points obtained by executing the feature point extraction process under a plurality of feature extraction conditions. As a result, the user can easily find and set the optimum combination of the shooting device condition and the shooting target condition including the feature extraction condition.
  • the collation identification condition adjusting device 32 has a function of tuning the parameters of the collation identification algorithm used in the search processing unit 261 and the collation processing unit 262 of the image collation identification device 26.
  • the collation identification condition adjusting device 32 receives feedback from the image collation identification device 26 and automatically or manually receives an operation from the user to manually use the conditions and parameters used in the processing of the feature extraction device 22 and the image collation identification device 26. Etc., and have a function of instructing the feature extraction device 22 and the image matching identification device 26 on the conditions and parameters thereof.
  • the collation identification condition adjusting device 32 performs collation by the collation processing unit 262 of the image collation identification device 26 using the evaluation image registered in the evaluation image registration unit 242 of the recording device 24. The collation result In this case, the conditions and parameters are adjusted according to the corresponding points.
  • the collation identification condition adjusting device 32 includes a feature extraction condition adjusting processing unit 321, a global feature amount dictionary setting processing unit 322, a global feature amount correlation coefficient calculation processing unit 323, and a parameter set generation processing unit 324. It also has a parameter set setting processing unit 325.
  • the feature extraction condition adjustment processing unit 321 can execute the feature extraction condition adjustment processing.
  • the feature extraction condition adjustment process includes a process of adjusting the feature extraction conditions used in the feature point extraction process in the feature point extraction processing unit 221 or the local feature amount calculation process in the local feature amount calculation processing unit 222.
  • the user operates the input device 11 to adjust and set the feature extraction conditions such as the number of stages of the pyramid image when extracting the feature points and calculating the local feature amount, and the threshold value for determining the corner and the curve-likeness. be able to.
  • the ratio of the positive correspondence score to the negative correspondence score is the largest for the feature extraction condition by the local feature amount calculation processing based on the result of the matching processing in the matching processing unit 262 of the image matching identification device 26.
  • the positive correspondence point refers to the same subject as the subject of the identification image among the registered image group registered in the evaluation image registration unit 242 of the recording device 24. It means the corresponding point between the captured registered image and the identification image.
  • the positive correspondence point means the number of positive correspondence points.
  • the subject S1 shown in the registered image and the subject S1 shown in the identification image are the same.
  • the negative correspondence point is a registered image obtained by photographing a subject different from the subject of the identification image among the registered image group registered in the evaluation image registration unit 242 of the recording device 24. Means the corresponding point with the identification image.
  • the number of negative correspondence points means the number of negative correspondence points.
  • the subject S2 shown in the registered image and the subject S1 shown in the identification image are different.
  • the global feature dictionary setting processing unit 322 can execute the global feature dictionary setting process.
  • the global feature dictionary setting process calculates a score for each global feature calculation statistical information, and the one with a high score is used in the local feature group classification process of the local feature group classification processing unit 223. Includes processing that is automatically set as.
  • the global feature calculation statistical information is statistical information obtained in the process of calculating the global feature by the global feature calculation process, that is, in the process of the local feature group classification process in the local feature group classification processing unit 223, and is local. It can be represented by a histogram obtained by voting for dictionary information having a high correlation with the feature amount or a score of a statistic of the correlation value. Dictionary information with a high score based on statistical information such as the number of times specific dictionary information is selected is considered to have high performance. According to the global feature dictionary setting process, it is possible to automatically select a global feature dictionary having such high-performance dictionary information.
  • the global feature dictionary setting process includes a registered image and an identification image of the same subject taken based on the global feature correlation coefficient among a plurality of global feature dictionaries registered in the global feature dictionary registration unit 245. Select a global feature amount dictionary that can judge that the registered images and the identification images of different subjects are not the same, and set it in the global feature amount dictionary used for the local feature amount group classification process. including.
  • the global feature correlation coefficient is an index showing the degree of matching of the global feature between the registered image and the identification image, that is, the performance.
  • the global feature dictionary setting process can calculate the global feature correlation coefficient as follows, and determine the performance of the global feature dictionary based on the global feature correlation coefficient. That is, the global feature dictionary setting process is the same for the values obtained by normalizing the absolute values of the two global features to 1 and taking the inner product when the two global features are vectors V, and the value of the inner product is close to 1. It is judged that the property is high, and the identity is low when the value of the inner product is close to -1.
  • one of the two global features vector Va is defined as the following equation (2)
  • the normalized global feature vector Vb is defined as the following equation (3)
  • d is defined as a natural number. do.
  • the normalized global feature vector Vb is expressed by the following equation (4) using the global feature vector Va. Then, assuming that the global feature vector Va is the following equation (5), the absolute value of the global feature vector Va is the following equation (6).
  • the global feature dictionary registration unit 245 has a high possibility that the value of the inner product obtained by Eq. (8), that is, the one whose global feature correlation coefficient is close to 1, has high identity, that is, the same subject. If the value of the inner product is close to -1, it is judged that the identity is low, that is, the possibility that the subject is the same is low.
  • the global feature dictionary setting process can calculate the global feature correlation coefficient as follows, and determine the performance of the global feature dictionary based on the global feature correlation coefficient. That is, the global feature correlation coefficient is the value of the distance between the vectors of the two global features. Then, in the global feature dictionary setting process, if the global feature correlation coefficient, which is the value of the distance between the vectors of the two global features, is close to 0, it is determined that the identity is high, and if it is large, the identity is low. Judge.
  • the global feature dictionary registration unit 245 states that if the distance between the vectors Va and Wa obtained by Eq. (12) is short, that is, close to 0, the same subject is high, that is, there is a high possibility that they are the same subject. Judgment is made, and it is judged that the ones having a large distance between the vectors Va and Wa have low identity, that is, the possibility that they are the same subject is low. At this time, the respective vectors Va and Wa do not necessarily have to be normalized.
  • the global feature amount correlation coefficient calculation processing unit 323 can execute the global feature amount correlation coefficient calculation process.
  • the global feature amount correlation coefficient calculation process includes a process of comparing the global feature amount of each registered image with the global feature amount of the identification image and calculating the global feature amount correlation coefficient showing the correlation.
  • the global feature amount correlation coefficient can be calculated by comparing the histograms of the global feature amount of each registered image and the global feature amount of the identification image.
  • the parameter set generation processing unit 324 can execute the parameter set generation processing.
  • the parameter set generation process is within the setting range defined for each parameter with respect to the parameter for setting the condition of the collation process executed by the collation processing unit 262 of the image collation identification device 26. Includes a process to generate a plurality of parameter sets by combining each parameter set in the set value.
  • the parameter set generation process generates a parameter set for all combinations of set values of each parameter.
  • the parameter set setting processing unit 325 can execute the parameter set setting process.
  • the parameter set setting process includes a process of setting a parameter set to be used in the search process of the search processing unit 261 based on the user's operation.
  • the user can, for example, operate the input device 11 to set a parameter set to be used in the search process of the search process unit 261.
  • the visualization device 33 has a function of visualizing various information such as information received from the image matching identification device 26 and information related to the adjustment results of the photographing condition adjusting device 31 and the matching identification condition adjusting device 32 and displaying the information on the display device 12.
  • the visualization includes not only characters and numerical values but also figures and graphs to be displayed on the display device 12.
  • the visualization device 33 includes a feature point display processing unit 331, a global feature amount calculation statistical information display processing unit 332, a collation result display processing unit 333, and a condition display processing unit 334.
  • the feature point display processing unit 331 can execute the feature point display process.
  • the feature point display process can be executed when various conditions and parameters are adjusted by the photographing condition adjusting device 31 and the collation identification condition adjusting device 32.
  • each feature point P extracted by executing the feature point extraction process in the feature point extraction processing unit 221 of the feature extraction device 22 is superimposed on an image and displayed on the display device. Includes the process to be displayed in 12. That is, the feature points P are superimposed and displayed on the subject S in the image. As a result, the user can visually recognize which part of the subject S in the image is extracted as a feature point. Further, as shown in FIG.
  • the feature point display process is different for each local feature amount group to which the local feature amount belongs, and in this case, for each dictionary information d to which each feature point P is clustered and applied.
  • a mode for example, a process of displaying each feature point P on the display device 12 in a different color, size, and shape is included.
  • the difference in color of each feature point P is represented by the difference in shade.
  • the global feature amount calculation statistical information display processing unit 332 can execute the global feature amount calculation statistical information display processing.
  • the global feature amount calculation statistical information display process can be executed when various conditions and parameters are adjusted by the photographing condition adjusting device 31 and the collation identification condition adjusting device 32.
  • the global feature amount calculation statistical information display process includes a process of displaying the global feature amount calculation statistical information on the display device 12.
  • the global feature calculation statistical information is statistical information obtained in the process of calculating the global feature by the global feature calculation process executed by the global feature calculation processing unit 224 of the feature extraction device 22. As shown in FIG. 21 (B), the global feature calculation statistical information display process obtains the score of the histogram or the correlation value statistic obtained by voting for the dictionary information d having a high correlation with each local feature A.
  • the process of displaying the feature amount calculation statistical information G on the display device 12 is included. That is, the global feature calculation statistical information G can be a histogram of the global feature obtained in the execution process of the global feature calculation process or a statistic score of the correlation value.
  • the collation result display processing unit 333 can execute the collation result display process.
  • the collation result display process can be executed when various conditions and parameters are adjusted by the photographing condition adjusting device 31 and the collation identification condition adjusting device 32.
  • the collation result display process includes a process of collectively visualizing the results of a plurality of collation processes executed by the collation processing unit 262 of the image collation identification device 26 and displaying them on the display device 12.
  • the collation result display process includes, for example, a process of graphing and displaying the collation result obtained by executing the collation process using each parameter set shown in FIG. 17 as shown in FIG.
  • the collation result display processing unit 333 performs collation processing not only on the images of the same subject but also on the images of different subjects. Then, the collation result display processing unit 333 calculates and graphs the positive correspondence points, which are the correspondence points between the images of the same subject, and the negative correspondence points, which are the correspondence points between the images of different subjects. Then, it is displayed on the display device 12.
  • the horizontal axis represents the condition No. and the vertical axis represents the corresponding points. Further, in FIG.
  • F1 shows a graph of positive correspondence points
  • F2 shows a graph of negative correspondence points.
  • N has the highest number of positive correspondence points and the smallest number of negative correspondence points.
  • the user can grasp at a glance the condition No. which has a large number of positive correspondence points and a small number of negative correspondence points, that is, the condition No. which has good performance.
  • the collation result display process includes a process of displaying the corresponding score evaluation information of the identification image used for collation on the display device 12 when the collation processing unit 262 of the image collation identification device 26 executes the collation process.
  • the corresponding score evaluation information is information based on the corresponding score calculated by the collation process.
  • the corresponding score may be a numerical value as it is, or may be, for example, a level or a score of a plurality of stages.
  • the collation result display processing unit 333 displays the registered image display unit 51, the true value image display area 52, the false value image display area 53, and the true value image on the screen of the display device 12.
  • the evaluation information display area 541, the true value image correlation information display area 542, the false value image evaluation information display area 551, and the false value image correlation information display area 552 are displayed.
  • the registered image display unit 51 displays one of the registered image groups registered in the evaluation image registration unit 242 of the recording device 24 among the images to be collated.
  • the identification image registered in the evaluation image registration unit 242 of the recording device 24 and the image displayed in the registered image display unit 51 are displayed.
  • the subject S1 of the image displayed on the registered image display unit 51 and the subject S1 of the image displayed on the true value image display area 52 are the same individual.
  • an image obtained by shooting the same subject as the subject of the image displayed on the registered image display unit 51 under different conditions is referred to as a true value image.
  • the registered image in which the same subject is photographed and the identification image are registered in the evaluation image registration unit 242 in a state of being linked to each other, that is, in a state of forming a pair. That is, the collation result display processing unit 333 can recognize whether the same subject is photographed or a different subject is photographed by identifying the association between the registered image and the identification image.
  • the identification image registered in the evaluation image registration unit 242 of the recording device 24 is displayed on the registered image display unit 51.
  • An image of a subject different from the subject of the image taken under different conditions is displayed.
  • the subject S1 of the image displayed on the registered image display unit 51 and the subject S2 of the image displayed on the true value image display area 52 are different individuals.
  • an image obtained by capturing a subject different from the subject of the image displayed on the registered image display unit 51 is referred to as a false value image.
  • the true value image evaluation information display area 541 the result of performing collation processing between the image displayed in the registered image display unit 51 and the image displayed in the true value image display area 52, that is, the true value.
  • the corresponding score evaluation information of the image is displayed.
  • the false value image evaluation information display area 551 the result of performing collation processing between the image displayed on the registered image display unit 51 and the image displayed on the false value image display area 53, that is, a false value.
  • the corresponding score evaluation information of the image is displayed.
  • the collation result display process includes a process of displaying information based on the global feature amount correlation coefficient on the display device 12.
  • the true value image correlation information display area 542 is composed of the global feature amount calculated from the registered image displayed on the registered image display unit 51 and the true value image displayed on the true value image display area 52.
  • the correlation coefficient with the calculated global features is displayed.
  • the false value image correlation information display area 552 the global feature amount calculated from the registered image displayed on the registered image display unit 51 and the false value image displayed on the false value image display area 53 are calculated.
  • the correlation coefficient obtained by comparing with the global feature quantity is displayed.
  • the user operates, for example, the input device 11 to perform collation processing, that is, an image to be displayed in the registered image display unit 51, the true value image display area 52, the false value image display area 53, and the true value image evaluation information display area 541. Select an image and perform matching processing on that image. Then, when the collation processing is performed, the collation result display processing unit 333 displays the corresponding score evaluation information in the true value image evaluation information display area 541 and the false value image evaluation information display area 551 as the collation result, and also displays the corresponding score evaluation information.
  • the global feature amount correlation coefficient is displayed in the true value image correlation information display area 542 and the false value image correlation information display area 552, respectively.
  • the user can use the corresponding score evaluation information displayed in the true value image evaluation information display area 541 and the false value image evaluation information display area 551, and the true value image correlation information display area 542 and the false value image correlation information display area 552.
  • the information based on the global feature correlation coefficient may be the value of the global feature correlation coefficient itself, or the level or rank that the performance is expressed in several stages by processing the global feature correlation coefficient. May be.
  • the collation result display processing unit 333 may display the positive correspondence score or the negative correspondence score of the registered image and the identification image on the display device 12, as shown in FIG. 18, for example. Further, the collation result display processing unit 333 may separately display, for example, a registered image and an identification image, that is, the feature points that each image has uniquely and the feature points that each image has in common. good. In this case, the collation result display processing unit 333 may display the feature points uniquely possessed by each image and the number or ratio of the feature points commonly possessed.
  • the collation result display processing unit 333 sets a mode for displaying only the registered image and the identification image, a mode for displaying the registered image and the identification image by adding feature points, and a feature point and a corresponding point for the registered image and the identification image.
  • the display mode may be arbitrarily switched.
  • parts manufactured in the same process such as industrial products, have extremely small differences in characteristics between individuals compared to ecological authentication such as human faces and fingerprints. Therefore, since it is necessary to collate a large number of features appearing on the surface of an individual, the amount of calculation is large and it takes time to identify, and the amount of calculation increases explosively as the number of parameters to be identified increases.
  • the individual identification system 1 includes an image acquisition processing unit 212, a feature point extraction processing unit 221, a local feature amount calculation processing unit 222, a local feature amount group classification processing unit 223, a search target image registration processing unit 231 and a global feature. It includes a quantity registration processing unit 234, a narrowing down processing unit 2611, and a specific processing unit 2612.
  • the image acquisition processing unit 212 can execute an image acquisition process for acquiring an image of a subject photographed by the photographing device 10.
  • the feature point extraction processing unit 221 can execute the feature point extraction process for extracting the feature points from the image acquired by the image acquisition process.
  • the local feature amount calculation processing unit 222 can execute a local feature amount calculation process for calculating the local feature amount of the feature points extracted by the feature point extraction process.
  • the local feature group classification processing unit 223 classifies a plurality of local features obtained by the local feature calculation process into a predetermined number, for example, 64 local feature groups according to the value of the local feature. Group classification processing can be executed.
  • the global feature calculation processing unit 224 can execute the global feature calculation process for calculating the global feature based on each local feature group.
  • the search target image registration processing unit 231 can execute the search target image registration process of registering a plurality of search target images as registered images in the search target image registration unit 241 in advance.
  • the global feature amount registration processing unit 234 can execute the global feature amount registration process for registering the global feature amount related to the registered image in the global feature amount registration unit 244. As shown in FIG.
  • the narrowing-down processing unit 2611 selects and narrows down a predetermined number of registered images having a global feature amount having a high correlation with the global feature amount of the identification image from a plurality of registered images. Is feasible. Then, as shown in FIG. 16, for example, the specific processing unit 2612 compares the local feature amount of the candidate registered image extracted by the narrowing process with the local feature amount of the identification image, and the corresponding points of the local feature amount are obtained. It is possible to execute a specific process for identifying the most registered images.
  • the narrowing-down processing unit 2611 roughly narrows down the candidate registered images by comparing the global feature amounts of the registered image and the identification image by executing the narrowing-down processing.
  • This narrowing down process requires less calculation than the specific process of comparing all the local features of each image and can be processed at a much higher speed, but the accuracy is difficult to obtain. Therefore, next, the specific processing unit 2612 identifies the target by comparing the registered image of the narrowed-down candidate with the local feature amount of the identification image by executing the specific processing.
  • This specific process requires a large amount of calculation and takes a long time as compared with the narrowing process in which the global feature amount is compared, but the accuracy is good.
  • the individual identification system 1 realizes a high-speed and highly accurate search by executing a two-step process of narrowing down by the global feature amount and specifying by the local feature amount. be able to. This is particularly effective when the population parameter of the registered image is increased.
  • the individual identification system 1 further includes at least one of a photographing device condition adjusting processing unit 311, a photographing target condition adjusting processing unit 312, and a feature extraction condition adjusting processing unit 321.
  • the shooting device condition adjustment processing unit 311 can execute the shooting device condition adjustment process for adjusting the shooting device condition, which is a condition related to the shooting device 10, based on the user's operation.
  • the shooting target condition adjustment processing unit 312 can execute the shooting target condition adjustment process for adjusting the shooting target condition, which is a condition related to the shooting target, based on the user's operation.
  • the feature extraction condition adjustment processing unit 321 can execute the feature extraction condition adjustment process for adjusting the feature extraction condition, which is a condition related to the feature point extraction process, based on the user's operation.
  • the user operates at least one of the shooting device condition adjustment processing unit 311, the shooting target condition adjustment processing unit 312, and the feature extraction condition adjustment processing unit 321 to set various conditions and parameters, that is, to perform tuning. It can be carried out.
  • the shooting device condition adjustment processing unit 311, the shooting target condition adjustment processing unit 312, and the feature extraction condition adjustment processing unit 321 to set various conditions and parameters, that is, to perform tuning. It can be carried out.
  • the surface pattern is changed in the middle of the manufacturing process, that is, even if the surface pattern changes between the time of registering the image and the time of identification, it can be flexibly dealt with, and the accuracy is high. Can be identified well.
  • the individual identification system 1 includes a global feature dictionary generation processing unit 251.
  • the global feature dictionary generation processing unit 251 performs a global feature dictionary generation process for generating a global feature dictionary having each representative value of each local feature group obtained from a plurality of learning images acquired in advance as dictionary information. It is feasible.
  • the global feature calculation process includes a process of calculating a histogram obtained by voting for dictionary information having a high correlation with each local feature as a global feature.
  • the vector obtained by summing the difference vectors between each local feature and the representative value, which is dictionary information with high correlation is calculated for the number of representative values, and the vector connecting them is calculated as the global feature. It may include the processing to be performed.
  • the global feature dictionary generation process includes a process of setting the centroid of the local feature group as a representative value in the dictionary information.
  • the centroid of the local feature group is representative of the local feature group. Therefore, by setting the centroid of the local feature group as a representative value in the dictionary information, it is possible to obtain a global feature dictionary with good performance.
  • the individual identification system 1 includes an image acquisition processing unit 212, a feature point extraction processing unit 221 and a feature point display processing unit 331.
  • the feature point display processing unit 331 can execute the feature point display process of superimposing the feature points extracted by the feature point extraction process on the image and displaying them on the display device 12.
  • the individual identification system 1 includes at least one of a photographing device condition adjusting processing unit 311, a photographing target condition adjusting processing unit 312, and a feature extraction condition adjusting processing unit 321.
  • the shooting device condition adjustment processing unit 311 can execute the shooting device condition adjustment process for adjusting the shooting device condition, which is a condition related to the shooting device 10, based on the user's operation.
  • the shooting target condition adjustment processing unit 312 can execute the shooting target condition adjustment process for adjusting the shooting target condition, which is a condition related to the shooting target, based on the user's operation.
  • the feature extraction condition adjustment processing unit 321 can execute the feature extraction condition adjustment process for adjusting the feature extraction condition, which is a condition related to the feature point extraction process, based on the user's operation.
  • the individual identification system 1 when used at a production site, some parts to be identified change with time during the manufacturing process, heat processing, etc., and the color of the surface pattern thereof changes.
  • the position and number of feature points extracted before and after the processing that is, at the time of image registration and at the time of identification, And the local feature amount may change significantly, and as a result, the identification accuracy is lowered.
  • the user can extract which part of the image as the feature point. You can check if it is. Then, the user can focus on extracting feature points from places where the color of the surface pattern is unlikely to change even after the manufacturing process, so that the feature extraction condition adjustment processing unit 321 and the imaging target condition adjustment processing unit 312, and At least one of the feature extraction condition adjustment processing unit 321 can be operated to set various conditions and parameters while checking the positions of the feature points to be extracted, that is, tuning can be performed. As a result, even if the surface pattern is changed in the middle of the manufacturing process, that is, the surface pattern changes between the time of registering the image and the time of identification, it is possible to accurately identify the image.
  • the individual identification system 1 includes a local feature amount calculation processing unit 222 and a local feature amount group classification processing unit 223. Then, as shown in FIG. 21A, the feature point display process displays the feature points in a mode different for each local feature amount group to which the local feature amount belongs, for example, a mode in which the color, size, and shape are different. The process of displaying in 12 is further included.
  • the user can grasp at a glance what kind of feature point exists in the image. This makes it easier to set various conditions and parameters while checking the positions of the extracted feature points. As a result, it is possible to more accurately identify those that are subjected to processing that changes the surface pattern in the middle of the manufacturing process.
  • the individual identification system 1 includes a global feature amount calculation processing unit 224, and further includes a global feature amount calculation statistical information display processing unit 332.
  • the global feature calculation statistical information display processing unit 332 is obtained in the local feature group classification process in the global feature calculation process by executing the global feature dictionary generation process. It is possible to execute the global feature calculation statistical information display process for displaying the feature calculation statistical information G on the display device 12.
  • the user can easily grasp what kind of global feature amount has been obtained. That is, by displaying information on which dictionary information of the area feature amount dictionary and how many votes have been voted, the user can grasp the bias of how the dictionary information of the area feature amount dictionary is selected. This makes it easier to set various conditions and parameters related to the global feature amount while looking at the displayed global feature amount calculation statistical information G. As a result, it is possible to more accurately identify those that are subjected to processing that changes the surface pattern in the middle of the manufacturing process.
  • the individual identification system 1 further includes a global feature dictionary generation processing unit 251.
  • the global feature dictionary generation processing unit 251 performs a global feature dictionary generation process for generating a global feature dictionary having each representative value of each local feature group obtained from a plurality of learning images acquired in advance as dictionary information. It is feasible. Then, in the global feature calculation statistical information display processing, as shown in FIG. 13, in the calculation process of the global feature, the histogram or the statistic of the correlation value obtained by voting for the dictionary information d having a high correlation with each local feature. As shown in FIG. 21, the score is displayed on the display device 12 as the global feature amount calculation statistical information G.
  • the user can easily grasp the global feature amount visually and intuitively. This makes it easier to set various conditions and parameters related to the global feature amount while looking at the displayed global feature amount calculation statistical information G. As a result, it is possible to more accurately identify those that are subjected to processing that changes the surface pattern in the middle of the manufacturing process.
  • the individual identification system 1 further includes a global feature dictionary setting processing unit 322.
  • the global feature dictionary setting processing unit 322 calculates a score for each global feature calculation statistical information, and automatically sets a score with a high score as a global feature dictionary to be used in the local feature group classification process. Dictionary setting processing can be executed.
  • the individual identification system 1 of this configuration When the individual identification system 1 of this configuration is used in, for example, a factory, it is assumed that the acquisition of the registered image and the acquisition of the identification image are performed in different places. In this case, dust generated in the factory, lighting in the factory, natural light such as outside light, ambient noise sources, etc. become factors of disturbance, and the shooting environment between the shooting of the registered image and the shooting of the identification image changes significantly. there is a possibility. Then, the extracted feature points, local feature amounts, and the like may change, and the discrimination performance may deteriorate.
  • the individual identification system 1 having this configuration includes an image acquisition processing unit 212, a feature point extraction processing unit 221, a local feature amount calculation processing unit 222, a shooting target condition adjustment processing unit 312, and a shooting device condition adjustment processing unit. 311 and.
  • the user operates the shooting target condition adjustment processing unit 312 and the shooting device condition adjustment processing unit 311 to determine the shooting target condition and the shooting device condition suitable for extracting the feature points and calculating the local feature amount.
  • the individual identification device 20 further includes a brute force condition generation processing unit 313.
  • the brute force condition generation processing unit 313 can execute a brute force condition generation process that generates a combination of a shooting target condition within a preset range and a shooting device condition within a preset range by brute force. Then, the image acquisition process includes a process of automatically acquiring an image obtained by capturing all the conditions generated by the brute force condition generation process.
  • the individual identification device 20 further includes an optimum condition presentation processing unit 314.
  • the optimal condition presentation processing unit 314 has a large number of corresponding points between the registered image obtained by capturing the same subject and the identification image among the registered images and identification images captured under all the conditions generated by the brute force condition generation process. It is possible to execute an optimum condition presentation process that presents a combination of a shooting target condition and a shooting device condition as an optimum condition. According to this, since the user can easily acquire and set the optimum conditions having a large number of feature points, it is possible to further reduce the time and effort for adjusting the conditions of the shooting target condition and the shooting device condition. Further, since the optimum combination of the shooting target condition and the shooting device condition can be easily set, the identification performance can be improved.
  • a plurality of feature extraction conditions which are conditions related to the feature point extraction process, are prepared in advance, and a registered image and an identification image in which the same subject is photographed under all the conditions generated by the brute force condition generation process are prepared in advance. It includes a process of presenting a combination of conditions that maximizes the number of corresponding points when collating using the feature points obtained by executing the feature point extraction process under a plurality of feature extraction conditions. According to this, the user can easily acquire the optimum condition among the combination with the feature extraction condition related to the feature point extraction process in addition to the conditions of the shooting target condition and the shooting device condition.
  • the identification performance can be further improved.
  • the individual identification system 1 includes a feature point extraction processing unit 221 and a local feature amount calculation processing unit 222. Further, the individual identification system 1 further includes a collation processing unit 262, a parameter set generation processing unit 324, and a parameter set setting processing unit 325.
  • the collation processing unit 262 can execute a collation process of comparing the local feature amounts of the registered image and the identification image, acquiring the corresponding points of the feature points, and collating the registered image with the identification image.
  • the parameter set generation processing unit 324 generates a plurality of parameter sets by combining each parameter set in the set value within the setting range defined for each parameter with respect to the parameter for setting the condition of the collation process. The generation process can be executed.
  • the parameter set setting processing unit 325 can execute the parameter set setting process for setting the parameter set based on the user's operation.
  • the collation process includes a process of executing a collation process using each parameter set generated in the parameter set generation process.
  • the individual identification system 1 further includes a collation result display processing unit 333.
  • the collation result display processing unit 333 can execute the collation result display process of collectively displaying the collation results when the collation process is executed using each parameter set on the display device 12.
  • a parameter set that is a combination of parameters is automatically generated, and collation processing is performed using each parameter set. Therefore, the user does not have to manually create a combination of parameters and perform collation. Then, the collation results are collectively displayed on the display device 12. Therefore, the user can confirm the performance of each parameter set by looking at the result displayed on the display device 12. Then, the user may select an appropriate parameter set by looking at the result displayed on the display device 12. Thereby, regardless of the type of the target to be collated and identified, the parameters of the algorithm used for collation and identification can be easily and accurately adjusted without hassle.
  • the collation result display process includes a process of graphing and displaying the collation result obtained by executing the collation process using each parameter set. It is easy to visually and intuitively grasp the one with good performance among multiple parameter sets. As a result, it is possible to easily perform the parameter adjustment work with high accuracy.
  • the individual identification system 1 further includes an evaluation image registration processing unit 232.
  • the evaluation image registration processing unit 232 includes a registered image group including a plurality of registered images in which different subjects are photographed, and an identification image captured in the same subject as one of the registered image groups under different conditions. It is possible to execute the evaluation image registration process of registering the images in the evaluation image registration unit 242 in a state of being linked to each other as the evaluation images of the collation process.
  • the user does not have to take an image each time when evaluating the parameter set.
  • the parameter set can be easily evaluated.
  • the registered image and the identification image obtained by photographing the same subject are registered in a state of being linked to each other. Therefore, when the collation process is executed using the registered image and the identification image, it becomes clear in advance whether the registered image and the identification image correspond to each other, that is, whether the same subject is photographed or a different subject is photographed. ing.
  • an image having a clear correspondence it is possible to clarify the result desired in the collation process, and the user can easily evaluate the parameter set used in the collation process.
  • the collation process is executed using the registered image and the identification image in which the same subject is photographed, the collation process is executed using the registered image and the identification image in which the corresponding points are large and different subjects are photographed.
  • the number of corresponding points is small, the user can evaluate that the performance of the parameter set used for the collation process is high.
  • the collation process is executed using the registered image and the identification image in which the same subject is photographed, the number of corresponding points is small, or the collation process is executed using the registered image and the identification image in which different subjects are photographed. If the number of corresponding points is small, the user can evaluate that the performance of the parameter set used for the collation process is low.
  • the collation process includes a process of collating one or more registered images included in the registered image group with the identification image.
  • the collation result display process includes a process of displaying the corresponding score evaluation information based on the corresponding score calculated in the collation process on the display device 12. According to this, the user can easily evaluate the performance of the parameter set by looking at the corresponding score evaluation information displayed on the display device 12, and thereby the appropriate parameters according to the type of the target to be collated and identified. You can select a set. As a result, high collation and identification performance can be exhibited regardless of the type of object.
  • the individual identification device 20 further includes a feature extraction condition adjustment processing unit 321.
  • the feature extraction condition adjustment processing unit 321 can execute the feature extraction condition adjustment processing.
  • the feature extraction condition adjustment process is different from the positive correspondence score, which is the corresponding score between the registered image and the identification image obtained by shooting the same subject as the subject of the identification image in the registered image group, and the subject of the identification image in the registered image group. It includes a process of calculating a negative correspondence score, which is a correspondence score between a registered image in which a subject is photographed and an identification image. Then, the feature extraction condition adjustment process includes a process of adjusting the feature extraction condition by the local feature amount calculation process so that the ratio of the positive correspondence score and the negative correspondence score becomes the largest.
  • the feature extraction condition adjustment processing unit 321 searches for a feature extraction condition having a large number of positive correspondence points and a small number of negative correspondence points so that the ratio of the positive correspondence points to the negative correspondence points is the largest.
  • a large number of positive correspondence points means a large number of correspondence points between images of the same subject. This means that in the collation process between images of the same subject, it is determined that the subjects included in the images are likely to be the same, that is, identification between images of the same subject. It means that the performance is high. Further, the fact that the number of negative correspondence points is small means that the number of correspondence points between images of different subjects is small. This means that in the collation process between images of different subjects, it is highly likely that the subjects included in the images are different, that is, the discrimination performance between the images of different subjects is high. Means.
  • the feature extraction condition adjustment processing unit 321 automatically adjusts the feature extraction conditions so that the collation and identification performance between the images of the same subject and the images of different subjects is improved. It is possible to save the user's trouble of adjustment while obtaining high collation identification performance.
  • the individual identification system 1 includes a local feature amount group classification processing unit 223 and a global feature amount calculation processing unit 224.
  • the individual identification system 1 further includes a global feature amount correlation coefficient calculation processing unit 323.
  • the global feature amount correlation coefficient calculation processing unit 323 compares the global feature amount of each registered image with the global feature amount of the identification image, and calculates the global feature amount correlation coefficient showing the correlation. Calculation processing can be executed. Then, the collation result display process includes a process of displaying information based on the global feature amount correlation coefficient on the display device 12.
  • the global feature amount correlation coefficient is one index showing the degree of matching of the global feature amount between the registered image and the identification image, that is, the performance.
  • the individual identification system 1 further includes a global feature dictionary registration unit 245 and a global feature dictionary setting processing unit 322.
  • the global feature dictionary setting processing unit 322 can execute the global feature dictionary setting process.
  • the global feature dictionary setting process selects a registered image and an identification image of the same subject based on the global feature correlation coefficient among a plurality of global feature dictionaries registered in the global feature dictionary registration unit 245. This includes a process of selecting a global feature amount dictionary that can be judged to be the same and that can determine that the registered image and the identification image obtained by capturing different subjects are not the same, and setting the global feature amount dictionary to be used for the local feature amount group classification process.
  • the global feature amount correlation coefficient is one index showing the degree of coincidence of the correlation between the registered image and the identification image.
  • the global feature dictionary setting process automatically sets a global feature dictionary with high performance between images of the same subject and high performance between images of different subjects. be able to. Therefore, the time and effort of the user's adjustment can be saved, and high collation identification performance can be obtained.
  • the global feature dictionary setting process when two global features are vectors, the absolute value is normalized to 1 and the inner product is taken, and the value of the inner product is close to 1 and the identity is high. It may include a process of determining that the value of the inner product is close to -1 and that the identity is low. Further, the global feature correlation coefficient can be a value of the distance between the vectors of the two global features. In this case, the global feature dictionary setting process includes a process of determining that the identity is high when the value of the distance between the vectors of the two global features is close to 0, and determining that the identity is low when the value is large. According to these configurations, the performance of the global feature dictionary can be quantitatively evaluated.
  • the individual identification system 1 includes an individual identification device 20 having an image acquisition processing unit 212, a feature point extraction processing unit 221 and a specific processing unit 2612.
  • the individual identification system 1 includes at least two of the visualization device 33, the photographing condition adjusting device 31, and the collation identification condition adjusting device 32.
  • the visualization device 33 has a feature point display processing unit 331.
  • the feature point display processing unit 331 can execute the feature point display process of superimposing the feature points extracted by the feature point extraction process on the image and displaying them on the display device 12.
  • the shooting condition adjusting device 31 compares the local feature amounts in the registered image and the identification image obtained by shooting the same subject among the plurality of registered images registered in advance, acquires the corresponding points of the feature points, and acquires the corresponding points of the feature points, and the registered image and the identification image.
  • the individual identification device 20 is made to execute the collation process for collating with the image, and the image capture target condition adjustment processing unit 312 and the image capture condition adjustment device 31 are provided.
  • the shooting target condition adjustment processing unit 312 can execute the shooting target condition adjustment process for adjusting the shooting target condition, which is a condition related to the shooting target.
  • the shooting device condition adjustment processing unit 311 can execute the shooting device condition adjustment process for adjusting the shooting device condition, which is a condition related to the shooting device 10.
  • the collation identification condition adjusting device 32 has a parameter set generation processing unit 324 and a parameter set setting processing unit 325.
  • the parameter set generation processing unit 324 generates a parameter set for generating a plurality of parameter sets by combining the parameters set in the set values within the range defined for each parameter with respect to the parameters for setting the conditions of the collation processing. Processing can be executed.
  • the parameter set setting processing unit 325 can execute the parameter set setting process for setting the parameter set based on the user's operation.
  • the collation identification condition adjusting device 32 causes the collation processing unit 262 to execute a process of executing the collation process using each parameter set generated in the parameter set generation process.
  • the collation identification condition adjusting device 32 further has a collation result display processing unit 333 capable of executing the collation result display process of collectively displaying the collation results of the collation process on the display device 12 using the parameter set.
  • the individual identification system 1 includes the visualization device 33, the feature points extracted by the feature point extraction process are superimposed on the image and displayed on the display device 12, so that the user can use which part of the image as the feature point. You can check if it is extracted. Then, the user sets various conditions and parameters while checking the positions of the extracted feature points so that the feature points can be extracted mainly in the places where the surface pattern is hard to change even in the manufacturing process, that is, tuning is performed. Can be done. As a result, even if the surface pattern is changed in the middle of the manufacturing process, that is, even if the surface pattern changes between the time of registering the image and the time of identification, it is possible to accurately identify the image. Excellent effect can be obtained.
  • the user operates the shooting target condition adjusting processing unit 312 and the shooting device condition adjusting processing unit 311 to extract feature points and calculate local feature quantities. Suitable shooting target conditions and shooting device conditions can be adjusted. Therefore, by setting appropriate conditions according to changes in the environment, the influence of disturbance can be reduced, and the characteristic pattern can be appropriately highlighted. As a result, an excellent effect such as being able to improve the identification accuracy can be obtained.
  • the individual identification system 1 is provided with the collation identification condition adjusting device 32, the user does not have to manually create a combination of parameters and perform collation. Then, the collation results are collectively displayed on the display device 12. Therefore, the user can confirm the performance of each parameter set by looking at the result displayed on the display device 12. Then, the user may select an appropriate parameter set by looking at the result displayed on the display device 12. As a result, regardless of the type of the target to be collated and identified, it is possible to obtain an excellent effect that the parameters of the algorithm used for collation and identification can be easily and effortlessly adjusted with high accuracy.
  • the individual identification system 1 is provided with at least two of the visualization device 33, the photographing condition adjusting device 31, and the collation identification condition adjusting device 32 at the same time, so that two or more of the above-mentioned excellent effects of each device can be simultaneously obtained.
  • Obtainable it is possible to respond to changes in the surface pattern of the identification target, make it less susceptible to disturbances, reduce the user's time and effort required to adjust the conditions and parameters, and improve the accuracy of the conditions and parameters.
  • the performance of collation identification can be improved.
  • the individual identification system 1 includes a visualization device 33, a photographing condition adjusting device 31, and a collation identification condition adjusting device 32. According to this, by simultaneously providing the visualization device 33, the photographing condition adjusting device 31, and the collation identification condition adjusting device 32, all the excellent effects of the above-mentioned devices can be obtained at the same time. That is, according to this individual identification system 1, it is possible to respond to changes in the surface shape of the identification target, make adjustments that are not easily affected by disturbances, and further reduce the user's labor required for adjusting conditions and parameters. Can be done.
  • the search processing unit 261 further has a narrowing down processing unit 2611 capable of executing the narrowing down processing.
  • a narrowing down processing unit 2611 capable of executing the narrowing down processing.
  • a predetermined number of registered images having a global feature amount having a high correlation with the global feature amount of the identification image are selected as candidates in the specific process from among a plurality of registered images registered in the search target image registration unit 241. Includes narrowing down processing.
  • the search process can realize a high-speed search by executing a two-step process of narrowing down by the global feature amount and the specific process specifying by the local feature amount.
  • the individual identification system 1 of the present configuration as a result, it is possible to realize a search with high collation identification performance and high speed.
  • the controls and methods thereof described in the present disclosure are realized by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. May be done.
  • the controls and methods thereof described in the present disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits.
  • the control unit and method thereof described in the present disclosure may be a combination of a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured.
  • the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

個体識別システム(1)は、撮影機器(10)によって撮影した識別対象の画像をそれぞれ登録画像及び識別画像として取得する画像取得処理を実行可能な画像取得処理部(212)と、画像取得処理で取得した登録画像及び識別画像に含まれる特徴点を抽出する特徴点抽出処理を実行可能な特徴点抽出処理部(221)と、特徴点抽出処理で抽出された特徴点の局所特徴量を計算する局所特徴量計算処理を実行可能な局所特徴量計算処理部(222)と、撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能な撮影対象条件調整処理部(312)と、撮影機器に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能な撮影機器条件調整処理部(311)と、を備える。

Description

個体識別システム 関連出願の相互参照
 本出願は、2020年4月30日に出願された日本出願番号2020-080321号に基づくもので、ここにその記載内容を援用する。
 本開示の実施形態は、個体表面に表れる個体固有の模様いわゆる個体指紋に基づいて個体を識別することができる個体識別システムに関する。
 近年、例えば工業製品等は生産後の流通過程だけでなく生産過程においても高いトレーサビリティが要求されるようになっている。例えば同一工程でかつ同一ロットで生産された同一種類の部品であっても、その性能に通常の使用には何ら問題ない程度の僅かな違いを有していることがある。製品の生産過程において、このような部品1個1個の僅かな特性の違いも考慮に入れて最適な組み合わせで製品を製造することができれば、その製品の性能を向上させることができるからである。
 また、従来の生産工程では、部品の加工条件等と検査結果とが紐付けされていないため、検査結果を加工条件等に反映させることが難しかった。これに対し、生産過程において部品1個単位で追跡することができれば、検査結果を加工条件等に適切に反映させることができ、その結果、不良の低減や品質・性能を更に向上させることができる。
 従来、製品等の追跡管理する手法としては、例えば二次元コードやRFIDを用いるものがある。しかしながら、二次元コードやRFIDは、印字や貼り付けのコストが高い。そのため、製品を構成する多数の部品1個1個に対して、二次元コードやRFIDを付与することは経済的に考えても実現困難である。
 そこで、個々の個体が固有に有する表面形状を用いて個体を識別する技術が注目されている。このような物体の表面形状や模様であれば、二次元コードやRFID等を付与する必要がないため、部品1個1個の追跡管理も低コストで実現できる。
特開2012-103758号公報 特開2012-181566号公報
 しかしながら、工場内においては粉塵や工場内の照明、外光等の自然光、周囲のノイズ源等が外乱の要因となって、登録画像の撮影と識別画像の撮影との撮影環境が大きく変わる可能性がある。すると、抽出される特徴点や局所特徴量等が変わり、識別性能が低下するおそれがある。
 本開示は上記課題を鑑みてなされたものであり、その目的は、環境の変化に応じて適切な条件を設定して外乱の影響を低減させ、特徴としたい模様を適切に浮かび上がらせることで、識別精度の向上を図ることができる個体識別システムを提供することにある。
 本開示の一態様において、個体識別システムは、登録側及び識別側の撮影機器によって撮影した識別対象の画像をそれぞれ登録画像及び識別画像として取得する画像取得処理を実行可能な画像取得処理部と、前記画像取得処理で取得した前記登録画像及び前記識別画像に含まれる特徴点を抽出する特徴点抽出処理を実行可能な特徴点抽出処理部と、前記特徴点抽出処理で抽出された前記特徴点の局所特徴量を計算する局所特徴量計算処理を実行可能な局所特徴量計算処理部と、撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能な撮影対象条件調整処理部と、前記撮影機器に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能な撮影機器条件調整処理部と、を備える。
 これによれば、ユーザは、撮影対象条件調整処理部と撮影機器条件調整処理部とを操作して、特徴点の抽出及び局所特徴量の計算に適した撮影対象条件及び撮影機器条件を調整することができる。そのため、環境の変化に応じて適切な条件を設定することにより、外乱の影響を低減させることができ、特徴としたい模様を適切に浮かび上がらせることができる。その結果、識別精度を向上させることができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、一実施形態による個体識別システムの概略構成の一例を示すブロック図であり、 図2は、一実施形態による個体識別システムが備える撮影装置の概略構成の一例を示すブロック図であり、 図3は、一実施形態による個体識別システムが備える特徴抽出装置の概略構成の一例を示すブロック図であり、 図4は、一実施形態による個体識別システムが備える登録処理装置の概略構成の一例を示すブロック図であり、 図5は、一実施形態による個体識別システムが備える記録装置の概略構成の一例を示すブロック図であり、 図6は、一実施形態による個体識別システムが備える辞書装置の概略構成の一例を示すブロック図であり、 図7は、一実施形態による個体識別システムが備える画像照合識別装置の概略構成の一例を示すブロック図であり、 図8は、一実施形態による個体識別システムが備える撮影条件調整装置の概略構成の一例を示すブロック図であり、 図9は、一実施形態による個体識別システムが備える照合識別条件調整装置の概略構成の一例を示すブロック図であり、 図10は、一実施形態による個体識別システムが備える可視化装置の概略構成の一例を示すブロック図であり、 図11は、一実施形態による個体識別システムにおいて特徴点抽出処理の実行結果の一例を示す第1の図であり、 図12は、一実施形態による個体識別システムにおいて特徴点抽出処理の実行結果の一例を示す第2の図であり、 図13は、一実施形態による個体識別システムにおいて局所特徴量から大域特徴量を計算する手法の一例を概念的に示す図であり、 図14は、一実施形態による個体識別システムにおいて大域特徴量辞書の生成方法の一例を概念的に示す図であり、 図15は、一実施形態による個体識別システムにおいて大域特徴量を用いた絞り込み処理の一例を概念的に示す図であり、 図16は、一実施形態による個体識別システムにおいて局所特徴量を用いた特定処理の一例を概念的に示す図であり、 図17は、一実施形態による個体識別システムにおいてパラメータセットの一例を示す図であり、 図18は、一実施形態による個体識別システムにおいて正対応点数と負対応点数の一例を概念的に示す図であり、 図19は、一実施形態による個体識別システムにおいて総当たり条件生成処理で生成される条件の組み合わせの一例を示す図であり、 図20は、一実施形態による個体識別システムにおいて最適条件提示処理で生成されるグラフの一例を示す図であり、 図21は、一実施形態による個体識別システムにおいて特徴点表示処理で表示装置に表示される表示内容の一例を示す図であり、 図22は、一実施形態による個体識別システムにおいて照合結果表示処理で表示装置に表示される表示内容の一例を示す第1の図であり、 図23は、一実施形態による個体識別システムにおいて照合結果表示処理で表示装置に表示される表示内容の一例を示す第2の図である。
 以下では、一実施形態について図面を参照しながら説明する。なお、各ブロック図における矢印はデータの流れを示す。本実施形態で説明する各処理部つまり機能ブロックは、それぞれ異なるハードウェアで構成することもできるし、1つのハードウェアで複数の装置又は処理部を共用する構成としても良い。また、詳細は図示しないが、各装置及び各処理部を構成するハードウェアは、それぞれ例えばCPUや、ROM、RAM、及び書き換え可能なフラッシュメモリなどの記憶領域を有するマイクロコンピュータを主体に構成さすることができる。記憶領域は、各装置及び各処理部を実現するための個体識別プログラムを記憶している。そして、CPUにおいて個体識別プログラムを実行することにより、各装置及び各処理部における各処理を実現することができる。
 すなわち、本実施形態で説明する各処理部は、CPUが上述した記憶領域等の非遷移的実体的記憶媒体に格納されているコンピュータプログラムを実行してコンピュータプログラムに対応する処理を実行することにより実現されている、つまりソフトウェアにより実現されている。なお、各処理部のうち少なくとも一部をハードウェアにより実現する構成としてもよい。
 本実施形態の個体識別システム1は、予め登録された複数の登録画像と撮影機器で撮影した識別画像とを比較し、複数の登録画像の中から識別画像の被写体が写っている登録画像を識別するこができるシステムである。この個体識別システム1は、例えば工場等における部品のトレースに用いることができるが、これに限られない。
 個体識別システム1は、図1に示すように、撮影機器10、入力装置11、表示装置12、個体識別装置20、及び調整装置30を備えている。本実施形態の場合、個体識別システム1は、登録側の撮影機器10と識別側の撮影機器10とを備えている。以下の説明において、これらを区別する場合は、登録側の撮影機器10を登録側撮影機器10aと称し、識別側の撮影機器10を識別側撮影機器10bと称することがある。本実施形態において、登録側撮影機器10aは、個体識別装置20に登録するための画像を撮影する。また、識別側撮影機器10bは、識別しようとしている被写体を撮影するためのものである。そして、本実施形態において、登録画像とは、主として登録側の撮影機器10aで撮影されて個体識別装置20に登録される又は登録されている画像を意味する。また、識別画像とは、主として識別側の撮影機器10bで撮影された画像を意味する。
 撮影機器10は、カメラ101、照明102、及びステージ103を有して構成されている。カメラ101は、ワーク等の撮影対象となる被写体を撮影する機能を有する。カメラ101は、外部からの指示により、シャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点等を変更可能に構成されている。照明102は、被写体を照明するためのものであり、外部からの指示により、輝度や光度、色彩等を変更可能に構成されている。そして、ステージ103は、カメラ101や照明102を支持するとともに、被写体が載置されるものであり、カメラ101や照明102と被写体との距離や角度つまり姿勢を変更可能に構成されている。
 入力装置11は、ユーザの操作を受け付けるインタフェースであり、例えばキーボードやマウス等である。ユーザは、入力装置11を操作して調整装置30や個体識別装置20に対して各種の設定等を行うことができる。表示装置12は、文字や画像等の表示が可能なディスプレイであり、個体識別装置20や調整装置30から受信した情報を表示することができる。ユーザは、表示装置12に表示された情報を見ることで、個体識別装置20や調整装置30による処理の結果や設定内容等を確認することができる
 個体識別装置20は、撮影装置21、特徴抽出装置22、登録処理装置23、記録装置24、辞書装置25、画像照合識別装置26、撮影条件付与装置27、及び特徴抽出条件付与装置28を有している。本実施形態の場合、撮影装置21、特徴抽出装置22、登録処理装置23、記録装置24、撮影条件付与装置27、及び特徴抽出条件付与装置28は、登録側と識別側とにそれぞれ設けられている。この場合、破線aで囲われた装置が登録側の装置となり、破線bで囲われた装置が識別側の装置となる。なお、登録側の装置aと識別側の装置bとは、異なるハードウェアで構成しても良いし、同一のハードウェアで構成しても良い。また、個体識別装置20及び調整装置30は、インターネット等の電気通信回線に接続されたクラウドサーバー上に設置されていても良い。
 撮影装置21は、撮影機器10の駆動を制御し、被写体の画像を撮影して取得する機能を有する。撮影装置21は、図2に示すように、撮影処理部211及び画像取得処理部212を有している。撮影処理部211は、撮影機器10を所定の条件で駆動させて被写体を撮影する。この場合、撮影機器10を撮影する際の所定の条件を、撮影条件と称する。撮影条件は、例えば撮影機器10に関する条件である撮影機器条件と、撮影対象となる被写体に関する条件である撮影対象条件とを含む。
 撮影機器条件は、主に光学機器に関する条件であり、例えば撮影機器10が有するカメラ101のシャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点、倍率、絞り、照明102の種類や輝度、光度、色彩等がある。撮影対象条件は、撮影対象つまり被写体に関する条件であり、例えば被写体の姿勢つまりカメラ101や照明102に対する被写体の角度や、カメラ101や照明102と被写体との距離等がある。
 撮影処理部211は、撮影条件付与装置27から受けた指示内容に基づいて撮影機器条件や撮影対象条件を変えて撮影機器10を駆動させて、被写体を撮影することができる。
 画像取得処理部212は、画像取得処理を実行可能である。画像取得処理は、撮影機器10で撮影した被写体の画像を取得して特徴抽出装置22に渡す処理を含む。本実施形態の場合、登録側aの画像取得処理部212は、撮影機器10aで撮影した画像を登録画像として登録側aの特徴抽出装置22に渡す。また、識別側bの画像取得処理部212は、撮影機器10bで撮影した画像を識別画像として識別側bの特徴抽出装置22に渡す。本実施形態において、画像取得処理のうち、登録側aで行われる登録画像を取得する処理を登録画像取得処理と称し、識別側bで行われる識別画像を取得する処理を識別画像取得処理と称することがある。なお、画像取得処理は、例えばインターネット経由や記憶媒体を介して画像を取得する等、撮影機器10以外の手段から画像を取得する処理を含んでいても良い。
 特徴抽出装置22は、撮影装置21から取得した画像に含まれる特徴を抽出する機能を有する。特徴抽出装置22は、画像の特徴として、特徴点、局所特徴量、及び大域特徴量を計算する機能を有する。特徴抽出装置22は、図3に示すように、特徴点抽出処理部221、局所特徴量計算処理部222、局所特徴量群分類処理部223、及び大域特徴量計算処理部224を有している。特徴抽出装置22は、特徴抽出条件付与装置28から特徴抽出条件を受けて、各処理部221~224における処理を実行する。特徴抽出条件には、例えば特徴点を抽出し局所特徴量を計算する際のピラミッド画像の段数、及びコーナーやカーブらしさを決定するための閾値等が含まれる。
 特徴点抽出処理部221は、特徴点抽出処理を実行可能である。特徴点抽出処理は、図11に示すように、画像取得処理部212で取得した画像から、被写体Sの表面に表れている1つ以上の特徴点Pを抽出する処理を含む。本実施形態の場合、特徴点抽出処理は、1枚の画像から例えば数千点の特徴点を抽出する。この場合、登録側aの特徴点抽出処理部221は、登録側の撮影機器10aで撮影された登録画像の特徴点を抽出することができる。また、識別側bの特徴点抽出処理部221は、識別側の撮影機器10bで撮影した識別画像の特徴点を抽出することができる。
 ここで、例えば図12に示すように、ワークSの表面に表れる模様のうちコーナーやカーブ等のような幾何学的でない模様を特徴点Pとして抽出することで、同じ製造工程を経て製造された同一種類の部品間でもその個体を識別できると考えられる。これは、例えば部品等の表面に表れる直線や直角等の幾何学的な模様は、その種類の部品全体に共通して表れる模様であることが多く、部品間で個体の識別を行うための特徴にはなり難い。一方、コーナーやカーブ等の幾何学的でない模様は、製造過程における極僅かな条件の違いによって出来るものであることが多く、その個体固有のものが多いからであると考えられる。そのため、本実施形態の特徴点抽出処理部221は、特徴点Pとして被写体の表面に局所的に表れるコーナーやカーブの模様を抽出する。
 本実施形態の特徴点抽出処理部221は、被写体の画像から得られた輝度勾配強度分布を用いて、被写体の表面に局所的に表れるコーナーやカーブを特徴点として抽出する。画像はピクセル間で輝度の勾配とその強度を有している。均一な模様である場合、輝度勾配強度の広がりが小さく、また、直線的な模様の場合、輝度勾配強度は特定の方向へ広がる。一方、コーナーやカーブを伴う模様の場合、輝度勾配強度は複数方向へ広がる。このため、特徴点抽出処理部221は、輝度勾配強度が複数方向へ広がる模様を探すことで、特徴点となるコーナーやカーブを抽出することができる。
 局所特徴量計算処理部222は、局所特徴量計算処を実行可能である。局所特徴量計算処理は、特徴点抽出処理で抽出された特徴点を含む周辺の領域の輝度勾配に基づいて特徴点の特徴量を局所特徴量として計算する処理を含む。局所特徴量は、特徴点の座標と256ビットのバイナリ特徴量を有している。特徴量の計算には、既存技術のSIFTを用いることができる。また、可能であれば、他のSURFなどの画像特徴量計算アルゴリズムを用いてもよい。特徴点抽出処理は、画像を多段階に縮小したピラミッド画像を求め、各縮尺の画像に対して同一の条件で、それぞれ独立に特徴点を抽出しても良い。そして、局所特徴量計算処理部は、各ピラミッド画像で得られた特徴点の局所特徴量を計算しても良い。こうすることで、スケール不変性を有し、スケールの相違に影響を受け難い局所特徴量を求めることができる。
 局所特徴量群分類処理部223は、局所特徴量群分類処理を実行可能である。局所特徴量群分類処理は、登録画像及び識別画像の大域特徴量を計算するための事前準備となる処理である。局所特徴量群分類処理は、例えば図13の(A)、(B)で示すように、各画像について局所特徴量計算処理を実行して得られた複数の局所特徴量Aをその局所特徴量Aの値に応じて所定数例えば64~4096個の局所特徴量群Bに分類する処理を含む。換言すれば、局所特徴量群分類処理は、各画像から得られた多数の局所特徴量Aを、その値が似ている者同士を集めてクラスタリングする処理を含む。局所特徴量群Bを構成するそれぞれの要素Bnは、画像から得られる特徴点及びその局所特徴量のペアを少なくとも1つ以上有している。なお、Bnのnは、要素の数を示す整数である。
 局所特徴量群分類処理は、各画像から得られた局所特徴量Aを辞書情報dに基づいて分類する処理を含む。辞書情報dは、予め取得した学習用画像から求めた特徴点の特徴量のうち代表的なものであり、局所特徴量分類処理の実行前に準備される。局所特徴量群分類処理部223は、分類しようとする局所特徴量Aを、その局所特徴量Aと近い特徴量を有する辞書情報dに当てはめて分類する。
 大域特徴量計算処理部224は、大域特徴量計算処理を実行可能である。大域特徴量計算処理は、局所特徴量分離処理で得た各局所特徴量群Bに基づいて大域特徴量を計算する処理を含む。大域特徴量計算処理は、図13(C)に示すように、画像から得た各局所特徴量Aと相関が高い辞書情報dに投票して得た頻度分布つまりヒストグラムを大域特徴量として計算する処理を含む。すなわち、大域特徴量は、横軸に局所特徴量群Bをとり、縦軸に各局所特徴量群Bに投票された投票数をとる。このようにして計算された大域特徴量を用いることで、1枚の画像を1つの特徴量で表すことができる。大域特徴量計算処理は、例えば計算方法としてVLADやBAG-OF-WORDSを採用することができる。
 大域特徴量の計算方法としてVLADを採用する場合、大域特徴量計算処理は、例えば局所特徴量と相関が高い辞書情報である代表値との差分ベクトルを総和したベクトルVを、代表値の数だけ計算し、それらをつなげたベクトルを大域特徴量のベクトルVとして計算する。具体的には、大域特徴量計算処理部224は、画像から得た局所特徴量を次の(1)式の計算に適用して大域特徴量のベクトルVを算出する。この場合、大域特徴量のベクトルVは、64個の128次元のベクトルで構成される。この場合、各局所特徴量群Bに含まれる局所特徴量をvとし、辞書情報をdとする。また、各局所特徴量群Bに含まれる特徴量の数をNとすると、1≦i≦Nとなる。
Figure JPOXMLDOC01-appb-M000001
 なお、(1)式のNN(v)=dkは、画像中に含まれる特徴量の中で、この場合64個ある各辞書情報dと最も相関が高い局所特徴量vを意味する。
 また、大域特徴量としてBAG-OF-WORDSを採用する場合、大域特徴量辞書生成処理は、次のようにして大域特徴量を計算する。この場合、大域特徴量は、辞書情報の数の次元を持つベクトル、例えば64次元のベクトルVとなる。大域特徴量辞書生成処理部251は、64個の代表値となる辞書情報を用いて、各特徴量について、最も近い辞書情報dを探し、近かったベクトルVの要素に1を加える。これにより、ベクトルVは、特徴量のヒストグラムとなり、ベクトルVの要素の総和は、特徴量の個数を等しくなる。このベクトルVは、この総数で全体を除算し、正規化して利用する。
 登録処理装置23は、各処理で得たデータを記録装置24に記録する機能を有する。登録処理装置23は、図4に示すように、検索対象画像登録処理部231、評価用画像登録処理部232、局所特徴量登録処理部233、及び大域特徴量登録処理部234を有している。検索対象画像登録処理部231は、検索対象画像登録処理を実行可能である。検索対象画像登録処理は、予め複数の検索対象とする画像を登録画像として、記録装置24の検索対象画像登録部241に登録する処理を含む。
 評価用画像登録処理部232は、評価用画像登録処理を実行可能である。評価用画像登録処理は、画像照合識別装置26で実行される照合処理の評価を行う際に用いる画像を評価用の画像として記録装置24の評価用画像登録部242に登録する処理を含む。評価用画像は、それぞれ異なる被写体を撮影した複数の登録画像を含む登録画像群と、登録画像群の中のうちの1つと同一の被写体でかつ異なる条件で撮影した識別画像と、を含んで構成されている。この場合、識別画像は、被写体や条件の数によって複数あっても良い。また、同一の被写体を撮影した登録画像と識別画像とは、例えば同一又は部分的に共通する識別番号等が付与されること等によって相互に紐付けされた状態で記録装置24の評価用画像登録部242に登録される。
 局所特徴量登録処理部233は、局所特徴量登録処理を実行可能である。局所特徴量登録処理は、特徴抽出装置22での処理によって登録画像から抽出した特徴点の局所特徴量を、記録装置24の局所特徴量登録部243に登録する処理を含む。また、局所特徴量登録処理は、特徴抽出装置22での処理によって評価用画像から抽出した特徴点の局所特徴量を、記録装置24の局所特徴量登録部243に登録する処理を含む。局所特徴量登録処理部233は、各画像から得た局所特徴量を、抽出元となる画像と紐付けして登録する。
 大域特徴量登録処理部234は、大域特徴量登録処理を実行可能である。大域特徴量登録処理は、登録画像に係る大域特徴量を、記録装置24の大域特徴量登録部244に登録する処理を含む。また、大域特徴量登録処理は、評価用画像に係る大域特徴量を、記録装置24の大域特徴量登録部244に登録する処理を含む。局所特徴量登録処理部233は、各画像から得た大域特徴量を、抽出元となる画像と紐付けして登録する。
 記録装置24は、登録処理装置23の各登録処理によって送られた各種のデータを記録する機能を有しており、データベースを構成する。記録装置24は、例えば個体識別装置20を構成するコンピュータの記録装置や、ネットワーク回線を介して接続された外部のサーバ等で構成することもできる。記録装置24は、図5に示すように、検索対象画像登録部241、評価用画像登録部242、局所特徴量登録部243、大域特徴量登録部244、及び大域特徴量辞書登録部245を有している。
 検索対象画像登録部241は、登録処理装置23の検索対象画像登録処理部231から送られた検索対象画像を記録する記録領域である。評価用画像登録部242は、登録処理装置23の評価用画像登録処理部232から送られた評価用画像を記録する記録領域である。局所特徴量登録部243は、登録処理装置23の局所特徴量登録処理部233から送られた局所特徴量を記録する記録領域である。大域特徴量登録部244は、登録処理装置23の大域特徴量登録処理部234から送られた大域特徴量を記録する記録領域である。
 また、大域特徴量辞書登録部245は、辞書装置25の大域特徴量辞書登録処理部252から送られた大域特徴量辞書を記録する記録領域である。画像照合識別装置26で検索処理を実行する以前に、予め取得した学習用画像から得られた局所特徴量に基づいて計算された複数の辞書情報を要素に持つ複数の大域特徴量辞書が登録されている。
 辞書装置25は、複数枚の画像から抽出した特徴点及びその局所特徴量をもとに複数の辞書情報を生成し、その辞書情報に基づく大域特徴量辞書を生成し、登録、及び設定する機能を有する。辞書装置25は、図6に示すように、大域特徴量辞書生成処理部251及び大域特徴量辞書登録処理部252を有している。
 大域特徴量辞書生成処理部251は、大域特徴量辞書生成処理を実行可能である。大域特徴量辞書生成処理は、例えば複数の学習用画像から得た局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する処理を含む。この場合、大域特徴量辞書生成処理は、局所特徴量群のセントロイドを代表値として辞書情報に設定する処理を含む。辞書情報は、大域特徴量辞書を構成する要素であり、複数個の辞書情報が集まって1つの大域特徴量辞書を構成する。
 この場合、例えば、大域特徴量辞書生成処理において大域特徴量辞書生成処理部251は、次のようにして大域特徴量辞書を生成することができる。すなわち、大域特徴量辞書生成処理において大域特徴量辞書生成処理部251は、まず図14(A)、(B)に示すように、例えば特徴抽出装置22で計算されたm枚分の学習用画像T1~Tmの局所特徴量Aを受け取る。次に、大域特徴量辞書生成処理部251は、図14(C)に示すように、受け取った局所特徴量Aを例えばk-means法を用いてk個この場合64個のクラスタつまり局所特徴量群B1~Bkに分類し、各局所特徴量群B1~BkのそれぞれについてセントロイドC1~Ckを求める。そして、大域特徴量辞書生成処理部251は、このようにして求めた各局所特徴量群B1~BkのセントロイドC1~Ckを、それぞれの局所特徴量群B1~Bkの代表値として辞書情報d1~dkに設定し、辞書情報d1~dkをまとめた大域特徴量辞書Eを生成する。そして、大域特徴量辞書生成処理部251は、更に異なる学習用画像Tを用いて複数の大域特徴量辞書Eを生成する。なお、辞書情報d1~dkは、各局所特徴量群B1~Bkを代表する値であれば、セントロイドに限られない。
 大域特徴量辞書登録処理部252は、大域特徴量辞書登録処理を実行可能である。大域特徴量辞書登録処理は、大域特徴量辞書生成処理で生成された複数の大域特徴量辞書Eicを、記録装置24の大域特徴量辞書登録部245に記録する処理を含む。この場合、大域特徴量辞書Eには、大域特徴量辞書Eを構成する複数の辞書情報d1~dkが含まれている。
 画像照合識別装置26は、記録装置24に記録されている登録画像と、識別側の特徴抽出装置22から出力された識別画像とを照合しその画像の一致不一致を識別する機能を有数する。画像照合識別装置26は、図7に示すように、検索処理部261、照合処理部262、及び結果通知処理部263を有している。
 検索処理部261は、検索処理を実行可能である。検索処理は、記録装置24の検索対象画像登録部241に記録されている複数の登録画像に係る大域特徴量のうち、識別側の特徴抽出装置22から送られた識別画像に係る大域特徴量に相関が高いものを検索する処理を含む。本実施形態の場合、検索処理部261は、絞り込み処理を実行可能な絞り込み処理部2611と、特定処理を実行可能な特定処理部2612とを有する。すなわち、本実施形態の場合、検索処理は、絞り込み処理と特定処理とを含む。
 絞り込み処理部2611で実行される絞り込み処理は、図15に示すように、記録装置24の検索対象画像登録部241に登録されている複数の登録画像の中から、識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を候補として絞り込む処理を含む。検索対象画像登録部241に登録されている登録画像が例えば数千~数十万枚である場合、登録画像の候補は、絞り込み処理で例えば数~数十枚程度に絞り込まれる。
 特定処理部2612で実行される特定処理は、局所特徴量を用いた画像照合手法と、特徴点の幾何的な配置の整合性を検証するアルゴリズムを用いて行うことができる。特定処理部2612は、まず、絞り込み処理によって抽出された候補の登録画像の局所特徴量と識別画像の局所特徴量とを比較し、双方の画像から特徴量の差が最小となる特徴点をペアとして求める。そして、特定処理部2612は、他の特徴点との相対的な位置関係が矛盾しない特徴点を対応点として抽出し、その対応点数が最も多い登録画像を特定する。
 この場合、絞り込み処理は、図15に示すように、登録画像と識別画像とのそれぞれの大域特徴量を比較する処理であるため、画像に含まれる全ての局所特徴量を比較する特定処理よりも精度は低いが処理量が少なく高速に処理することができる。これに対し、特定処理は、図16に示すように、登録画像と識別画像とのそれぞれの局所特徴量Aの全てについて対応点を探索する処理であるため、大域特徴量同士を比較する絞り込み処理よりも処理量は多く時間はかかるが精度が良い。このように、検索処理は、絞り込み処理と特定処理との2段階の処理を実行することにより、複数の登録画像の中から識別画像と同一の登録画像を高速で精度良く特定することができる。
 照合処理部262は、照合処理を実行可能である。照合処理は、画像の検索を伴わない処理であり、調整装置30によって各種の条件やアルゴリズム、パラメータ等を調整するために特定の画像同士を照合する際に実行される。照合処理は、検索処理のうち画像同士を照合するためのアルゴリズムと同一のアルゴルズムを用いて実行される。そのため、照合処理部262は、検索処理部261の一部とすることができる。調整装置30によって調整された各種の条件やアルゴリズム、パラメータ等は、検索処理部261の検索処理に反映される。
 照合処理は、例えば評価用画像として評価用画像登録部242に登録されている特定の登録画像と識別画像とにおける局所特徴量を比較し、その特徴点の対応点数を取得して登録画像と識別画像とを照合する処理を含む。この場合、照合処理部262は、調整装置30からの指示により、同一の被写体を撮影した登録画像と識別画像とについて照合することができる。また、照合処理部262は、調整装置30からの指示により、異なる被写体を撮影した登録画像と識別画像とについて照合することもできる。照合処理部262は、登録画像と識別画像との局所特徴量の対応点数を出力する。
 また、照合処理部262は、照合識別条件調整装置32から受け取ったパラメータセットを用いて照合処理を実行することができる。パラメータセットは、例えば図17に示すように、検索処理及び照合処理の条件を設定するための複数のパラメータについて、それぞれのパラメータに設定可能な値を組み合わせたものである。図17における条件1、条件2、条件3・・・がそれぞれ1つのパラメータセットとなる。図17の例の場合、パラメータセットは全部で5400通りとなる。
 結果通知処理部263は、結果通知処理を実行可能である。結果通知処理は、検索処理の結果、及び照合処理の結果を、調整装置30や外部の装置に出力する処理を含む。この場合、検索処理の結果は、特定した登録画像に関する情報が含まれる。また、照合処理の結果は、対応点数が含まれる。
 撮影条件付与装置27は、調整装置30の撮影条件調整装置31からの指示を受けて、撮影装置21に上述した撮影条件を付与する機能を有する。特徴抽出条件付与装置28は、調整装置30の照合識別条件調整装置32からの指示を受けて、特徴抽出装置22に特徴抽出条件を付与する機能を有する。
 調整装置30は、画像照合識別装置26から得た結果を可視化して表示装置12に表示する機能や、画像照合識別装置26からのフィードバックを受けて、撮影機器10の撮影条件や特徴抽出装置22で用いる条件やアルゴリズムなど、個体識別装置20で用いられる各種の条件、アルゴリズム、若しくはパラメータ等を調整する機能等を有する。調整装置30は、図1に示すように、撮影条件調整装置31、照合識別条件調整装置32、及び可視化装置33を有している。
 撮影条件調整装置31は、画像照合識別装置26からのフィードバックを受けて自動で、又はユーザからの操作を受けて手動で撮影機器10を用いて撮影対象を撮影する際の各種条件を調整し、その条件を撮影条件付与装置27に対して指示する機能を有する。ユーザは、例えば入力装置11を操作することで、撮影条件調整装置31の処理により各種条件を調整することができる。また、撮影条件調整装置31は、特徴抽出装置22の処理により得られた特徴点の数に応じて自動で各種条件を調整する機能を有する。撮影条件調整装置31は、図7に示すように、撮影機器条件調整処理部311、撮影対象条件調整処理部312、総当たり条件生成処理部313、及び最適条件提示処理部314を有している。
 撮影機器条件調整処理部311は、撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影機器条件調整処理の実行により、主に光学機器に関する条件、例えば撮影機器10が有するカメラ101のシャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点、照明102の輝度や光度、色彩等が調整される。撮影機器条件調整処理部311は、調整された撮影機器条件を撮影条件付与装置27に送信する。これにより、撮影装置21は、撮影機器条件調整処理部311で調整された撮影機器条件に従って撮影機器10の主にカメラ101や照明102を動作させて撮影対象を撮影する。
 撮影対象条件調整処理部312は、撮影対象となる被写体に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。撮影対象条件調整処理の実行により、例えば被写体の姿勢つまりカメラ101や照明102に対する被写体の角度や、カメラ101や照明102と被写体との距離等が調整される。撮影対象条件調整処理部312は、調整された撮影対象条件を撮影条件付与装置27に送信する。これにより、撮影装置21は、撮影対象条件調整処理部312で調整された撮影対象条件に従って撮影機器10の主にステージ103を動作させて撮影対象を撮影する。
 総当たり条件生成処理部313は、総当たり条件生成処理を実行可能である。総当たり条件生成処理は、予め設定された範囲内の撮影対象条件と、予め設定された範囲内の撮影機器条件と、の組み合わせを総当たりで生成する処理を含む。この場合、撮影装置21の画像取得処理部212で実行される画像取得処理は、総当たり条件生成処理で生成された全ての条件で撮影した画像を取得する処理を含む。これにより、画像取得処理部212は、異なる条件で撮影された多数の画像、つまり撮影対象条件と撮影機器条件とのそれぞれを振って撮影した多数の画像を取得することができる。
 例えば図19の例では、撮影対象条件として被写体と照明102との距離である照明距離が設定され、撮影機器条件として照明102の光量である光量設定値が設定されている。この場合、総当たり条件生成処理部313は、照明距離と光量設定値との取り得る値の全ての組み合わせを総当たりで生成する。そして、画像取得処理部212は、この総当たりの組み合わせの条件で自動で撮影して、登録画像及び識別画像を取得する。
 最適条件提示処理部314は、最適条件提示処理を実行可能である。最適条件提示処理は、総当たり条件生成処理で生成された全ての条件で撮影した登録画像と識別画像とのうち、同一の被写体を撮影した登録画像と識別画像とについて照合処理部262に照合処理を実行させ、その照合処理によって得た対応点数が多い撮影対象条件と撮影機器条件との組み合わせを最適条件としてユーザに提示する又は自動で設定する処理を含む。この場合、最適条件提示処理部314は、表示装置12に最適条件を表示しても良い。これより、ユーザは、撮影機器条件と撮影対象条件との最適な組み合わせを簡単に見つけて設定することができる。
 例えば登録画像と識別画像とが、同一の被写体を図19に示す条件で撮影されたものである場合、最適条件提示処理部314は、それぞれの画像の対応点数から例えば図20に示すグラフ、この場合、横軸に光量設定値つまりLuxをとり、縦軸に対応点数をとったグラフを生成する。そして、最適条件提示処理部314は、このグラフから、登録画像と識別画像との対応点数が多く、かつ、ロバスト性が高い条件の組み合わせを見つける。この場合、照明距離1のA1のグラフの頂点の光量設定値が、対応点数が多くかつ最もロバスト性が高いことがわかる。そのため、この場合、最適条件提示処理部314は、照明距離1と照明距離1におけるA1のグラフの頂点の光量設定値を撮影対象条件と撮影機器条件との組み合わせの最適条件として提示する。このようにして、最適条件提示処理部314は、撮影対象条件と撮影機器条件との最適な組み合わせをユーザに提示する。なお、最適条件提示処理部314は、対応点数が多くかつロバスト性が高い条件の候補をいくつか選択し、これらの条件をおすすめ条件としてユーザに提示することもできる。また、最適条件提示処理部314は、図20に示すグラフを表示装置12に表示させる処理を行っても良い。
 最適条件提示処理は、特徴点抽出処理に関する条件である特徴抽出条件を予め複数準備し、総当たり条件生成処理で生成された全ての条件で同一の撮影した登録画像及び識別画像について、予め準備した複数の特徴抽出条件で特徴点抽出処理を実行して得られた特徴点を用いて照合処理を実行して得られる対応点数が最も多くなる条件の組み合わせ提示する処理を含む。これにより、ユーザは、特徴抽出条件を含めて撮影機器条件と撮影対象条件との最適な組み合わせを簡単に見つけて設定することができる。
 照合識別条件調整装置32は、画像照合識別装置26の検索処理部261及び照合処理部262で用いられる照合識別アルゴリズムのパラメータのチューニングを行う機能を有する。照合識別条件調整装置32は、画像照合識別装置26からのフィードバックを受けて自動で、又はユーザからの操作を受けて手動で、特徴抽出装置22や画像照合識別装置26の処理で用いる条件やパラメータ等を調整し、その条件やパラメータを特徴抽出装置22や画像照合識別装置26に指示する機能を有する。本実施形態の場合、照合識別条件調整装置32は、記録装置24の評価用画像登録部242に登録されている評価用画像を用いて画像照合識別装置26の照合処理部262で照合を行い、その照合結果この場合対応点数に応じて条件やパラメータを調整する。
 ユーザは、例えば入力装置11を操作して照合識別条件調整装置32における処理を実行することで、特徴抽出装置22や画像照合識別装置26で用いる条件やパラメータを調整することができる。照合識別条件調整装置32は、図9に示すように、特徴抽出条件調整処理部321、大域特徴量辞書設定処理部322、大域特徴量相関係数計算処理部323、パラメータセット生成処理部324、及びパラメータセット設定処理部325を有している。
 特徴抽出条件調整処理部321は、特徴抽出条件調整処理を実行可能である。特徴抽出条件調整処理は、特徴点抽出処理部221における特徴点抽出処理又は局所特徴量計算処理部222における局所特徴量計算処理で用いる特徴抽出条件を調整する処理を含む。ユーザは、入力装置11を操作して、特徴点を抽出し局所特徴量を計算する際のピラミッド画像の段数、及びコーナーやカーブらしさを決定するための閾値等の特徴抽出条件を調整し設定することができる。
 特徴抽出条件調整処理は、画像照合識別装置26の照合処理部262における照合処理の結果に基づき、局所特徴量計算処理による特徴抽出条件について正対応点数と負対応点数との比が最も大きくなるように調整する処理を含んでいる。本実施形態において、正対応点とは、図18(A)に示すように、記録装置24の評価用画像登録部242に登録されている登録画像群のうち識別画像の被写体と同一の被写体を撮影した登録画像と、識別画像と、の対応点を意味する。そして、正対応点数とは、正対応点の数を意味する。図18(A)の例では、登録画像に写っている被写体S1と識別画像に写っている被写体S1は同一である。
 また、負対応点とは、図18(B)に示すように、記録装置24の評価用画像登録部242に登録されている登録画像群のうち識別画像の被写体と異なる被写体を撮影した登録画像と、識別画像との対応点を意味する。そして、負対応点数とは、負対応点の数を意味する。図18(B)の例では、登録画像に写っている被写体S2と識別画像に写っている被写体S1とは異なるものである。
 大域特徴量辞書設定処理部322は、大域特徴量辞書設定処理を実行可能である。大域特徴量辞書設定処理は、大域特徴量計算統計情報ごとにスコアを計算して、そのスコアが高いものを、局所特徴量群分類処理部223の局所特徴量群分類処理で用いる大域特徴量辞書として自動で設定する処理を含む。大域特徴量計算統計情報とは、大域特徴量計算処理により大域特徴量を計算する過程、すなわち局所特徴量群分類処理部223における局所特徴量群分類処理の過程で得られる統計情報であり、局所特徴量と相関が高い辞書情報に投票して得たヒストグラム又は相関値の統計量のスコアで表すことができる。特定の辞書情報が選ばれる回数等の統計情報によるスコアが高い辞書情報は性能が高いと考えられる。大域特徴量辞書設定処理によれば、そのような性能が高い辞書情報を有する大域特徴量辞書を自動で選択することができる。
 大域特徴量辞書設定処理は、大域特徴量辞書登録部245に登録されている複数の大域特徴量辞書のうち、大域特徴量相関係数に基づき、同一の被写体を撮影した登録画像と識別画像とを同一であると判断し、異なる被写体を撮影した登録画像と識別画像とを同一でないと判断できる大域特徴量辞書を選択して、局所特徴量群分類処理に用いる大域特徴量辞書に設定する処理を含む。
 大域特徴量相関係数は、登録画像と識別画像とにおける大域特徴量の一致度つまり性能を示す一つの指標となる。2つの画像間における大域特徴量の相関が大きいほど、両者の画像に同一の被写体が含まれている可能性が高いことを意味する。そのため、同一の被写体を撮影した画像間における大域特徴量の相関が大きいということは、その同一の被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が高いことを意味する。すなわちこれは、同一の被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。
 一方、2つの画像間における大域特徴量の相関が小さいほど、両者の画像に含まれる被写体が異なる可能性が高いことを意味する。そのため、異なる被写体を撮影した画像間における大域特徴量の相関が小さいということは、その異なる被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が低いことを意味する。すなわちこれは、異なる被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。
 大域特徴量辞書設定処理は、例えば次のようにして大域特徴量相関係数を計算し、その大域特徴量相関係数に基づいて大域特徴量辞書の性能を判断することができる。すなわち、大域特徴量辞書設定処理は、2つの大域特徴量がベクトルVであるとき、それぞれの絶対値を1に正規化し内積をとった値であって当該内積の値が1に近いものについて同一性が高いと判断し、当該内積の値が-1に近いものについて同一性が低いと判断する。
 この場合、例えば2つの大域特徴量のうち1つの大域特徴量ベクトルVaを次の(2)式とし、正規化された大域特徴量ベクトルVbを次の(3)式とし、dを自然数として定義する。この場合、正規化された大域特徴量ベクトルVbは、大域特徴量ベクトルVaを用いて次の(4)式で表される。そして、大域特徴量ベクトルVaを次の(5)式とすると、大域特徴量ベクトルVaの絶対値は、次の(6)式となる。
Figure JPOXMLDOC01-appb-M000002
 そして、2つの大域特徴量のうちもう1つの大域特徴量ベクトルWaを次の(7)式とすると、その内積の値は、次の(8)式となる。そして、大域特徴量辞書登録部245は、(8)式で得られた内積の値つまり大域特徴量相関係数が1に近いものについては同一性が高いつまり同一の被写体である可能性が高いと判断し、当該内積の値が-1に近いものについては同一性が低いつまり同一の被写体である可能性が低いと判断する。
Figure JPOXMLDOC01-appb-M000003
 また、大域特徴量辞書設定処理は、例えば次のようにして大域特徴量相関係数を計算し、その大域特徴量相関係数に基づいて大域特徴量辞書の性能を判断することができる。すなわち、大域特徴量相関係数は、2つの大域特徴量のベクトル間の距離の値とする。そして、大域特徴量辞書設定処理は、2つの大域特徴量のベクトル間の距離の値である大域特徴量相関係数が0に近ければ同一性が高いと判断し、大きい場合は同一性が低いと判断する。
 この場合、例えば2つのうち一方の大域特徴量ベクトルVaを上記(2)、(5)式とし、もう一方の大域特徴量ベクトルWaを上記(7)、及び下記(9)式とするとき、大域特徴量ベクトルVa、Wa間の距離は、次の(10)式で表される。
Figure JPOXMLDOC01-appb-M000004
 そして、大域特徴量辞書登録部245は、(12)式で得られたベクトルVa、Wa間の距離が近いつまり0に近いものについては同一性が高いつまり同一の被写体である可能性が高いと判断し、ベクトルVa、Wa間の距離が大きいものについては同一性が低いつまり同一の被写体である可能性が低いと判断する。なお、このときそれぞれのベクトルVa、Waは必ずしも正規化されている必要はない。
 大域特徴量相関係数計算処理部323は、大域特徴量相関係数計算処理を実行可能である。大域特徴量相関係数計算処理は、各登録画像の大域特徴量と識別画像の大域特徴量とを比較し、その相関関係を示す大域特徴量相関係数を計算する処理を含む。例えば、大域特徴量相関係数計算処理は、各登録画像の大域特徴量と識別画像の大域特徴量とのヒストグラムを比較して大域特徴量相関係数を計算することができる。
 パラメータセット生成処理部324は、パラメータセット生成処理を実行可能である。パラメータセット生成処理は、例えば図17に示すように、画像照合識別装置26の照合処理部262で実行される照合処理の条件を設定するためのパラメータについて、各パラメータに定められた設定範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成する処理を含む。本実施形態の場合、パラメータセット生成処理は、各パラメータの設定値の全ての組み合わせについてのパラメータセットを生成する。
 パラメータセット設定処理部325は、パラメータセット設定処理を実行可能である。パラメータセット設定処理は、ユーザの操作に基づいて、検索処理部261の検索処理で使用するパラメータセットを設定する処理を含む。ユーザは、例えば入力装置11を操作して、検索処理部261の検索処理で使用するパラメータセットを設定することができる。
 可視化装置33は、画像照合識別装置26から受けた情報や、撮影条件調整装置31及び照合識別条件調整装置32の調整結果に関する情報等の各種の情報を可視化して表示装置12に表示する機能を有する。本実施形態において可視化とは、データを文字や数値だけでなく図形やグラフ等にして表示装置12に表示することを含む。可視化装置33は、図10に示すように、特徴点表示処理部331、大域特徴量計算統計情報表示処理部332、照合結果表示処理部333、及び条件表示処理部334を有している。
 特徴点表示処理部331は、特徴点表示処理を実行可能である。特徴点表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。特徴点表示処理は、例えば図21(A)に示すように、特徴抽出装置22の特徴点抽出処理部221における特徴点抽出処理の実行により抽出した各特徴点Pを、画像に重ねて表示装置12に表示する処理を含む。すなわち、画像中の被写体S上に特徴点Pが重ねて表示される。これにより、ユーザは、画像中の被写体Sのどこを特徴点として抽出されているかを視認することができる。また、特徴点表示処理は、図21(A)に示すように、局所特徴量が属する局所特徴量群ごとに、この場合、各特徴点Pがクラスタリングされて当てはめられた辞書情報dごとに異なる態様、例えば異なる色や大きさ、形状で各特徴点Pを表示装置12に表示する処理を含む。図21では、各特徴点Pの色彩の違いを濃淡の違いで表している。
 大域特徴量計算統計情報表示処理部332は、大域特徴量計算統計情報表示処理を実行可能である。大域特徴量計算統計情報表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。大域特徴量計算統計情報表示処理は、大域特徴量計算統計情報を表示装置12に表示する処理を含む。大域特徴量計算統計情報は、特徴抽出装置22の大域特徴量計算処理部224で実行される大域特徴量計算処理により大域特徴量を計算する過程で得られる統計情報である。大域特徴量計算統計情報表示処理は、図21(B)に示すように、各局所特徴量Aと相関が高い辞書情報dに投票して得たヒストグラム又は相関値の統計量のスコアを、大域特徴量計算統計情報Gとして表示装置12に表示する処理を含む。すなわち、大域特徴量計算統計情報Gは、大域特徴量計算処理の実行過程で得られる大域特徴量のヒストグラム又は相関値の統計量のスコアとすることができる。
 照合結果表示処理部333は、照合結果表示処理を実行可能である。照合結果表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。照合結果表示処理は、画像照合識別装置26の照合処理部262で実行された複数の照合処理の結果をまとめて可視化して表示装置12に表示する処理を含む。
 照合結果表示処理は、例えば図17に示す各パラメータセットを用いて照合処理を実行した照合結果を、図22に示すようにグラフ化して表示する処理を含む。この場合、照合結果表示処理部333は、同一の被写体の画像同士だけでなく、異なる被写体の画像同士についても照合処理を行う。そして、照合結果表示処理部333は、同一の被写体を撮影した画像間の対応点数である正対応点数と、異なる被写体を撮影した画像間の対応点数である負対応点数をそれぞれ計算してグラフ化して、表示装置12に表示する。図22のグラフは、横軸に条件Noをとり、縦軸に対応点数をとったものである。また、図22のうち、F1は正対応点数のグラフを示し、F2は負対応点数のグラフを示す。図22の例では、条件No.Nが最も正対応点数が多くかつ負対応点数が少ないことがわかる。これにより、ユーザは、正対応点数の多くかつ負対応点数が少ない条件Noつまり性能が良い条件Noを一見して把握することができる。
 また、照合結果表示処理は、画像照合識別装置26の照合処理部262において照合処理を実行した際に、照合に用いた識別画像の対応点数評価情報を表示装置12に表示する処理を含む。対応点数評価情報は、照合処理で計算した対応点数に基づく情報であり、例えば対応点数そのままの数値でも良いし、例えば複数段階のレベルやスコアとすることもできる。
 この場合、照合結果表示処理部333は、例えば図23に示すように、表示装置12の画面上に、登録画像表示部51、真値画像表示領域52、偽値画像表示領域53、真値画像評価情報表示領域541、真値画像相関情報表示領域542、偽値画像評価情報表示領域551、及び偽値画像相関情報表示領域552を表示させる。登録画像表示部51には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている登録画像群の中の1つが表示される。
 真値画像表示領域52には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている識別画像であって、登録画像表示部51に表示されている画像の被写体と同一の被写体を異なる条件で撮影した画像が表示される。図23の例では、登録画像表示部51に表示されている画像の被写体S1と、真値画像表示領域52に表示されている画像の被写体S1とは、同一の個体である。本実施形態においては、登録画像表示部51に表示されている画像の被写体と同一の被写体を異なる条件で撮影した画像を、真値画像と称する。この場合、同一の被写体を撮影した登録画像と識別画像とは相互に紐付けされた状態つまりペアを組んだ状態で評価用画像登録部242に登録されている。つまり、照合結果表示処理部333は、登録画像と識別画像との紐付けを識別することで、同一の被写体を撮影したものか異なる被写体を撮影したものかを認識することができる。
 そして、偽値画像表示領域53には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている識別画像であって、登録画像表示部51に表示されている画像の被写体と異なる被写体を異なる条件で撮影した画像が表示される。図23の例では、登録画像表示部51に表示されている画像の被写体S1と、真値画像表示領域52に表示されている画像の被写体S2とは、異なる個体である。本実施形態においては、登録画像表示部51に表示されている画像の被写体と異なる被写体を撮影した画像を、偽値画像と称する。
 また、真値画像評価情報表示領域541には、登録画像表示部51に表示されている画像と、真値画像表示領域52に表示されている画像とで照合処理を行った結果、つまり真値画像の対応点数評価情報が表示される。また、偽値画像評価情報表示領域551には、登録画像表示部51に表示されている画像と、偽値画像表示領域53に表示されている画像とで照合処理を行った結果、つまり偽値画像の対応点数評価情報が表示される。
 照合結果表示処理は、大域特徴量相関係数に基づく情報を表示装置12に表示する処理を含む。この場合、真値画像相関情報表示領域542には、登録画像表示部51に表示されている登録画像から計算した大域特徴量と、真値画像表示領域52に表示されている真値画像のから計算した大域特徴量との相関係数が表示される。そして、偽値画像相関情報表示領域552には、登録画像表示部51に表示されている登録画像から計算した大域特徴量と、偽値画像表示領域53に表示されている偽値画像から計算した大域特徴量とを比較して得た相関係数が表示される。
 ユーザは、例えば入力装置11を操作して、登録画像表示部51、真値画像表示領域52、偽値画像表示領域53、真値画像評価情報表示領域541に表示する画像、つまり照合処理を行う画像を選択し、その画像について照合処理を実行する。そして、照合処理が行われると、照合結果表示処理部333は、その照合結果として、真値画像評価情報表示領域541及び偽値画像評価情報表示領域551にそれぞれ対応点数評価情報を表示するとともに、真値画像相関情報表示領域542及び偽値画像相関情報表示領域552にそれぞれ大域特徴量相関係数を表示する。これにより、ユーザは、真値画像評価情報表示領域541及び偽値画像評価情報表示領域551に表示される対応点数評価情報や、真値画像相関情報表示領域542及び偽値画像相関情報表示領域552に表示される大域特徴量相関係数に基づく情報を見ることにより、照合処理に用いた各種条件やパラメータの性能を確認することができる。この場合、大域特徴量相関係数に基づく情報とは、大域特徴量相関係数そのものの値でも良いし、大域特徴量相関係数を加工して性能を数段階で表すようなレベルやランク等としても良い。
 照合結果表示処理部333は、例えば図18に示すように、登録画像と識別画像の正対応点数又は負対応点数を表示装置12に表示させても良い。また、照合結果表示処理部333は、例えば登録画像と識別画像とで、個々の画像がそれぞれ固有に有している特徴点と、共通に有している特徴点とを切り分けて表示しても良い。この場合、照合結果表示処理部333は、個々の画像が固有に有している特徴点と、共通に有している特徴点のその数や割合を表示するようにしても良い。そして、照合結果表示処理部333は、登録画像及び識別画像のみ表示するモードと、例えば登録画像及び識別画像に特徴点を加えて表示するモードと、登録画像及び識別画像に特徴点と対応点を加えて表示するモードと、を任意に切り替えるようにしても良い。
 ここで、工業製品等のように同一の工程で製造された部品は、人の顔や指紋等の生態認証に比べて個体間の特徴の差が極めて小さい。そのため、個体表面に表れる多数の特徴を照合する必要があるため、計算量が多く識別に時間がかかり、そして識別対象の母数が増えるほど計算量は爆発的に増える。
 これに対し、個体識別システム1は、画像取得処理部212、特徴点抽出処理部221、局所特徴量計算処理部222、局所特徴量群分類処理部223、検索対象画像登録処理部231、大域特徴量登録処理部234、絞り込み処理部2611、及び特定処理部2612を備える。画像取得処理部212は、撮影機器10によって撮影した被写体の画像を取得する画像取得処理を実行可能である。特徴点抽出処理部221は、画像取得処理で取得した画像から特徴点を抽出する特徴点抽出処理を実行可能である。局所特徴量計算処理部222は、特徴点抽出処理で抽出された特徴点の局所特徴量を計算する局所特徴量計算処を実行可能である。
 局所特徴量群分類処理部223は、局所特徴量計算処理によって得られた複数の局所特徴量を当該局所特徴量の値に応じて所定数例えば64個の局所特徴量群に分類する局所特徴量群分類処理を実行可能である。大域特徴量計算処理部224は、各局所特徴量群に基づいて大域特徴量を計算する大域特徴量計算処理を実行可能である。検索対象画像登録処理部231は、予め複数の検索対象の画像を登録画像として検索対象画像登録部241に登録する検索対象画像登録処理を実行可能である。大域特徴量登録処理部234は、登録画像に係る大域特徴量を大域特徴量登録部244に登録する大域特徴量登録処理を実行可能である。絞り込み処理部2611は、例えば図15に示すように、複数の登録画像の中から識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を候補して絞り込む絞り込み処理を実行可能である。そして、特定処理部2612は、例えば図16に示すように、絞り込み処理によって抽出された候補の登録画像の局所特徴量と、識別画像の局所特徴量とを比較し、局所特徴量の対応点数が最も多い登録画像を特定する特定処理を実行可能である。
 この構成によれば、絞り込み処理部2611は、絞り込み処理の実行により、登録画像と識別画像の大域特徴量を比較して候補となる登録画像を大まかに絞り込む。この絞り込み処理は、それぞれの画像の局所特徴量を全て対比する特定処理に比べて計算量が少なく格段に高速で処理することができるものの、精度が出にくい。そこで次に、特定処理部2612は、特定処理の実行により、絞り込まれた候補の登録画像と、識別画像の局所特徴量を対比して対象を特定する。この特定処理は、大域特徴量で比較する絞り込み処理に比べて計算量が多く時間がかかるものの、精度が良い。このように、個体識別システム1は、大域特徴量で絞り込む絞り込み処理と、局所特徴量で特定する特定処理と、の2段階の処理を実行することにより、高速でかつ高精度の検索を実現することができる。これは、登録画像の母数が増えた場合に特に効果を発揮する。
 そして、個体識別システム1は、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321のうち少なくともいずれか1つを更に備える。撮影機器条件調整処理部311は、ユーザの操作に基づき撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影対象条件調整処理部312は、ユーザの操作に基づき撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。そして、特徴抽出条件調整処理部321は、ユーザの操作に基づき特徴点抽出処理に関する条件である特徴抽出条件を調整する特徴抽出条件調整処理を実行可能である。
 これによれば、ユーザは、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321の少なくとも1つを操作し、各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、例えば製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても柔軟に対応でき、高速で精度良く識別することができる。
 個体識別システム1は、大域特徴量辞書生成処理部251を備える。大域特徴量辞書生成処理部251は、予め取得した複数の学習用画像から得た各局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する大域特徴量辞書生成処理を実行可能である。そして、大域特徴量計算処理は、各局所特徴量と相関が高い辞書情報に投票して得たヒストグラムを大域特徴量として計算する処理を含む。また、大域特徴量計算処理は、各局所特徴量と相関が高い辞書情報である代表値との差分ベクトルを総和したベクトルを代表値の数だけ計算しそれらをつなげたベクトルを大域特徴量として計算する処理を含んでいても良い。
 すなわち、被写体の種類や状態によっては、どのような箇所を特徴点として抽出されるかが変わってくるため、画像から得られた局所特徴量を単純に分類して大域特徴量を計算しただけでは、大域特徴量の性能が低い、つまり識別能力が低い可能性がある。これに対し、本構成によれば、被写体に適した辞書情報を有する大域特徴量辞書を用いることで、被写体の種類や状態が変わっても、性能の良い大域特徴量を得ることができ、その結果、絞り込み処理の精度を上げることができる。
 また、本構成において、大域特徴量辞書生成処理は、局所特徴量群のセントロイドを代表値として辞書情報に設定する処理を含む。局所特徴量群のセントロイドは、その局所特徴量群を代表するものである。このため、局所特徴量群のセントロイドを代表値として辞書情報に設定することで、性能の良い大域特徴量辞書を得ることができる。
 個体識別システム1は、画像取得処理部212と、特徴点抽出処理部221と、を備え、特徴点表示処理部331と、を更に備える。特徴点表示処理部331は、例えば図21に示すように、特徴点抽出処理により抽出した特徴点を画像に重ねて表示装置12に表示する特徴点表示処理を実行可能である。
 個体識別システム1は、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321のうち少なくともいずれか1つを備えている。撮影機器条件調整処理部311は、ユーザの操作に基づき撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影対象条件調整処理部312は、ユーザの操作に基づき撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。そして、特徴抽出条件調整処理部321は、ユーザの操作に基づき特徴点抽出処理に関する条件である特徴抽出条件を調整する特徴抽出条件調整処理を実行可能である。
 例えば個体識別システム1を生産現場で使用する場合、識別の対象となる部品は、製造工程中の経時変化や熱加工等されてその表面模様の色味等が変化するものがある。このような製造工程途中で表面模様の色味等が変化する加工が施される部品においては、その加工の前後、つまり画像の登録時と識別時とで抽出される特徴点の位置や数、及び局所特徴量が大きく変わる可能性があり、その結果、識別精度が低下してしまう。
 これに対し、本構成によれば、特徴点抽出処理で抽出した特徴点が画像に重ねられて表示装置12に表示されるため、ユーザは、画像の中のどの箇所が特徴点として抽出されているか見て確認することができる。そして、ユーザは、製造工程を経ても表面模様の色味等が変化し難い箇所について重点的に特徴点を抽出できるように、特徴抽出条件調整処理部321、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321の少なくとも1つを操作し、抽出される特徴点の位置を確認しながら各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても、精度良く識別することができる。
 個体識別システム1は、局所特徴量計算処理部222と、局所特徴量群分類処理部223と、を備えている。そして、特徴点表示処理は、図21(A)に示すように、局所特徴量が属する局所特徴量群ごとに異なる態様、例えば色や大きさ、形状を異ならせた態様で特徴点を表示装置12に表示する処理を更に含む。
 これによれば、ユーザは、画像中のどこにどのような特徴点が存在しているか、一見して把握することができる。これにより、抽出された特徴点の位置を確認しながら各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。
 個体識別システム1は、大域特徴量計算処理部224を備え、大域特徴量計算統計情報表示処理部332を更に備えている。大域特徴量計算統計情報表示処理部332は、図21(B)に示すように、大域特徴量辞書生成処理の実行による大域特徴量の計算過程において局所特徴量群分類処理の過程で得られる大域特徴量計算統計情報Gを表示装置12に表示する大域特徴量計算統計情報表示処理を実行可能である。
 これによれば、ユーザは、どのような大域特徴量が得られたかが把握し易くなる。すなわち、域特徴量辞書のどの辞書情報にどのくらい投票がされたかという情報を表示することで、ユーザは、その域特徴量辞書が有する辞書情報の選ばれ方の偏り把握することができる。これにより、表示された大域特徴量計算統計情報Gを見ながら大域特徴量に関する各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。
 個体識別システム1は、大域特徴量辞書生成処理部251を更に備える。大域特徴量辞書生成処理部251は、予め取得した複数の学習用画像から得た各局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する大域特徴量辞書生成処理を実行可能である。そして、大域特徴量計算統計情報表示処理は、図13に示すように大域特徴量の計算過程において各局所特徴量と相関が高い辞書情報dに投票して得たヒストグラム又は相関値の統計量のスコアを、図21に示すように大域特徴量計算統計情報Gとして表示装置12に表示する処理を含む。
 これによれば、ユーザは、大域特徴量を視覚的でかつ直感的に把握し易くなる。これにより、表示された大域特徴量計算統計情報Gを見ながら大域特徴量に関する各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。
 個体識別システム1は、大域特徴量辞書設定処理部322を更に備える。大域特徴量辞書設定処理部322は、大域特徴量計算統計情報ごとにスコアを計算して、そのスコアが高いものを局所特徴量群分類処理で用いる大域特徴量辞書として自動で設定する大域特徴量辞書設定処理を実行可能である。
 これによれば、適切な大域特徴量辞書として自動で設定されるため、ユーザは、いちいち条件やパラメータを手動で調整する必要がなくなり、その結果、ユーザ利便性が向上する。
 本構成の個体識別システム1を例えば工場等で使用する場合、登録画像の撮影と識別画像の撮影とは異なる場所で行われることが想定される。この場合、工場内で発生する粉塵や工場内の照明、外光等の自然光、周囲のノイズ源等が外乱の要因となって、登録画像の撮影と識別画像の撮影との撮影環境が大きく変わる可能性がある。すると、抽出される特徴点や局所特徴量等が変わり、識別性能が低下するおそれがある。
 そこで、本構成の個体識別システム1は、画像取得処理部212と、特徴点抽出処理部221と、局所特徴量計算処理部222と、撮影対象条件調整処理部312と、撮影機器条件調整処理部311と、を備える。これによれば、ユーザは、撮影対象条件調整処理部312と撮影機器条件調整処理部311とを操作して、特徴点の抽出及び局所特徴量の計算に適した撮影対象条件及び撮影機器条件を調整することができる。そのため、環境の変化に応じて適切な条件を設定することにより、外乱の影響を低減させることができ、特徴としたい模様を適切に浮かび上がらせることができる。その結果、識別精度を向上させることができる。
 個体識別装置20は、総当たり条件生成処理部313を更に備える。総当たり条件生成処理部313は、予め設定された範囲内の撮影対象条件と予め設定された範囲内の撮影機器条件との組み合わせを総当たりで生成する総当たり条件生成処理を実行可能である。そして、画像取得処理は、総当たり条件生成処理で生成された全ての条件を撮影した画像を自動で取得する処理を含む。
 これによれば、撮影対象条件と撮影機器条件とのそれぞれを変えた多数の画像を自動で撮影し取得することができる。そのため、撮影対象条件と撮影機器条件とのそれぞれを変えて最適な条件の組み合わせを探す場合に、ユーザの手作業で条件の組み合わせを生成し、撮影する必要がなくなる。その結果、撮影対象条件及び撮影機器条件の条件を調整する手間を低減することができる。そして、性能の良い条件を簡単に設定することができるため、識別性能の向上も図ることができる。
 個体識別装置20は、最適条件提示処理部314を更に備えている。最適条件提示処理部314は、総当たり条件生成処理で生成された全ての条件で撮影した登録画像及び識別画像のうち、同一の被写体を撮影した前記登録画像と前記識別画像との対応点数が多い撮影対象条件と撮影機器条件との組み合わせを最適条件として提示する最適条件提示処理を実行可能である。これによれば、ユーザは、特徴点の数が多い最適な条件を簡単に取得し設定することができるため、撮影対象条件及び撮影機器条件の条件を調整する手間を更に低減することができる。そして、撮影対象条件と撮影機器条件との最適な組み合わせを簡単に設定することができるため、識別性能の向上も図ることができる。
 最適条件提示処理は、特徴点抽出処理に関する条件である特徴抽出条件を予め複数準備し、総当たり条件生成処理で生成された全ての条件で同一の被写体を撮影した登録画像及び識別画像について予め準備した複数の特徴抽出条件で特徴点抽出処理を実行して得られた特徴点を用いて照合した際の対応点数が最も多くなる条件の組み合わせ提示する処理を含む。これによれば、ユーザは、撮影対象条件及び撮影機器条件の条件に加え、特徴点抽出処理に関する特徴抽出条件との組み合わせのうち最適な条件を簡単に取得することができる。これにより、撮影対象条件と撮影機器条件と特徴抽出条件とを調整する手間を更に低減することができる。そして、撮影対象条件と撮影機器条件と特徴抽出条件との最適な組み合わせを簡単に設定することができるため、識別性能の更なる向上を図ることができる。
 例えば工業製品の部品においては、人の顔や指紋と異なり、照合識別しようとする対象の種類や材質、加工方法によってその表面に表れる模様の特徴も様々である。このため、識別しようとする対象の種類によって、照合識別に用いるアルゴリズムのパラメータを適切なものに調整する必要がある。しかし、パラメータの項目は多数あり、その全ての組み合わせの中からユーザが手動で最適な組み合わせを探すことは大変な手間と時間がかかる。
 そこで、個体識別システム1は、特徴点抽出処理部221、及び局所特徴量計算処理部222を備える。また、個体識別システム1は、照合処理部262、パラメータセット生成処理部324、及びパラメータセット設定処理部325を更に備える。照合処理部262は、登録画像と識別画像とにおける局所特徴量を比較し特徴点の対応点数を取得して登録画像と識別画像とを照合する照合処理を実行可能である。パラメータセット生成処理部324は、照合処理の条件を設定するためのパラメータについて、各パラメータに定められた設定範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成するパラメータセット生成処理を実行可能である。パラメータセット設定処理部325は、ユーザの操作に基づいてパラメータセットを設定するパラメータセット設定処理を実行可能である。
 照合処理は、パラメータセット生成処理で生成された各パラメータセットを用いて照合処理を実行する処理を含む。そして、個体識別システム1は、照合結果表示処理部333を更に備える。照合結果表示処理部333は、各パラメータセットを用いて照合処理を実行した場合の照合結果をまとめて表示装置12に表示する照合結果表示処理を実行可能である。
 これによれば、パラメータの組み合わせであるパラメータセットが自動で生成され、その各パラメータセットを用いて照合処理が行われる。そのため、ユーザは、パラメータの組み合わせをいちいち手作業で作成し照合を行う必要がなくなる。そして、その照合結果は、表示装置12にまとめて表示される。そのため、ユーザは、表示装置12に表示される結果を見ることで、各パラメータセットの性能を確認することができる。そして、ユーザは、表示装置12に表示された結果を見て適切なパラメータセットを選択すれば良い。これにより、照合識別しようとする対象の種類にかかわらず、照合識別に用いるアルゴリズムのパラメータを簡単に手間なく精度良く調整することができる。
 照合結果表示処理は、図22に示すように、各パラメータセットを用いて照合処理を実行した照合結果をグラフ化して表示する処理を含む。複数のパラメータセットのうち性能が良いものを視覚的でかつ直感的に把握し易くなる。これにより、精度の良いパラメータの調整作業を簡単に行うことができる。
 個体識別システム1は、評価用画像登録処理部232を更に備える。評価用画像登録処理部232は、それぞれ異なる被写体を撮影した複数の登録画像を含む登録画像群と、登録画像群の中のうちの1つと同一の被写体でかつ異なる条件で撮影した識別画像と、を照合処理の評価用の画像として相互に紐付けした状態で評価用画像登録部242に登録する評価用画像登録処理を実行可能である。
 これによれば、ユーザは、パラメータセットの評価を行う際に、いちいち画像を撮影する必要がなくなる。その結果、パラメータセットの評価を簡単に行うことができるようになる。また、これによれば、同一の被写体を撮影した登録画像及び識別画像は相互に紐付けした状態で登録されている。このため、登録画像及び識別画像を用いて照合処理を実行する際には、登録画像と識別画像の対応関係つまり同一の被写体を撮影したものか異なる被写体を撮影したものかが事前に明らかとなっている。これにより、対応関係が明らかな画像を用いることで、その照合処理において得たい結果を明らかにすることができ、ユーザは、照合処理に用いたパラメータセットを評価し易くなる。
 つまり、同一の被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が多く、かつ、異なる被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なければ、ユーザは、その照合処理に用いたパラメータセットの性能が高いと評価することができる。逆に、同一の被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なく、又は、異なる被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なければ、ユーザは、その照合処理に用いたパラメータセットの性能が低いと評価することができる。
 照合処理は、登録画像群に含まれる1つ以上の登録画像と識別画像とを照合する処理を含む。そして、照合結果表示処理は、図23に示すように、照合処理で計算した対応点数に基づく対応点数評価情報を表示装置12に表示する処理を含む。これによれば、ユーザは表示装置12に表示される対応点数評価情報を見ることで、そのパラメータセットの性能を簡単に評価でき、これにより照合識別しようとする対象の種類に応じて適切なパラメータセットを選択することができる。その結果、どのような種類の対象であっても高い照合識別性能を発揮することができる。
 個体識別装置20は、特徴抽出条件調整処理部321を更に備える。特徴抽出条件調整処理部321は、特徴抽出条件調整処理を実行可能である。特徴抽出条件調整処理は、登録画像群のうち識別画像の被写体と同一の被写体を撮影した登録画像と識別画像との対応点数である正対応点数と、登録画像群のうち識別画像の被写体と異なる被写体を撮影した登録画像と識別画像との対応点数である負対応点数と、を計算する処理を含む。そして、特徴抽出条件調整処理は、局所特徴量計算処理による特徴抽出条件について正対応点数と負対応点数との比が最も大きくなるように調整する処理を含む。
 この場合、特徴抽出条件調整処理部321は、正対応点数と負対応点数との比が最も大きくなるように、正対応点数が多くかつ負対応点数が少ない特徴抽出条件を探す。正対応点数が多いということは、同一の被写体を撮影した画像間の対応点数が多いことを意味する。これは、同一の被写体を写した画像間の照合処理において、画像に含まれる被写体が同一のものである可能性が高いと識別していること、すなわち、同一の被写体を写した画像間における識別性能が高いことを意味する。また、負対応点数が少ないということは、異なる被写体を撮影した画像間の対応点数が少ないことを意味する。これは、異なる被写体を写した画像間の照合処理において、画像に含まれる被写体が異なるものである可能性高いと識別していること、すなわち、異なる被写体を写した画像間における識別性能が高いことを意味する。
 このように、特徴抽出条件調整処理部321は、同一の被写体を写した画像間及び異なる被写体を写した画像間の照合識別性能が高くなるように特徴抽出条件を自動で調整し、これにより、高い照合識別性能を得つつ調整にかかるユーザの手間を省くことができる。
 個体識別システム1は、局所特徴量群分類処理部223と、大域特徴量計算処理部224と、を備える。そして、個体識別システム1は、大域特徴量相関係数計算処理部323を更に備える。大域特徴量相関係数計算処理部323は、各登録画像の大域特徴量と識別画像の大域特徴量とを比較しその相関関係を示す大域特徴量相関係数を計算する大域特徴量相関係数計算処理を実行可能である。そして、照合結果表示処理は、大域特徴量相関係数に基づく情報を表示装置12に表示する処理を含む。
 大域特徴量相関係数は、登録画像と識別画像とにおける大域特徴量の一致度つまり性能を示す1つの指標となる。表示装置12に大域特徴量相関係数に基づく情報を表示することで、ユーザは、大域特徴量の性能を容易に把握することができる。そのため、ユーザは、表示装置12に大域特徴量相関係数に基づく情報を1つの目安として各種条件やパラメータの調整作業を行うことができるため、より作業がし易くなる。
 個体識別システム1は、大域特徴量辞書登録部245と、大域特徴量辞書設定処理部322と、を更に備えている。大域特徴量辞書設定処理部322は、大域特徴量辞書設定処理を実行可能である。大域特徴量辞書設定処理は、大域特徴量辞書登録部245に登録されている複数の大域特徴量辞書のうち、大域特徴量相関係数に基づき同一の被写体を撮影した登録画像と識別画像とを同一と判断し、異なる被写体を撮影した登録画像と識別画像とを同一でないと判断できる大域特徴量辞書を選択して、局所特徴量群分類処理に用いる大域特徴量辞書に設定する処理を含む。
 大域特徴量相関係数は、上述したように、登録画像と識別画像とにおける大域特徴量の相関の一致度を示す1つの指標となる。2つの画像間における大域特徴量の相関が大きいほど、両者の画像に同一の被写体が含まれている可能性が高いことを意味する。そのため、同一の被写体を撮影した画像間における大域特徴量の相関が大きいということは、その同一の被写体を撮影した2つの画像について計算された大域特徴量の一致度が高いことを意味する。すなわちこれは、同一の被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。
 一方、2つの画像間における大域特徴量の相関が小さいほど、両者の画像に含まれる被写体が異なる可能性が高いことを意味する。そのため、異なる被写体を撮影した画像間における大域特徴量の相関が小さいということは、その異なる被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が低いことを意味する。すなわちこれは、異なる被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。
 本構成によれば、大域特徴量辞書設定処理によって、同一の被写体を写した画像間での性能が高く、かつ異なる被写体を写した画像間での性能も高い大域特徴量辞書を自動で設定することができる。したがって、ユーザの調整の手間が省かれるとともに、高い照合識別性能を得ることができる。
 大域特徴量辞書設定処理は、2つの大域特徴量がベクトルであるとき、それぞれ絶対値を1に正規化し内積をとった値であって当該内積の値が1に近いものについて同一性が高いと判断し、当該内積の値が-1に近いものについて同一性が低いと判断する処理を含んでいても良い。また、大域特徴量相関係数は、2つの大域特徴量のベクトル間の距離の値とすることができる。この場合、大域特徴量辞書設定処理は、2つの大域特徴量のベクトル間の距離の値が0に近ければ同一性が高いと判断し、大きい場合は同一性が低いと判断する処理を含む。これらの構成によれば、大域特徴量辞書の性能を定量的に評価することができる。
 個体識別システム1は、画像取得処理部212と特徴点抽出処理部221と特定処理部2612とを有する個体識別装置20を備える。そして、個体識別システム1は、個体識別装置20の他に、可視化装置33、撮影条件調整装置31、及び照合識別条件調整装置32、のうち少なくとも2つの装置を備える。
 可視化装置33は、特徴点表示処理部331を有する。特徴点表示処理部331は、特徴点抽出処理により抽出した特徴点を前記画像に重ねて表示装置12に表示する特徴点表示処理を実行可能である。
 撮影条件調整装置31は、予め登録された複数の登録画像のうち同一の被写体を撮影した登録画像と識別画像とにおける局所特徴量を比較し特徴点の対応点数を取得して登録画像と識別画像とを照合する照合処理を個体識別装置20に実行させるとともに、撮影対象条件調整処理部312と撮影条件調整装置31とを有する。撮影対象条件調整処理部312は、撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。撮影機器条件調整処理部311は、撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。
 照合識別条件調整装置32は、パラメータセット生成処理部324と、パラメータセット設定処理部325と、を有する。パラメータセット生成処理部324は、照合処理の条件を設定するためのパラメータについて、各パラメータに定められた範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成するパラメータセット生成処理を実行可能である。パラメータセット設定処理部325は、ユーザの操作に基づいてパラメータセットを設定するパラメータセット設定処理を実行可能である。そして、照合識別条件調整装置32は、照合処理部262に、パラメータセット生成処理で生成された各パラメータセットを用いて照合処理を実行する処理を実行させる。そして、照合識別条件調整装置32は、パラメータセットを用いて照合処理の照合結果をまとめて表示装置12に表示する照合結果表示処理を実行可能な照合結果表示処理部333を更に有している。
 個体識別システム1が可視化装置33を備えることで、特徴点抽出処理で抽出した特徴点が画像に重ねられて表示装置12に表示されるため、ユーザは、画像の中のどの箇所が特徴点として抽出されているか見て確認することができる。そして、ユーザは、製造工程でも表面模様が変化し難い箇所について重点的に特徴点を抽出できるように、抽出される特徴点の位置を確認しながら各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても、精度良く識別することができるといった優れた効果が得られる。
 個体識別システム1が撮影条件調整装置31を備えることで、ユーザは、撮影対象条件調整処理部312と撮影機器条件調整処理部311とを操作して、特徴点の抽出及び局所特徴量の計算に適した撮影対象条件及び撮影機器条件を調整することができる。そのため、環境の変化に応じた適切な条件を設定することにより、外乱の影響を低減させることができ、特徴とした模様を適切に浮かび上がらせることができる。その結果、識別精度を向上させることができるといった優れた効果が得られる。
 個体識別システム1が照合識別条件調整装置32を備えることで、ユーザは、パラメータの組み合わせをいちいち手作業で作成し照合を行う必要がなくなる。そして、その照合結果は、表示装置12にまとめて表示される。そのため、ユーザは、表示装置12に表示される結果を見ることで、各パラメータセットの性能を確認することができる。そして、ユーザは、表示装置12に表示された結果を見て適切なパラメータセットを選択すれば良い。これにより、照合識別しようとする対象の種類にかかわらず、照合識別に用いるアルゴリズムのパラメータを簡単に手間なく精度良く調整することができるといった優れた効果が得られる。
 そして、個体識別システム1は、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とのうち少なくとも2つの装置を同時に備えることにより、上述した各装置の優れた効果を同時に2つ以上得ることができる。これにより、識別対象の表面模様の変化に対応できたり、外乱の影響を受け難くできたり、条件やパラメータの調整にかかるユーザ手間を低減して精度の条件やパラメータの精度を高めることができ、その結果、照合識別の性能を高めることができる。
 個体識別システム1は、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とを備えている。これによれば、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とを全て同時に備えることにより、上述した各装置の優れた効果を全て同時に得ることができる。すなわち、この個体識別システム1によれば、識別対象の表面形状の変化に対応でき、外乱の影響を受けにくい調整を行うことができ、更には条件やパラメータの調整にかかるユーザ手間を低減することができる。
 検索処理部261は、絞り込み処理を実行可能な絞り込み処理部2611を更に有している。絞り込み処理は、検索対象画像登録部241に登録されている複数の登録画像の中から識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を特定処理における候補として絞り込む処理を含む。
 これによれば、検索処理は、大域特徴量で絞り込む絞り込み処理と、局所特徴量で特定する特定処理と、の2段階の処理を実行することにより、高速での検索を実現することができる。その結果、本構成の個体識別システム1によれば、その結果、照合識別性能が高くかつ高速での検索を実現することができる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 

Claims (4)

  1.  登録側及び識別側の撮影機器(10a、10b)によって撮影した識別対象の画像をそれぞれ登録画像及び識別画像として取得する画像取得処理を実行可能な画像取得処理部(212)と、
     前記画像取得処理で取得した前記登録画像及び前記識別画像に含まれる特徴点を抽出する特徴点抽出処理を実行可能な特徴点抽出処理部(221)と、
     前記特徴点抽出処理で抽出された前記特徴点の局所特徴量を計算する局所特徴量計算処理を実行可能な局所特徴量計算処理部(222)と、
     撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能な撮影対象条件調整処理部(312)と、
     前記撮影機器に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能な撮影機器条件調整処理部(311)と、を備える、
     個体識別システム(1)。
  2.  予め設定された範囲内の前記撮影対象条件と予め設定された範囲内の前記撮影機器条件との組み合わせを総当たりで生成する総当たり条件生成処理を実行可能な総当たり条件生成処理部(313)を更に備え、
     前記画像取得処理は、前記総当たり条件生成処理で生成された全ての条件で撮影した前記登録画像及び前記識別画像を取得する処理を含む、
     請求項1に記載の個体識別システム。
  3.  前記総当たり条件生成処理で生成された全ての条件で撮影した前記登録画像及び前記識別画像のうち、同一の被写体を撮影した前記登録画像と前記識別画像とを照合して得た対応点数が多い前記撮影対象条件と前記撮影機器条件との組み合わせを最適条件として提示する最適条件提示処理を実行可能な最適条件提示処理部(314)を更に備えている、
     請求項2に記載の個体識別システム。
  4.  前記最適条件提示処理は、前記特徴点抽出処理に関する条件である特徴抽出条件を予め複数準備し、前記総当たり条件生成処理で生成された全ての条件で同一の被写体を撮影した前記登録画像及び前記識別画像について予め準備した複数の前記特徴抽出条件で前記特徴点抽出処理を実行して得られた特徴点を用いて照合した際の対応点数が最も多くなる条件の組み合わせ提示する処理を含む、
     請求項3に記載の個体識別システム。
     
PCT/JP2021/015593 2020-04-30 2021-04-15 個体識別システム WO2021220826A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-080321 2020-04-30
JP2020080321A JP7377161B2 (ja) 2020-04-30 2020-04-30 個体識別システム

Publications (1)

Publication Number Publication Date
WO2021220826A1 true WO2021220826A1 (ja) 2021-11-04

Family

ID=78279744

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/015593 WO2021220826A1 (ja) 2020-04-30 2021-04-15 個体識別システム

Country Status (3)

Country Link
JP (1) JP7377161B2 (ja)
TW (1) TW202205146A (ja)
WO (1) WO2021220826A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179092A1 (ja) * 2017-03-28 2018-10-04 日本電気株式会社 個体識別装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179092A1 (ja) * 2017-03-28 2018-10-04 日本電気株式会社 個体識別装置

Also Published As

Publication number Publication date
TW202205146A (zh) 2022-02-01
JP2021174440A (ja) 2021-11-01
JP7377161B2 (ja) 2023-11-09

Similar Documents

Publication Publication Date Title
US8908919B2 (en) Tactical object finder
US20110158535A1 (en) Image processing apparatus and image processing method
US20230049798A1 (en) Individual object identification system, individual object identification program, and recording medium
WO2015115274A1 (ja) 物体判別装置、画像センサ、物体判別方法
JP2015187759A (ja) 画像検索装置、画像検索方法
US11501517B2 (en) Individual identifying device
Raghavendra et al. Automatic face quality assessment from video using gray level co-occurrence matrix: An empirical study on automatic border control system
Ma et al. Discriminative image descriptors for person re-identification
KR20210020065A (ko) 비전 시스템을 갖는 이미지에서 패턴을 찾고 분류하기 위한 시스템 및 방법
TW201709110A (zh) 物品辨識系統與方法
Maaten et al. Computer vision and machine learning for archaeology
WO2015064292A1 (ja) 画像の特徴量に関する処理システム、処理方法及びプログラム
WO2021220826A1 (ja) 個体識別システム
WO2021220827A1 (ja) 個体識別システム
WO2021220825A1 (ja) 個体識別システム
WO2021220828A1 (ja) 個体識別システム
Kaya et al. Gender classification from facial images using gray relational analysis with novel local binary pattern descriptors
WO2015136716A1 (ja) 画像処理装置、画像センサ、画像処理方法
JP2019021100A (ja) 画像探索装置、商品認識装置および画像探索プログラム
Wang et al. Wood surface quality detection and classification using gray level and texture features
KR101094433B1 (ko) 인물 식별 방법 및 그 시스템
Lakshmi et al. Sketch-Based Face Recognition Using Deep Neural Network for Criminal Investigation
Ardizzone et al. Combining top-down and bottom-up visual saliency for firearms localization
CN118037091A (zh) 一种基于计算机视觉技术的智能化报工质检方法及系统
Sánchez et al. On the Influence of Illumination Quality in 2D Facial Recognition

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21797052

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21797052

Country of ref document: EP

Kind code of ref document: A1