WO2023148964A1 - 照合装置、照合方法、およびプログラム - Google Patents

照合装置、照合方法、およびプログラム Download PDF

Info

Publication number
WO2023148964A1
WO2023148964A1 PCT/JP2022/004672 JP2022004672W WO2023148964A1 WO 2023148964 A1 WO2023148964 A1 WO 2023148964A1 JP 2022004672 W JP2022004672 W JP 2022004672W WO 2023148964 A1 WO2023148964 A1 WO 2023148964A1
Authority
WO
WIPO (PCT)
Prior art keywords
reliability
matching
collation
image
calculating
Prior art date
Application number
PCT/JP2022/004672
Other languages
English (en)
French (fr)
Inventor
拓也 小川
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2022/004672 priority Critical patent/WO2023148964A1/ja
Publication of WO2023148964A1 publication Critical patent/WO2023148964A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching

Definitions

  • the present invention relates to a collation device, a collation method, and a program that can provide general-purpose collation technology that improves recall while maintaining collation accuracy.
  • Patent Document 1 For example, a technology has been proposed that uses two indexes when performing fingerprint matching.
  • Patent Document 1 in the first pattern matching, pattern matching between the group delay spectrum and the registered feature amount of the fingerprint registrant is performed.
  • the second pattern collation pattern collation is performed between the spatial spectrum and the registered spatial spectrum of the fingerprint registrant who has undergone similar processing in advance.
  • One aspect of the present invention has been made in view of the above problems, and an example of its purpose is to provide a general-purpose matching technique that improves the recall while maintaining matching accuracy. .
  • a matching device includes: first reliability calculation means for calculating a first reliability for each of a plurality of indices related to an object indicated by target data; A second reliability calculation means for calculating a plurality of second reliability, and a matching means for matching the object based on the plurality of second reliability.
  • a collation method includes calculating a first reliability for each of a plurality of indexes related to an object indicated by target data, and calculating a plurality of second reliability from the plurality of first reliabilitys. and matching the object based on the plurality of second confidences.
  • a program according to one aspect of the present invention comprises: a computer; and a matching device for matching the object based on the plurality of second reliability degrees.
  • FIG. 1 is a block diagram showing a configuration example of a matching device according to exemplary Embodiment 1 of the present invention
  • FIG. 4 is a flow chart showing the flow of a matching method according to exemplary embodiment 1 of the present invention
  • FIG. 7 is a block diagram showing a configuration example of an information processing apparatus according to exemplary embodiment 2 of the present invention
  • 4 is an image for explaining an example of object tracking processing
  • 4 is an image for explaining an example of object tracking processing
  • 4 is an image for explaining an example of object tracking processing
  • 4 is an image for explaining an example of object tracking processing
  • 4 is a flowchart for explaining the flow of object tracking processing
  • FIG. 11 is a flowchart describing a detailed example of object matching processing
  • FIG. FIG. 11 is a flowchart describing a detailed example of matching reliability calculation processing
  • FIG. 11 is a block diagram showing a configuration example of an information processing apparatus according to exemplary Embodiment 3 of the present invention
  • 4 is an image for explaining an example of biometric authentication processing
  • It is a flowchart which shows the flow of a biometrics authentication process.
  • FIG. 3 is a diagram showing an example of a computer that executes program instructions for realizing each function;
  • the matching device 20 is, roughly speaking, a device that performs a matching process on one or more objects.
  • the collation device 20 can also determine whether or not a plurality of objects correspond to each other, compare each object with collation data, and determine whether the object matches the collation data. can also be determined.
  • first object and a second object are corresponding objects, or when these objects are objects to be regarded as the same object, these objects are “identical”. There is, or it is sometimes expressed as "matching each other”.
  • objects that match each other are managed by the same ID as an example. For example, if it is determined that an object detected in a certain frame and an object detected in the next frame of the certain frame are the same object, the matching device 20 associates the same ID with these objects and manages them. do.
  • the verification device 20 first reliability calculation means for calculating a first reliability for each of a plurality of indices related to an object indicated by target data; a second reliability calculation means for calculating a plurality of second reliability from the plurality of first reliability; collation means for collating the object based on the plurality of second degrees of reliability.
  • FIG. 1 is a block diagram showing a configuration example of the matching device 20. As shown in FIG.
  • the verification device 20 includes a first reliability calculation section 21, a second reliability calculation section 22, and a verification section .
  • the first reliability calculation unit 21 is a configuration that implements the first reliability calculation means in this exemplary embodiment.
  • the second reliability calculation unit 22 is a configuration that implements the second reliability calculation means in this exemplary embodiment.
  • the collation part 23 is a structure which implement
  • the first reliability calculation unit 21 calculates a first reliability for each of a plurality of indices related to the object indicated by the target data.
  • the target data is data to be subjected to matching processing by the matching device 20, and may include image data, voice data, point cloud data, and other sensing data. is not intended to limit the exemplary embodiment.
  • the index regarding an object may indicate an attribute regarding the object, or may be a numerical evaluation of the attribute.
  • the plurality of indicators are the color, shape, pattern, etc. of the object in the image indicated by the image data.
  • "reliability” is, for example, the degree of similarity between an object and a comparison target of the object. For example, when executing processing for tracking an object displayed in a moving image, an object displayed in an image captured earlier in time and an object displayed in an image captured later in time are separated. Confidence is used to indicate how similar they are. Further, for example, when executing a process of comparing an object with matching data given in advance, a reliability indicating how similar the feature indicated by the matching data is to the feature of the object is used. be done.
  • the first reliability calculation unit 21 calculates the similarity between the color, shape, and pattern of the object and the color, shape, and pattern to be compared with the object.
  • a value representing the degree is calculated and set as the first reliability.
  • the second reliability calculation unit 22 calculates a plurality of second reliability from the plurality of first reliability.
  • the second reliability calculation unit 22 calculates a plurality of second reliabilities by applying a predetermined calculation to some or all of the plurality of first reliabilities.
  • the second reliability may be, for example, a value obtained by multiplying a part of the plurality of first reliabilitys calculated by the first reliability calculation unit 21 .
  • the plurality of second reliabilities is determined according to which of the plurality of first reliabilities calculated by the first reliability calculation unit 21 is excluded from the target of the product. will be obtained.
  • the product of object color similarity and shape similarity, the product of object shape similarity and pattern similarity, and the product of object pattern similarity and color similarity is calculated.
  • r11 is the first reliability regarding the color of the object
  • r12 is the first reliability regarding the shape of the object
  • r13 is the first reliability regarding the pattern of the object
  • the second reliability may be a value obtained by calculating a predetermined exponent and multiplying the plurality of first reliabilitys calculated by the first reliability calculation unit 21 with each other. .
  • the collation unit 23 performs object collation based on a plurality of second degrees of reliability.
  • the matching unit 23 compares, for example, any one of the above three second reliability degrees with a threshold value, and outputs the matching result of the object indicated by the target data.
  • FIG. 2 is a flow chart showing the flow of the matching method. As shown in the figure, the matching process includes steps S11, S12, and S13.
  • step S11 the first reliability calculation unit 21 calculates a first reliability for each of a plurality of indices related to the object indicated by the target data.
  • step S12 the second reliability calculation unit 22 calculates a plurality of second reliability from the plurality of first reliability.
  • step S13 the collation unit 23 collates objects based on a plurality of second degrees of reliability.
  • the first reliability is calculated for each of the plurality of indexes related to the object indicated by the target data, and the plurality of first reliabilitys are obtained from the plurality of first reliabilitys. Two confidences are calculated and matching of objects is performed based on the plurality of second confidences.
  • FIG. 3 is a block diagram illustrating a functional configuration example of the information processing device 10.
  • the information processing device 10 includes a matching device 20 , a control section 30 , a storage section 40 , a communication section 61 , an input section 62 and an output section 63 .
  • the verification device 20 is a functional block having the same functions as the verification device 20 described in the first exemplary embodiment.
  • the verification device 20 includes a first reliability calculation unit 21, a second reliability calculation unit 22, and a verification unit 23 each having the functions described above with reference to FIG.
  • the storage unit 40 is configured by, for example, a semiconductor memory device, and stores data.
  • the storage unit 40 stores target data and index information.
  • the target data according to this exemplary embodiment is data including objects to be matched, for example, image data of moving images.
  • the index information is information indicating a calculation method or the like for calculating the first reliability.
  • the communication unit 61 is an interface for connecting the information processing device 10 to a network.
  • the specific configuration of the network does not limit this exemplary embodiment, but as an example, a wireless LAN (Local Area Network), a wired LAN, a WAN (Wide Area Network), a public line network, a mobile data communication network, or , a combination of these networks can be used.
  • the input unit 62 receives various inputs to the information processing device 10 .
  • the specific configuration of the input unit 42 does not limit this exemplary embodiment, as an example, it can be configured to include input devices such as a keyboard and a touch pad.
  • the input unit 42 may also include a data scanner that reads data via electromagnetic waves such as infrared rays and radio waves, and a sensor that senses the state of the environment.
  • the output unit 63 is a functional block that outputs the processing result of the information processing device 10 .
  • the specific configuration of the output unit 43 is not intended to limit this exemplary embodiment, as an example, it is configured by a display, a speaker, a printer, etc., and displays various processing results by the information processing apparatus 10 on the screen. , output as audio or graphics.
  • the control unit 30 controls each unit of the matching device 20, the storage unit 40, the communication unit 61, the input unit 62, and the output unit 63 to execute various processes. Further, the control unit 30 performs various image processing, for example, to detect an object to be matched by the matching device 20 .
  • the information processing device 10 Since the information processing device 10 has the collation device 20 as described above, it can execute the collation processing described above with reference to FIG. 2 and execute further processing using the processing result.
  • the information processing device 10 executes object tracking processing using the processing result of the matching device 20.
  • the object tracking process refers to the process of assigning the same ID to corresponding (same) objects among objects that exist over a plurality of frames included in a moving image.
  • object tracking process for example, an object displayed in a frame of an image taken earlier in time is matched with an object displayed in a frame of an image taken later in time to detect a moving object. track.
  • object matching is performed by the matching device 20 .
  • Example of image subject to object tracking processing 4 to 6 are images for explaining object tracking processing executed by the information processing apparatus 10.
  • FIG. The flow of object tracking processing will be described later with reference to FIG.
  • FIGS. 4 to 6 each show a ball bouncing on the road surface.
  • FIGS. 5 and 6 are images corresponding to one of the frames that make up the moving image.
  • the image 102 shown in FIGS. 5 and 6 is the image of the tth frame.
  • An image 101 shown in FIG. 4 is an image captured temporally before the image 102 and is an image of the t ⁇ 1th frame.
  • the image 101 in FIG. 4 shows 16 balls, each surrounded by a rectangular frame.
  • Each ball in the image may be detected by existing image processing such as object extraction processing, or may be detected by a model learned by machine learning.
  • the detection of the object may be performed, for example, from within the area indicated by the user's operation performed via the input unit 42, or may be performed from within a previously designated area excluding a background image. can be
  • object detection can be performed by the graph cut method.
  • the graph cut method first, the boundary of the area forming the foreground object image to be cut out is calculated from the color distribution and the pixel color gradient of two types of images consisting of a foreground object image containing the object to be cut out and a background image. Then, the foreground object image to be clipped is extracted by clipping the image along the calculated boundary.
  • the 16 balls in FIG. 4 are assigned authentication numbers ID1 to ID16 (simply referred to as IDs).
  • the image 102 in FIG. 5 also shows 16 balls, but since the image 102 was taken after the image 101 in terms of time, the positions of the balls are slightly different.
  • the control unit 30 of the information processing device 10 first performs object extraction processing and the like on the image 102 to detect 16 balls as objects.
  • the control unit 30 attaches a rectangular frame to each of the 16 balls that are the detected objects, but does not attach an ID yet.
  • the information processing apparatus 10 determines whether or not each ball, which is an object detected in the image 102 of FIG. At this time, a matching process is executed by the matching device 20 to match the object of the image 102 with the object of the image 101 .
  • the control unit 30 of the information processing device 10 assigns the same ID to the ball in the image 102 as the ball in the image 101. Associate. For example, the ball in image 102 that is determined to be the same ball as the ball with ID1 in image 101 is assigned ID1, and the ball in image 102 that is determined to be the same ball as the ball with ID2 in image 101 is assigned ID2. be done. Similarly, the control unit 30 assigns an ID to each ball in the image 102 .
  • the image 102 in FIG. 6 shows 16 balls surrounded by rectangular frames, and IDs ID1 to ID16 are attached to each ball. That is, the information processing device 10 identifies each of the 16 balls shown in the image 101 in the image 102 . The information processing device performs object tracking processing in this manner.
  • the bouncing ball may go out of the screen and not appear in the image 102 .
  • the information processing apparatus 10 does not add ID1 and ID9 to the balls in the image 102, and ID2 to ID8 and ID10 to ID16. will be attached.
  • the information processing device 10 may assign a new ID (for example, ID17) to the new ball in the image 102 .
  • FIG. 7 is a flowchart for explaining the flow of object tracking processing.
  • the control unit 30 of the information processing device 10 acquires the image data of the moving image.
  • the image data is stored in the storage unit 40 as target data, for example.
  • the image data acquired here is image data of a moving image, and is composed of a plurality of frame images.
  • control unit 30 sets the value of the variable t to the initial value.
  • the control unit 30 detects an object in the t-th frame. Since the specific object detection processing has been described above, the description is omitted here. In this step, the control unit 30 may add a rectangular frame (bounding box) to the detected object, as shown in FIG. 5, for example.
  • step S34 the control unit 30 sets the object to be matched in the t-1th frame.
  • the object to be matched is an object to be matched among the objects displayed in the image of the t-1th frame.
  • each of the balls with ID1 to ID16 described above with reference to FIG. 4 is the matching target object.
  • step S35 the control unit 30 controls the matching device 20 to execute object matching processing, which will be described later. Details of the object matching process will be described later with reference to the flowchart of FIG.
  • step S36 the control unit 30 determines whether the image data acquired in step S31 includes the next frame. When it is determined in step S36 that there is a next frame, the control section 30 executes the process of step S37.
  • control unit 30 sets the value of the variable t to t+1. After that, the control unit 30 repeatedly executes the processes of steps S33 to S35.
  • step S36 When it is determined in step S36 that there is no next frame, the process of step S37 is skipped, and the control section 30 executes the process of step S38.
  • the control unit 30 outputs the matching result.
  • object tracking processing is performed.
  • the target data is the image data of the moving image
  • the matching device 20 converts the object included in the image of the first frame of the image data into the image of the second frame of the image data. Match the containing object.
  • step S51 the control unit 30 sets candidate objects from among the objects of the t-th frame.
  • a candidate object is an object that is highly likely to be the same as the matching target object detected in the process of step S34 of FIG.
  • the coordinates of the position where the object to be matched is detected in the image of the t ⁇ 1th frame are obtained, and the object located within a certain distance centered on the coordinates in the t frame is set as a candidate object.
  • step S52 the verification device 20 executes reliability calculation processing, which will be described later.
  • the reliability calculation process in step S52 of FIG. 8 will be described with reference to the flowchart of FIG.
  • the first reliability calculation unit 21 analyzes the object to be matched and the candidate object for each index.
  • the indicators may be the color, shape, pattern, and speed of the object.
  • the position, size, acceleration, etc. of the object may be used as indicators.
  • the first reliability calculation unit 21 calculates, for example, the average value of the pixel values of the object to be matched and the candidate object for the index “color”. do. In addition, the first reliability calculation unit 21 obtains, for example, a shape that approximates the contours of the object to be matched and the candidate object regarding the index “shape”. Furthermore, the first reliability calculation unit 21 detects edges in the object to be matched and the candidate objects, for example, regarding the index “pattern”.
  • the moving distance and the moving direction between one frame of the object to be matched and the candidate object are specified.
  • the moving distance and moving direction of the object to be matched are specified in advance by referring to the frame of the object to be matched and the frame before that frame, and the speed of the object to be matched is also calculated. Assuming that the object to be matched is the same as the candidate object, the moving distance and moving direction of the candidate object are obtained.
  • Information for specifying what to use as an index and how to calculate the first reliability may be set in advance, or the communication unit 61 or It may be input via the input unit 62 .
  • the information about the index may be provided as metadata included in the image data as the target data.
  • the storage unit 40 stores index information in which information about indexes is described, and the first reliability calculation unit 21 refers to the index information stored in the storage unit 40. to calculate the first reliability.
  • the first reliability calculation unit 21 acquires information about the index and calculates the first reliability based on the obtained information about the index.
  • the first reliability calculation unit 21 calculates the first reliability for each index. For example, if the indicators are the color, shape, pattern, and speed of an object, the similarities in color, shape, pattern, and speed between the object to be matched and the candidate object are calculated as the first reliability. Since there are a plurality of indices, a plurality (for example, n) of first reliability is calculated in step S72.
  • step S73 the second reliability calculation unit 22 removes arbitrary m reliability levels from the n first reliability levels obtained in step S72.
  • m is a natural number less than n.
  • first reliability a, first reliability b, first reliability c, and first reliability d is calculated.
  • the sets obtained in step S74 are four (a, b, c), (a, b, d), (a, c, d) and (b, c, d).
  • step S75 the second reliability calculation unit 22 calculates the second reliability by obtaining the product of the first reliability included in each set obtained in step S74.
  • "*" indicates an operation representing a product.
  • the second reliability calculation unit 22 selects any m (m is a natural number less than n) first reliability from n (n is a natural number equal to or greater than 2) first reliability. In each of the nCm sets obtained by removing , calculate a second confidence for that set by taking the product of all the first confidences contained in that set.
  • step S76 the collation unit 23 uses the maximum value max (M1, M2, M3, M4) of the second reliability calculated in step S75 as the reliability for collation. That is, the collation unit 23 collates the object based on the second reliability having the maximum value among the plurality of second reliabilities.
  • step S53 the matching unit 23 determines whether or not the reliability for matching is equal to or greater than the threshold. If the matching confidence is greater than or equal to the threshold, the candidate object is considered identical to the matching target object. In this way, the collation unit 23 performs object collation by comparing the second reliability having the maximum value with the threshold.
  • step S54 the control unit 30 assigns the same ID to the candidate object and matching object.
  • IDs are assigned to the candidate objects surrounded by rectangular frames.
  • step S53 determines in step S55 whether or not there is the next candidate object. If it is determined in step S55 that there is a next candidate object, the next candidate object is set in step S51, and steps S52 and S53 are executed.
  • step S55 If it is determined in step S55 that there is no next candidate object, the object matching process ends.
  • step S51 to step S55 is performed a plurality of times. In other words, the processes of steps S51 to S55 are repeatedly executed until matching is completed for all of the t-1-th matching objects. For example, when 16 balls are detected as matching objects, the object matching process is executed for each of the 16 balls.
  • the object matching process is executed in this way.
  • the information processing apparatus 10 executes the object tracking process, so that, for example, as described above with reference to FIGS. is tracked. That is, when it is determined that the ball in the image 102 of the t-th frame is the same as the ball in the t-1-th image 101, the ball in the image 102 that is the same as the ball in the image 101 is given the same ID. The object is tracked.
  • the second reliability calculator 22 may calculate the second reliability using the logarithm of the first reliability.
  • step S73 arbitrary m reliability levels are removed from the n first reliability levels obtained in step S72.
  • the second reliability calculation unit 22 removes arbitrary m pieces (m is a natural number less than n) of first reliability from 0 to 1. An operation may be performed in which a small value is used as the exponent.
  • the value of the first reliability becomes 1 by performing a power operation with an index of 0, when obtaining the product of the first reliability, it is equivalent to removing the first reliability of the index of 0. Arithmetic can be performed.
  • the first reliability calculation unit 21 calculates, for any m (m is a natural number less than n) first reliability among n (n is a natural number equal to or greater than 2) first reliability, In each of the n C m sets obtained by performing an operation whose index is greater than 0 and less than 1, by taking the product of all the first confidences contained in the set and the matching unit 23 performs matching of the object based on the second reliability having the maximum value among the second reliability for each of the n C m sets. You may do so.
  • first reliability a, first reliability b, first reliability c, and first reliability d are If so, (the index to apply to a, the index to apply to b, the index to apply to c, the index to apply to d) is (1, 1, 1, ⁇ ), (1, 1, ⁇ , 1), (1, ⁇ , 1, 1), ( ⁇ , 1, 1, 1).
  • is a real number greater than 0 and less than 1. Then, a power calculation using these power exponents is performed on the corresponding first reliability, and the second reliability is calculated by taking the product of the first reliability after the power calculation.
  • M1 a*b*c* d ⁇
  • M2 a*b* c ⁇ *d
  • M3 a* b ⁇ *c*d
  • M4 a ⁇ *b*c*d
  • the second reliability calculation unit 22 may calculate the second reliability using the logarithm of the first reliability even when performing exponentiation.
  • coefficients of each logarithm are not limited to the above examples, and more general coefficients can be used.
  • the candidate object is matched with the matching target object without considering any m of the n first reliability levels.
  • the possibility of determining that multiple candidate objects are the same as the target object to be matched increases.
  • the possibility of erroneously determining that objects that are originally not the same are the same increases the accuracy of collation.
  • the indicators used for matching may change, and the number of indicators not considered may also change.
  • the matching accuracy is reduced by matching the candidate object with the matching target object without considering any m of the n first reliability levels. It is possible to perform general-purpose collation that improves the recall while maintaining the
  • FIG. 10 is a block diagram showing a configuration example of the information processing apparatus 10 of this exemplary embodiment.
  • the storage unit 40 stores matching data. Otherwise, the configuration is the same as the example described with reference to FIG.
  • the data for verification is, for example, information indicating characteristics of a person to be verified, and the information processing apparatus 10 of FIG. to run.
  • FIG. 11A and 11B are diagrams showing examples of images captured in biometric authentication processing by the information processing apparatus 10.
  • FIG. Here, an example will be described in which an image of a person's face is captured and the features of the nose, mouth, and ears are compared with the features of the matching data.
  • FIG. 11 an image of the face of person 200 is captured.
  • areas enclosed by dotted ellipses indicate the nose, mouth, and ears of a person.
  • the control unit 30 of the information processing apparatus 10 executes face image recognition processing to identify the face of the photographed person, extracts characteristic points of the nose, mouth, and ears in the face, Identify mouth and ear areas.
  • Region P11 in FIG. 11 is the nose region of person 200
  • region P12 is the mouth region of person 200
  • region P13 is the left ear region of person 200
  • region P14 is the right ear region of person 200. is.
  • the matching data describes the characteristics of each of the nose, mouth, and ears.
  • the plurality of indicators are, for example, colors, shapes, and patterns.
  • the index “color” the average value of the pixel values of each area is described.
  • the index “shape” shapes that approximate the contours of the nose, mouth, and ears are described.
  • the index "pattern” the sizes and positions of black and brown portions in each region are described.
  • the matching data may be images of the nose, mouth, and ears.
  • the matching device 20 analyzes each of the images of the regions P11 to P14 for each index. For example, the first reliability calculation unit 21 calculates features related to a plurality of indices (for example, color, shape, pattern) in the image of region P11 (nose). Then, the first reliability calculation unit 21 calculates a plurality of first reliability by calculating the degree of similarity with the features of the nose described in the collation data. The first reliability calculation unit 21 calculates a plurality of first reliability with reference to index information stored in the storage unit 40, for example.
  • indices for example, color, shape, pattern
  • the second reliability calculation unit 22 calculates a plurality of second reliability regarding the nose of the person 200 by applying a predetermined calculation to some or all of the plurality of first reliability. do.
  • a specific example of the second reliability calculation method has been described in the second exemplary embodiment, so detailed description thereof will be omitted.
  • the matching unit 23 determines whether or not the nose feature of the matching data matches the nose feature of the person 200 by obtaining the reliability for matching and comparing it with the threshold.
  • the matching device 20 also matches the characteristics of the regions P12 to P14 (mouth, left ear, right ear) with the matching data.
  • the information processing apparatus 10 determines that the features of the nose, mouth, and ears of the verification data match the features of the nose, mouth, and ears of the person 200, the person 200 It is determined that the person is the same as the matching target person indicated by the data.
  • step S71 the control unit 30 of the information processing device 10 acquires image data.
  • image data for example, image data of an image including the face of the person 200 in FIG. 11 is acquired.
  • the image data may be stored in the storage unit 40 in advance, or may be acquired by photographing the person 200 with a camera, for example.
  • step S72 the control unit 30 extracts feature points in each region of the nose, mouth, and ears from the image data acquired in step S71. As a result, for example, regions P11 to P14 in FIG. 11 are extracted.
  • step S73 the control unit 30 reads and acquires the verification data from the storage unit 40.
  • step S74 the matching device 20 executes reliability calculation processing. Since this process is the same as the process described above with reference to FIG. 9, detailed description is omitted. is done.
  • step S74 is repeatedly executed corresponding to the number of regions extracted in step S72. For example, when the regions P11 to P14 are extracted in step S72, the process of step S74 is executed four times.
  • step S75 the matching unit 23 of the matching device 20 determines whether or not the reliability for matching calculated for each region is equal to or greater than the threshold.
  • step S76 the control unit 30 determines that the person in the image data matches the person to be verified.
  • step S77 the control unit 30 outputs the determination result via the output unit 63.
  • biometric authentication can be performed that improves the recall rate while maintaining matching accuracy.
  • Some or all of the functions of the information processing device 10 and the matching device 20 may be implemented by hardware such as an integrated circuit (IC chip), or may be implemented by software.
  • the information processing device 10 and the matching device 20 are implemented by, for example, a computer that executes program instructions that are software that implements each function.
  • a computer that executes program instructions that are software that implements each function.
  • An example of such a computer (hereinafter referred to as computer C) is shown in FIG.
  • Computer C includes at least one processor C1 and at least one memory C2.
  • a program P for operating the computer C as the information processing device 10 and the matching device 20 is recorded in the memory C2.
  • the processor C1 reads the program P from the memory C2 and executes it, thereby realizing each function of the information processing device 10 and the matching device 20.
  • FIG. 1 A program P for operating the computer C as the information processing device 10 and the matching device 20 is recorded in the memory C2.
  • the processor C1 reads the program P from the memory C2 and executes it, thereby realizing each function of the information processing device 10 and the matching device 20.
  • processor C1 for example, CPU (Central Processing Unit), GPU (Graphic Processing Unit), DSP (Digital Signal Processor), MPU (Micro Processing Unit), FPU (Floating point number Processing Unit), PPU (Physics Processing Unit) , a microcontroller, or a combination thereof.
  • memory C2 for example, a flash memory, HDD (Hard Disk Drive), SSD (Solid State Drive), or a combination thereof can be used.
  • the computer C may further include a RAM (Random Access Memory) for expanding the program P during execution and temporarily storing various data.
  • Computer C may further include a communication interface for sending and receiving data to and from other devices.
  • Computer C may further include an input/output interface for connecting input/output devices such as a keyboard, mouse, display, and printer.
  • the program P can be recorded on a non-temporary tangible recording medium M that is readable by the computer C.
  • a recording medium M for example, a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used.
  • the computer C can acquire the program P via such a recording medium M.
  • the program P can be transmitted via a transmission medium.
  • a transmission medium for example, a communication network or broadcast waves can be used.
  • Computer C can also obtain program P via such a transmission medium.
  • a matching device comprising: matching means for matching the object based on the plurality of second degrees of reliability.
  • Appendix 2 The collation device according to appendix 1, wherein the collation means collates the object based on a second reliability having a maximum value among the plurality of second reliabilities.
  • the second reliability calculation means is n C m sets obtained by removing any m (m is a natural number less than n) first reliability from the n (n is a natural number of 2 or more) first reliability in each calculating a second confidence for the set by taking the product of all the first confidences contained in the set;
  • the collation means The collation device according to appendix 1 or 2, wherein collation of the object is performed based on a second reliability having a maximum value among the second reliabilities regarding each of the nCm sets.
  • the second reliability calculation means is In n (n is a natural number equal to or greater than 2) first reliabilities, a value greater than 0 and less than 1 is used as an index for arbitrary m (m is a natural number less than n) first reliabilities
  • n is a natural number equal to or greater than 2
  • first reliabilities a value greater than 0 and less than 1 is used as an index for arbitrary m (m is a natural number less than n) first reliabilities
  • n C m sets obtained by performing the operation to be performed, calculating a second confidence for the set by taking the product of all the first confidences contained in the set;
  • the collation means The collation device according to appendix 1 or 2, wherein collation of the object is performed based on a second reliability having a maximum value among the second reliabilities regarding each of the nCm sets.
  • the first reliability calculation means is obtaining information about the indicator; 6.
  • the collation device according to any one of appendices 1 to 5, wherein the first reliability is calculated based on the acquired information about the index.
  • the target data is moving image data, 7. according to any one of appendices 1 to 6, wherein the collating means collates an object included in a first frame image of the moving image data with an object included in a second frame image of the moving image data. Verification device as described.
  • appendix 9 The verification device according to appendix 8, further comprising biometric authentication means for executing biometric authentication processing with reference to a verification result by the verification means.
  • first reliability calculation means for calculating a first reliability for each of a plurality of indices related to an object indicated by target data
  • second reliability calculation means for calculating a plurality of second reliability from the plurality of first reliability
  • a program functioning as a collation device comprising collation means for collating the object based on the plurality of second degrees of reliability.
  • processor comprising: a process of calculating a first reliability for each of a plurality of indices related to an object indicated by target data; a process of calculating a plurality of second reliabilities from the plurality of first reliabilities; and a process of matching the object based on the plurality of second degrees of reliability.
  • the information processing apparatus may further include a memory, and the memory may store a program for causing the processor to execute the acquisition process and the output sequence generation process. Also, this program may be recorded in a computer-readable non-temporary tangible recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

照合精度を保ちつつ再現率を向上させる汎用的な照合の技術を提供できるようにするという課題を解決するために、照合装置(20)は、対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する第1の信頼度算出手段(21)と、複数の前記第1の信頼度から複数の第2の信頼度を算出する第2の信頼度算出手段(22)と、前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う照合手段(23)とを備えるとを備える。

Description

照合装置、照合方法、およびプログラム
 本発明は、照合精度を保ちつつ再現率を向上させる汎用的な照合の技術を提供できるようにする照合装置、照合方法、およびプログラムに関する。
 従来、画像上での物体照合技術が知られている。画像上での物体照合は、”見え”や“色”など定めた指標に従い、その信頼度を算出することによって行われる。信頼度によって、物体の、指標についての類似度が表される。しかし、様々な環境変化や対象物体自身の変化に対応可能な”単一の指標”を設計することは難しい。
 そこで、複数の指標を組み合わせて、様々な環境変化や対象物体自身の変化に対応することが行われている。
 例えば、指紋照合を行うとき、2つの指標を用いる技術が提案されている。特許文献1では、第1パタン照合では、群遅延スペクトルと指紋登録者の登録済特徴量とのパタン照合が行なわれる。第2パタン照合では、空間スペクトルと予め同様の処理をした指紋登録者の登録済空間スペクトルとのパタン照合が行なわれる。
日本国特許出願 平6-60167号公報
 しかし、複数の指標のいずれかを基準に照合を行うと、照合精度が低下する。一方で、指標を単純に掛け合わせて照合を行うと、同じ物体であるにもかかわらず、不一致と判定されることが多く、再現率が低下するという課題がった。
 本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、照合精度を保ちつつ再現率を向上させる汎用的な照合の技術を提供できるようにすることである。
 本発明の一側面に係る照合装置は、対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する第1の信頼度算出手段と、複数の前記第1の信頼度から複数の第2の信頼度を算出する第2の信頼度算出手段と、前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う照合手段とを備える。
 本発明の一側面に係る照合方法は、対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出すること、複数の前記第1の信頼度から複数の第2の信頼度を算出すること、前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行うことを含む。
 本発明の一側面に係るプログラムは、コンピュータを、対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する第1の信頼度算出手段と、複数の前記第1の信頼度から複数の第2の信頼度を算出する第2の信頼度算出手段と、前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う照合手段とを備える照合装置として機能させる。
 本発明の一態様によれば、照合精度を保ちつつ再現率を向上させる汎用的な照合の技術を提供できるようにする。
本発明の例示的実施形態1に係る照合装置の構成例を示すブロック図である。 本発明の例示的実施形態1に係る照合方法の流れを示すフローチャートである。 本発明の例示的実施形態2に係る情報処理装置の構成例を示すブロック図である。 オブジェクトトラッキング処理の例を説明する画像である。 オブジェクトトラッキング処理の例を説明する画像である。 オブジェクトトラッキング処理の例を説明する画像である。 オブジェクトトラッキング処理の流れを説明するフローチャートである。 オブジェクト照合処理の詳細な例について説明するフローチャートである。 照合信頼度算出処理の詳細な例について説明するフローチャートである。 本発明の例示的実施形態3に係る情報処理装置の構成例を示すブロック図である。 生体認証処理の例を説明する画像である。 生体認証処理の流れを示すフローチャートである。 各機能を実現するプログラムの命令を実行するコンピュータの例を示す図である。
 〔例示的実施形態1〕
 本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
 <照合装置20の概要>
 本例示的実施形態に係る照合装置20は、概略的に言えば、1又は複数のオブジェクトに関する照合処理を行う装置である。ここで、照合装置20は複数のオブジェクトが互いに対応するオブジェクトであるか否かを判定することもできるし、各オブジェクトを照合用データと比較し、当該照合用データに整合するオブジェクトであるかを判定することもできる。
 なお、本明細書において、第1のオブジェクトと第2のオブジェクトとが対応するオブジェクトである場合、又は、これらのオブジェクトが同一視すべきオブジェクトである場合に、これらのオフジェクトは「同一」である、または、「互いに一致する」などと表現することもある。
 照合装置20において、互いに一致するオブジェクトは、一例として同一のIDによって管理される。例えば、あるフレームにおいて検出されたオブジェクトと、当該あるフレームの次のフレームにおいて検出されたオブジェクトとが同一のオブジェクトであると判定した場合、照合装置20はこれらのオブジェクトに同一のIDを関連付けて管理する。
 照合装置20は、一例として、
 対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する第1の信頼度算出手段と、
 複数の前記第1の信頼度から複数の第2の信頼度を算出する第2の信頼度算出手段と、
 前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う照合手段と
 を備えている。
 <照合装置20の構成>
 本例示的実施形態に係る照合装置20の構成について、図1を参照して説明する。図1は、照合装置20の構成例を示すブロック図である。
 図1に示すように、照合装置20は、第1の信頼度算出部21、第2の信頼度算出部22、および照合部23を備える。第1の信頼度算出部21は、本例示的実施形態において第1の信頼度算出手段を実現する構成である。第2の信頼度算出部22は、本例示的実施形態において第2の信頼度算出手段を実現する構成である。照合部23は、本例示的実施形態において照合手段を実現する構成である。
 第1の信頼度算出部21は、対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する。ここで、対象データとは、照合装置20による照合処理の対象となるデータのことであり、画像データ、音声データ、点群データ、及びその他のセンシングデータ等が含まれ得るが、これらは本例示的実施形態を限定するものではない。
 また、本例示的実施形態において、オブジェクトに関する指標とは、当該オブジェクトに関する属性を示すものであってもよいし、当該属性を数値的に評価したものであってもよい。
 例えば、対象データが画像データである場合、上記複数の指標は、当該画像データが示す画像の中のオブジェクトの色、形、模様などである。
 また、本例示的実施形態において「信頼度」とは、一例として、あるオブジェクトと、当該オブジェクトの比較対象とがどれだけ類似しているかを示す度合いである。例えば、動画像に表示されたオブジェクトを追跡する処理を実行する際には、時間的に前に撮影された画像に表示されたオブジェクトと、時間的に後に撮影された画像に表示されたオブジェクトがどれだけ類似するかを示す信頼度が用いられる。また、例えば、予め与えられた照合用データと物体とを比較する処理を実行する際には、照合用データによって示される特徴と、物体の特徴とがどれだけ類似するかを示す信頼度が用いられる。
 第1の信頼度算出部21は、例えば、対象データが示すオブジェクトの色、形、模様について、当該オブジェクトの色、形、模様と、当該オブジェクトの比較対象の色、形、模様との類似の度合いを表す値を算出し、第1の信頼度とする。
 第2の信頼度算出部22は、複数の第1の信頼度から複数の第2の信頼度を算出する。ここで、第2の信頼度算出部22は、複数の第1の信頼度の一部又は全部に対して、所定の演算を適用することによって複数の第2の信頼度を算出する。
 第2の信頼度は、例えば、第1の信頼度算出部21が算出した複数の第1の信頼度の一部の積をとることによって得られた値であってもよい。この場合、第1の信頼度算出部21が算出した複数の第1の信頼度のうち、何れの第1の信頼度を積の対象から外すかに応じて、複数の第2の信頼度が得られることになる。
 上述の例においては、オブジェクトの色の類似度と形の類似度との積、オブジェクトの形の類似度と模様の類似度との積、およびオブジェクトの模様の類似度と色の類似度との積という3つの第2の信頼度が算出される。
 例えば、オブジェクトの色に関する第1の信頼度をr11、オブジェクトの形に関する第1の信頼度をr12、オブジェクトの模様に関する第1の信頼度をr13とした場合、以下の第2の信頼度R21、R22、およびR23が算出される。
 R21=r11*r12, R22=r11*r13, R23=r12*r13
 また、第2の信頼度は、第1の信頼度算出部21が算出した複数の第1の信頼度に対して、所定のべき指数を演算したうえで互いに掛け合わせた値であってもよい。この場合、複数の第1の信頼度に対して、べき指数の複数の組み合わせを適用することによって、複数の第2の信頼度が得られることになる。
 照合部23は、複数の第2の信頼度に基づき、オブジェクトの照合を行う。照合部23は、例えば、上述の3つの第2の信頼度のいずれかを閾値と比較することで、対象データが示すオブジェクトの照合結果を出力する。
 <照合装置20による照合方法の流れ>
 以上のように構成された照合装置20が実行する照合方法の流れについて、図2を参照して説明する。図2は、照合方法の流れを示すフローチャートである。同図に示されるように、照合処理は、ステップS11、ステップS12、およびステップS13を含んでいる。
 ステップS11において、第1の信頼度算出部21は、対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する。
 ステップS12において、第2の信頼度算出部22は、複数の第1の信頼度から複数の第2の信頼度を算出する。
 ステップS13において、照合部23は、複数の第2の信頼度に基づき、オブジェクトの照合を行う。
 <照合装置20および照合方法の効果>
 本例示的実施形態に係る照合装置20および照合方法によれば、対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度が算出され、複数の第1の信頼度から複数の第2の信頼度が算出され、複数の第2の信頼度に基づき、オブジェクトの照合が行われる。
 このようにすることで、照合精度を保ちつつ再現率を向上させる汎用的な照合の技術を提供できる。例えば、照合するオブジェクトの種類、オブジェクトが存在する環境などにかかわらず、適正な照合精度と高い再現率を実現することができる。
 〔例示的実施形態2〕
 本発明の第2の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 <情報処理装置10の構成>
 本例示的実施形態に係る情報処理装置10の構成について、図3のブロック図を参照して説明する。
 図3は、情報処理装置10の機能的構成例を説明するブロック図である。図3に示すように、情報処理装置10は、照合装置20、制御部30、記憶部40、通信部61、入力部62、および出力部63を備えている。
 照合装置20は、例示的実施形態1において説明した照合装置20と同様の機能を有する機能ブロックである。照合装置20は、図1を参照して上述した機能をそれぞれ有する第1の信頼度算出部21、第2の信頼度算出部22、および照合部23を備えている。
 記憶部40は、例えば、半導体メモリデバイスなどにより構成され、データを記憶する。この例では、記憶部40に対象データおよび指標情報が記憶されている。
 ここで、本例示的実施形態に係る対象データは、照合すべきオブジェクトを含むデータであり、例えば、動画の画像データである。また、指標情報は、第1の信頼度を算出するための演算方式などが示された情報である。
 通信部61は、情報処理装置10を、ネットワークに接続するためのインタフェースである。ネットワークの具体的構成は本例示的実施形態を限定するものではないが、一例として、無線LAN(Local Area Network)、有線LAN、WAN(Wide Area Network)、公衆回線網、モバイルデータ通信網、又は、これらのネットワークの組み合わせを用いることができる。
 入力部62は、情報処理装置10に対する各種の入力を受け付ける。入力部42の具体的構成は本例示的実施形態を限定するものではないが、一例として、キーボード及びタッチパッド等の入力デバイスを備える構成とすることができる。また、入力部42は、赤外線や電波等の電磁波を介してデータの読み取りを行うデータスキャナ、及び、環境の状態をセンシングするセンサ等を備える構成としてもよい。
 出力部63は、情報処理装置10による処理結果を出力する機能ブロックである。出力部43の具体的構成は本例示的実施形態を限定するものではないが、一例として、ディスプレイ、スピーカ、プリンタなどにより構成され、情報処理装置10による各種処理結果などを画面上に表示したり、音声や図として出力したりする。
 制御部30は、照合装置20、記憶部40、通信部61、入力部62、および出力部63の各部を制御して各種の処理を実行する。また、制御部30は、各種の画像処理を実行することで、例えば、照合装置20によって照合されるオブジェクトの検出などを行う。
 情報処理装置10は、上述したように照合装置20を有しているので、図2を参照して上述した照合処理を実行し、処理結果を利用してさらなる処理を実行することができる。ここでは、一例として、情報処理装置10が、照合装置20の処理結果を利用してオブジェクトトラッキング処理を実行する場合について説明する。
 ここで、オブジェクトトラッキング処理は、動画像に含まれる複数のフレームに亘って存在するオブジェクトのうち、対応する(同一の)オブジェクトに対して同一のIDを付す処理のことを言う。オブジェクトトラッキング処理では、一例として、時間的に前に撮影された画像のフレームに表示されたオブジェクトと、時間的に後に撮影された画像のフレームに表示されたオブジェクトとを照合することで、動くオブジェクトを追跡する。ここで、オブジェクトの照合は、照合装置20により行われる。
 (オブジェクトトラッキング処理の対象となる画像の例)
 図4乃至図6は、情報処理装置10により実行されたオブジェクトトラッキング処理を説明する画像である。なお、オブジェクトトラッキング処理の流れについては、図7を参照して後述する。
 図4乃至図6の画像には、それぞれ路面上ではねるボールが写っている。
 図4乃至図6は、動画像を構成するフレームの1つに対応する画像とされる。例えば、動画像が、第1番目のフレームから第N番目のフレームまでのN個のフレームにより構成される場合、図5および図6に示される画像102が第t番目のフレームの画像である。図4に示される画像101は、画像102より時間的に前に撮影された画像であって、t-1番目のフレームの画像である。
 図4の画像101には、16個のボールが写っており、それぞれのボールが矩形の枠で囲まれている。なお、画像の中の個々のボールは、既存のオブジェクト抽出処理などの画像処理によって検出されるようにしてもよいし、機械学習により学習されたモデルにより検出されるようにしてもよい。オブジェクトの検出は、例えば、入力部42を介して行われるユーザの操作により示された領域の中から行われるようにしてもよい、予め指定された背景画像を除く領域の中から検出されるようにしてもよい。
 一例として、オブジェクトの検出は、グラフカット法により行うことができる。グラフカット法では、まず、切り出したいオブジェクトを含む前景オブジェクト画像と、背景画像とからなる2種類の画像の色分布や画素カラーの勾配から切り出すべき前景オブジェクト画像を構成する領域の境界を計算する。そして、計算された境界に沿って画像が切り出されることにより、切り出したい前景オブジェクト画像が抽出される。
 図4の16個のボールには、それぞれID1乃至ID16の認証番号(単にIDと称する)が付されている。
 図5の画像102には、やはり16個のボールが写っているが、画像102は、画像101よりも時間的に後に撮影された画像なので、各ボールの位置がわずかに異なっている。情報処理装置10の制御部30は、まず、画像102においてオブジェクト抽出処理などを行って、16個のボールをオブジェクトとして検出する。
 図5の例において、制御部30は、検出されたオブジェクトである16個のボールには、それぞれ矩形の枠を付しているが、まだIDを付していない。情報処理装置10は、図5の画像102において検出されたオブジェクトであるボールのそれぞれが、画像101で検出されたID1乃至ID16のボールと同一であるか否かを判定する。この際、照合装置20により照合処理が実行され、画像102のオブジェクトが、画像101のオブジェクトと照合される。
 照合の結果、画像102のボールが、画像101のボールと同一であると判定された場合、情報処理装置10の制御部30は、画像101のボールと同一の画像102のボールとに同じIDを関連付ける。例えば、画像101のID1のボールと同じボールと判定された画像102のボールには、ID1が付され、画像101のID2のボールと同じボールと判定された画像102のボールには、ID2が付される。同様にして、制御部30は、画像102のボールにそれぞれIDを付していく。
 図6の画像102には、それぞれ矩形の枠で囲まれた16個のボールが写っており、各ボールにID1乃至ID16のIDが付されている。すなわち、情報処理装置10は、画像101に写っていた16個のボールのそれぞれを、画像102において特定する。情報処理装置は、このようにしてオブジェクトトラッキング処理を行う。
 なお、図4乃至図6を参照して上述した例では、画像101の16個のボールのそれぞれがすべて画像102に写っている場合の例について説明した。しかし、例えば、弾んだボールが画面の外に出て、画像102に写らない場合もあり得る。例えば、画面の外に出たボールがID1のボールとID9のボールであったとき、情報処理装置10は、画像102のボールには、ID1とID9を付さず、ID2乃至ID8およびID10乃至ID16を付すことになる。
 また、例えば、新たなボールが飛んでくる場合もあり得る。この場合、情報処理装置10は、画像102で、新たなボールに新たなID(例えば、ID17)を付してもよい。
 <情報処理装置10によるオブジェクトトラッキング処理の流れ>
 次に、図7のフローチャートを参照して、情報処理装置10によるオブジェクトトラッキング処理の例について説明する。図7は、オブジェクトトラッキング処理の流れを説明するフローチャートである。
 ステップS31において、情報処理装置10の制御部30は、動画の画像データを取得する。画像データは、例えば、対象データとして、記憶部40に記憶されている。なお、ここで取得される画像データは、動画像の画像データであり、複数のフレーム画像により構成される。
 ステップS32において、制御部30は、変数tの値を初期値にする。
 ステップS33において、制御部30は、t番目のフレームにおけるオブジェクトを検出する。具体的なオブジェクト検出処理については上述したためここでは説明を省略する。なお、本ステップにおいて、制御部30は、例えば、図5に示されるように、検出したオブジェクトに矩形の枠(バウンディングボックス)を付してもよい。
 ステップS34において、制御部30は、t-1番目のフレームにおいて照合対象オブジェクトを設定する。ここで、照合対象オブジェクトは、t-1番目のフレームの画像に表示されたオブジェクトのうち、これから照合されるオブジェクトである。例えば、図4を参照して上述したID1乃至ID16のボールのそれぞれが、照合対象オブジェクトとなる。
 なお、t-1番目のフレームの画像に照合対象オブジェクトが複数ある場合、個々の照合対象オブジェクトに対応して後述する処理が繰り返し実行される。
 ステップS35において、制御部30は、照合装置20を制御して、後述するオブジェクト照合処理を実行させる。オブジェクト照合処理の詳細については、図8のフローチャートを参照して後述する。
 ステップS36において、制御部30は、ステップS31で取得された画像データに、次のフレームがあるか否かを判定する。ステップS36において、次のフレームがあると判定された場合、制御部30は、ステップS37の処理を実行する。
 ステップS37において、制御部30は、変数tの値をt+1に設定する。その後、制御部30は、ステップS33乃至ステップS35の処理を繰り返し実行する。
 ステップS36において、次のフレームがないと判定された場合、ステップS37の処理はスキップされ、制御部30は、ステップS38の処理を実行する。
 ステップS38において、制御部30は、照合結果を出力する。このようにして、オブジェクトトラッキング処理が実行される。このように、オブジェクトトラッキング処理では、対象データが、動画の画像データとされ、照合装置20は、画像データの第1のフレームの画像に含まれるオブジェクトを、画像データの第2のフレームの画像に含まれるオブジェクトと照合する。
 (オブジェクト照合処理の流れ)
 次に図8のフローチャートを参照して、図7のステップS35のオブジェクト照合処理の詳細について説明する。
 ステップS51において、制御部30は、t番目のフレームのオブジェクトの中から候補オブジェクトを設定する。候補オブジェクトは、図7のステップS34の処理で検出された照合対象オブジェクトと同じである可能性の高いオブジェクトである。一例として、t-1番目のフレームの画像の中で照合対象オブジェクトが検出された位置の座標が求められ、tフレームの中で、当該座標を中心として一定の距離の範囲内に位置するオブジェクトが候補オブジェクトとして設定される。
 ステップS52において、照合装置20は、後述する信頼度算出処理を実行する。ここで、図9のフローチャートを参照して、図8のステップS52の信頼度算出処理の詳細な例について説明する。
 ステップS71において、第1の信頼度算出部21は、指標毎に、照合対象オブジェクトと候補オブジェクトを解析する。ここで、指標は、オブジェクトの色、形、模様、および速度であってよい。あるいは、オブジェクトの位置、サイズ、および加速度などが指標とされてもよい。
 指標が、オブジェクトの色、形、模様、および速度である場合、第1の信頼度算出部21は、例えば、指標「色」に関し、照合対象オブジェクトと候補オブジェクトの画素値の平均値などを算出する。また、第1の信頼度算出部21は、例えば、指標「形」に関し、照合対象オブジェクトと候補オブジェクトの輪郭を近似する形状などが求める。さらに、第1の信頼度算出部21は、例えば、指標「模様」に関し、照合対象オブジェクトと候補オブジェクトの中のエッジを検出する。
 また、例えば、指標「速度」に関し、照合対象オブジェクトと候補オブジェクトの1フレーム間での移動距離及び移動の向きが特定される。なお、照合対象オブジェクトの移動距離および移動の向きは、照合対象オブジェクトのフレームと、当該フレームの前のフレームとを参照して予め特定されており、照合対象オブジェクトの速度も算出されている。照合対象オブジェクトが候補オブジェクトと同一であると仮定して、候補オブジェクトの移動距離および移動の向きが求められる。
 なお、何を指標とするか、どのように第1の信頼度を演算するかなどを特定するための情報(指標に関する情報と称する)は、予め設定されていてもよいし、通信部61または入力部62を介して入力されるようにしてもよい。あるいは、対象データとしての画像データに含まれるメタデータなどとして指標に関する情報が与えられるようにしてもよい。
 図3においては、一例として、記憶部40に、指標に関する情報が記述された指標情報が記憶されており、第1の信頼度算出部21は、記憶部40に記憶された指標情報を参照して第1の信頼度を演算する。
 第1の信頼度算出部21は、指標に関する情報を取得し、取得した指標に関する情報に基づいて第1の信頼度を算出する。
 ステップS72において、第1の信頼度算出部21は、第1の信頼度を指標毎に算出する。例えば、指標が、オブジェクトの色、形、模様、および速度である場合、照合対象オブジェクトと候補オブジェクトの色、形、模様、および速度の類似性が、それぞれ第1の信頼度として算出される。なお、指標は複数存在するので、ステップS72では、複数(例えば、n個)の第1の信頼度が算出されることになる。
 ステップS73において、第2の信頼度算出部22は、ステップS72で求めたn個の第1の信頼度のうち、任意のm個の信頼度を取り除く。ここで、mは、n未満の自然数とする。
 ステップS74において、第2の信頼度算出部22は、通りの信頼度の組を作る。例えば、指標の数が4であり、ステップS73において1個の信頼度が取り除かれる場合、nが4でありmが3であるから、=4通りの組が得られることになる。
 より具体的には、指標A、指標B、指標C、および指標Dのそれぞれについて、第1の信頼度a、第1の信頼度b、第1の信頼度c、および第1の信頼度dが算出されたものとする。この場合、ステップS74で得られる組は、(a,b,c)、(a,b,d)、(a,c,d)および(b,c,d)の4通りである。
 ステップS75において、第2の信頼度算出部22は、ステップS74で得られた各組に含まれる第1の信頼度の積を求めることで、第2の信頼度を算出する。上述した例の場合、M1=a*b*c,M2=a*b*d,M3=a*c*d,およびM4=b*c*dの4つの第2の信頼度が求められることになる。ここで、「*」は積を表す演算を示している。
 このように、第2の信頼度算出部22は、n個(nは2以上の自然数)の第1の信頼度から、任意のm個(mはn未満の自然数)の第1の信頼度を取り除くことによって得られるnCm個の組の各々において、当該組に含まれる全ての第1の信頼度の積をとることによって当該組に関する第2の信頼度を算出する。
 ステップS76において、照合部23は、ステップS75で算出された第2の信頼度の最大値max(M1,M2,M3,M4)を照合用信頼度とする。すなわち、照合部23は、複数の第2の信頼度のうち、最大の値を有する第2の信頼度に基づき、前記オブジェクトの照合を行う。
 このようにして、信頼度算出処理が実行される。
 図8に戻って、ステップS52の処理の後、ステップS53において、照合部23は、照合用信頼度が閾値以上であるか否かを判定する。照合用信頼度が閾値以上である場合、候補オブジェクトが照合対象オブジェクトと同一であると考えられる。このように、照合部23は、最大の値を有する第2の信頼度を閾値と比較することで、オブジェクトの照合を行う。
 ステップS53において、照合用信頼度が閾値以上であると判定された場合、ステップS54において制御部30は、候補オブジェクトと照合対象オブジェクトと同一のIDを付す。これにより、例えば、図6を参照して上述したように、矩形の枠で囲まれた候補オブジェクトにIDが付されることになる。
 一方、ステップS53において、照合用信頼度が閾値以上ではないと判定された場合、ステップS55において制御部30は、次の候補オブジェクトがあるか否かを判定する。ステップS55において次の候補オブジェクトがあると判定された場合、ステップS51において、次の候補オブジェクトが設定され、ステップS52とステップS53の処理が実行される。
 ステップS55において、次の候補オブジェクトがないと判定された場合、オブジェクト照合処理は終了する。
 なお、t-1番目のフレームにおいて、照合対象オブジェクトが複数検出された場合、ステップS51乃至ステップS55の処理は、複数回実行される。すなわち、t-1番目における照合対象オブジェクトの全てに対する照合が完了するまでステップS51乃至ステップS55の処理が繰り返し実行される。例えば、照合対象オブジェクトとして、16個のボールが検出された場合、16個のボールの各々について、オブジェクト照合処理が実行されることになる。
 このようにしてオブジェクト照合処理が実行される。
 図7乃至図9を参照して説明したように、情報処理装置10によってオブジェクトトラッキング処理が実行されることにより、例えば、図4乃至図6を参照して上述したように、画像の中のボールが追跡される。すなわち、t番目のフレームの画像102のボールが、t-1番目の画像101のボールと同一であると判定された場合、画像101のボールと同一の画像102のボールに同じIDが付されることで、オブジェクトが追跡される。
 (第2の信頼度の他の例1)
 第2の信頼度算出部22は、第2の信頼度を第1の信頼度の対数を用いて算出してもよい。
 具体的には、指標A、指標B、指標C、および指標Dのそれぞれについて、第1の信頼度a、第1の信頼度b、第1の信頼度c、および第1の信頼度dが算出された場合、第2の信頼度M1~M4として、
M1=log a + log b + log c
M2=log a + log b + log d
M3=log a + log c + log d
M3=log b + log c + log d
を用いてもよい。
 (第2の信頼度の他の例2)
 上述した例では、ステップS73において、ステップS72で求めたn個の第1の信頼度のうち、任意のm個の信頼度が取り除かれると説明した。しかし、第2の信頼度算出部22は、任意のm個の信頼度を取り除く代わりに、任意のm個(mはn未満の自然数)の第1の信頼度に対して0より大きく1より小さい値を指数とするべき演算を行うようにしてもよい。
 例えば、指数0によるべき演算を行うことにより、第1の信頼度の値が1になるため、第1の信頼度の積を求めるとき、指数0の第1の信頼度を取り除くことと等価の演算を行うことができる。
 すなわち、第1の信頼度算出部21は、n個(nは2以上の自然数)の第1の信頼度において、任意のm個(mはn未満の自然数)の第1の信頼度に対して0より大きく1より小さい値を指数とするべき演算を行うことによって得られる個の組の各々において、当該組に含まれる全ての第1の信頼度の積をとることによって当該組に関する第2の信頼度を算出し、照合部23は、個の組の各々に関する第2の信頼度のうち、最大の値を有する第2の信頼度に基づき、オブジェクトの照合を行うようにしてもよい。
 具体的には、指標A、指標B、指標C、および指標Dのそれぞれについて、第1の信頼度a、第1の信頼度b、第1の信頼度c、および第1の信頼度dが算出された場合、(aに適用するべき指数、bに適用するべき指数、cに適用するべき指数、dに適用するべき指数)を(1、1、1、α)、(1、1、α、1)、(1、α、1、1)、(α、1、1、1)に設定してもよい。
 ここで、αは、0より大きく1より小さい実数である。そして、これらのべき指数によるべき演算を、それぞれ対応する第1の信頼度に対して行ってうえで、べき演算演算後の第1の信頼度の積をとることによって第2の信頼度を算出してもよい。
 より具体的には、
M1=a * b * c * dα
M2=a * b * cα * d
M3=a * bα * c * d
M4=aα * b * c * d
によって複数の第2の信頼度M1~M4を算出してもよい。
 (第2の信頼度の他の例3)
 また、第2の信頼度算出部22は、べき演算を行う場合にも、第2の信頼度を第1の信頼度の対数を用いて算出してよい。
 すなわち、他の例2で説明したように、(aに適用するべき指数、bに適用するべき指数、cに適用するべき指数、dに適用するべき指数)を(1、1、1、α)、(1、1、α、1)、(1、α、1、1)、(α、1、1、1)に設定し、これらのべき指数によるべき演算を、それぞれ対応する第1の信頼度に対して行ってうえで、第2の信頼度M1~M4として、
M1=log a + log b + log c + α*log d
M2=log a + log b + α*log c + log d
M3=log a + α*log b + log c + log d
M3=α*log a + log b + log c + log d
を用いてもよい。
 さらに、各対数の係数は、上記の例に限定されるものではなく、より一般的な係数を用いることもできる。
 <例示的実施形態2の効果>
 このように情報処理装置10においては、n個の第1の信頼度のうち、任意のm個をあえて考慮せずに、候補オブジェクトを照合対象オブジェクトと照合する。
 例えば、複数の指標のいずれかを基準に照合を行うと、複数の候補オブジェクトが照合対象オブジェクトと同一であると判定される可能性が高くなる。すなわち、本来同一ではないオブジェクトが誤って同一であると判定される可能性が高くなることで照合精度が低下する。
 一方で、指標を単純に掛け合わせて照合を行うと、同じ物体であるにもかかわらず、不一致と判定される可能性が高くなり、再現率が低下する。
 また、照合対象のオブジェクトに応じて、照合に用いる指標も変わり得るし、考慮しない指標の数も変わり得る。
 本例示的実施形態の情報処理装置10によれば、n個の第1の信頼度のうち、任意のm個をあえて考慮せずに、候補オブジェクトを照合対象オブジェクトと照合することで、照合精度を保ちつつ再現率を向上させる汎用的な照合を行うことができる。
 〔例示的実施形態3〕
 次に、本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1および2にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
 図10は、本例示的実施形態の情報処理装置10の構成例を示すブロック図である。図10の例では、記憶部40に照合用データが記憶されている。それ以外の構成は、図3を参照して説明した例と同様である。
 照合用データは、一例として、照合対象人物の特徴を示す情報であり、図10の情報処理装置10は、一例として、照合用データを用いた照合装置20の処理結果を利用して生体認証処理を実行する。
 図11は、情報処理装置10による生体認証処理において撮影される画像の例を示す図である。ここでは、人物の顔の画像を撮影し、鼻、口、耳の特徴を、照合用データの特徴と照合する例について説明する。
 図11においては、人物200の顔の画像が撮影されている。この画像において、点線の楕円で囲まれた領域が人物の鼻、口、および耳を示している。情報処理装置10の制御部30は、顔画像認識処理を実行し、撮影した人物の顔を特定するとともに、顔の中の鼻、口、耳の特徴点を抽出し、顔の中の鼻、口、耳の領域を特定する。
 図11の領域P11は人物200の鼻の領域であり、領域P12は人物200の口の領域であり、領域P13は人物200の左耳の領域であり、領域P14は人物200の右耳の領域である。
 照合用データには、鼻、口、および耳のそれぞれの特徴が記述されている。特徴は、複数の指標に関して記述される。ここで複数の指標は、一例として、色、形、模様とされる。指標「色」に関し、各領域の画素値の平均値などが記述されている。また、指標「形」に関し、鼻、口、および耳のそれぞれの輪郭を近似する形状などが記述されている。さらに、指標「模様」に関し、各領域の中での黒色の部分、茶色の部分などの大きさ、位置などが記述されている。
 なお、照合用データは、鼻、口、および耳の画像であってもよい。
 照合装置20は、領域P11乃至P14の画像のそれぞれを、指標毎に解析する。例えば、第1の信頼度算出部21が、領域P11(鼻)の画像において、複数の指標(例えば、色、形、模様)に関する特徴を算出する。そして、第1の信頼度算出部21は、照合用データに記述された鼻の特徴との類似度を算出することで、第1の信頼度を複数算出する。第1の信頼度算出部21は、例えば、記憶部40に記憶された指標情報を参照して複数の第1の信頼度を算出する。
 さらに、第2の信頼度算出部22は、複数の第1の信頼度の一部又は全部に対して、所定の演算を適用することによって人物200の鼻に関する複数の第2の信頼度を算出する。第2の信頼度の算出方式に関する具体的な例は、例示的実施形態2において説明した通りなので、詳細な説明は省略する。
 なお、第2の信頼度の算出方式として、例示的実施形態2において説明した「第2の信頼度の他の例1」、「第2の信頼度の他の例2」、または「第2の信頼度の他の例2」を適用することも可能である。
 そして、照合部23は、照合用信頼度を求め、閾値と比較することにより、照合用データの鼻の特徴と、人物200の鼻の特徴が一致しているか否かを判定する。
 照合装置20は、領域P12乃至P14(口、左耳、右耳)についても、特徴をそれぞれ照合用データと照合する。そして、情報処理装置10は、照合用データの鼻、口、および耳の特徴と、人物200の鼻、口、および耳の特徴が全て一致していると判定した場合、人物200は、照合用データによって示される照合対象人物と同一であると判定する。
 次に、図12のフローチャートを参照して、図10の情報処理装置10による生体認証処理の例について説明する。
 ステップS71において、情報処理装置10の制御部30は、画像データを取得する。このとき、例えば、図11の人物200の顔が含まれる画像の画像データが取得される。画像データは、例えば、予め記憶部40に記憶されていてもよいし、人物200をカメラで撮影して取得されるようにしてもよい。
 ステップS72において、制御部30は、ステップS71で取得された画像データから鼻、口、および耳の各領域における特徴点を抽出する。これにより、例えば、図11の領域P11乃至P14が抽出される。
 ステップS73において、制御部30は、記憶部40から照合用データを読み出して取得する。
 ステップS74において、照合装置20は、信頼度算出処理を実行する。この処理は、図9を参照して上述した処理と同様の処理なので、詳細な説明は省略するが、n個の第1の信頼度のうち、任意のm個をあえて考慮せずに、照合が行われる。
 なお、ステップS74の処理は、ステップS72で抽出された領域の数に対応して繰り返し実行される。例えば、ステップS72で領域P11乃至領域P14が抽出された場合、ステップS74の処理は、4回実行されることになる。
 ステップS75において、照合装置20の照合部23は、各領域について算出された照合用信頼度が全て閾値以上であるか否かを判定する。
 ステップS75において、各領域の照合用信頼度が全て閾値以上であると判定された場合、ステップS76において制御部30は、画像データの人物が照合対象人物と一致すると判定する。
 ステップS77において、制御部30は、出力部63を介して判定結果を出力する。
 このようにして、生体認証処理が実行される。
 <例示的実施形態3の効果>
 このように情報処理装置10においては、n個の第1の信頼度のうち、任意のm個をあえて考慮せずに、照合用データと人物を照合する。
 例えば、複数の指標のいずれかを基準に照合を行うと、複数の人物が照合対象人物と同一であると判定される可能性が高くなる。一方で、指標を単純に掛け合わせて照合を行うと、同じ人物であるにもかかわらず、不一致と判定される可能性が高くなる。
 本例示的実施形態の情報処理装置10によれば、照合精度を保ちつつ再現率を向上させる生体認証を行うことができる。
 〔ソフトウェアによる実現例〕
 情報処理装置10および照合装置20の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
 後者の場合、情報処理装置10および照合装置20は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図13に示す。
 コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを情報処理装置10および照合装置20として動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、情報処理装置10および照合装置20の各機能が実現される。
 プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
 なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
 また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
 〔付記事項1〕
 本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
 〔付記事項2〕
 上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
 (付記1)
 対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する第1の信頼度算出手段と、
 複数の前記第1の信頼度から複数の第2の信頼度を算出する第2の信頼度算出手段と、
 前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う照合手段と
 を備える照合装置。
 (付記2)
 前記照合手段は、前記複数の第2の信頼度のうち、最大の値を有する第2の信頼度に基づき、前記オブジェクトの照合を行う
 付記1に記載の照合装置。
 (付記3)
 前記第2の信頼度算出手段は、
  n個(nは2以上の自然数)の前記第1の信頼度から、任意のm個(mはn未満の自然数)の第1の信頼度を取り除くことによって得られる個の組の各々において、当該組に含まれる全ての第1の信頼度の積をとることによって当該組に関する第2の信頼度を算出し、
 前記照合手段は、
  前記個の組の各々に関する第2の信頼度のうち、最大の値を有する第2の信頼度に基づき、前記オブジェクトの照合を行う
 付記1又は2に記載の照合装置。
 (付記4)
 前記第2の信頼度算出手段は、
  n個(nは2以上の自然数)の前記第1の信頼度において、任意のm個(mはn未満の自然数)の第1の信頼度に対して0より大きく1より小さい値を指数とするべき演算を行うことによって得られる個の組の各々において、当該組に含まれる全ての第1の信頼度の積をとることによって当該組に関する第2の信頼度を算出し、
 前記照合手段は、
  前記個の組の各々に関する第2の信頼度のうち、最大の値を有する第2の信頼度に基づき、前記オブジェクトの照合を行う
 付記1又は2に記載の照合装置。
 (付記5)
 前記照合手段は、
 前記最大の値を有する第2の信頼度を閾値と比較することで、前記オブジェクトの照合を行う
 付記3または4に記載の照合装置。
 (付記6)
 前記第1の信頼度算出手段は、
  前記指標に関する情報を取得し、
  取得した前記指標に関する情報に基づいて前記第1の信頼度を算出する
 付記1から5の何れか1項に記載の照合装置。
 (付記7)
 前記対象データは、動画像データであり、
 前記照合手段は、前記動画像データの第1のフレームの画像に含まれるオブジェクトを、前記動画像データの第2のフレームの画像に含まれるオブジェクトと照合する
 付記1から6の何れか1項に記載の照合装置。
 (付記8)
 前記照合手段は、前記対象データとしての画像データが示すオブジェクトを、照合用データと照合する
 付記1から6の何れか1項に記載の照合装置。
 (付記9)
 前記照合手段による照合結果を参照して、生体認証処理を実行する生体認証手段をさらに備える
 付記8に記載の照合装置。
 (付記10)
 対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出すること、
 複数の前記第1の信頼度から複数の第2の信頼度を算出すること、
 前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行うこと
 を含む照合方法。
 (付記11)
 コンピュータを、
 対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する第1の信頼度算出手段と、
 複数の前記第1の信頼度から複数の第2の信頼度を算出する第2の信頼度算出手段と、
 前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う照合手段とを備える照合装置として機能させる
 プログラム。
 〔付記事項3〕
 上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
 少なくとも1つのプロセッサを備え、前記プロセッサは、
 対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する処理と、
 複数の前記第1の信頼度から複数の第2の信頼度を算出する処理と、
 前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う処理ととを実行する。
 なお、この情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記取得処理と、前記出力列生成処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
 10        情報処理装置
 20        照合装置
 21        第1の信頼度算出部
 22        第2の信頼度算出部
 23        照合部
 30        制御部
 40        記憶部
 61       通信部
 62       入力部
 63       出力部

 

Claims (11)

  1.  対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する第1の信頼度算出手段と、
     複数の前記第1の信頼度から複数の第2の信頼度を算出する第2の信頼度算出手段と、
     前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う照合手段と
     を備える照合装置。
  2.  前記照合手段は、前記複数の第2の信頼度のうち、最大の値を有する第2の信頼度に基づき、前記オブジェクトの照合を行う
     請求項1に記載の照合装置。
  3.  前記第2の信頼度算出手段は、
      n個(nは2以上の自然数)の前記第1の信頼度から、任意のm個(mはn未満の自然数)の第1の信頼度を取り除くことによって得られる個の組の各々において、当該組に含まれる全ての第1の信頼度の積をとることによって当該組に関する第2の信頼度を算出し、
     前記照合手段は、
      前記個の組の各々に関する第2の信頼度のうち、最大の値を有する第2の信頼度に基づき、前記オブジェクトの照合を行う
     請求項1又は2に記載の照合装置。
  4.  前記第2の信頼度算出手段は、
      n個(nは2以上の自然数)の前記第1の信頼度において、任意のm個(mはn未満の自然数)の第1の信頼度に対して0より大きく1より小さい値を指数とするべき演算を行うことによって得られる個の組の各々において、当該組に含まれる全ての第1の信頼度の積をとることによって当該組に関する第2の信頼度を算出し、
     前記照合手段は、
      前記個の組の各々に関する第2の信頼度のうち、最大の値を有する第2の信頼度に基づき、前記オブジェクトの照合を行う
     請求項1又は2に記載の照合装置。
  5.  前記照合手段は、
     前記最大の値を有する第2の信頼度を閾値と比較することで、前記オブジェクトの照合を行う
     請求項3または4に記載の照合装置。
  6.  前記第1の信頼度算出手段は、
      前記指標に関する情報を取得し、
      取得した前記指標に関する情報に基づいて前記第1の信頼度を算出する
     請求項1から5の何れか1項に記載の照合装置。
  7.  前記対象データは、動画像データであり、
     前記照合手段は、前記動画像データの第1のフレームの画像に含まれるオブジェクトを、前記動画像データの第2のフレームの画像に含まれるオブジェクトと照合する
     請求項1から6の何れか1項に記載の照合装置。
  8.  前記照合手段は、前記対象データとしての画像データが示すオブジェクトを、照合用データと照合する
     請求項1から6の何れか1項に記載の照合装置。
  9.  前記照合手段による照合結果を参照して、生体認証処理を実行する生体認証手段をさらに備える
     請求項8に記載の照合装置。
  10.  対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出すること、
     複数の前記第1の信頼度から複数の第2の信頼度を算出すること、
     前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行うこと
     を含む照合方法。
  11.  コンピュータを、
     対象データが示すオブジェクトに関する複数の指標の各々についての第1の信頼度を算出する第1の信頼度算出手段と、
     複数の前記第1の信頼度から複数の第2の信頼度を算出する第2の信頼度算出手段と、
     前記複数の第2の信頼度に基づき、前記オブジェクトの照合を行う照合手段とを備える照合装置として機能させる
     プログラム。

     
PCT/JP2022/004672 2022-02-07 2022-02-07 照合装置、照合方法、およびプログラム WO2023148964A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/004672 WO2023148964A1 (ja) 2022-02-07 2022-02-07 照合装置、照合方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/004672 WO2023148964A1 (ja) 2022-02-07 2022-02-07 照合装置、照合方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2023148964A1 true WO2023148964A1 (ja) 2023-08-10

Family

ID=87553278

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/004672 WO2023148964A1 (ja) 2022-02-07 2022-02-07 照合装置、照合方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2023148964A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044503A (ja) * 2012-08-24 2014-03-13 Toshiba Corp 画像認識装置、方法、及びプログラム
JP2015062089A (ja) * 2011-12-15 2015-04-02 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
JP2018185730A (ja) * 2017-04-27 2018-11-22 富士通株式会社 照合装置、照合方法および照合プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015062089A (ja) * 2011-12-15 2015-04-02 日本電気株式会社 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム
JP2014044503A (ja) * 2012-08-24 2014-03-13 Toshiba Corp 画像認識装置、方法、及びプログラム
JP2018185730A (ja) * 2017-04-27 2018-11-22 富士通株式会社 照合装置、照合方法および照合プログラム

Similar Documents

Publication Publication Date Title
CN110532984B (zh) 关键点检测方法、手势识别方法、装置及系统
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
CN110232311B (zh) 手部图像的分割方法、装置及计算机设备
JP7413400B2 (ja) 肌質測定方法、肌質等級分類方法、肌質測定装置、電子機器及び記憶媒体
CN108846440B (zh) 图像处理方法及装置、计算机可读介质和电子设备
KR101877711B1 (ko) 얼굴 트랙킹 장치 및 방법
US8750573B2 (en) Hand gesture detection
US8792722B2 (en) Hand gesture detection
US20170154238A1 (en) Method and electronic device for skin color detection
KR20150108888A (ko) 제스처 인식을 위한 부분 및 상태 검출
KR101612605B1 (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
CN107203742B (zh) 一种基于显著特征点提取的手势识别方法及装置
CN111008935B (zh) 一种人脸图像增强方法、装置、系统及存储介质
CN107944381B (zh) 人脸跟踪方法、装置、终端及存储介质
US20210158593A1 (en) Pose selection and animation of characters using video data and training techniques
US20150199592A1 (en) Contour-based classification of objects
TW202040421A (zh) 產生模擬使用者的三維臉部模型的方法、系統及裝置
JP2020177620A (ja) アバター用の3d顔モデルを生成する方法及び関連デバイス
KR20160053833A (ko) 개선된 데이터 비교 방법
Bhuyan et al. Trajectory guided recognition of hand gestures having only global motions
CN111260655B (zh) 基于深度神经网络模型的图像生成方法与装置
CN111353325A (zh) 关键点检测模型训练方法及装置
Hoque et al. Computer vision based gesture recognition for desktop object manipulation
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
CN111368674B (zh) 图像识别方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22924873

Country of ref document: EP

Kind code of ref document: A1