WO2011083749A1 - 学習装置、識別装置、学習識別システム及び学習識別装置 - Google Patents

学習装置、識別装置、学習識別システム及び学習識別装置 Download PDF

Info

Publication number
WO2011083749A1
WO2011083749A1 PCT/JP2010/073873 JP2010073873W WO2011083749A1 WO 2011083749 A1 WO2011083749 A1 WO 2011083749A1 JP 2010073873 W JP2010073873 W JP 2010073873W WO 2011083749 A1 WO2011083749 A1 WO 2011083749A1
Authority
WO
WIPO (PCT)
Prior art keywords
gradient
range
learning
predetermined
feature amount
Prior art date
Application number
PCT/JP2010/073873
Other languages
English (en)
French (fr)
Inventor
利憲 細井
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2011548979A priority Critical patent/JP5768719B2/ja
Priority to EP10842260.1A priority patent/EP2523162B1/en
Priority to CN201080060941.4A priority patent/CN102713974B/zh
Priority to US13/520,766 priority patent/US9036903B2/en
Publication of WO2011083749A1 publication Critical patent/WO2011083749A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques

Definitions

  • the present invention relates to a learning apparatus, a learning method, a recording medium storing a learning program, and an identification apparatus, an identification method, and an identification program for inputting a classification target pattern and identifying the learning target pattern in advance for object identification.
  • the present invention relates to a storage medium storing a learning identification system, a learning identification apparatus, a learning identification method, and a learning identification program for learning about the stored recording medium and the learning target pattern and identifying the identification target pattern.
  • a statistical pattern identification method is generally known as a method for identifying an object from a certain image.
  • the statistical pattern identification method is a method for estimating the relationship between an input and an output on the basis of several input / output pairs.
  • the statistical pattern identification method is a method of learning a relationship between an input and an output from a large number of input data and output data, and using this relationship for identification. For this reason, the statistical pattern identification method is mainly realized by a learning process and an identification process.
  • the learning process is a process for obtaining learning parameters used in the identification process using sample data for learning and the teacher data.
  • the teacher data is data indicating a correct identification result (output) for the sample data (input).
  • the teacher data refers to either or both of an arithmetic expression for deriving an output value from an input value and / or a learning parameter (for example, an input value and an output value corresponding thereto).
  • the learning process can also be referred to as an arithmetic process for the purpose of obtaining a learning parameter for obtaining data to be output with respect to an arbitrary input input in the identification processing stage.
  • a “join weight” between nodes is obtained as a learning parameter.
  • the identification process is a process for obtaining an output (identification result) by using learning parameters for input arbitrary data (identification target).
  • FIG. 14 is a block diagram showing a general configuration for performing identification processing based on the statistical pattern identification method.
  • the preprocessing means A1 performs preliminary processing (noise removal, normalization) for facilitating subsequent processing.
  • the feature extraction unit A2 extracts a feature amount (numerical value, symbol) having a characteristic peculiar to the pattern from the identification target pattern subjected to the preliminary processing.
  • the identification calculation means A3 determines the “type / category / class” to be identified by using the feature amount extracted by the feature extraction means A2 as an input.
  • the identification calculation means A3 performs a calculation for determining whether or not the extracted feature amount is a specific target based on a calculation method specified by a learning parameter stored in the dictionary storage unit A4 in advance. Do. For example, if the calculation result is “1”, the identification calculation unit A3 determines that the object is a specific object, and if it is “0”, determines that the object is not a specific object. Further, the identification calculation means A3 can make such a determination depending on whether or not the calculation result is included in a predetermined threshold value.
  • the feature vector xd is required to have a higher dimension than a predetermined value. In addition to such a method, various other devices have been made.
  • the method proposed in Non-Patent Document 1 extracts a rectangular feature from a target pattern.
  • the method proposed in Patent Document 1 creates a direction pattern indicating the distribution of direction components on a character pattern, and recognizes the vertical direction component, horizontal direction component, and diagonal direction component based on the direction pattern for character recognition. It is obtained as a direction feature pattern. That is, the method reproduces the read character by combining these direction components.
  • a plurality of measurement points on an image are prepared with a narrow fixed-shaped vicinity region for measurement on both wings of a search line passing through each measurement point. The direction of the brightness gradient vector of the image is measured at a plurality of neighboring points.
  • This technique calculates the concentration from the difference between the vector direction and the search line direction at each neighboring point, calculates the line concentration for the measurement point from the total concentration, and in the direction of the search line when it reaches a maximum. It is determined that there is line information along the line.
  • a basic addition value that can be shared by each measurement point is calculated in advance based on the degree of concentration.
  • this technique calculates the line concentration of each measurement point by selecting and adding one from the basic addition values for each direction of the search line when measuring the direction of the vector. Estimate information.
  • the technique proposed in Patent Document 3 replaces a feature amount component corresponding to a background region with another value for a feature amount of a certain object, thereby obtaining a plurality of feature amount data having different backgrounds from one object image. Generate and learn identification parameters.
  • the object of the present invention is to reduce the calculation cost in learning processing and identification processing by suppressing the increase in the dimension of features and the complexity of feature extraction, which have been inevitable for maintaining and improving the identification accuracy during pattern recognition.
  • Learning device, learning method, recording medium storing learning program, identification device, identification method, recording medium storing identification program, and learning identification system capable of reducing load and thereby enabling smooth pattern recognition
  • a learning identification device, a learning identification method, and a recording medium storing a learning identification program are provided.
  • the first learning device includes a gradient including a gradient direction at each coordinate and a gradient intensity value based on a variable between the luminance at each coordinate of the input learning target pattern and the surrounding luminance.
  • the gradient feature extraction unit for obtaining the feature amount, and the gradient strength value related to the gradient direction included in the predetermined gradient range indicating the range of the predetermined gradient direction are added, and from the added value
  • the first learning method in one aspect of the present invention is based on a variable between the luminance at each coordinate of the inputted learning target pattern and the luminance around it, and the gradient direction and the gradient intensity value at each coordinate are calculated.
  • a gradient feature value is obtained, and based on the obtained gradient feature value, a gradient strength value related to a gradient direction included in a predetermined gradient range indicating a range of a predetermined gradient direction is added, and the predetermined value is calculated from the added value.
  • a predetermined sum / difference feature amount is obtained by subtracting a gradient intensity value related to a gradient direction included in another gradient range adjacent to the gradient range, and a predetermined learning algorithm using the gradient feature amount and the sum / difference feature amount is used. Based on this, learning parameters for each coordinate are acquired.
  • the recording medium storing the first learning program provides a predetermined computer based on a variable between the luminance at each coordinate of the inputted learning target pattern and the luminance around the coordinate,
  • a gradient feature extraction unit for obtaining a gradient feature amount including a gradient direction and a gradient strength value of the gradient, and a gradient according to the gradient direction included in the predetermined gradient range indicating the range of the predetermined gradient direction based on the obtained gradient feature amount
  • a sum / difference feature extraction unit that adds a strength value and subtracts a gradient strength value related to a gradient direction included in another gradient range adjacent to the predetermined gradient range from the added value to obtain a predetermined sum / difference feature amount Learning that functions as a learning unit that acquires a learning parameter for each coordinate based on a predetermined learning algorithm using the gradient feature value and the sum-and-difference feature value To store the program.
  • the first identification device based on a variable between the luminance at each coordinate of the input identification target pattern and the luminance around it, the gradient direction and the gradient intensity value at each coordinate.
  • a gradient feature extraction unit that obtains a gradient feature value to be included; and, based on the obtained gradient feature value, adds a gradient strength value related to a gradient direction included in a predetermined gradient range indicating a range of a predetermined gradient direction, and the addition
  • a sum / difference feature extraction unit for subtracting a gradient intensity value related to a gradient direction included in another gradient range adjacent to the predetermined gradient range from the value to obtain a predetermined sum / difference feature amount; and the gradient feature amount and the sum Based on the difference feature quantity and part or all of the learning parameters acquired by a predetermined learning algorithm, the identification for identifying whether the identification target pattern belongs to one or more types.
  • the first identification method is based on a variable between the luminance at each coordinate of the input identification target pattern and the luminance around it, and the gradient direction and the gradient intensity value at each coordinate are determined.
  • a gradient feature value is obtained, and based on the obtained gradient feature value, a gradient strength value related to a gradient direction included in a predetermined gradient range indicating a range of a predetermined gradient direction is added, and the predetermined value is calculated from the added value.
  • a predetermined sum / difference feature amount is obtained by subtracting a gradient intensity value related to a gradient direction included in another gradient range adjacent to the gradient range, and is acquired by the gradient feature amount, the sum / difference feature amount, and a predetermined learning algorithm.
  • the recording medium storing the first identification program provides a predetermined computer based on a variable between the luminance at each coordinate of the input identification target pattern and the luminance around it.
  • a gradient feature extraction unit for obtaining a gradient feature amount including a gradient direction and a gradient strength value of the gradient, and a gradient according to the gradient direction included in the predetermined gradient range indicating the range of the predetermined gradient direction based on the obtained gradient feature amount
  • a sum / difference feature extraction unit that adds a strength value and subtracts a gradient strength value related to a gradient direction included in another gradient range adjacent to the predetermined gradient range from the added value to obtain a predetermined sum / difference feature amount
  • the identification target pattern based on a part or all of the learning parameters acquired by the gradient feature value, the sum difference feature value, and a predetermined learning algorithm. Storing identification program to function as an identification section that identifies one to belong one or two or more types.
  • the learning device determines the gradient direction at each coordinate and the gradient direction based on a variable between the luminance at each coordinate of the input learning target pattern and the luminance around it.
  • a gradient feature extraction unit that obtains a gradient feature value including a gradient strength value, and based on the obtained gradient feature value, adds a gradient strength value related to a gradient direction included in a predetermined gradient range indicating a range of a predetermined gradient direction.
  • a sum-difference feature extraction unit for subtracting a gradient strength value related to a gradient direction included in another gradient range adjacent to the predetermined gradient range from the added value to obtain a predetermined sum-difference feature amount; and the gradient A learning unit that acquires a learning parameter for each coordinate based on a predetermined learning algorithm using the feature amount and the sum-and-difference feature amount.
  • a gradient feature extraction unit that obtains a gradient feature amount including a gradient direction and a gradient intensity value at each coordinate based on a variable between the luminance at the coordinates and the surrounding luminance, and a predetermined feature based on the obtained gradient feature amount
  • a predetermined sum feature is obtained by adding a gradient strength value related to a gradient direction included in the gradient range and subtracting a gradient strength value related to a gradient direction included in another gradient range adjacent to the gradient range from the added value.
  • the first learning identification device is a learning identification device including an identification unit that identifies whether the identification target pattern belongs to one or two or more types, the input learning target Based on the variable of the brightness at each coordinate of the pattern and the surrounding brightness, a gradient feature extraction unit for obtaining a gradient feature value including the gradient direction and the gradient intensity value at each coordinate, and based on the obtained gradient feature value Adding a gradient strength value related to the gradient direction included in the predetermined gradient range indicating the range of the predetermined gradient direction, and from the added value to a gradient direction included in another gradient range adjacent to the predetermined gradient range A sum / difference feature extraction unit for subtracting the gradient intensity value to obtain a predetermined sum / difference feature amount, and for each coordinate
  • a learning unit for acquiring a learning parameter and the gradient feature extraction unit is configured to determine a gradient direction at each coordinate and its gradient based on a variable between the luminance at each coordinate of the input identification target pattern and the luminance around it.
  • the summation feature extraction unit obtains a gradient feature value composed of an intensity value, and adds the gradient intensity value related to the gradient direction included in a predetermined gradient range based on the obtained gradient feature value.
  • the identification unit calculates the gradient feature amount obtained from the identification target pattern And whether the identification target pattern belongs to one or more types based on the sum / difference feature quantity and a part or all of the learning parameter acquired by the learning unit.
  • the first learning identification method is based on a variable between the luminance at each coordinate of the input learning target pattern and the luminance around it, and the gradient direction and the gradient intensity value at each coordinate.
  • a learning parameter for each coordinate is acquired based on the learning algorithm, and based on a variable between the luminance at each coordinate of the input identification target pattern and the surrounding luminance, each coordinate is determined.
  • the gradient feature value and the sum-and-difference feature obtained from the identification target pattern are obtained by subtracting the gradient strength value related to the gradient direction included in another gradient range adjacent to the gradient range from the predetermined pattern. Based on the quantity and part or all of the learning parameters acquired by the learning unit, it is identified whether the identification target pattern belongs to one or more types.
  • the recording medium storing the first learning identification program provides a predetermined computer based on a variable between the luminance at each coordinate of the input learning target pattern and the luminance around it,
  • a gradient feature extraction unit for obtaining a gradient feature amount including a gradient direction in coordinates and a gradient intensity value thereof, and a gradient direction included in a predetermined gradient range indicating a range of a predetermined gradient direction based on the obtained gradient feature amount
  • Sum / difference feature extraction for adding a gradient strength value and subtracting a gradient strength value related to a gradient direction included in another gradient range adjacent to the predetermined gradient range from the added value to obtain a predetermined sum / difference feature amount
  • a learning unit that acquires a learning parameter for each coordinate based on a predetermined learning algorithm using the gradient feature value and the sum-and-difference feature value.
  • the gradient feature extraction unit includes a gradient feature amount including a gradient direction at each coordinate and a gradient intensity value based on the variation of the luminance at each coordinate of the input identification target pattern and the surrounding luminance.
  • the sum / difference feature extraction unit adds a gradient strength value related to a gradient direction included in a predetermined gradient range based on the calculated gradient feature amount, and adds another value adjacent to the gradient range from the added value.
  • a learning identification program for identifying whether the identification target pattern belongs to one or two or more types based on part or all of the learning parameters acquired by the learning unit is stored.
  • Learning device learning method, recording medium and identification device storing learning program of the present invention, identification method, recording medium storing identification program, and learning identification system, learning identification device, learning identification method, recording storing learning identification program
  • the medium can improve the identification accuracy while suppressing the computational cost load, and can realize the smoothing of the learning process and the identification process.
  • FIG. 1 is a first block diagram showing a configuration of a learning device according to the first embodiment of the present invention.
  • FIG. 2 is an explanatory diagram for explaining the gradient feature amount used in the learning process according to the first embodiment of the present invention.
  • FIG. 3A is an explanatory diagram for explaining the sum / difference feature amount used in the learning process according to the first embodiment of the present invention.
  • FIG. 3B is an explanatory diagram for explaining the sum / difference feature amount used in the learning process according to the first embodiment of the present invention.
  • FIG. 3C is an explanatory diagram for explaining the sum / difference feature amount used in the learning process according to the first embodiment of the present invention.
  • FIG. 4 is a second block diagram showing the configuration of the learning device according to the first embodiment of the present invention.
  • FIG. 5 is a first block diagram showing the configuration of the identification device according to the first embodiment of the present invention.
  • FIG. 6 is a second block diagram showing the configuration of the identification device according to the first embodiment of the present invention.
  • FIG. 7 is a flowchart showing the procedure of the learning process according to the first embodiment of the present invention.
  • FIG. 8 is a flowchart showing a procedure of identification processing according to the first embodiment of the present invention.
  • FIG. 9A is a schematic diagram for explaining a storage method based on simple data arrangement of gradient feature values according to the second embodiment of the present invention.
  • FIG. 9B is a schematic diagram for explaining a storage method based on an optimal data arrangement of gradient feature values according to the second embodiment of the present invention.
  • FIG. 9A is a schematic diagram for explaining a storage method based on simple data arrangement of gradient feature values according to the second embodiment of the present invention.
  • FIG. 9B is a schematic diagram for explaining a storage method based on an optimal data arrangement of gradient feature values according to the second
  • FIG. 9C is a schematic diagram for explaining an example of a gradient feature quantity storage method according to the second embodiment of the present invention.
  • FIG. 10 is a first block diagram showing the configuration of the learning identification system according to the third embodiment of the present invention.
  • FIG. 11 is a second block diagram showing the configuration of the learning identification system according to the third embodiment of the present invention.
  • FIG. 12 is a first block diagram showing a configuration of a learning identification apparatus according to the fourth embodiment of the present invention.
  • FIG. 13 is a second block diagram showing the configuration of the learning identification apparatus according to the fourth embodiment of the present invention.
  • FIG. 14 is a block diagram illustrating a configuration of an identification device in the related art.
  • a learning device, a learning method, an identification device, an identification method, a learning identification system, a learning identification device, and a learning identification method according to an embodiment described later are performed according to instructions of a program (for example, a learning program, an identification program, a learning identification program) It is realized by processing, means, and functions executed on a computer.
  • the program sends a command to each component of the computer to perform predetermined processing and functions as shown below. That is, a learning device, a learning method, an identification device, an identification method, a learning identification system, a learning identification device, and a learning identification method according to embodiments described later are realized by specific means in which a program and a computer cooperate.
  • FIG. 1 is a first block diagram showing a configuration of a learning device according to the first embodiment of the present invention.
  • the learning device 10 includes a gradient feature extraction unit 11, a sum / difference feature extraction unit 12, and a learning unit 13, and is further connected to a storage device 20. Yes.
  • the gradient feature extraction unit 11 obtains a gradient feature amount at each coordinate from the input learning target pattern.
  • the gradient feature extraction unit 11 obtains a variable between the luminance at each coordinate of the learning target pattern and the luminance around it, and the direction and magnitude of the luminance (gradient intensity value) for each coordinate based on this variable.
  • This is a numerical data.
  • FIG. 2 is an explanatory diagram visually showing the gradient feature amount obtained by the gradient feature extraction unit 11. As shown in FIG. 2, for example, when a human face photographic image is input as a learning target pattern before feature extraction, the gradient feature extraction unit 11 uses this gradient filter such as a SOBEL filter to obtain eight gradients ( (0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 °, 315 °) and the gradient feature amount can be extracted.
  • this gradient filter such as a SOBEL filter
  • the gradient feature extraction unit 11 obtains gradient intensity values for the eight separated gradients for each pixel.
  • the right part of FIG. 2 is a diagram schematically showing the result of obtaining the gradient intensity values for all the pixels of the target image (left part of FIG. 2).
  • the gradient feature extraction unit 11 temporarily stores the obtained gradient feature amount in the feature amount temporary storage unit 22 of the storage device 20.
  • the sum / difference feature extraction unit 12 extracts a gradient feature amount from the feature amount temporary storage unit 22 and obtains a sum / difference feature amount.
  • the sum / difference feature extraction unit 12 can also receive the gradient feature amount from the gradient feature extraction unit 11.
  • the sum / difference feature extraction unit 12 adds a gradient strength value related to a gradient direction included in the “predetermined gradient range” at a certain coordinate of the learning target pattern. Then, the sum / difference feature extraction unit 12 subtracts the gradient strength value related to the gradient direction included in the “other gradient range” adjacent to the gradient range to obtain the sum / difference feature amount.
  • the “predetermined gradient range” includes gradient feature values (gradient intensity values) related to two or more gradient directions among 360 degrees of the entire range that the gradient can take in four or more gradient directions. It is the range to do.
  • the “other gradient range” includes gradient feature values that are adjacent to the “predetermined gradient range” and have the same number of gradient directions as the number of gradient directions included in the “predetermined gradient range”.
  • FIG. 3A is a diagram schematically illustrating an example in which gradient intensity values in the respective gradient directions are visualized.
  • FIG. 3B is an explanatory diagram illustrating a method for illustrating a range of a feature to be calculated in FIG. 3C.
  • a range indicated by a white square indicates a range of feature values to be added.
  • a range indicated by a black square indicates a range of feature values characterized by a subtraction target.
  • FIG. 3C is an explanatory diagram for explaining a sum / difference feature amount when the quantized gradient direction is eight directions.
  • the row header indicates the range (width) of the gradient direction to be added or subtracted
  • the column header indicates the arrangement of the gradient direction range to be added or subtracted.
  • the sum-difference feature extraction unit 12 calculates a sum-difference feature amount by performing addition and subtraction on the gradient intensity values related to these combinations. For example, when the gradient intensity value in an arbitrary gradient direction ( ⁇ n) is E ( ⁇ n), the sum / difference feature amount of the arrangement (1) is obtained by the following method. That is, the sum-difference feature extraction unit 12 can obtain one sum-difference feature amount related to the pixel by performing a calculation process of E (4 ⁇ ) + E (3 ⁇ ) ⁇ ⁇ E (2 ⁇ ) + E ( ⁇ ) ⁇ . Then, the sum / difference feature extraction unit 12 can obtain the necessary sum / difference feature amount for the pixel by performing this calculation processing for the arrangements (1) to (8).
  • the sum / difference feature extraction unit 12 calculates eight sum / difference feature amounts for one pixel.
  • the sum-difference feature extraction unit 12 performs this process for all the pixels of the learning target pattern.
  • the above-described “gradient range” may be set or changed in accordance with a user input operation.
  • the learning device 10 can arbitrarily set the “predetermined gradient range” or the “other gradient range” by setting the number of gradient directions included in the gradient range (in the present invention, Function of gradient feature number setting means).
  • the sum / difference feature extraction unit 12 includes eight sum / difference feature amounts obtained through addition and / or subtraction of gradient strength values when the width is 3, and the width is A total of 16 sum-difference feature amounts including 8 sum-difference feature amounts obtained through addition / subtraction of the gradient intensity values in the case of 2 are obtained.
  • the sum-and-difference feature extraction unit 12 includes eight sum-and-difference feature amounts obtained through addition and / or subtraction of gradient strength values when the width is 4, and the width 8 sum / difference feature values obtained through addition and / or subtraction of gradient intensity values in the case of 3 and 8 obtained through addition and / or subtraction of gradient intensity values in the case of width 2 A total of 24 sum-difference feature amounts are calculated.
  • the sum-difference feature extraction unit 12 can adjust the number of sum-difference feature amounts used in the learning process by changing the range (width) of addition and / or subtraction for obtaining the sum-difference feature amount. it can.
  • the sum / difference feature extraction unit 12 obtains sum / difference feature amounts for all pixels, and temporarily stores the obtained sum / difference feature amounts in the feature amount temporary storage unit 22 of the storage device 20.
  • the learning unit 13 takes out the gradient feature value and the sum / difference feature value from the feature value temporary storage unit 22, and acquires learning parameters for identification processing based on a predetermined learning algorithm.
  • the learning unit 13 can also receive the gradient feature amount and the sum / difference feature amount via the gradient feature extraction unit 11 and the sum / difference feature extraction unit 12.
  • the learning unit 13 can also acquire a learning parameter using predetermined teacher data in addition to the gradient feature value and the sum / difference feature value.
  • the teacher data indicates a correct identification result (output) with respect to sample data (input), and specifically refers to either or both of an arithmetic expression and a learning parameter for deriving an output value from the input value.
  • the learning unit 13 is not limited to a specific learning algorithm, and can acquire learning parameters using various learning algorithms. For example, when a multilayer perceptron, which is a kind of neural network, is used, the learning unit 13 acquires “join weight” between the nodes as a learning parameter. Further, when generalized learning vector quantization (GLVQ) is used as a learning algorithm, the learning unit 13 can acquire “reference vector (prototype)” as a learning parameter.
  • GLVQ generalized learning vector quantization
  • the learning unit 13 can acquire the selected “support vector” as a learning parameter. Then, the learning unit 13 stores the acquired learning parameter in the dictionary storage unit 21.
  • the learning parameters stored in the dictionary storage unit 21 are used in the identification process described later.
  • the learning device 10 may be configured not to include the storage device 20, as shown in FIG.
  • the gradient feature extraction unit 11 can directly output the obtained gradient feature amount to the sum / difference feature extraction unit 12 or the learning unit 13.
  • the sum / difference feature extraction unit 12 can directly output the calculated sum / difference feature amount to the learning unit 13, and can also pass the gradient feature amount received from the gradient feature extraction unit 11 to the learning unit 13.
  • the learning unit 13 outputs a learning parameter obtained based on the gradient feature value and the sum / difference feature value (including teacher data when teacher data is used) to the identification device.
  • the identification device 30 includes a gradient feature extraction unit 31, a sum / difference feature amount extraction unit 32, and an identification unit 33.
  • the gradient feature extraction unit 31 obtains a gradient feature amount at each coordinate from the input identification target pattern.
  • the gradient feature extraction unit 31 obtains a variable between the luminance at each coordinate of the identification target pattern and its surrounding luminance, and the direction and magnitude of the luminance (gradient intensity value) for each coordinate based on this variable. This is a numerical data.
  • the gradient feature extraction unit 31 performs the same operation as the gradient feature extraction unit 11 of the learning device 10.
  • the gradient feature extraction unit 31 can also obtain only a specific gradient feature amount determined to be useful for the identification process.
  • the gradient feature extraction unit 31 eliminates a gradient feature amount that is not useful for identification by a statistical method or the like, and adds an identification code that is not useful for identification to a predetermined coordinate or pixel in the identification target pattern.
  • the gradient feature extraction unit 31 temporarily stores the obtained gradient feature amount in the feature amount temporary storage unit 42 of the storage device 40. As shown in FIG.
  • the sum / difference feature extraction unit 32 extracts a gradient feature amount from the feature amount temporary storage unit 42 and obtains a predetermined sum / difference feature amount.
  • the sum / difference feature extraction unit 32 can also directly receive the gradient feature amount from the gradient feature extraction unit 31. That is, the sum-difference feature extraction unit 32 performs the same operation as the sum-difference feature extraction unit 12 in the learning device 10. For example, when the width of the “predetermined gradient range” and the “other gradient range” is set to 3 in the sum / difference feature extraction unit 12 of the learning device 10, the sum / difference feature extraction unit 32 of the identification device 30 usually has The sum / difference feature amount is obtained using the gradient feature amount included in the gradient range of the same width.
  • the sum / difference feature extraction unit 32 adds the gradient strength values related to the three gradient directions, and subtracts the gradient strength values related to the other three gradient directions from the added value. Find the difference feature. Then, the sum / difference feature extraction unit 32 adds the gradient strength values related to the two gradient directions, and subtracts the gradient strength values related to the other two gradient directions from the added value to obtain the sum / difference feature amount.
  • the sum difference feature extraction unit 32 sets the gradient range to only the width of 2. Based on this, the sum / difference feature amount can be obtained.
  • the sum / difference feature extraction unit 32 adds the gradient intensity values related to the two gradient directions, and subtracts the gradient intensity values related to the other two gradient directions from the added value.
  • the sum / difference feature extraction unit 32 can obtain only a specific sum / difference feature amount determined to be useful for identification by the same method as the gradient feature extraction unit 31 described above.
  • the sum / difference feature extraction unit 32 temporarily stores the obtained sum / difference feature amount in the feature amount temporary storage unit 42 of the storage device 40.
  • the identification unit 33 extracts the gradient feature value and the sum / difference feature value from the feature value temporary storage unit 42.
  • the identification unit 33 retrieves the learning parameters from the dictionary storage unit 41, and outputs, based on these, whether the identification target pattern belongs to one or more types (predetermined type / category / class etc.) as an identification result To do. For example, the identification unit 33 obtains the Euclidean distance between the feature vector composed of the gradient feature amount and the sum difference feature amount obtained from the identification target pattern and a plurality of reference vectors constituting the learning parameter, and assigns it to the reference vector with the closest distance It is identified that the identification target pattern belongs to the type, category, or class that is set.
  • the identification unit 33 can also extract only the learning parameters determined to be useful for identification from the learning parameters stored in the dictionary storage unit 41 and use them for the identification process.
  • the identification unit 33 can realize this process by adding an identification code in advance to a learning parameter determined to be useful for identification based on the identification result obtained through the actual identification process.
  • the identification device 30 may be configured not to include the storage device 40 as shown in FIG.
  • the gradient feature extraction unit 31 can directly output the obtained gradient feature amount to the sum / difference feature extraction unit 32 and the identification unit 33.
  • the sum / difference feature extraction unit 32 can directly output the obtained sum / difference feature amount to the identification unit 33, and can also pass the gradient feature amount received from the gradient feature extraction unit 31 to the learning unit 33.
  • the learning unit 13 outputs an identification result based on the gradient feature value and the sum / difference feature value and a learning parameter received from a learning device (not shown) or the like.
  • the storage device 20 shown in FIG. 1 and the storage device 40 shown in FIG. 5 are storage means composed of a hard disk, a semiconductor memory, or the like.
  • the storage device 20 (40) includes a dictionary storage unit 21 (41) and a feature amount temporary storage unit 22 (42).
  • the dictionary storage unit 21 (41) stores the learning parameters acquired through the learning process.
  • the learning parameters stored in the dictionary storage unit 21 (41) are used for identification processing.
  • the feature amount temporary storage unit 22 stores the gradient feature amount obtained by the gradient feature extraction unit 11 of the learning device 10 and the sum / difference feature amount obtained by the sum / difference feature extraction unit 12.
  • the feature amount temporary storage unit 42 stores the gradient feature amount obtained by the gradient feature extraction unit 31 of the identification device 30 and the sum / difference feature amount obtained by the sum / difference feature extraction unit 32.
  • FIG. 7 is a flowchart showing a learning method according to the present embodiment.
  • FIG. 8 is a flowchart showing the identification method according to the present embodiment.
  • (Learning method) As shown in FIG. 7, in the learning method according to the present embodiment, first, the learning apparatus 10 inputs a learning target pattern via an input unit (not shown) (S101). Next, the gradient feature extraction unit 11 obtains a gradient feature amount from the input learning target pattern (S102).
  • the gradient feature extraction unit 11 is based on a variable between the luminance at each coordinate of the inputted learning target pattern and the luminance around it, and a gradient feature composed of the gradient direction at each coordinate and its gradient strength value. Find the amount.
  • the gradient feature extraction unit 11 stores the obtained gradient feature amount in the feature amount temporary storage unit 22 of the storage device 20.
  • the sum / difference feature extraction unit 12 extracts the gradient feature amount from the feature amount temporary storage unit 22 and obtains the sum / difference feature amount (S103).
  • the sum-difference feature extraction unit 12 adds the gradient strength values related to the gradient directions included in the predetermined gradient range based on the gradient feature amount obtained from the learning target pattern.
  • the sum / difference feature extraction unit 12 obtains the sum / difference feature amount by subtracting the gradient intensity value related to the gradient direction included in another gradient range adjacent to the gradient range. Then, the sum / difference feature extraction unit 12 performs the above processing for all the pixels of the learning target pattern. The sum / difference feature extraction unit 12 stores the obtained sum / difference feature amount in the feature amount temporary storage unit 22. Subsequently, the learning device 10 determines whether there is another learning target pattern to be learned (S104). When there is another learning target pattern to be learned (S104: YES), the learning device 10 performs the same processing (S101 to S103) for the other learning target patterns.
  • the learning device 10 repeats the processing of S101 to S103 as many times as the number of learning target patterns.
  • the learning unit 13 performs a learning process (S105). Specifically, the learning unit 13 acquires a learning parameter based on a predetermined learning algorithm using the gradient feature value and the sum difference feature value extracted from the feature value temporary storage unit 22. At this time, the learning unit 13 can also perform learning processing by adding predetermined teacher data.
  • the learning unit 13 stores the acquired learning parameter in the dictionary storage unit 41 of the storage device 40 connected to the identification device 30.
  • the procedure of the learning process described above may be changed as appropriate.
  • the procedures of S104 and S105 may be interchanged. That is, a series of processes of learning target pattern input ⁇ gradient feature quantity extraction ⁇ sum difference feature quantity extraction ⁇ learning process may be repeated according to the number of learning patterns.
  • the identification device 30 inputs an identification target pattern via an input unit (not shown) (S201).
  • the gradient feature extraction unit 31 obtains a gradient feature amount from the input identification target pattern (S202).
  • the gradient feature extraction unit 31 is based on the variation of the luminance at each coordinate of the input identification target pattern and the luminance around it, and the gradient feature composed of the gradient direction at each coordinate and its gradient intensity value. Find the amount.
  • the gradient feature extraction unit 31 stores the obtained gradient feature amount in the feature amount temporary storage unit 42 of the storage device 40.
  • the sum / difference feature extraction unit 32 extracts the gradient feature amount from the feature amount temporary storage unit 42 and obtains the sum / difference feature amount (S203).
  • the sum-difference feature extraction unit 32 adds a gradient strength value related to a gradient direction included in a predetermined gradient range based on the gradient feature amount obtained from the identification target pattern, and is adjacent to the gradient range.
  • the sum / difference feature amount is obtained by subtracting the gradient intensity value related to the gradient direction included in another gradient range. Then, the sum / difference feature extraction unit 32 performs the above processing for all the pixels of the identification target pattern. The sum / difference feature extraction unit 32 stores the obtained sum / difference feature amount in the feature amount temporary storage unit 42. Subsequently, the identification unit 33 extracts the gradient feature amount and the sum / difference feature amount from the feature amount temporary storage unit 42, and also extracts the learning parameter stored in the learning process stage from the dictionary storage unit 41. Then, the identification unit 33 identifies whether the identification target pattern belongs to one or more types based on these data (S204). This identification result may be output by display, printing, or other methods.
  • the learning device 10 obtains the gradient feature amount at each coordinate based on the input learning target pattern and the sum difference feature amount based on the gradient feature amount, and uses a predetermined learning algorithm. Based on this, learning parameters are acquired. For this reason, the learning device 10 according to the present embodiment can obtain the learning parameter based on the specific feature amount by a simple arithmetic process such as addition or subtraction. Therefore, the learning device 10 of the present embodiment can reduce the calculation cost for the learning process and realize a smooth learning process. Further, the identification device 30 of the present embodiment obtains a gradient feature amount at each coordinate based on the input identification target pattern and a sum / difference feature amount based on the gradient feature amount, and obtains these (by the above-described learning device).
  • the identification target pattern is identified by comparing with learning parameters obtained in advance. For this reason, the identification apparatus 30 of this embodiment can reduce the calculation cost concerning an identification process, and can obtain an identification result smoothly. Therefore, according to the learning device 10 or the identification device 30 according to the present embodiment, it is possible to effectively acquire learning parameters useful for identification in spite of the specific feature amount by simple arithmetic processing such as addition and subtraction. Thus, the identification result can be obtained smoothly. That is, the learning device 10 or the identification device 30 according to the present embodiment does not need to obtain an enormous amount of features and learning parameters for obtaining identification accuracy by learning processing. In addition, the learning device 10 or the identification device 30 according to the present embodiment does not require a complicated calculation process by the identification process, so that the calculation cost can be reduced overall.
  • the learning device 10 or the identification device 30 of the present embodiment can adjust the amount of gradient features necessary for the learning process and the identification process.
  • the learning device 10 or the identification device 30 of the present embodiment can acquire more learning parameters during the learning process by setting a wide gradient range, thereby further improving the identification accuracy in the identification process. Can be improved.
  • the learning device 10 or the identification device 30 of the present embodiment can suppress the calculation cost during the learning process and the identification process by setting the gradient range narrow. Therefore, since the user can freely change the gradient range, the balance between the identification accuracy and the calculation cost can be adjusted.
  • the identification device 30 according to the present embodiment can perform the identification process on only the learning parameters acquired at the learning process stage that are necessary for the identification.
  • the identification device 30 of the present embodiment obtains a gradient feature amount used for identification by the gradient feature extraction unit 31, obtains only a sum / difference feature amount used for identification by the sum / difference feature extraction unit 32, and identifies the identification unit 33.
  • discrimination processing can be performed by contrasting these with learning parameters.
  • the identification device 30 according to the present embodiment can extract only learning parameters used for identification from learning parameters stored in the dictionary storage unit, and use them for comparison with gradient feature values and sum-difference feature values. . Thereby, the identification device 30 of the present embodiment can reduce the calculation cost related to the identification process and realize a smooth identification process.
  • the learning device 10 has a feature in a storage method when the gradient feature amount is stored in the feature amount primary storage unit 22.
  • Other configurations, functions, effects, and the like are the same as those of the learning device according to the first embodiment, and thus detailed description thereof is omitted.
  • the gradient feature value storing method according to the present embodiment will be described with reference to FIGS. 9A to 9C.
  • FIG. 9A to FIG. 9C are explanatory diagrams for explaining the gradient feature value storing method according to the present embodiment.
  • the feature amount temporary storage unit 22 in the learning device according to the present embodiment is one of the gradient feature amounts including the gradient direction and the gradient intensity value of the luminance at each coordinate obtained by the gradient feature extraction unit 11 during the learning process.
  • Gradient feature amounts to be added or subtracted for obtaining a sum / difference feature amount are stored in the same or close storage areas. That is, the feature amount temporary storage unit 22 does not store the gradient feature amount obtained for the pixel having the learning target pattern in a hierarchical or other disorderly manner (see FIG. 9A), but the calculation target of the sum / difference feature amount may be different. It is arranged and stored at the same or close address (area) (see FIG. 9B). For example, according to the example of FIG. 9C, the feature amount temporary storage unit 22 stores all the gradient intensity values for each gradient direction (directions D1 to Dn) in the pixel 001 in the storage area of the address # 001.
  • the feature amount temporary storage unit 22 stores all the gradient intensity values for each gradient direction in the pixel 002 in the storage area of the address # 002 (hereinafter, the same applies up to the pixel N (the number of pixels corresponding to the target pattern)). That is, the feature amount temporary storage unit 22 stores the sum / difference feature amount calculation objects in close proximity (or the same) in the storage area of the memory. For this reason, the learning device 10 according to the present embodiment can process the addition and subtraction of the gradient strength value at the time of the sum / difference feature extraction processing faster than the case where the gradient feature amount is stored in a disorderly manner. The period (time) required for the learning process can be shortened.
  • FIGS. 10 and 11 are block diagrams showing the configuration of the learning identification system according to the present embodiment.
  • the learning identification system 90 according to this embodiment includes a learning device 10 and an identification device 30.
  • the learning identification system 90 according to the present embodiment not only exhibits the same operations and effects as the learning device 10 and the identification device 30 described in the first embodiment, but also combines the learning device 10 and the identification device 30 together. Therefore, it is excellent in usability.
  • the learning identification system 90a may be applied to a mode in which the identification device 30 performs identification processing of the identification target pattern while the learning device 10 continuously inputs learning patterns and teacher data to perform learning processing. it can.
  • the learning identification system 90b shown in FIG. 11 is configured so that the learning device 10 and the identification device 30 share the storage device 20, the learning device 10 and the identification device 30 can be configured independently. The cost can be reduced as compared with a configuration including a storage device.
  • FIGS. 12 and 13 are block diagrams illustrating the configuration of the learning identification device according to the present embodiment.
  • the learning identification device 100 has a configuration in which the learning device 10 and the identification device 20 are integrated.
  • the learning identification device 100a shown in FIG. 12 corresponds to the learning identification system 90a shown in FIG.
  • a learning identification device 100b shown in FIG. 13 corresponds to the learning identification system 90b shown in FIG. Therefore, other configurations, operations, effects, and the like are the same as those of the learning identification system according to the third embodiment.
  • the learning identification apparatus 100 according to the present embodiment is different from the above-described embodiment in that the gradient feature extraction unit and the sum / difference feature extraction unit are shared in the learning process and the identification process.
  • the learning identification apparatus 100 can further reduce the cost as compared with the learning identification system shown in the third embodiment.
  • the learning device, the learning method, the recording medium and identification device storing the learning program, the identification method, the recording medium storing the identification program, the learning identification system, the learning identification device, the learning identification method, and the learning identification program are stored.
  • the recording medium storing these apparatuses, systems, methods, and programs according to the present invention is not limited to the above-described embodiments. It goes without saying that various modifications can be made within the scope.
  • the learning target pattern or the identification target pattern input in each embodiment is not an image itself.
  • the image is obtained by data after a predetermined preprocessing (see A1 in FIG.
  • a predetermined reduction process or the like. It may be data after the data is compressed. Further, data after image processing such as histogram equalization on the target image may be used.
  • the learning device, the learning method, the recording medium and the identification device storing the learning program, the identification method, the recording medium storing the identification program, the learning identification system, the learning identification device, the learning identification method, and the learning identification program of the present invention are provided. Since the stored recording medium can suppress the influence of illumination when an image is taken, the identification performance can be further improved. An example of the effect of the present invention is to improve identification accuracy while facilitating a calculation cost load and to facilitate learning processing and identification processing.
  • the present invention is preferably used for object identification such as character recognition in images, face recognition, person authentication using a person's face or body, detection of a person from a surveillance camera image, defect detection in a factory production line, etc. Can do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

 本発明の各実施形態は、パターン識別における識別精度を向上しつつ、学習処理や識別処理の円滑化を図る。 入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、求めた勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、加算値から所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、勾配特徴量及び和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部とを備える。

Description

学習装置、識別装置、学習識別システム及び学習識別装置
 本発明は、物体識別のために予め学習対象パターンについて学習する学習装置、学習方法、学習プログラムを格納した記録媒体及び識別対象パターンを入力してその識別を行う識別装置、識別方法、識別プログラムを格納した記録媒体並びに学習対象パターンについて学習するとともに識別対象パターンを識別する学習識別システム、学習識別装置、学習識別方法、学習識別プログラムを格納した記録媒体に関する。
 ある画像から物体を識別する方法として統計的パターン識別法が一般に知られている。
 統計的パターン識別法は、入力と出力との関係をいくつかの入出力の組にもとづいて推定する方法である。詳しくは、統計的パターン識別法は、多数の入力データ及び出力データから入力と出力のあるべき関係を学習させ、この関係を識別に利用する方法である。
 このため、統計的パターン識別法は、主に、学習処理と識別処理とによって実現される。
 学習処理は、学習のためのサンプルデータとその教師データとを使用して、識別処理に用いられる学習パラメータを求める処理である。教師データは、サンプルデータ(入力)に対する正しい識別結果(出力)を示すデータである。
 具体的には、教師データは、入力値から出力値を導くための演算式や学習パラメータ(例えば、入力値とこれに対応する出力値など)のいずれか又はその双方をいう。
 以上より、学習処理は、識別処理段階で入力される任意の入力に対して出力すべきデータを得るための学習パラメータを求めることを目的とした演算処理のことをいうこともできる。
 例えば、ニューラルネットワークの一種である多層パーセプトロンを使用した学習処理の場合、各ノード間の「結合重み」が学習パラメータとして得られる。
 他方、識別処理は、入力した任意のデータ(識別対象)に対し、学習パラメータを用いて出力(識別結果)を求める処理である。
 一般には、識別処理の精度を上げるために、多数の学習対象パターンについてそれぞれ複雑な特徴抽出処理が行われる。例えば、文字認識を行う場合、学習対象パターンに相当するある文字における文字線の傾き、幅、曲率、ループの数等が特徴量として抽出される。このため、特徴抽出処理は、本来のパターンを別のパターンに加工する処理と解することもできる。
 ここで、図14を参照しながら一般的な特徴抽出処理について説明する。
 図14は、統計的パターン識別法にもとづく識別処理を行うための一般的構成を示したブロック図である。
 同図に示すように、まず、任意の識別対象パターンが入力されると前処理手段A1が後段の処理をしやすくするための予備的処理(ノイズ除去、正規化)を行う。
 次いで、特徴抽出手段A2が、予備的処理が施された識別対象パターンの中からパターン特有の性質を担う特徴量(数値、記号)を取り出す。
 例えば、取り出した特徴量がd個からなる場合、特徴量は次式に示す特徴ベクトルで表すことができる。
 x=(x,x,・・・,x
 そして、識別演算手段A3は、特徴抽出手段A2によって抽出された特徴量を入力として、識別対象の「種別/カテゴリー/クラス」を判定する。
 具体的には、識別演算手段A3は、抽出された特徴量を、辞書記憶部A4に予め記憶してある学習パラメータによって特定される計算方式にもとづいて特定の対象か否かを判別する計算を行う。
 例えば、識別演算手段A3は、計算結果が「1」であれば特定の対象であると判別し、「0」であれば特定の対象ではないと判別する。また、識別演算手段A3は、計算結果が所定の閾値に含まれるか否かによって、かかる判別を行うこともできる。
 ここで、以下の関連技術において識別精度を高く維持するため、特徴ベクトルxが所定値以上の高次元であることが求められていた。また、このような方法だけでなく、他の様々な工夫が行われてきた。
 例えば、非特許文献1に提案されている方法は、対象パターンから矩形特徴を抽出する。
 また、特許文献1に提案されている方式は、文字パターン上の方向成分の分布を示す方向パターンを作成し、この方向パターンにもとづく垂直方向成分、水平方向成分及び斜め方向成分を文字認識のための方向特徴パターンとして求める。つまり、当該方式は、これらの方向成分を結合することによって読み取った文字を再現する。
 特許文献2に提案されている技術は、画像上の複数の測定点に対して、各測定点を通る探索線の両翼に計測用の狭幅固定形状の近傍領域を用意して、この領域内の複数の近傍点で画像の輝度勾配ベクトルの向きを計測する。そしてこの技術は、各近傍点でベクトルの向きと探索線の方向の差から集中度を計算し、全集中度から測定点に対する線集中度を計算し、極大になったとき探索線の方向に沿って線情報がある旨の判定を行う。この技術は、予め集中度を基に各測定点で共用できる基礎加算値を計算しておく。そしてこの技術は、ベクトルの向きを計測したときに、探索線の方向ごとに基礎加算値から1つを選んで加算して各測定点の線集中度を計算し、これが極大となったとき線情報を推定する。
 特許文献3に提案されている技術は、ある物体の特徴量について、背景領域に相当する特徴量成分を別の値で置換することで、1個の物体画像から背景が異なる特徴量データを複数生成して、識別パラメータを学習する。
Paul Viola,Michael Jones,″Rapid Object Detection using a Boosted Cascade of Simple Feature″Proceeding of Computer Vision and Pattern Recognition 2001,2001年
特許第2605807号公報 特開2005−284697号公報 特開2008−059110号公報
 しかしながら、このような方法によると、以下の問題が生じていた。
 まず、非特許文献1に開示されてある技術においては、学習処理で用いる特徴が単純な矩形であるため、取り出した特徴量の中には識別に有用でないパラメータが多く含まれる。したがって、当該技術において、識別精度を維持するために膨大な特徴量が必要となり(すなわち、学習処理における演算が高次元となり)、計算コストが極めて高くなる問題を生じていた。
 そして、この結果、学習処理に時間を要するため、当該技術において、識別処理を行える状態になるまでの期間が長期化する問題が生じていた。
 また、特許文献1に開示されてある技術においては、識別に用いる特徴が複雑であるため識別処理における演算が高次元化し、円滑な識別処理を妨げていた。
 また特許文献2及び3に開示されている技術は、計算処理に用いられているフィルタの処理内容が本発明と異なり、上記課題を解決し得ない。
 本発明の目的は、パターン認識の際の識別精度の維持・向上のために不可避とされてきた特徴量の高次元化や特徴抽出の複雑化を抑えることにより学習処理及び識別処理における計算コストの負荷を低減し、これにより円滑なパターン認識を可能とする学習装置、学習方法、学習プログラムを格納した記録媒体、及び、識別装置、識別方法、識別プログラムを格納した記録媒体、並びに、学習識別システム、学習識別装置、学習識別方法、学習識別プログラムを格納した記録媒体を提供することにある。
 本発明の一態様における第一の学習装置は、入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部とを備える。
 また、本発明の一態様における第一の学習方法は、入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求め、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する。
 さらに、本発明の一態様における第一の学習プログラムを格納した記録媒体は、所定のコンピュータを、入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部、及び、前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部として機能させる学習プログラムを格納する。
 また、本発明の一態様における第一の識別装置は、入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、前記勾配特徴量及び前記和差特徴量並びに所定の学習アルゴリズムによって取得した学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する識別部とを備える。
 また、本発明の一態様における第一の識別方法は、入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求め、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、前記勾配特徴量及び前記和差特徴量並びに所定の学習アルゴリズムによって取得した学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する。
 さらに、本発明の一態様における第一の識別プログラムを格納した記録媒体は、所定のコンピュータを、入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部、及び、前記勾配特徴量及び前記和差特徴量並びに所定の学習アルゴリズムによって取得した学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する識別部として機能させる識別プログラムを格納する。
 また、本発明の一態様における第一の学習識別システムは、学習装置が、入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部とを備え、識別装置が、入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、求めた前記勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、前記勾配特徴量及び前記和差特徴量並びに前記学習部が取得した学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する識別部とを備える。
 また、本発明の一態様における第一の学習識別装置は、識別対象パターンが一又は二以上の類型のいずれに属するかを識別する識別部を備える学習識別装置であって、入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部とを備え、前記勾配特徴抽出部が、入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とからなる勾配特徴量を求め、前記和差特徴抽出部が、求めた前記勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、前記識別部が、前記識別対象パターンから求めた前記勾配特徴量及び前記和差特徴量並びに前記学習部が取得した学習パラメータの一部又は全部にもとづき、当該識別対象パターンが一又は二以上の類型のいずれに属するかを識別する。
 また、本発明の一態様における第一の学習識別方法は、入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求めるステップと、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得し、入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求めるステップと、求めた前記勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、前記識別対象パターンから求めた前記勾配特徴量及び前記和差特徴量並びに前記学習部が取得した学習パラメータの一部又は全部にもとづき、当該識別対象パターンが一又は二以上の類型のいずれに属するかを識別する。
 また、本発明の一態様における第一の学習識別プログラムを格納した記録媒体は、所定のコンピュータを、入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部、求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部、及び、前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部として機能させるとともに、前記勾配特徴抽出部に、入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求めさせ、前記和差特徴抽出部に、求めた前記勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求めさせ、前記識別部に、前記識別対象パターンから求めた前記勾配特徴量及び前記和差特徴量並びに前記学習部が取得した学習パラメータの一部又は全部にもとづき、当該識別対象パターンが一又は二以上の類型のいずれに属するかを識別させる学習識別プログラムを格納する。
 本発明の学習装置、学習方法、学習プログラムを格納した記録媒体及び識別装置、識別方法、識別プログラムを格納した記録媒体並びに学習識別システム、学習識別装置、学習識別方法、学習識別プログラムを格納した記録媒体は、計算コストの負荷を抑えながらも識別精度を向上させ、学習処理及び識別処理の円滑化を実現することができる。
図1は、本発明の第一実施形態に係る学習装置の構成を示す第一のブロック図である。 図2は、本発明の第一実施形態に係る学習処理の際に用いる勾配特徴量を説明するための説明図である。 図3Aは、本発明の第一実施形態に係る学習処理の際に用いる和差特徴量を説明するための説明図である。 図3Bは、本発明の第一実施形態に係る学習処理の際に用いる和差特徴量を説明するための説明図である。 図3Cは、本発明の第一実施形態に係る学習処理の際に用いる和差特徴量を説明するための説明図である。 図4は、本発明の第一実施形態に係る学習装置の構成を示す第二のブロック図である。 図5は、本発明の第一実施形態に係る識別装置の構成を示す第一のブロック図である。 図6は、本発明の第一実施形態に係る識別装置の構成を示す第二のブロック図である。 図7は、本発明の第一実施形態に係る学習処理の手順を示すフローチャートである。 図8は、本発明の第一実施形態に係る識別処理の手順を示すフローチャートである。 図9Aは、本発明の第二実施形態に係る勾配特徴量の単なるデータ配置による記憶方法を説明するための模式図である。 図9Bは、本発明の第二実施形態に係る勾配特徴量の最適なデータ配置による記憶方法を説明するための模式図である。 図9Cは、本発明の第二実施形態に係る勾配特徴量の記憶方法の例を説明するための模式図である。 図10は、本発明の第三実施形態に係る学習識別システムの構成を示す第一のブロック図である。 図11は、本発明の第三実施形態に係る学習識別システムの構成を示す第二のブロック図である。 図12は、本発明の第四実施形態に係る学習識別装置の構成を示す第一のブロック図である。 図13は、本発明の第四実施形態に係る学習識別装置の構成を示す第二のブロック図である。 図14は、関連技術における識別装置の構成を示すブロック図である。
 以下、本発明の実施形態について説明を行う。
 ここで、後述する実施形態の学習装置、学習方法、識別装置、識別方法、学習識別システム、学習識別装置及び学習識別方法は、プログラム(例えば、学習プログラム、識別プログラム、学習識別プログラム)の命令によりコンピュータで実行される処理、手段、機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理・機能を行わせる。すなわち、後述する実施形態の学習装置、学習方法、識別装置、識別方法、学習識別システム、学習識別装置及び学習識別方法は、プログラムとコンピュータとが協働した具体的手段によって実現される。
 なお、プログラムの全部又は一部は、例えば、磁気ディスク、光ディスク、半導体メモリ、その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラムがコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
[第一実施形態]
(学習装置10)
 図1は、本発明の第一実施形態に係る学習装置の構成を示す第一のブロック図である。
 図1に示すように、本実施形態に係る学習装置10は、勾配特徴抽出部11と、和差特徴抽出部12と、学習部13とを備え、さらに、記憶装置20と接続された構成としている。
 勾配特徴抽出部11は、入力された学習対象パターンから各座標における勾配特徴量を求める。
 勾配特徴量は、勾配特徴抽出部11が、学習対象パターンの各座標における輝度とその周辺の輝度との変量を求め、この変量にもとづき各座標ごとに輝度の方向と大きさ(勾配強度値)とを数値化したデータである。
 図2は、勾配特徴抽出部11によって求められた勾配特徴量を可視的に示した説明図である。
 図2に示すように、例えば、特徴抽出前の学習対象パターンとして人顔の写真画像が入力された場合、勾配特徴抽出部11は、この画像をSOBELフィルタなどの勾配フィルタを用いて8勾配(0°、45°、90°、135°、180°、225°、270°、315°)に分離して勾配特徴量を抽出することができる。
 つまり、勾配特徴抽出部11は、各画素につき、分離した8勾配についてそれぞれ勾配強度値を求める。図2の右側部分は、対象画像(図2の左部分)の全ての画素について勾配強度値を求めた結果を模式的に表した図である。
 また、勾配特徴抽出部11は、求めた勾配特徴量を、記憶装置20の特徴量一時記憶部22に一時的に記憶する。
 和差特徴抽出部12は、図1に示すように、特徴量一時記憶部22から勾配特徴量を取り出し、和差特徴量を求める。和差特徴抽出部12は、勾配特徴抽出部11から勾配特徴量を受け取ることもできる。
 具体的には、和差特徴抽出部12は、学習対象パターンのある座標において、「所定の勾配範囲」に含まれる勾配方向に係る勾配強度値を加算する。そして和差特徴抽出部12は、その勾配範囲に隣接した「他の勾配範囲」に含まれる勾配方向に係る勾配強度値を減算して和差特徴量を求める。
 ここで、「所定の勾配範囲」とは、勾配が取り得る全範囲の360度を4以上の勾配方向に量子化したうちの2以上の勾配方向に係る勾配特徴量(勾配強度値)を包含する範囲である。
 また、「他の勾配範囲」とは、「所定の勾配範囲」に隣接し、かつ、この「所定の勾配範囲」に含まれる勾配方向の数と同数の勾配方向に係る勾配特徴量を包含する範囲である。
 図3Aは、各勾配方向における勾配強度値を可視化した例を模式的に表した図である。
 図3Bは、図3Cにおける、計算対象とする特徴の範囲の図示方法を示す説明図である。白の四角で示される範囲は、加算対象とする特徴値の範囲を示す。黒の四角で示される範囲は、減算対象を特徴とする特徴値の範囲を示す。
 図3Cは、量子化された勾配方向が8方向である場合の和差特徴量を説明するための説明図である。
 図3Cにおいて、行見出しは、加算又は減算対象となる勾配方向の範囲(幅)を、列見出しは、加算又は減算対象となる勾配方向の範囲の配置を示す。
 例えば、幅が2の場合における勾配強度値の加算(+)及び減算(−)の配置は、θ=45°とした場合、(1)「(+):4θ,3θ」と「(−):2θ,θ」、(2)「(+):5θ,4θ」と「(−):3θ,2θ」、(3)「(+):6θ,5θ」と「(−):4θ,3θ」、(4)「(+):7θ,6θ」と「(−):5θ,4θ」、(5)「(+):0,7θ」と「(−):6θ,5θ」、(6)「(+):θ,0」と「(−):7θ,6θ」、(7)「(+):2θ,θ」と「(−):0,7θ」、及び(8)「(+):3θ,2θ」と「(−):θ,0」の8通りある。
 和差特徴抽出部12は、これらの各組み合わせに係る勾配強度値について、加算及び減算を行うことによって和差特徴量を算出する。
 例えば、任意の勾配方向(θn)に係る勾配強度値をE(θn)とした場合、配置(1)の和差特徴量は、以下の方法によって求められる。すなわち和差特徴抽出部12は、E(4θ)+E(3θ)−{E(2θ)+E(θ)}の演算処理を行うことによってその画素に関する一の和差特徴量を求めることができる。そして、和差特徴抽出部12は、この演算処理を、配置(1)~(8)について行うことによりその画素に関する必要な和差特徴量を求めることができる。つまり、この場合、和差特徴抽出部12は、1画素について8の和差特徴量を求めることとなる。
 加えて、和差特徴抽出部12は、かかる処理を学習対象パターンのすべての画素について行う。
 なお、前述した「勾配範囲」は、ユーザの入力操作に応じて設定され、又は、変更されてもよい。
 具体的には、学習装置10は、この勾配範囲に含まれる勾配方向の数を設定することにより「所定の勾配範囲」又は「他の勾配範囲」を任意に設定することができる(本発明の勾配特徴数設定手段の機能)。
 例えば、幅が3に設定された場合、和差特徴抽出部12は、幅が3の場合における勾配強度値の加算及び/又は減算を介して得られる8個の和差特徴量と、幅が2の場合における勾配強度値の加算・減算を介して得られる8個の和差特徴量とからなる合計16個の和差特徴量を求める。
 同様に、幅が4に設定された場合、和差特徴抽出部12は、幅が4の場合における勾配強度値の加算及び/又は減算を介して得られる8個の和差特徴量と、幅が3の場合における勾配強度値の加算及び/又は減算を介して得られる8個の和差特徴量と、幅が2の場合における勾配強度値の加算及び/又は減算を介して得られる8個の和差特徴量とからなる合計24個の和差特徴量を求める。
 このように、和差特徴抽出部12は、和差特徴量を求めるための加算及び/又は減算の範囲(幅)を変更することによって学習処理に用いる和差特徴量の数を調整することができる。
 なお、和差特徴抽出部12は、和差特徴量をすべての画素について求め、求めた和差特徴量を、記憶装置20の特徴量一時記憶部22に一時的に記憶する。
 学習部13は、図1に示すように、特徴量一時記憶部22から勾配特徴量及び和差特徴量を取り出し、所定の学習アルゴリズムにもとづいて識別処理のための学習パラメータを取得する。学習部13は、これら勾配特徴量や和差特徴量を、勾配特徴抽出部11や和差特徴抽出部12を介して受け取ることもできる。
 なお、図1に示すように、学習部13は、勾配特徴量及び和差特徴量の他、所定の教師データを用いて学習パラメータを取得することもできる。
 教師データとは、サンプルデータ(入力)に対する正しい識別結果(出力)を示すものであり、具体的には、入力値から出力値を導くための演算式や学習パラメータのいずれか又はその双方をいう。
 ここで、学習部13は、特定の学習アルゴリズムに限らず、種々の学習アルゴリズムを利用して学習パラメータを取得することができる。
 例えば、ニューラルネットワークの一種である多層パーセプトロンを用いた場合には、学習部13は、各ノード間の「結合重み」を学習パラメータとして取得する。
 また、学習アルゴリズムとして一般化学習ベクトル量子化(GLVQ:Generalized Learning Vector Quantization)が用いられる場合、学習部13は、「参照ベクトル(プロトタイプ)」を学習パラメータとして取得することができる。
 また、学習アルゴリズムとしてサポートベクトルマシン(SVM:Support Vector Machine)が用いられる場合には、学習部13は、選択された「サポートベクトル」を学習パラメータとして取得することができる。
 そして、学習部13は、取得した学習パラメータを辞書記憶部21に記憶する。
 辞書記憶部21に記憶された学習パラメータは、後述する識別処理において用いられる。
 なお、学習装置10は、図4に示すように、記憶装置20を含まない構成とすることもできる。
 この場合、勾配特徴抽出部11は、求めた勾配特徴量を和差特徴抽出部12や学習部13に直接出力することができる。和差特徴抽出部12は、求めた和差特徴量を学習部13に直接出力することができ、また、勾配特徴抽出部11から受け取った勾配特徴量を学習部13に受け渡すこともできる。
 そして、学習部13は、勾配特徴量及び和差特徴量(教師データを用いる場合は教師データを含む)にもとづいて求めた学習パラメータを識別装置に出力する。
(識別装置30)
 識別装置30は、図5に示すように、勾配特徴抽出部31と、和差特徴量抽出部32と、識別部33とを備える。
 勾配特徴抽出部31は、入力された識別対象パターンから各座標における勾配特徴量を求める。
 勾配特徴量は、勾配特徴抽出部31が、識別対象パターンの各座標における輝度とその周辺の輝度との変量を求め、この変量にもとづき各座標ごとに輝度の方向と大きさ(勾配強度値)とを数値化したデータである。
 つまり、勾配特徴抽出部31は、学習装置10の勾配特徴抽出部11と同様の動作を行う。
 なお、勾配特徴抽出部31は、識別処理に有用と判断した特定の勾配特徴量のみを求めることもできる。例えば、勾配特徴抽出部31は、統計的手法等によって識別に有用でないとされる勾配特徴量を排除し、また、識別対象パターンにおける所定の座標や画素に対し識別に有用でない識別符号を付することによって識別に有用でない勾配特徴量そのものを求めないようにすることができる。
 勾配特徴抽出部31は、求めた勾配特徴量を、記憶装置40の特徴量一時記憶部42に一時的に記憶する。
 和差特徴抽出部32は、図5に示すように、特徴量一時記憶部42から勾配特徴量を取り出し、所定の和差特徴量を求める。和差特徴抽出部32は、勾配特徴抽出部31から勾配特徴量を直接受け取ることもできる。
 つまり、和差特徴抽出部32は、学習装置10における和差特徴抽出部12と同様の動作を行う。
 例えば、学習装置10の和差特徴抽出部12において「所定の勾配範囲」及び「他の勾配範囲」の幅が3に設定された場合、通常、識別装置30の和差特徴抽出部32は、同じ幅の勾配範囲に含まれる勾配特徴量を用いて和差特徴量を求める。具体的には、この場合、和差特徴抽出部32は、3つの勾配方向に係る勾配強度値を加算して、この加算値から他の3つの勾配方向に係る勾配強度値を減算して和差特徴量を求める。そして、和差特徴抽出部32は、2つの勾配方向に係る勾配強度値を加算して、この加算値から他の2つの勾配方向に係る勾配強度値を減算して和差特徴量を求める。
 ただし、学習装置10による学習処理の結果、勾配範囲の幅が3の場合における勾配特徴量が識別に有用でないと判断された場合、和差特徴抽出部32は、幅が2のみの勾配範囲にもとづいて和差特徴量を求めることができる。つまり、この場合、和差特徴抽出部32は、2つの勾配方向に係る勾配強度値を加算して、この加算値から他の2つの勾配方向に係る勾配強度値を減算して和差特徴量を求める。
 さらに、和差特徴抽出部32は、上述した勾配特徴抽出部31と同様の方法により、識別に有用と判断した特定の和差特徴量のみを求めることもできる。
 これにより、本実施形態に係る学習装置10は、識別に係る計算コストの軽減を図り、迅速な識別処理を実現することができる。
 なお、和差特徴抽出部32は、求めた和差特徴量を記憶装置40の特徴量一時記憶部42に一時的に記憶する。
 識別部33は、図5に示すように、特徴量一時記憶部42から勾配特徴量と和差特徴量とを取り出す。そして識別部33は、辞書記憶部41から学習パラメータを取り出し、これらにもとづいて識別対象パターンが一又は二以上の類型(所定の種別/カテゴリー/クラスなど)のいずれに属するかを識別結果として出力する。
 例えば識別部33は、識別対象パターンから求めた勾配特徴量や和差特徴量からなる特徴ベクトルと、学習パラメータをなす複数の参照ベクトルとのユークリッド距離を求め、最もその距離が近い参照ベクトルに割り当てられている種別、カテゴリー又はクラスに識別対象パターンが属すると識別する。
 ここで、識別部33は、辞書記憶部41に記憶されている学習パラメータのうち識別に有用と判断した学習パラメータのみを取り出して識別処理に用いることもできる。例えば識別部33は、実際の識別処理を介して得た識別結果にもとづき、識別に有用と判断した学習パラメータに予め識別符号を付することによってかかる処理を実現することができる。
 なお、識別装置30は、図6に示すように、記憶装置40を含まない構成とすることもできる。
 この場合、勾配特徴抽出部31は、求めた勾配特徴量を和差特徴抽出部32や識別部33に直接出力することができる。和差特徴抽出部32は、求めた和差特徴量を識別部33に直接出力することができ、また、勾配特徴抽出部31から受け取った勾配特徴量を学習部33に受け渡すこともできる。
 そして、学習部13は、勾配特徴量及び和差特徴量と、図示しない学習装置等から受け取った学習パラメータにもとづき識別結果を出力する。
(記憶装置20(40))
 図1に示す記憶装置20及び図5に示す記憶装置40は、ハードディスクや半導体メモリ等からなる記憶手段である。
 記憶装置20(40)は、これらの図に示すように、辞書記憶部21(41)と特徴量一時記憶部22(42)とを備える。
 辞書記憶部21(41)は、学習処理を介して取得した学習パラメータを記憶する。辞書記憶部21(41)に記憶された学習パラメータは、識別処理に用いられる。
 特徴量一時記憶部22は、学習装置10の勾配特徴抽出部11が求めた勾配特徴量や和差特徴抽出部12が求めた和差特徴量を記憶する。
 また、特徴量一時記憶部42は、識別装置30の勾配特徴抽出部31が求めた勾配特徴量や和差特徴抽出部32が求めた和差特徴量を記憶する。
 次に、以上のような構成からなる学習装置における学習方法と識別装置における識別方法について図7及び図8を参照しながら説明する。
 図7は、本実施形態に係る学習方法を示すフローチャートである。
 また、図8は、本実施形態に係る識別方法を示すフローチャートである。
(学習方法)
 図7に示すように、本実施形態に係る学習方法では、まず、学習装置10が、図示しない入力部を介して学習対象パターンを入力する(S101)。
 次に、勾配特徴抽出部11が、入力した学習対象パターンから勾配特徴量を求める(S102)。
 具体的には、勾配特徴抽出部11は、入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とからなる勾配特徴量を求める。
 勾配特徴抽出部11は、求めた勾配特徴量を、記憶装置20の特徴量一時記憶部22に記憶する。
 次いで、和差特徴抽出部12は、特徴量一時記憶部22から勾配特徴量を取り出し、和差特徴量を求める(S103)。
 具体的には、和差特徴抽出部12は、学習対象パターンから求めた勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算する。そして和差特徴抽出部12は、前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算することによって和差特徴量を求める。
 そして、和差特徴抽出部12は、以上の処理を学習対象パターンの全ての画素について行う。
 なお、和差特徴抽出部12は、求めた和差特徴量を特徴量一時記憶部22に記憶する。
 続いて、学習装置10は、学習すべき他の学習対象パターンがあるか否かを判断する(S104)。
 学習すべき他の学習対象パターンがある場合(S104:YES)、学習装置10は、他の学習対象パターンについても同様の処理(S101~S103)を行う。すなわち、学習装置10は、学習対象パターンの数だけS101~S103の処理を繰り返し行う。
 そして、学習すべき他の学習対象パターンがない場合(S104:NO)、学習部13は、学習処理を行う(S105)。
 具体的には、学習部13は、特徴量一時記憶部22から取り出した勾配特徴量及び和差特徴量を用いた所定の学習アルゴリズムにもとづいて、学習パラメータを取得する。
 なお、この際、学習部13は、所定の教師データを加えて学習処理を行うこともできる。
 本実施形態では、学習部13は、取得した学習パラメータを、識別装置30に接続された記憶装置40の辞書記憶部41に記憶する。
 ここで、上述した学習処理の手順は、適宜、変更されてもよい。
 例えば、一般化学習ベクトル量子化のように、学習対象パターンを逐次入力するタイプの学習処理を行う場合には、S104とS105の手順が入れ替わってもよい。すなわち、学習対象パターン入力→勾配特徴量抽出→和差特徴量抽出→学習処理の一連の処理が学習パターンの数に応じて繰り返して処理されてもよい。
(識別方法)
 図8に示すように、本実施形態に係る識別方法では、まず、識別装置30が、図示しない入力部を介して識別対象パターンを入力する(S201)。
 次に、勾配特徴抽出部31が、入力した識別対象パターンから勾配特徴量を求める(S202)。
 具体的には、勾配特徴抽出部31は、入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とからなる勾配特徴量を求める。
 勾配特徴抽出部31は、求めた勾配特徴量を、記憶装置40の特徴量一時記憶部42に記憶する。
 次いで、和差特徴抽出部32は、特徴量一時記憶部42から勾配特徴量を取り出し、和差特徴量を求める(S203)。
 具体的には、和差特徴抽出部32は、識別対象パターンから求めた勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算することによって和差特徴量を求める。
 そして、和差特徴抽出部32は、以上の処理を識別対象パターンの全ての画素について行う。
 なお、和差特徴抽出部32は、求めた和差特徴量を特徴量一時記憶部42に記憶する。
 続いて、識別部33は、特徴量一時記憶部42から勾配特徴量と和差特徴量を取り出すとともに、また、学習処理の段階で記憶された学習パラメータを辞書記憶部41から取り出す。そして、識別部33は、これらのデータにもとづいて識別対象パターンが一又は二以上の類型のいずれに属するかを識別する(S204)。
 この識別結果は、表示、印刷その他の方法により出力されてもよい。
 以上説明したように、本実施形態の学習装置10は、入力された学習対象パターンにもとづき各座標における勾配特徴量と、この勾配特徴量にもとづく和差特徴量とを求め、所定の学習アルゴリズムにもとづいて学習パラメータを取得するようにしている。
 このため、本実施形態の学習装置10は、特異的な特徴量にもとづく学習パラメータを、加算や減算といった簡易な演算処理によって求めることができる。
 したがって、本実施形態の学習装置10は、学習処理にかかる計算コストを軽減し、円滑な学習処理を実現することができる。
 また、本実施形態の識別装置30は、入力された識別対象パターンにもとづき各座標における勾配特徴量と、この勾配特徴量にもとづく和差特徴量とを求め、これらを(前述の学習装置などによって)予め求められた学習パラメータと対照することによってその識別対象パターンの識別を行うようにしている。
 このため、本実施形態の識別装置30は、識別処理にかかる計算コストを軽減し、円滑に識別結果を得ることができる。
 したがって、本実施形態に係る学習装置10又は識別装置30によれば、加算や減算といった簡易な演算処理により特異的な特徴量であるにもかかわらず、識別に有用な学習パラメータを効果的に取得し、円滑に識別結果を得ることができる。
 すなわち、本実施形態に係る学習装置10又は識別装置30は、学習処理により、識別精度を得るための莫大な特徴量や学習パラメータを求める必要はない。また、本実施形態に係る学習装置10又は識別装置30は、識別処理により、複雑な演算処理が不要となるため、計算コストを総括的に削減することができる。
 また、本実施形態の学習装置10又は識別装置30は、学習処理や識別処理に必要な勾配特徴の量を調整することができる。
 例えば、本実施形態の学習装置10又は識別装置30は、勾配範囲を広く設定することによって、学習処理の際、より多くの学習パラメータを獲得することができ、これにより識別処理における識別精度をより向上させることができる。
 他方、本実施形態の学習装置10又は識別装置30は、勾配範囲を狭く設定することによって、学習処理及び識別処理の際の計算コストを抑制することができる。
 したがって、利用者は、勾配範囲を自由に変更することができるため、識別精度と計算コストとのバランスを調整することができる。
 さらに、本実施形態の識別装置30は、学習処理の段階で取得した学習パラメータの中から識別に必要なもののみを対象として識別処理を行うことができる。
 具体的には、本実施形態の識別装置30は、勾配特徴抽出部31が識別に用いる勾配特徴量を求め、和差特徴抽出部32が識別に用いる和差特徴量のみを求め、識別部33が、これらを学習パラメータと対照させて識別処理を行うことができる。
 また、本実施形態の識別装置30は、辞書記憶部に記憶されている学習パラメータのなかから識別に用いる学習パラメータのみを取り出して、勾配特徴量や和差特徴量との対照に用いることができる。
 これにより、本実施形態の識別装置30は、識別処理に係る計算コストを抑え、円滑な識別処理を実現することができる。
[第二実施形態]
 次に、本発明の第二実施形態に係る学習装置について説明する。
 本実施形態に係る学習装置10は、勾配特徴量を特徴量一次記憶部22に記憶する際の記憶方法に特徴を有する。他の構成や作用・効果等は、第一実施形態に係る学習装置と同様であるため、その詳細な説明については省略する。
 以下、本実施形態に係る勾配特徴量の記憶方法について、図9Aないし図9Cを参照しながら説明する。
 図9Aないし図9Cは、本実施形態に係る勾配特徴量の記憶方法を説明するための説明図である。
 本実施形態に係る学習装置における特徴量一時記憶部22は、学習処理の際、勾配特徴抽出部11が求めた各座標における輝度の勾配方向と勾配強度値からなる勾配特徴量のうち、一の和差特徴量を求めるための加算又は減算の対象となる勾配特徴量を同一又は近接した記憶領域に区分して記憶する。
 つまり、特徴量一時記憶部22は、学習対象パターンのある画素について求めた勾配特徴量を階層的その他の無秩序的に記憶するのではなく(図9A参照)、和差特徴量の計算対象同士が同一又は近接したアドレス(領域)に配置して記憶する(図9B参照)。
 例えば、図9Cの例によれば、特徴量一時記憶部22は、画素001における勾配方向(方向D1~Dn)ごとの各勾配強度値をすべてアドレス#001の記憶領域に格納する。
 また、特徴量一時記憶部22は、画素002における勾配方向ごとの各勾配強度値をアドレス#002の記憶領域にすべて格納する(以下、画素N(対象パターンの対応画素数)まで同じ)。
 つまり、特徴量一時記憶部22は、メモリの格納領域上においては、和差特徴量の計算対象同士が近接した(又は同一の)アドレスに格納する。
 このため、本実施の形態における学習装置10は、勾配特徴量を無秩序に格納した場合に比べ、和差特徴抽出処理の際における勾配強度値の加算及び減算を高速に処理することができ、結果、学習処理にかかる期間(時間)を短縮することができる。
 なお、本実施形態では、学習装置10について説明したが、その構成上、識別装置30についても同様の作用・効果を奏することができる。
[第三実施形態]
 次に、本発明の第三実施形態に係る学習識別システムについて図10及び図11を参照しながら説明を行う。
 図10及び図11は、本実施形態に係る学習識別システムの構成を示したブロック図である。
 これらの図に示すように、本実施形態に係る学習識別システム90は学習装置10と識別装置30とを備える。
 このため、本実施形態に係る学習識別システム90は、第一実施形態に示した学習装置10と識別装置30と同様の作用・効果を奏するのみならず、学習装置10と識別装置30とを一括りに提供できるため、ユーザビリティに優れている。
 具体的には、図10に示す学習識別システム90aは、学習処理と識別処理とをリアルタイムに行う場合に用いることができる。例えば、学習識別システム90aは、学習装置10が、学習パターンや教師データを継続的に入力して学習処理を行いつつ、識別装置30が、識別対象パターンの識別処理を行う態様に適用することができる。
 また、図11に示す学習識別システム90bは、記憶装置20を、学習装置10と識別装置30とが共用するようにしているため、学習装置10や識別装置30が独立に構成されうるので、それぞれに記憶装置を備える構成と比べ、コストを低減することができる。
[第四実施形態]
 次に、本発明の第四実施形態に係る学習識別装置について図12及び図13を参照しながら説明を行う。
 図12及び図13は、本実施形態に係る学習識別装置の構成を示したブロック図である。
 本実施形態に係る学習識別装置100は、同図に示すように、学習装置10と識別装置20とが一体化した構成となっている。
 具体的には、図12に示す学習識別装置100aは、図10に示した学習識別システム90aに対応するものである。
 また、図13に示す学習識別装置100bは、図11に示した学習識別システム90bに対応するものである。
 したがって、他の構成や作用・効果等は、第三実施形態に係る学習識別システムと同様である。
 しかしながら、本実施形態に係る学習識別装置100は、勾配特徴抽出部及び和差特徴抽出部を学習処理及び識別処理において共用している点において前述の実施形態とは異なる。
 このため、本実施形態に係る学習識別装置100は、第三実施形態において示した学習識別システムに比べ、より一層のコスト低減が可能である。
 以上、本発明の学習装置、学習方法、学習プログラムを格納した記録媒体及び識別装置、識別方法、識別プログラムを格納した記録媒体並びに学習識別システム、学習識別装置、学習識別方法、学習識別プログラムを格納した記録媒体について、実施形態を示して説明したが、本発明にかかるこれらの装置、システム、方法及びプログラムを格納した記録媒体は、上述した実施形態にのみ限定されるものではなく、本発明の範囲で種々の変更実施が可能であることは言うまでもない。
 例えば、各実施形態において入力される学習対象パターンや識別対象パターンは画像そのものではなく、例えば、所定の前処理(図14のA1参照)を施した後のデータや、所定の縮小処理等により画像データが圧縮された後のデータであってもよい。
 また、対象画像にヒストグラム均等化などの画像処理を施した後のデータが用いられてもよい。この場合、本発明の学習装置、学習方法、学習プログラムを格納した記録媒体及び識別装置、識別方法、識別プログラムを格納した記録媒体並びに学習識別システム、学習識別装置、学習識別方法、学習識別プログラムを格納した記録媒体は、画像が撮影された際の照明の影響を抑えることができるため、識別性能をさらに向上させることも可能である。
 本発明の効果の一例は、計算コストの負荷を抑えながらも識別精度を向上させ、学習処理及び識別処理を円滑化させることである。
 この出願は、2010年1月6日に出願された日本出願特願2010−001265を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
 本発明は、画像中の文字認識、顔認識、人物の顔や体を用いた人物認証、監視カメラ映像からの人物の検出、工場の製造ラインにおける欠陥検知等といった物体識別に好適に利用することができる。
 10 学習装置
 11 勾配特徴抽出部
 12 和差特徴抽出部
 13 学習部
 20、40 記憶装置
 21、41 辞書記憶部
 22、42 特徴量一時記憶部
 30 識別装置
 31 勾配特徴抽出部
 32 和差特徴抽出部
 33 識別部
 90 学習識別システム
 100 学習識別装置

Claims (33)

  1.  入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、
     前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部とを備える
     ことを特徴とする学習装置。
  2.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記所定の勾配範囲に隣接し、かつ、当該所定の勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項1記載の学習装置。
  3.  前記和差特徴量抽出部は、
     前記所定の勾配範囲に含まれる勾配方向に係る勾配強度値のうち、当該勾配範囲に含まれる前記量子化した勾配方向の数以下の単位数に対応した勾配強度値を加算するとともに、当該各加算値から、前記他の勾配範囲に含まれる前記単位数に対応した勾配強度値を減算する
     ことを特徴とする請求項2記載の学習装置。
  4.  入力操作に応じて前記所定の勾配範囲及び/又は前記他の勾配範囲に含まれる前記量子化した勾配方向の数を設定する勾配特徴数設定手段を備える
     ことを特徴とする請求項2又は3記載の学習装置。
  5.  前記学習部は、
     前記勾配特徴量、前記和差特徴量及びこれらに対応する所定の教師データを用いた所定の学習アルゴリズムにもとづいて前記学習パラメータを取得する
     ことを特徴とする請求項1~4のいずれか一項記載の学習装置。
  6.  前記学習対象パターンの各座標における勾配方向とその勾配強度値とを含む勾配特徴量を記憶する特徴量一時記憶部を備え、
     前記和差特徴抽出部は、
     前記特徴量一時記憶部から取り出した勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して前記和差特徴量を求める
     ことを特徴とする請求項1~5のいずれか一項記載の学習装置。
  7.  前記特徴量一時記憶部は、
     前記学習対象パターンの各座標における勾配方向とその勾配強度値とを含む各勾配特徴量のうち、一の座標に係る勾配特徴量を同一又は近接した領域に記憶する
     ことを特徴とする請求項6記載の学習装置。
  8.  入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求め、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、
     前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する
     ことを特徴とする学習方法。
  9.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項8記載の学習方法。
  10.  所定のコンピュータを、
     入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部、及び
     前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部、として機能させる
     ことを特徴とする学習プログラムを格納した記録媒体。
  11.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項10記載の学習プログラムを格納した記録媒体。
  12.  入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、
     前記勾配特徴量及び前記和差特徴量並びに所定の学習アルゴリズムによって取得した学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する識別部とを備える
     ことを特徴とする識別装置。
  13.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項12記載の識別装置。
  14.  前記和差特徴量抽出部は、
     前記所定の勾配範囲に含まれる勾配方向に係る勾配強度値のうち、当該勾配範囲に含まれる前記量子化した勾配方向の数以下の単位数に対応した勾配強度値を加算するとともに、当該各加算値から、前記他の勾配範囲に含まれる前記単位数に対応した勾配強度値を減算する
     ことを特徴とする請求項13記載の識別装置。
  15.  入力操作に応じて前記所定の勾配範囲及び/又は前記他の勾配範囲に含まれる前記量子化した勾配方向の数を設定する勾配特徴数設定手段を備える
     ことを特徴とする請求項13又は14記載の識別装置。
  16.  前記識別対象パターンの各座標における勾配方向とその勾配強度値とを含む勾配特徴量を記憶する特徴量一時記憶部を備え、
     前記和差特徴抽出部は、
     前記特徴量一時記憶部から取り出した勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して前記和差特徴量を求める
     ことを特徴とする請求項12~15のいずれか一項記載の識別装置。
  17.  前記特徴量一時記憶部は、
     前記識別対象パターンの各座標における勾配方向とその勾配強度値とを含む各勾配特徴量のうち、一の座標に係る勾配特徴量を同一又は近接した領域に記憶する
     ことを特徴とする請求項16記載の識別装置。
  18.  所定の学習対象パラメータについての勾配特徴量及び和差特徴量を用いた所定の学習アルゴリズムにもとづいて取得した学習パラメータを記憶する辞書記憶部を備え、
     前記識別部は、
     前記勾配特徴量及び前記和差特徴量、並びに、前記辞書記憶部に記憶されている前記学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する
     ことを特徴とする請求項12~17のいずれか一項記載の識別装置。
  19.  前記識別部は、
     前記勾配特徴量及び前記和差特徴量並びに前記辞書記憶部に記憶されている学習パラメータのうち識別処理に有用と判断した学習パラメータにもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する
     ことを特徴とする請求項18記載の識別装置。
  20.  前記勾配特徴抽出部は、
     前記識別部が識別処理に有用と判断した特定の勾配特徴量を求める
     ことを特徴とする請求項12~19のいずれか一項記載の識別装置。
  21.  前記和差特徴抽出部は、
     前記識別部が識別処理に有用と判断した特定の和差特徴量を求める
     ことを特徴とする請求項12~20のいずれか一項記載の識別装置。
  22.  入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求め、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、
     前記勾配特徴量及び前記和差特徴量並びに所定の学習アルゴリズムによって取得した学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する
     ことを特徴とする識別方法。
  23.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項22記載の識別方法。
  24.  所定のコンピュータを、
     入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部、及び
     前記勾配特徴量及び前記和差特徴量並びに所定の学習アルゴリズムによって取得した学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する識別部、として機能させる
     ことを特徴とする識別プログラムを格納した記録媒体。
  25.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項24記載の識別プログラムを格納した記録媒体。
  26.  学習装置が、
     入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、
     前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部とを備え、
     識別装置が、
     入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、
     求めた前記勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、
     前記勾配特徴量及び前記和差特徴量並びに前記学習部が取得した学習パラメータの一部又は全部にもとづき、前記識別対象パターンが一又は二以上の類型のいずれに属するかを識別する識別部とを備える
     ことを特徴とする学習識別システム。
  27.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項26記載の学習識別システム。
  28.  識別対象パターンが一又は二以上の類型のいずれに属するかを識別する識別部を備える学習識別装置であって、
     入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部と、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部と、
     前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部とを備え、
     前記勾配特徴抽出部が、
     入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求め、
     前記和差特徴抽出部が、
     求めた前記勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、
     前記識別部が、
     前記識別対象パターンから求めた前記勾配特徴量及び前記和差特徴量並びに前記学習部が取得した学習パラメータの一部又は全部にもとづき、当該識別対象パターンが一又は二以上の類型のいずれに属するかを識別する
     ことを特徴とする学習識別装置。
  29.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項28記載の学習識別装置。
  30.  入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値と含む勾配特徴量を求め、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め、
     前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得し、
     入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求め、
     求めた前記勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求め
     前記識別対象パターンから求めた前記勾配特徴量及び前記和差特徴量並びに前記学習部が取得した学習パラメータの一部又は全部にもとづき、当該識別対象パターンが一又は二以上の類型のいずれに属するかを識別する
     ことを特徴とする学習識別方法。
  31.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項30記載の学習識別方法。
  32.  所定のコンピュータを、
    入力された学習対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求める勾配特徴抽出部、
     求めた前記勾配特徴量にもとづき、所定の勾配方向の範囲を示す所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記所定の勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求める和差特徴抽出部、及び
     前記勾配特徴量及び前記和差特徴量を用いた所定の学習アルゴリズムにもとづいて各座標ごとの学習パラメータを取得する学習部として機能させるとともに、
     前記勾配特徴抽出部に、
     入力された識別対象パターンの各座標における輝度とその周辺の輝度との変量にもとづき、当該各座標における勾配方向とその勾配強度値とを含む勾配特徴量を求めさせ、
     前記和差特徴抽出部に、
     求めた前記勾配特徴量にもとづき、所定の勾配範囲に含まれる勾配方向に係る勾配強度値を加算するとともに、当該加算値から前記勾配範囲に隣接した他の勾配範囲に含まれる勾配方向に係る勾配強度値を減算して所定の和差特徴量を求めさせ、
     前記識別部に、
     前記識別対象パターンから求めた前記勾配特徴量及び前記和差特徴量並びに前記学習部が取得した学習パラメータの一部又は全部にもとづき、当該識別対象パターンが一又は二以上の類型のいずれに属するかを識別させる
     ことを特徴とする学習識別プログラムを格納した記録媒体。
  33.  前記所定の勾配範囲は、勾配が取り得る勾配方向の全範囲を4以上の勾配方向に量子化したうちの2以上の当該量子化した勾配方向に係る勾配特徴量を含む範囲であるとともに、前記他の勾配範囲は、前記勾配範囲に隣接し、かつ、当該勾配範囲に含まれる前記量子化した勾配方向の数と同数の当該量子化した勾配方向に係る勾配特徴量を含む範囲である
     ことを特徴とする請求項32記載の学習識別プログラムを格納した記録媒体。
PCT/JP2010/073873 2010-01-06 2010-12-24 学習装置、識別装置、学習識別システム及び学習識別装置 WO2011083749A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011548979A JP5768719B2 (ja) 2010-01-06 2010-12-24 学習装置、識別装置、学習識別システム及び学習識別装置
EP10842260.1A EP2523162B1 (en) 2010-01-06 2010-12-24 Learning device, identification device, learning identification system and learning identification device
CN201080060941.4A CN102713974B (zh) 2010-01-06 2010-12-24 学习装置、识别装置、学习识别系统和学习识别装置
US13/520,766 US9036903B2 (en) 2010-01-06 2010-12-24 Learning device, identification device, learning identification system and learning identification device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010001265 2010-01-06
JP2010-001265 2010-01-06

Publications (1)

Publication Number Publication Date
WO2011083749A1 true WO2011083749A1 (ja) 2011-07-14

Family

ID=44305485

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/073873 WO2011083749A1 (ja) 2010-01-06 2010-12-24 学習装置、識別装置、学習識別システム及び学習識別装置

Country Status (5)

Country Link
US (1) US9036903B2 (ja)
EP (1) EP2523162B1 (ja)
JP (1) JP5768719B2 (ja)
CN (1) CN102713974B (ja)
WO (1) WO2011083749A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2523162B1 (en) * 2010-01-06 2019-05-08 Nec Corporation Learning device, identification device, learning identification system and learning identification device
US8842909B2 (en) * 2011-06-30 2014-09-23 Qualcomm Incorporated Efficient blending methods for AR applications
JP5833880B2 (ja) * 2011-10-07 2015-12-16 キヤノンイメージングシステムズ株式会社 情報処理装置、デバイス制御装置、デバイス制御システム、およびその制御方法
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11803960B2 (en) * 2020-08-12 2023-10-31 Kla Corporation Optical image contrast metric for optical target search

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2605807B2 (ja) 1988-06-23 1997-04-30 日本電気株式会社 特徴抽出方式
JP2005190383A (ja) * 2003-12-26 2005-07-14 Ricoh Co Ltd 網点領域識別装置、および網点領域識別方法
JP2005234603A (ja) * 2005-04-12 2005-09-02 Hitachi Ltd 地図情報更新方法及び地図更新装置
JP2005284697A (ja) 2004-03-30 2005-10-13 Yukiyasu Yoshinaga 線抽出のための画像処理方法及びそのプログラム、線集中度画像フィルタ
JP2006048322A (ja) * 2004-08-04 2006-02-16 Seiko Epson Corp オブジェクト画像検出装置、顔画像検出プログラムおよび顔画像検出方法
JP2006301811A (ja) * 2005-04-18 2006-11-02 Matsushita Electric Works Ltd 画像処理装置及び画像処理方法
JP2008059110A (ja) 2006-08-30 2008-03-13 Nec Corp 物体識別パラメータ学習システム、物体識別パラメータ学習方法および物体識別パラメータ学習用プログラム
JP2010001265A (ja) 2008-06-23 2010-01-07 Number Three:Kk 酸性染毛料組成物の製造方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09171553A (ja) * 1995-12-20 1997-06-30 Hitachi Ltd 画像認識方法
US6519372B1 (en) * 1999-08-31 2003-02-11 Lockheed Martin Corporation Normalized crosscorrelation of complex gradients for image autoregistration
GB2395777B (en) * 2002-11-27 2005-12-28 Taylor Hobson Ltd A surface profiling apparatus
CN100369454C (zh) * 2005-07-21 2008-02-13 华晶科技股份有限公司 二维影像色彩信息重建方法
JP4636064B2 (ja) * 2007-09-18 2011-02-23 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
CN101511031B (zh) 2008-12-15 2010-07-14 四川虹微技术有限公司 一种用于拜尔数据插值的方法
CN101515325B (zh) * 2009-04-08 2012-05-23 北京邮电大学 基于字符切分和颜色聚类的数字视频中的字符提取方法
CN101894262B (zh) * 2009-05-20 2014-07-09 索尼株式会社 对图像进行分类的方法和设备
CN101551863B (zh) * 2009-05-22 2011-09-21 西安电子科技大学 基于非下采样轮廓波变换的遥感图像道路提取方法
EP2523162B1 (en) * 2010-01-06 2019-05-08 Nec Corporation Learning device, identification device, learning identification system and learning identification device
US8705881B2 (en) * 2011-09-02 2014-04-22 Adobe Systems Incorporated Motion deblurring for text images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2605807B2 (ja) 1988-06-23 1997-04-30 日本電気株式会社 特徴抽出方式
JP2005190383A (ja) * 2003-12-26 2005-07-14 Ricoh Co Ltd 網点領域識別装置、および網点領域識別方法
JP2005284697A (ja) 2004-03-30 2005-10-13 Yukiyasu Yoshinaga 線抽出のための画像処理方法及びそのプログラム、線集中度画像フィルタ
JP2006048322A (ja) * 2004-08-04 2006-02-16 Seiko Epson Corp オブジェクト画像検出装置、顔画像検出プログラムおよび顔画像検出方法
JP2005234603A (ja) * 2005-04-12 2005-09-02 Hitachi Ltd 地図情報更新方法及び地図更新装置
JP2006301811A (ja) * 2005-04-18 2006-11-02 Matsushita Electric Works Ltd 画像処理装置及び画像処理方法
JP2008059110A (ja) 2006-08-30 2008-03-13 Nec Corp 物体識別パラメータ学習システム、物体識別パラメータ学習方法および物体識別パラメータ学習用プログラム
JP2010001265A (ja) 2008-06-23 2010-01-07 Number Three:Kk 酸性染毛料組成物の製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2523162A4

Also Published As

Publication number Publication date
US9036903B2 (en) 2015-05-19
JP5768719B2 (ja) 2015-08-26
JPWO2011083749A1 (ja) 2013-05-13
CN102713974B (zh) 2015-09-30
EP2523162A4 (en) 2018-01-10
EP2523162B1 (en) 2019-05-08
US20120281909A1 (en) 2012-11-08
CN102713974A (zh) 2012-10-03
EP2523162A1 (en) 2012-11-14

Similar Documents

Publication Publication Date Title
US11971924B2 (en) Liveness test method and apparatus
Raju et al. A fast and efficient color image enhancement method based on fuzzy-logic and histogram
CN107529650B (zh) 闭环检测方法、装置及计算机设备
Li et al. Automatic crack detection and measurement of concrete structure using convolutional encoder-decoder network
Giakoumis et al. Digital image processing techniques for the detection and removal of cracks in digitized paintings
JP5768719B2 (ja) 学習装置、識別装置、学習識別システム及び学習識別装置
CN100405828C (zh) 用于检测可视对象的方法和系统
CN108389224B (zh) 图像处理方法及装置、电子设备和存储介质
Alata et al. Choice of a pertinent color space for color texture characterization using parametric spectral analysis
KR101479225B1 (ko) 특징 벡터 생성 방법 및 그 장치, 이를 이용한 영상 인식 방법 및 장치
KR20180109658A (ko) 영상 처리 방법과 장치
WO2019064599A1 (ja) 異常検知装置、異常検知方法、及びコンピュータ読み取り可能な記録媒体
CN112862706A (zh) 路面裂缝图像预处理方法、装置、电子设备及存储介质
JP2014063359A (ja) 信号処理装置および信号処理方法、出力装置および出力方法、並びにプログラム
Youseph et al. Pixel and edge based illuminant color estimation for image forgery detection
Ta et al. A novel laser line detection algorithm for robot application
KR20210018114A (ko) 교차 도메인 메트릭 학습 시스템 및 방법
Omarov et al. Machine learning based pattern recognition and classification framework development
CN113223098B (zh) 图像颜色分类的预处理优化方法
Faghih et al. Neural gray edge: Improving gray edge algorithm using neural network
Chaczko et al. A preliminary investigation on computer vision for telemedicine systems using OpenCV
KR102257883B1 (ko) 얼굴 인식 방법 및 장치
Zang et al. Adaptive difference modelling for background subtraction
Subramanian et al. Fuzzy logic based content protection for image resizing by seam carving
Chaczko et al. Teaching Computer Vision for telemedicine systems using OpenCV

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080060941.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10842260

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010842260

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011548979

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13520766

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE