WO2021210414A1 - 可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置 - Google Patents

可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置 Download PDF

Info

Publication number
WO2021210414A1
WO2021210414A1 PCT/JP2021/014131 JP2021014131W WO2021210414A1 WO 2021210414 A1 WO2021210414 A1 WO 2021210414A1 JP 2021014131 W JP2021014131 W JP 2021014131W WO 2021210414 A1 WO2021210414 A1 WO 2021210414A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature vector
multidimensional feature
graph
data
multidimensional
Prior art date
Application number
PCT/JP2021/014131
Other languages
English (en)
French (fr)
Inventor
貴之 石黒
星野 仁
Original Assignee
株式会社Roxy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Roxy filed Critical 株式会社Roxy
Priority to US17/907,135 priority Critical patent/US20230103374A1/en
Priority to JP2022515304A priority patent/JP7309134B2/ja
Publication of WO2021210414A1 publication Critical patent/WO2021210414A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/86Arrangements for image or video recognition or understanding using pattern recognition or machine learning using syntactic or structural representations of the image or video pattern, e.g. symbolic string recognition; using graph matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Definitions

  • the present invention is a visualization method for visualizing the learning status of a trained model to be trained using a plurality of sample data, a program for causing one or a plurality of computers to execute each step of the visualization method, and a plurality of sample data.
  • the present invention relates to a visualization device that visualizes the learning status of a trained model that is trained using the above, and a discrimination device that can discriminate the classification of the discrimination target.
  • Patent Document 1 a feature amount is extracted from an image to be discriminated by using a convolutional neural network, and a multivariate analysis is performed on the extracted feature amount to perform the multivariate analysis.
  • a discrimination device that discriminates the classification of the discrimination target based on the result of the above is described.
  • the discrimination device can classify a wide variety of discrimination targets with high accuracy, and sets discrimination criteria based on the results of multivariate analysis. Therefore, the added value of the discrimination targets, such as high-end products and general-purpose products, It is possible to easily set a threshold value for discrimination in consideration of the above.
  • the evaluation of a trained model generated by using a feature extractor including a convolutional neural network is generally performed by a one-dimensional numerical index such as a correct answer rate, a precision rate, and a recall rate.
  • a one-dimensional numerical index such as a correct answer rate, a precision rate, and a recall rate.
  • the present invention has been made in view of the above, and one of the objects of the present invention is to provide a technique that contributes to the simple and rapid generation of an appropriate trained model. Another object of the present invention is to provide a technique that contributes to improving the reliability and discrimination accuracy of the trained model.
  • a visualization method for visualizing the learning status of a trained model trained using a plurality of sample data is configured.
  • the first multidimensional feature vector of each of the plurality of sample data is extracted by the feature extractor, and (b) the extracted first multidimensional feature vector is extracted.
  • a feature converter using a plurality of fully connected layers converts the first multidimensional feature vector into a second multidimensional feature vector having a lower dimension than the first multidimensional feature vector, and (c) the second multiple of each of the converted plurality of sample data. It includes a step of graphing a dimensional feature vector and (d) displaying a plurality of generated graphs in a first area of a display unit.
  • the learning status of the trained model that is, the second multidimensional feature vector effective for visualizing the individuality of the trained model is graphed, and the graph is displayed on the display unit. Since it is displayed in the first area, the learning status (individuality) of the trained model can be easily visualized. As a result, it is possible to evaluate whether or not the learning status of the trained model is in a situation where the classification of the discrimination target can be appropriately discriminated, so that an appropriate trained model can be generated with a smaller amount of sample data than in the past. can do. As a result, an appropriate trained model can be generated easily and quickly. Of course, since the learning status (individuality) of the trained model can be visually confirmed, the reliability of the trained model is improved.
  • an appropriate trained model can be generated, it is possible to set a wide threshold value in which the discrimination target can be appropriately classified. As a result, it is possible to suppress erroneous discrimination due to disturbance, for example, the influence of external light when acquiring an image to be discriminated, and it is possible to stably obtain an accurate discriminant result.
  • step (d) displays the same or similar graphs among a plurality of graphs in the same or similar manner, and displays dissimilar graphs in different modes.
  • the "same or similar graph” in the present invention corresponds to a graph in which the teacher signals attached to the sample data are the same or similar.
  • the "display in the same or similar manner” in the present invention typically corresponds to the mode in which the same color or the same color is displayed, but the mode in which the same line width is displayed and the same line type (the same line type). For example, a mode in which solid lines, broken lines, one-dot chain lines, two-dot chain lines, etc. are displayed is preferably included.
  • the "display in a different mode" in the present invention typically corresponds to a mode in which a different color or a different color is displayed, but a mode in which a different line width is displayed or a different line type (for example, a solid line) is used. And a broken line, a solid line and a one-dot chain line, a solid line and a two-dot chain line, etc.) are preferably included.
  • the learning situation (individuality) of the trained model can be made visually clearer.
  • step (c) is a step of graphing a second multidimensional feature vector as a set of feature quantities for the number of dimensions.
  • the "two-dimensional graph" in the present invention typically corresponds to a graph that can be displayed on a plane.
  • a graph that can be represented on a plane for example, a graph that is represented in a Cartesian coordinate system can be considered, but a graph that is represented in a polar coordinate system is preferably included.
  • the second multidimensional feature vector can be easily graphed.
  • step (a) includes a step of extracting a third multidimensional feature vector of the discrimination target by a feature extractor when classifying the discrimination target. ..
  • step (b) includes a step of converting the extracted third multidimensional feature vector into a fourth multidimensional feature vector having a lower dimension than the third multidimensional feature vector by the feature converter.
  • step (c) includes a step of graphing the fourth multidimensional feature vector.
  • step (d) includes a step of displaying the graph of the fourth multidimensional feature vector in the first region in a mode different from that of the plurality of graphs.
  • the "discrimination target" in the present invention typically corresponds to a target whose classification is unknown, but a target whose classification is known for the purpose of verifying the learning result of the trained model and improving the learning accuracy.
  • sample data arbitrarily extracted from a plurality of sample data used for learning is preferably included.
  • the discrimination status of the classification of the discrimination target when classifying the discrimination target, in addition to visualizing the learning status (individuality) of the trained model, the discrimination status of the classification of the discrimination target can also be visualized. Since the graph of the fourth multidimensional feature vector in the discrimination target is displayed in a mode different from that of the plurality of graphs (graph of the second multidimensional feature vector), it is easy to confirm the discrimination status of the classification of the discrimination target.
  • step (c) is a step of graphing the fourth multidimensional feature vector as a set of feature quantities for the number of dimensions.
  • the "two-dimensional graph" in the present invention typically corresponds to a graph that can be displayed on a plane.
  • a graph that can be represented on a plane for example, a graph that is represented in a Cartesian coordinate system can be considered, but a graph that is represented in a polar coordinate system is preferably included.
  • the fourth multidimensional feature vector can be easily graphed.
  • Step (e) includes a step of extracting a fifth multidimensional feature vector in a designated arbitrary region by a feature extractor.
  • step (b) includes a step of converting the extracted fifth multidimensional feature vector into a sixth multidimensional feature vector having a lower dimension than the fifth multidimensional feature vector by the feature converter.
  • step (c) includes a step of graphing the sixth multidimensional feature vector.
  • step (d) includes a step of displaying the graph of the sixth multidimensional feature vector in the first region in a manner different from that of the plurality of graphs.
  • the discrimination status of the classification of any region to be discriminated it is possible to visualize the discrimination status of the classification of any region to be discriminated.
  • the user can visually confirm the discriminating status of the portion of concern, and can redo the learning according to the discriminating status of the portion of concern.
  • the first area of the display unit can be used to check the discrimination status of the classification of the arbitrary area. It's easy.
  • the graph of the sixth multidimensional feature vector in an arbitrary region is displayed in a mode different from that of a plurality of graphs (graph of the second multidimensional feature vector), the determination status of the classification of the arbitrary region can be confirmed. easy.
  • a step (g) of selecting a graph similar to the graph of the sixth multidimensional feature vector among the plurality of graphs is further included.
  • step (d) a graph similar to the graph of the sixth multidimensional feature vector among the plurality of graphs is displayed in the first region in a manner different from that of the plurality of graphs and the graph of the sixth multidimensional feature vector.
  • the "similar graph” in the present invention corresponds to the graph of the second multidimensional feature vector having the shortest distance from the sixth multidimensional feature vector.
  • a graph of the second multidimensional feature vector similar to the graph is displayed as a plurality of graphs (graph of the second multidimensional feature vector) and the sixth multidimensional feature vector. Since it is displayed in the first region in a manner different from the graph of the dimensional feature vector, it is visually confirmed whether or not the trained model is properly trained in addition to whether or not the discrimination target is properly classified. You can know. That is, when a graph of the sixth multidimensional feature vector of an arbitrary region whose classification is known is displayed in the first region, the sample data displayed in the first region as being similar to the graph is the first.
  • the graph of the 2 multidimensional feature vector is displayed in a classification area different from the graph of the 6th multidimensional feature vector in any area to be discriminated whose classification is known, or when it is displayed in a different shape. , It can be known that the learning situation of the trained model is inappropriate.
  • the classification is known in the graph of the second multidimensional feature vector of the sample data displayed in the first region as being similar to the graph of the sixth multidimensional feature vector in any region whose classification is known.
  • the graph of the sixth multidimensional feature vector of an arbitrary region to be discriminated is displayed in the same classification region in a similar shape, it can be known that the learning status of the trained model is appropriate.
  • the step (h) of setting the reference value based on the predetermined second multidimensional feature vector and the difference between the sixth multidimensional feature vector and the reference value are one-dimensional. It further includes a step (i) of calculating the numerical value of, and a step (j) of notifying the calculated difference in a visual and / or auditory and / or tactile manner.
  • the similarity with respect to the reference value of any region can be visually and / or audibly and / or tactilely confirmed.
  • the step (c) is a step of graphing the sixth multidimensional feature vector as a set of feature quantities for the number of dimensions.
  • the "two-dimensional graph" in the present invention typically corresponds to a graph that can be displayed on a plane.
  • a graph that can be represented on a plane for example, a graph that is represented in a Cartesian coordinate system can be considered, but a graph that is represented in a polar coordinate system is preferably included.
  • the sixth multidimensional feature vector can be easily graphed.
  • the feature extractor and the feature converter learn using a neural network including deep learning. Deep metric learning can be used as the neural network.
  • visualization of the trained model can be effective.
  • the discrimination accuracy can be further improved.
  • a program for visualizing the learning status of the trained model trained using a plurality of sample data is configured.
  • the program is for causing one or more computers to perform each step of the visualization method according to the present invention in any of the above-described embodiments.
  • the program may be recorded on a computer-readable recording medium such as a hard disk, ROM, SSD, flash memory (USB memory, SD card, etc.), floppy disk, CD, DVD, or a transmission medium.
  • a computer-readable recording medium such as a hard disk, ROM, SSD, flash memory (USB memory, SD card, etc.), floppy disk, CD, DVD, or a transmission medium.
  • a communication network such as the Internet or LAN, or may be exchanged in any other manner.
  • each step of the visualization method according to the present invention in any of the above-described embodiments is executed. Therefore, it is possible to evaluate whether or not the trained model is in a learning situation in which the classification of the discriminant target can be appropriately discriminated, for example, the same action and effect as the visualization method according to the present invention described above.
  • an appropriate trained model it is possible to obtain an effect that an accurate discrimination result can be stably obtained.
  • a visualization device that visualizes the learning status of the trained model trained using a plurality of sample data.
  • the visualization device uses a feature extractor that extracts a first multidimensional feature vector of each of a plurality of sample data, and a plurality of fully connected layers of the extracted first multidimensional feature vector.
  • a feature converter that uses it to convert to a second multidimensional feature vector that is lower in dimension than the first multidimensional feature vector, and a plurality of for graphing the second multidimensional feature vector of each of the converted multiple sample data. It includes a graph generation unit that generates the first graphed data, and a display unit that has a first area capable of displaying a plurality of graphs based on the generated plurality of first graphed data.
  • the learning status of the trained model that is, the second multidimensional feature vector effective for visualizing the individuality of the trained model is graphed, and the graph is displayed on the display unit. Since it is displayed in the first area, the learning status (individuality) of the trained model can be easily visualized. As a result, it is possible to evaluate whether or not the learning status of the trained model is in a situation where the classification of the discrimination target can be appropriately discriminated, so that an appropriate trained model can be generated with a smaller amount of sample data than in the past. can do. As a result, an appropriate trained model can be generated easily and quickly. Of course, since the learning status of the trained model can be visually confirmed, the reliability of the trained model is improved.
  • an appropriate trained model can be generated, it is possible to set a wide threshold value in which the discrimination target can be appropriately classified. As a result, it is possible to suppress erroneous discrimination due to disturbance, for example, the influence of external light when acquiring an image to be discriminated, and it is possible to stably obtain an accurate discriminant result.
  • the graph generation unit generates two-dimensional graphed data by using the second multidimensional feature vector as a set of feature quantities for the number of dimensions.
  • the "two-dimensional graph” in the present invention typically corresponds to a graph that can be displayed on a plane.
  • a graph that can be represented on a plane for example, a graph that is represented in a Cartesian coordinate system can be considered, but a graph that is represented in a polar coordinate system is preferably included.
  • the second multidimensional feature vector can be easily graphed.
  • the graph generation unit adds the same or similar first identification information to the same or similar data among the plurality of first graphed data. Then, the display unit displays a plurality of graphs in the first area based on the plurality of first graphed data to which the first identification information is added.
  • the "identical or similar data” in the present invention corresponds to data in which the teacher signals attached to the sample data are the same or similar.
  • the "same or similar first identification information” in the present invention typically corresponds to color information such as the same color or similar color, but size information such as the same line width and the same line type (for example, the same line type). It preferably includes line type information such as solid line, broken line, one-dot chain line, two-dot chain line, etc.).
  • the individuality of the trained model can be made visually clearer.
  • the feature extractor extracts a third multidimensional feature vector of the discrimination target when classifying the discrimination target. Further, the feature converter converts the extracted third multidimensional feature vector into a fourth multidimensional feature vector having a lower dimension than the three multidimensional feature vector. Further, the graph generation unit generates the second graphing data for graphing the fourth multidimensional feature vector, and adds the second identification information different from the first identification information to the second graphing data. .. Then, the display unit displays the graph of the fourth multidimensional feature vector in the first region based on the second graphed data to which the second identification information is added.
  • the "discrimination target" in the present invention typically corresponds to a target whose classification is unknown, but a target whose classification is known for the purpose of verifying the learning result of the trained model and improving the learning accuracy.
  • sample data arbitrarily extracted from a plurality of sample data used for learning is preferably included.
  • the discrimination status of the classification of the discrimination target when classifying the discrimination target, in addition to visualizing the learning status (individuality) of the trained model, the discrimination status of the classification of the discrimination target can also be visualized. Since the graph of the fourth multidimensional feature vector in the discrimination target is displayed in a mode different from that of the plurality of graphs (graph of the second multidimensional feature vector), it is easy to confirm the discrimination status of the classification of the discrimination target.
  • the graph generation unit generates two-dimensional graphed data by using the fourth multidimensional feature vector as a set of feature quantities for the number of dimensions.
  • the "two-dimensional graph” in the present invention typically corresponds to a graph that can be displayed on a plane.
  • a graph that can be represented on a plane for example, a graph that is represented in a Cartesian coordinate system can be considered, but a graph that is represented in a polar coordinate system is preferably included.
  • the fourth multidimensional feature vector can be easily graphed.
  • the display unit has a second region capable of displaying the image to be discriminated, and can specify an arbitrary region of the image to be discriminated in the second region. be.
  • the feature extractor extracts a fifth multidimensional feature vector in a designated arbitrary region.
  • the feature converter converts the extracted fifth multidimensional feature vector into a sixth multidimensional feature vector having a lower dimension than the fifth multidimensional feature vector.
  • the graph generation unit generates a third graphing signal for graphing the sixth multidimensional feature vector, and adds a third identification information different from the first identification information to the third graphing data. ..
  • the display unit displays the graph of the sixth multidimensional feature vector in the first region based on the third graphed data to which the third identification information is added.
  • "any area to be discriminated” in the present invention is typically displayed on the display unit by a pointing device (so-called “mouse") for inputting information to a computer.
  • a pointing device so-called “mouse”
  • This corresponds to the mode of designating an arbitrary area of an image by clicking or dragging, but by directly touching the display unit with a finger or a touch pen, the arbitrary area of the image displayed on the display unit is applicable.
  • the third identification information may be any information different from the first identification information, and may be the same information or different information from the second identification information.
  • a fourth graphed data similar to the third graphed data is selected from the plurality of first graphed data, and the selected fourth graphed data is used. It further includes a selection unit that adds a fourth identification information different from the first and second identification information. Then, the display unit displays a graph similar to the graph of the sixth multidimensional feature vector in the first region based on the fourth graphed data to which the fourth identification information is added.
  • the "fourth graphed data similar to the third graphed data" in the present invention is a second multidimensional feature vector having the shortest distance from the sixth multidimensional feature vector based on the third graphed data. This corresponds to the fourth graphed data that generates the graph of.
  • a graph of the second multidimensional feature vector similar to the graph is displayed as a plurality of graphs (graph of the second multidimensional feature vector) and the sixth multidimensional feature vector. Since it is displayed in the first region in a manner different from the graph of the dimensional feature vector, it is visually confirmed whether or not the trained model is properly trained in addition to whether or not the discrimination target is properly classified. You can know. That is, when a graph of the sixth multidimensional feature vector of an arbitrary region whose classification is known is displayed in the first region, the sample data displayed in the first region as being similar to the graph is the first.
  • the graph of the 2 multidimensional feature vector is displayed in a classification area different from the graph of the 6th multidimensional feature vector in any area to be discriminated whose classification is known, or when it is displayed in a different shape. , It can be known that the learning situation of the trained model is inappropriate.
  • the classification is known in the graph of the second multidimensional feature vector of the sample data displayed in the first region as being similar to the graph of the sixth multidimensional feature vector in any region whose classification is known.
  • the graph of the sixth multidimensional feature vector of an arbitrary region to be discriminated is displayed in the same classification region in a similar shape, it can be known that the learning status of the trained model is appropriate.
  • a reference value is set based on a predetermined second multidimensional feature vector, and the difference between the sixth multidimensional feature vector and the reference value is used as a one-dimensional numerical value. It is further provided with a notification unit that calculates and notifies the calculated difference in a visual and / or auditory and / or tactile manner.
  • the similarity with respect to the reference value of any region can be visually and / or audibly and / or tactilely confirmed.
  • the graph generation unit generates two-dimensional graphed data by using the sixth multidimensional feature vector as a set of feature quantities for the number of dimensions.
  • the "two-dimensional graph” in the present invention typically corresponds to a graph that can be displayed on a plane.
  • a graph that can be represented on a plane for example, a graph that is represented in a Cartesian coordinate system can be considered, but a graph that is represented in a polar coordinate system is preferably included.
  • the sixth multidimensional feature vector can be easily graphed.
  • the feature extractor and the feature converter learn using a neural network including deep learning.
  • Deep metric learning can be used as deep learning.
  • visualization of the trained model can be effective.
  • the discrimination accuracy can be further improved.
  • a discrimination device capable of discriminating the classification of the discrimination target.
  • the discriminating device includes a visualization device according to the present invention in any of the above-described forms, and a classifier using statistical machine learning.
  • the classifier classifies a plurality of sample data based on the second multidimensional feature vector.
  • an action effect similar to the effect exerted by the visualization device of the present invention for example, a learned model is appropriate for classifying the discrimination target. Since it is possible to evaluate whether or not the learning situation can be discriminated, an appropriate trained model can be generated with a smaller amount of sample data than in the past, and an appropriate trained model can be generated easily and quickly. The effect of being able to do this, the effect of improving the reliability of the trained model, and the effect of being able to stably obtain accurate discrimination results by using an appropriate trained model can be obtained. .. Since it is possible to classify a plurality of sample data while checking the learning status (individuality) of the trained model, appropriate learning can be performed.
  • the feature extractor, the feature converter, and the classifier are provided as separate configurations, learning of the feature extractor and the feature converter and the classifier are used to improve the discrimination accuracy of the discrimination target. It can be carried out separately from the learning of. That is, when the cause of the low discrimination accuracy is the low learning accuracy by the feature extractor and the feature converter, only the feature extractor and the feature converter are trained, and the classification accuracy by the classifier is low. Only the classifier can be trained if it is caused by. As a result, the discrimination accuracy can be efficiently improved.
  • the classifier since the learning situation (individuality) of the trained model can be visualized, whether the cause of the low discrimination accuracy is due to the low learning accuracy by the feature extractor and the feature converter, the classifier It can be easily determined whether it is caused by the low classification accuracy due to.
  • the classifier is a second multidimensional feature vector of each of the plurality of classified sample data. , The fourth multidimensional feature vector and the discrimination target are classified based on.
  • the classifier is a second number of each of the plurality of classified sample data.
  • Arbitrary regions to be discriminated are classified based on the dimensional feature vector and the sixth multidimensional feature vector.
  • an appropriate trained model can be generated easily and quickly. Further, according to the present invention, the reliability and discrimination accuracy of the trained model can be improved.
  • the computer 1 that functions as the discrimination device according to the present embodiment is configured as a microprocessor centered on the CPU 2, and has a ROM 4 that stores various processing programs and temporarily stores data.
  • RAM 6, GPU 8 that performs calculation processing and matrix calculation processing necessary for performing image processing hard disk (HDD) 10, which is a large-capacity memory that stores various data including various application programs (simply called applications) and image data, It is provided with an input / output interface (I / F) 12 for inputting / outputting data to / from an external device such as a camera 70.
  • I / F input / output interface
  • the computer 1 as the discrimination device according to the present embodiment will be described as a device that discriminates whether the discrimination target is an OK product or an NG product.
  • the computer 1 is an example of an implementation configuration corresponding to the "discrimination device" in the present invention.
  • the computer 1 includes an input device 14 such as a keyboard and a mouse for a user to input various commands, a display 60 for displaying various information, and the like.
  • the CPU 2, ROM 4, RAM 6, GPU 8, HDD 10, I / F 12, input device 14, display 60, and the like are electrically connected by a bus 80 so that various control signals and data can be exchanged with each other.
  • the computer 1 has a function of executing an operation corresponding to the input operation when the user inputs the cursor or the like displayed on the display 60 via the input device 14. Further, the computer 1 functions as a discrimination device according to the present embodiment by executing various processes by an application stored in the HDD 10, specifically, a discrimination application that executes the discrimination processing of the discrimination target. .. In the present embodiment, the discriminating device is configured to be feasible by the computer 1, but it may be realized as a dedicated device.
  • the computer 1 includes the above-mentioned hardware resources such as CPU2, ROM4, RAM6, GPU8, HDD10, I / F12, input device 14, and display 60, a discrimination application, and the present embodiment.
  • Image display control unit 20, image acquisition unit 22, area designation unit 24, feature extractor 26, feature converter 27, classifier 28, distance calculation in collaboration with software such as the visualization program related to The device 29, the two-dimensional graphed data generation unit 30, the selection unit 31, the notification unit 32, the storage unit 33, and the like are configured as functional blocks. In other words, each of these parts (image display control unit 20, image acquisition unit 22, area designation unit 24, feature extractor 26, feature converter 27, classifier 28, distance calculator 29, two-dimensional graphing data generation unit).
  • the selection unit 31, the notification unit 32, the storage unit 33) are instructed by the CPU 2 to execute the application developed on the RAM 6 from the HDD 10, and each component (CPU 2, ROM 4, RAM 6, GPU 8) shown in FIG. It can be said that this is a function realized by operating the HDD 10, the I / F 12, the input device 14, the display 60, etc. independently or in cooperation with each other.
  • the notification unit 32, the storage unit 33, and the like are electrically connected by a bus line 82 such as an address bus or a data bus.
  • the feature extractor 26, the feature converter 27, and the display 60 are examples of an implementation configuration corresponding to the “visualization device” in the present invention.
  • the image display control unit 20 displays a predetermined window 62 on the screen 61 of the display 60 as shown in FIG. Further, the image display control unit 20 teaches based on the sample image data 34a with a teacher signal (see FIG. 2) selected by the user inputting the cursor or the like displayed on the display 60 via the input device 14.
  • a sample image with a signal is displayed on the window 62
  • a discrimination target image is displayed on the window 62 based on the discrimination target image data 34b (see FIG. 2) acquired by the image acquisition unit 22, and the area designation unit 24 is displayed.
  • the designated area image is displayed on the window 62 based on the designated area image data 34c (see FIG. 2) acquired by.
  • the plurality of sample image data 34a with teacher signals is an example of an implementation configuration corresponding to the “plurality of sample data” in the present invention.
  • the display 60 and the window 62 are examples of an implementation configuration corresponding to the "display unit" in the present invention.
  • the image display control unit 20 displays a two-dimensional graph on the window 62 based on the model two-dimensional graphed data 36a (see FIG. 2) stored in the storage unit 33, or generates two-dimensional graphed data. Discrimination two-dimensional graph and bar graph are displayed on the window 62 based on the discrimination two-dimensional graph data 36b generated by the unit 30 and the bar graph data 39 (see FIG. 2) generated by the notification unit 32. Display it. Further, the image display control unit 20 displays the discrimination result by the classifier 28 in the window 62.
  • the sample image with a teacher signal is an image used for learning the feature extractor 26 and the feature converter 27.
  • the discrimination target image typically corresponds to an image of a target whose classification (OK product or NG product) is unknown, but verification and learning of the learning results of the feature extractor 26 and the feature converter 27
  • it preferably includes an image of a target whose classification (OK product or NG product) is known, for example, a sample image with a teacher signal arbitrarily selected by the user from a plurality of sample images with a teacher signal.
  • the image acquisition unit 22 acquires sample image data 34a with a teacher signal and image data 34b to be discriminated taken by the camera 70 (see FIG. 1), and uses these acquired image data as the image display control unit 20 and the feature extractor 26. , Supply to the storage unit 33 and the like.
  • the area designation unit 24 is used when an arbitrary area of the sample image with a teacher signal or the image to be discriminated displayed on the window 62 is clicked or dragged by an input operation via the user's input device 14.
  • 34c of the image data (hereinafter referred to as “designated area image data”) 34c is acquired, and the acquired designated area image data 34c (see FIG. 2) is supplied to the image display control unit 20, the feature extractor 26, the storage unit 33, and the like. ..
  • the feature extractor 26 extracts the first multidimensional feature vectors 90a, 90b, 90c from the plurality of sample image data 34a with teacher signals, the discriminant target image data 34b, and the designated area image data 34c, and extracts the first multidimensional.
  • the feature vectors 90a, 90b, 90c are supplied to the feature converter 27.
  • the feature extractor 26 is configured to use a convolutional neural network (CNN) as shown in FIGS. 3 and 4.
  • CNN convolutional neural network
  • the first multidimensional feature vectors 90a, 90b, and 90c are examples of implementation configurations corresponding to the "first multidimensional feature vector", "third multidimensional feature vector", and "fifth multidimensional feature vector" in the present invention, respectively. Is.
  • a plurality of sample image data 34a with teacher signals and discrimination targets are used using a predetermined filter (not shown).
  • the so-called convolution process for extracting the features of the image data 34a, 34b, 34c from the image data 34b and the designated area image data 34c without losing the features is performed a plurality of times, and then flattened into a column vector.
  • the feature converter 27 has a plurality of fully connected layers 27a and 27b, and the first multidimensional extracted by the feature extractor 26 using the fully connected layers 27a and 27b.
  • the process of lowering the dimension of the feature vectors 90a, 90b, 90c is executed.
  • the first multidimensional feature vectors 90a, 90b, 90c are converted into the second multidimensional feature vectors 92a having a lower dimension than the first multidimensional feature vectors 90a, 90b, 90c by Fully Connected processing. , 92b, 92c, and supplied to the classifier 28, the distance calculator 29, the two-dimensional graphing data generation unit 30, and the storage unit 33.
  • the first multidimensional feature vectors 90a, 90b, 90c are obtained from the first multidimensional feature vectors 90a, 90b, 90c by pooling processing such as Global max Polling or Global Average Polling instead of the Fully Connected processing. May be converted into low-dimensional second multidimensional feature vectors 92a, 92b, 92c.
  • the second multidimensional feature vectors 92a, 92b, and 92c are stored in the storage unit 33, respectively.
  • the second multidimensional feature vectors 92a, 92b, and 92c are examples of implementation configurations corresponding to the "second multidimensional feature vector", "fourth multidimensional feature vector", and "sixth multidimensional feature vector" in the present invention, respectively. Is.
  • the feature extractor 26 and the feature converter 27 include the first multidimensional feature vectors 90a, 90b, 90c and the second multidimensional feature vectors 92a, 92b, which can accurately discriminate the classification of the discrimination target. Learning is performed in advance so that 92c can be obtained, and the learned model 35 is stored in the storage unit 33. Twice
  • the classifier 28 functions when discriminating the classification of the discriminating target.
  • the classification of the discrimination target that is, whether the discrimination target is an OK product or an NG product, is based on the second multidimensional feature vectors 92a, 92b, 92c converted by the feature converter 27. Is determined, and the determination result is supplied to the image display control unit 20.
  • the classification of the discrimination target is that the second multidimensional feature vectors 92a, 92b, 92c to be discriminated by the arithmetic parameters machine-learned using the second multidimensional feature vectors 92a, 92b, 92c are OK products.
  • a one-dimensional numerical value indicating the degree of certainty is calculated, and if it is equal to or more than the set threshold value, it is classified as an OK product, and if it is less than the set threshold value, it is classified as an NG product.
  • the classifier 28 is configured to use so-called statistical machine learning such as gradient boosting, support vector machine, random forest, neural network, Gaussian normalization, and ensemble inspection.
  • the distance calculator 29 functions when generating the trained model 35, and when verifying the trained model 35 and improving the accuracy.
  • the distance calculator 29 calculates the distance between the second multidimensional feature vectors 92a of the sample image data 34a with a plurality of teacher signals, and uses the calculated distance as the distance data 38. It is stored in the storage unit 33. The calculated distance is fed back to the feature extractor 26 and the feature converter 27 (see FIG. 4A).
  • the distance calculator 29 uses the second multidimensional feature vector 92a of the sample image data 34a with a plurality of teacher signals, the discriminant image data 34b, and the designation. The distance between the second multidimensional feature vectors 92b and 92c of the area image data 34c is calculated, and the calculated distance is stored in the storage unit 33 as the distance data 38.
  • the feedback to the feature extractor 26 and the feature converter 27 is the distance between the second multidimensional feature vectors 92a between the OK products and the second multidimensional feature vector 92a of the OK product and the NG product.
  • the configuration was made by modifying the parameters of the vessel 27. In such parameter modification (learning of the feature extractor 26 and the feature converter 27), the second multidimensional feature vector 92a is visualized (two-dimensional graphing), and the trained model 35 (feature extractor 26 and the feature converter 27) is modified.
  • the trained model 35 is generated and stored in the storage unit 33.
  • the learning of the trained model 35 and the learning of the feature extractor 26 and the feature converter 27 are synonymous.
  • deep metric learning is used for modifying the parameters of the feature extractor 26 and the feature converter 27. That is, the first multidimensional feature vector 90a is extracted by the feature extractor 26, and the extracted first multidimensional feature vector 90a is converted into the second multidimensional feature vector 92a by the feature converter 27, and the converted second multi. A series of processes in which the distance between the dimensional feature vectors 92a is calculated by the distance calculator 29, and the parameters of the feature extractor 26 and the feature converter 27 are corrected by the error back propagation method and the gradient descent method based on the calculated distance. Deep metric learning was applied to. The details of the visualization of the second multidimensional feature vector 92a (two-dimensional graphing) and the determination of whether or not the learning (individuality) of the feature extractor 26 and the feature converter 27 are in a desired state will be described later. do.
  • the two-dimensional graphing data generation unit 30 generates the model two-dimensional graphing data 36a based on the second multidimensional feature vector 92a of the plurality of sample image data 34a with teacher signals, and also generates the discrimination target image data 34b and Based on the second multidimensional feature vectors 92b and 92c of the designated area image data 34c, the discriminant two-dimensional graphed data 36b is generated.
  • the two-dimensional graphed data 36a for the model corresponds to the "first graphed data" in the present invention
  • the two-dimensional graphed data 36b for discrimination corresponds to the "second graphed data" and the "third graphed data” in the present invention. This is an example of an implementation configuration corresponding to “data”.
  • the two-dimensional graphing data 36a for the model and the two-dimensional graphing data 36b for discrimination are generated by using the second multidimensional feature vectors 92a, 92b, and 92c as a set of the feature quantities of the number of dimensions.
  • the second multidimensional feature vectors 92a, 92b, 92c are n-dimensional column vectors (f 1 , f 2 , f 3 , ..., f n-1 , f n ), n feature quantities f.
  • Data as a set of 1 , f 2 , f 3 , ..., f n-1 , f n , that is, as shown in FIG.
  • the sample image data 34a with a plurality of teacher signals stored in the storage unit 33 by the user For the purpose of verifying the learning result of the trained model 35 (feature extractor 26 and feature converter 27) and improving the learning accuracy, the sample image data 34a with a plurality of teacher signals stored in the storage unit 33 by the user.
  • the two-dimensional graphing data generation unit 30 has the arbitrary one teacher signal from the two-dimensional graphed data 36a for the model.
  • Two-dimensional graphing data 36a for a model hereinafter, referred to as “selected two-dimensional graphing data 36a'” generated based on the second multidimensional feature vector data 92a of the sample image data 34a is extracted.
  • the selected two-dimensional graphed data 36a' is an example of an implementation configuration corresponding to the "second graphed data" in the present invention.
  • Color information (color tone information such as RGB information and gradation information) is added to the model two-dimensional graphed data 36a.
  • color information of similar colors is attached to the second multidimensional feature vectors 92a to which the same teacher signal is attached.
  • the two-dimensional graphed data 36a for models of OK products is colored in blue
  • the two-dimensional graphed data 36a for models of NG products is colored in red. Attached.
  • the generated two-dimensional graphed data 36a for the model is stored in the storage unit 33.
  • the mode in which the two-dimensional graphed data 36a for models between OK products is colored in blue and the two-dimensional graphed data 36a for models between NG products is colored in red is described in the present invention as "out of a plurality of graphs".
  • the same or similar graphs are displayed in the same or similar manner, and the dissimilar graphs are displayed in different ways, and the same or similar data among a plurality of first graphed data are the same or similar. This is an example of an implementation configuration corresponding to the mode of "adding similar first identification information".
  • the discriminant two-dimensional graphed data 36b and the selected two-dimensional graphed data 36a' are provided with color information different from that of the model two-dimensional graphed data 36a. Specifically, in the present embodiment, a yellowish color is added.
  • the extracted selected two-dimensional graphed data 36a'or the generated discriminant two-dimensional graphed data 36b is supplied to the image display control unit 20.
  • the two-dimensional graphed data 36b for discrimination is stored in the storage unit 33.
  • the two-dimensional graphing data generation unit 30 is an example of an implementation configuration corresponding to the “graph generation unit” in the present invention.
  • the mode in which the discriminant two-dimensional graphed data 36b and the selected two-dimensional graphed data 36a'are colored yellow is described in the present invention as "a first region of a graph of a fourth multidimensional feature vector different from a plurality of graphs". "Display in the first area”, "Display the graph of the sixth multidimensional feature vector in the first region in a mode different from the plurality of graphs", "Second identification different from the first identification information in the second graphed data” This is an example of an implementation configuration corresponding to the mode of "adding information” and the mode of "adding a third identification information different from the first identification information to the third graphed data".
  • the selection unit 31 stores when a command button including a display instruction of a similar two-dimensional graph Sg is pressed from among various command buttons displayed on the window 62 by an input operation via the user's input device 14. From the plurality of second multidimensional feature vectors 92a stored in the unit 33, the second multidimensional feature vector having the smallest distance from the second multidimensional feature vector 92c extracted from the designated area image data 34c (hereinafter, 92a'(referred to as "minimum distance second multidimensional feature vector”) is selected, and is generated from the selected two-dimensional graphed data 36a based on the selected minimum distance second multidimensional feature vector 92a'.
  • the two-dimensional graphing data (similar two-dimensional graphing data) 36c is selected, and the selected similar two-dimensional graphing data 36c is supplied to the image display control unit 20, the storage unit 33, and the like.
  • the similar two-dimensional graphed data 36c corresponds to the "fourth graphed data" in the present invention
  • the graph generated based on the similar two-dimensional graphed data 36c corresponds to the "the plurality of graphs" in the present invention.
  • the minimum distance second multidimensional feature vector 92a' is selected based on the distance data 38 stored in the storage unit 33. Specifically, a combination that minimizes the distance between the second multidimensional feature vector 92c of the designated area image data 34c and the second multidimensional feature vector 92a of each of the plurality of sample image data 34a with teacher signals. The second multidimensional feature vector 92a of the above is selected.
  • the selection unit 31 attaches color information different from any of the above-mentioned color information to the selected similar two-dimensional graphed data 36c. Specifically, in the present embodiment, a white color is added.
  • the similar two-dimensional graphing data 36c is colored with white color
  • the same or similar graph as the graph of the sixth multidimensional feature vector in the present invention is referred to as a plurality of graphs and a graph of the sixth multidimensional feature vector. It is an example of the embodiment corresponding to the mode of "displaying in the first region in a different mode" and the mode of "adding a fourth identification information different from the first and second identification information to the fourth graphed data". ..
  • the notification unit 32 is a trained model when a command button including a bar graph Bg display instruction is pressed from among various command buttons displayed on the window 62 by an input operation via the user's input device 14.
  • a command button including a bar graph Bg display instruction is pressed from among various command buttons displayed on the window 62 by an input operation via the user's input device 14.
  • the minimum distance that is the minimum of each distance is selected, bar graphed data 39 is generated based on the minimum distance, and the generated bar graphed data 39 is supplied to the image display control unit 20, the storage unit 33, and the like. do.
  • the minimum distance is selected based on the distance data 38 stored in the storage unit 33. Specifically, the minimum value of each distance between the second multidimensional feature vector 92c of the designated area image data 34c and each of the second multidimensional feature vectors 92a of a plurality of OK products is selected. And said.
  • the notification unit 32 generates bar graph data 39 in such a manner that the larger the minimum distance, the longer the bar graph. It is also possible to generate the bar graph data 39 so that the colors of the bar graph are displayed in different modes depending on whether the minimum distance is small or large.
  • the user discriminator
  • the second multidimensional feature vectors 92a of the plurality of OK products correspond to the "predetermined second multidimensional feature vector" in the present invention, and are classified as OK products at the generation stage of the trained model 35.
  • the second multidimensional feature vector 92a of the sample image data 34a with each teacher signal the second multidimensional feature vector 92a that minimizes the distance between the designated area image data 34c and the second multidimensional feature vector 92c is The minimum distance corresponds to the "reference value” in the present invention, and is an example of the implementation configuration corresponding to the "difference” and the "one-dimensional numerical value” in the present invention.
  • the mode of displaying the bar graph according to the magnitude of the minimum distance on the window 62 is the mode of "notifying the calculated difference in a visual and / or auditory and / or tactile manner" in the present invention. This is an example of an implementation configuration corresponding to.
  • the storage unit 33 is secured in at least one of the RAM 6 and the HDD 10, and is the sample image data 34a with a teacher signal taken by the camera 70 (see FIG. 1), the discrimination target image data 34b, and the designation acquired by the area designation unit 24.
  • the visualization program includes a trained model generation stage visualization routine executed at the generation stage of the trained model 35, a discrimination stage visualization routine executed at the accuracy improvement stage of the trained model 35 and the discrimination stage of the classification of the discrimination target.
  • the image display control unit 20 is provided with two-dimensional graphs Og and Ng for models (see FIGS.
  • FIG. 6 is a flowchart showing an example of the trained model generation stage visualization routine
  • FIG. 7 is a main flowchart showing an example of the discrimination stage visualization routine
  • FIGS. 8, 9 and 10 are the main flowcharts of FIG. It is a sub-flow chart branched from the flowchart.
  • the trained model generation stage visualization routine is executed, for example, when the user presses the "trained model generation” button from the various command buttons displayed on the window 62.
  • the trained model generation stage visualization routine is mainly executed by the image display control unit 20, the image acquisition unit 22, the feature extractor 26, the feature converter 27, the distance calculator 29, the two-dimensional graph data generation unit 30, and the like. NS.
  • the process of visualizing the trained model 35 is executed. Specifically, as shown in FIG. 6, first, the two-dimensional graphing data generation unit 30 reads the second multidimensional feature vector 92a of the sample image data 34a with a teacher signal stored in the storage unit 33 (step). S10), the two-dimensional graphing data 36a for the model is generated based on the read second multidimensional feature vector 92a, and the process of storing the data in the storage unit 33 is executed (step S12, the image display control unit 20 stores the data). The model two-dimensional graphing data 36a stored in the unit 33 is read, and the model two-dimensional graphs Og and Ng (see FIG.
  • the two-dimensional model graphs Og and Ng are feature extractors, for example, as shown in FIG. Learning situation by the prior art (primary) such as the accuracy of the judgment calculated from the feature converter 27, the feature converter 27, and the classifier 28, and the loss calculated from the feature extractor 26, the feature converter 27, and the distance calculator 29. It can be displayed in the window 62 together with the graph of the original numerical index).
  • the display areas of the two-dimensional model graphs Og and Ng in the window 62 correspond to the "first area" in the present invention.
  • the two-dimensional graph Og for the model of the OK product and the two-dimensional graph Ng for the model of the NG product are examples of the implementation configuration corresponding to the “plurality of graphs” in the present invention.
  • the two-dimensional model graphs Og and Ng (see FIG. 12) graphed based on the second multidimensional feature vector 92a suitable for visualizing the learning status (individuality) of the trained model 35 are displayed in the window 62. Therefore, it is possible to visually confirm and evaluate whether or not the trained model 35 is in an appropriate learning situation (individuality).
  • the evaluation of the learning status (individuality) of the trained model 35 is generally performed by one-dimensional numerical indexes such as the correct answer rate, the precision rate, and the recall rate, but these numerical indexes are the same.
  • the trained model 35 has a difference in discrimination accuracy and reliability accuracy, and as a result of diligent research by the present inventors, an appropriate trained model 35 is generated by visually confirming the learning situation (individuality). It turned out to be possible.
  • FIG. 11 is an explanatory diagram showing the learning status (individuality) of the trained model 35 having the same numerical index.
  • FIG. 11A is a two-dimensional model Og and Ng showing a state in which the trained model 35 is in an appropriate learning situation (individuality)
  • FIG. 11B is a learning of the trained model 35.
  • the two-dimensional graphing data 36a for models of OK products is colored in blue
  • the two-dimensional graphing data 36a for models of NG products is colored in red.
  • the two-dimensional graph Og for the model of the OK product is displayed in the blue system color
  • the two-dimensional graph Ng for the model of the NG product is displayed in the red system color.
  • the blue system color is described by a two-point chain line
  • the red system color is described by a broken line.
  • the two-dimensional graph Og for the model generated based on the sample image data 34a with the teacher signal of the OK product and the NG is displayed clearly separated, and the boundary is clear.
  • the learning status (individuality) of the trained model 35 is not appropriate, the two-dimensional graph Og for the model and the two-dimensional graph Ng for the model are displayed close to each other, and the boundary becomes unclear.
  • an appropriate trained model 35 can be generated with a small amount of sample data as compared with the conventional case. As a result, an appropriate trained model 35 can be easily and quickly generated.
  • the learning status (individuality) of the trained model 35 can be visually confirmed, the reliability of the trained model 35 is improved.
  • an appropriate trained model 35 can be generated, it is possible to set a wide threshold value suitable for classifying the discrimination target by the classifier 28. As a result, it is possible to suppress erroneous discrimination due to disturbance, for example, the influence of external light when acquiring an image to be discriminated, and it is possible to stably obtain an accurate discriminant result.
  • the discrimination stage visualization routine for example, the user selects the "test trained model” button, the “improve the accuracy of the trained model” button, and the “discriminate target discrimination” button from the various command buttons displayed on the window 62. Executed when pressed.
  • the discrimination stage visualization routine mainly includes the image display control unit 20 of the computer 1, the image acquisition unit 22, the area designation unit 24, the feature extractor 26, the feature converter 27, the classifier 28, and the two-dimensional graph data generation unit 30. , The selection unit 31 and the notification unit 32.
  • the discrimination stage visualization routine As shown in FIG. 7, first, a process of reading and visualizing the trained model 35, specifically, a two-dimensional graph for a model stored in the storage unit 33 by the image display control unit 20.
  • the converted data 36a is read (step S100), and the two-dimensional graphs Og and Ng (see FIG. 11) for the model are placed in the first region 62a (see FIG. 1) of the window 62 based on the read two-dimensional graphed data 36a for the model.
  • the process of displaying is executed (step S102).
  • the two-dimensional graphed data 36a for the model is generated by the two-dimensional graphed data generation unit 30 in step S12 of the learned model generation stage visualization routine described above, and is stored in the storage unit 33.
  • the first region 62a is an example of the implementation configuration corresponding to the "first region" in the present invention.
  • step S102 after executing the process of displaying the model two-dimensional graphs Og and Ng in the first region 62a (see FIG. 1) of the window 62, the image display control unit 20 subsequently determines whether or not there is an image display request.
  • the determination process is executed (step S104).
  • the "image display request" is, for example, when the user selects any one sample image data 34a with a teacher signal from the plurality of sample image data 34a with a teacher signal stored in the storage unit 33, or When the image acquisition unit 22 acquires the image to be determined, it is determined that "there is an image display request".
  • step S104 If there is no image display request, the process of step S104 is repeatedly executed until there is an image display request, and if there is an image display request, the image display control unit 20 causes the requested image data.
  • Any one sample image data with a teacher signal 34a or a discrimination target image data 34b is read, and based on the read image data (any one sample image data with a teacher signal 34a or a discrimination target image data 34b), A process of displaying the requested image (any one sample image with a teacher signal or the image to be discriminated) in the second region 62b (see FIG. 1) of the window 62 is executed (step S106).
  • an arbitrary area of the image (any one sample image with a teacher signal or an image to be discriminated) displayed in the second area 62b (see FIG. 1) of the window 62 is set by the user.
  • a process of determining whether or not it is specified is executed (step S108). Whether or not an arbitrary area has been designated by the user can be determined, for example, by whether or not the designated area image data 34c has been input from the area designating unit 24.
  • step S110 a process of determining whether or not there is a request to display a similar two-dimensional graph Sg (see FIG. 13) is executed (step S110).
  • the presence / absence of a display request for the similar two-dimensional graph Sg can be determined, for example, by whether or not the similar two-dimensional graphed data 36c has been input from the selection unit 31.
  • a process of determining whether or not there is a request to display a bar graph Bg is executed (step S112).
  • the presence / absence of a display request for the bar graph Bg can be determined, for example, by whether or not the bar graph data 39 has been input from the notification unit 32.
  • the image display control unit 20 extracts from the designated area image data 34c and the minimum distance second multidimensional feature vector 92a'(designated area image data 34c).
  • the sample image data 34a with a teacher signal hereinafter referred to as "similar image data 34a'" having the second multidimensional feature vector 92a) having the closest distance to the second multidimensional feature vector 92c, and the designated area image data 34c.
  • a process of reading the discriminant two-dimensional graphed data 36b, the similar two-dimensional graphed data 36c, and the bar graphed data 39 generated based on the second multidimensional feature vector 92c is executed (step S114).
  • the discriminant two-dimensional graphed data 36b is generated by the two-dimensional graphed data generation unit 30 based on the second multidimensional feature vector 92c of the designated area image data 34c when an arbitrary region is designated.
  • the similar two-dimensional graphing data 36c is a command including a display instruction of the similar two-dimensional graph Sg when there is a request to display the similar two-dimensional graph Sg.
  • the selection unit 31 When the button is pressed), the selection unit 31 generates the data based on the minimum distance second multidimensional feature vector 92a'and outputs it to the image display control unit 20.
  • the notification unit 32 supplies the second multidimensional feature vector 92c of the designated area image data 34c and a plurality of sample image data 34a with each teacher signal classified as OK products. It is generated based on the minimum distance that is the minimum of the distances between each of the second multidimensional feature vectors 92a, and is output to the image display control unit 20.
  • the designated area image is displayed in the window 62.
  • 3rd region 62c see FIG. 1
  • a similar image are displayed in the 4th region 62d (see FIG. 1) of the window 62, and as shown in FIG. 13, already in the first region 62a of the window 62.
  • a process of displaying the discriminant two-dimensional graph Dg, the similar two-dimensional graph Sg, and the bar graph Bg in the first region 62a together with the displayed two-dimensional graphs Og and Ng for the model is executed (step S116), and step S104.
  • the two-dimensional graph Dg for discrimination is an example of the embodiment corresponding to the "graph of the fourth multidimensional feature vector" and the "graph of the sixth multidimensional feature vector" in the present invention.
  • FIG. 13 shows a state in which, in addition to the two-dimensional graphs Og and Ng for the model, the two-dimensional graph Dg for discrimination, the similar two-dimensional graph Sg, and the bar graph Bg are displayed in the first region 62a of the window 62. It is a figure.
  • FIG. 13A is an explanatory diagram showing a state in which the discrimination two-dimensional graph Dg and the similar two-dimensional graph Sg are displayed on the model two-dimensional graph Ng side of the NG product
  • FIG. 13B is an explanatory diagram.
  • Is an explanatory diagram showing a state in which the discrimination two-dimensional graph Dg and the similar two-dimensional graph Sg are displayed on the model two-dimensional graph Og side of the OK product.
  • the discriminant two-dimensional graph Dg is colored yellow, and the similar two-dimensional graph Sg is colored white. Therefore, the discriminating two-dimensional graph is actually two-dimensional.
  • the graph Dg is displayed in the yellow system color, and the similar two-dimensional graph Sg is displayed in the white system color. It is described by a single point chain line.
  • the state of the second multidimensional feature vector 92c of the region specified by the user is displayed as the two-dimensional graph Dg for discrimination. It is possible to visualize the discrimination status of.
  • the user can visually confirm the discrimination status of the portion of concern (for example, if there is a scratch on the discrimination target, can the scratch be discriminated as NG), and the said Depending on the discrimination situation of the part of concern (when it is determined that it is an OK product but it is NG, or conversely, when it is determined that it is an NG product but it is an OK product) ),
  • the learning of the feature extractor 26 and the feature converter 27, or the learning of the classifier 28 can be redone.
  • the cause of the misdiscrimination is the feature extractor 26 and the feature conversion. It can be determined whether it is in the learning of the device 27 or in the machine learning of the arithmetic parameters of the classifier 28 or in the setting of the threshold value.
  • the movement of the two-dimensional graph Dg for discrimination is an image displayed by the user in the second area 62b (see FIG. 1) of the window 62 (any one sample image with a teacher signal selected by the user or a discrimination target). (Image) means a change in the two-dimensional graph Dg for discrimination when the designated area is changed in various ways.
  • the shape of the discrimination two-dimensional graph Dg is different from that of the model two-dimensional graph Ng, and the product is judged to be NG despite the different shapes, or FIG. 14 (b).
  • the shape of the discriminant two-dimensional graph Dg is different from that of the model two-dimensional graph Og, and the product is judged to be OK despite the different shapes, that is, the characteristics of the OK product and the NG product.
  • the classification of OK products and NG products is incorrect, it can be determined that the machine learning of the arithmetic parameters of the classifier 28 and the setting of the threshold value are not appropriate. In this case, it can be dealt with by machine learning the calculation parameters of the classifier 28 and resetting the threshold value.
  • the user can see, for example, a scratch from a normal portion. If there is no change or little change in the movement of the discriminant two-dimensional graph Dg even though the designated area is changed over the place where the defect exists, that is, the characteristics of the OK product and the NG product are appropriate. If it cannot be grasped in, it can be judged that the learning of the feature extractor 26 and the feature converter 27 is not appropriate. In this case, the learning of the feature extractor 26 and the feature converter 27 can be re-learned. I can handle it.
  • the feature extractor 26, the feature converter 27, and the classifier 28 are provided as separate configurations, and the learning status (individuality) of the trained model 35 is determined. Since it can be visualized, when an erroneous determination is made, the cause of the erroneous determination can be easily identified, and the countermeasure can be appropriately taken. As a result, the determination accuracy of the determination device can be easily and quickly improved, and the reliability of the trained model 35 can be improved.
  • the window Since the determination status of the classification of the arbitrary region can be confirmed using the first region 62a of 62, the operation is easy.
  • the similar two-dimensional graph Sg is displayed, so that it is possible to confirm whether the features of an arbitrary region can be properly captured. can.
  • FIG. 13 when the arbitrary region is properly classified (in FIG. 13 (a), when the arbitrary region is an NG product, in FIG. 13 (b), the arbitrary region is In the case of an OK product), by confirming that the two-dimensional graph Dg for discrimination and the similar two-dimensional graph Sg show similar shapes, the characteristics of the arbitrary region can be appropriately grasped. You can confirm that it is.
  • FIG. 15 when an erroneous determination occurs in the determination of the classification of the arbitrary region (FIG. 15 (a), when the product in which the arbitrary region is NG is classified as the OK product, FIG. 15 In (b), when an product whose arbitrary region is OK is classified as an NG product), the sample image data 34a with a teacher signal that caused the erroneous discrimination should be confirmed by a similar two-dimensional graph Sg.
  • the accuracy can be improved by re-machine learning of the calculation parameters of the classifier 28 and resetting the threshold value.
  • the bar graph Bg is displayed. In addition to whether it is an NG product, you can see at a glance how close it is to an OK product or an NG product.
  • the selected two-dimensional graphed data 36a'or the discriminating two-dimensional While reading the graphed data 36b (step S118), based on the read selected two-dimensional graphed data 36a'or the discriminant two-dimensional graphed data 36b, as shown in FIG. 16, the selected two-dimensional graph Cg or discriminating
  • the process of displaying the two-dimensional graph Dg in the first area 62a together with the model two-dimensional graphs Og and Ng already displayed in the first area 62a of the window 62 is executed (step S120), and the process returns to step S104.
  • the selective two-dimensional graph Cg is an example of an implementation configuration corresponding to the “fourth multidimensional feature vector graph” in the present invention.
  • the selected two-dimensional graphed data 36a' is used when the user selects any one sample image data 34a with a teacher signal from the plurality of sample image data 34a with a teacher signal stored in the storage unit 33.
  • the two-dimensional graphing data generation unit 30 extracts from the model two-dimensional graphing data 36a and outputs it to the image display control unit 20, and the discrimination two-dimensional graphing data 36b is the image acquisition unit.
  • 22 acquires the discrimination target image data 34b, it is generated by the two-dimensional graphing data generation unit 30 based on the second multidimensional feature vector 92b of the discrimination two-dimensional graphing data 36b, and is generated by the image display control unit 20. It is output to.
  • the designated area image data 34c and the two-dimensional graphing data 36b for discrimination output from the area designation unit 24 are shown in the flowchart of FIG. Is executed (step S122).
  • the two-dimensional graphed data 36b for discrimination is generated by the two-dimensional graphed data generation unit 30 based on the second multidimensional feature vector 92c of the designated area image data 34c when an arbitrary area is designated. Is output to the image display control unit 20.
  • the designated area image is displayed in the third area 62c (see FIG. 1) of the window 62, and as shown in FIG.
  • a process of displaying the discrimination two-dimensional graph Dg in the first area 62a together with the model two-dimensional graphs Og and Ng displayed in the first area 62a (see FIG. 1) of the window 62 is executed (step S124), and the step. Return to S104.
  • step S112 when there is no bar graph display request, the image display control unit 20 sets the designated area image data 34c, the similar image data 34a', and the designated area image data 34c, as shown in the flowchart of FIG.
  • the process of reading the discriminant two-dimensional graphed data 36b and the similar two-dimensional graphed data 36c generated based on the second multidimensional feature vector 92c of the above is executed (step S126), and the read designated area image data 34c and the similar image are executed.
  • the designated area image is displayed in the third area 62c (see FIG. 1) of the window 62, and the similar image is displayed.
  • the discriminant two-dimensional graph Dg and the similar two-dimensional graph Sg are displayed together with the model two-dimensional graphs Og and Ng displayed in the fourth region 62d (see FIG. 1) of the window 62 and already displayed in the first region 62a of the window 62.
  • the process of displaying in the first area 62a is executed (step S128), and the process returns to step S104.
  • the two-dimensional graph Og for a model graphed based on the second multidimensional feature vector 92a suitable for visualizing the learning status (individuality) of the trained model 35 Since Ng (see FIGS. 12 and 13) is displayed in the window 62, it is possible to visually confirm and evaluate whether or not the trained model 35 is in an appropriate learning situation (individuality). An appropriate trained model 35 can be generated with a relatively small amount of sample data. As a result, an appropriate trained model 35 can be easily and quickly generated. Of course, since the learning status (individuality) of the trained model 35 can be visually confirmed, the reliability of the trained model 35 is improved.
  • an appropriate trained model 35 can be generated, it is possible to set a wide threshold value in which the discrimination target can be appropriately classified. As a result, it is possible to suppress erroneous discrimination due to disturbance, for example, the influence of external light when acquiring an image to be discriminated, and it is possible to stably obtain an accurate discriminant result. Since the second multidimensional feature vectors 92a, 92b, and 92c are graphed by a two-dimensional graph, it is possible to easily visualize the learning status (individuality) of the trained model 35.
  • the two-dimensional graph Og for the model of the OK product and the two-dimensional graph Ng for the model of the NG product are different from each other, that is, the two-dimensional graph for the model of the OK product. Since Og is displayed in a blue system color and the NG product two-dimensional graph Ng for a model is displayed in a red system color, the learning status (individuality) of the trained model 35 can be visually made clearer.
  • the second multidimensional feature vectors 92a, 92b, 92c of any one sample image data with a teacher signal 34a, the discriminating target image data 34b, and the designated area image data 34c are displayed.
  • the selected two-dimensional graph Cg and the discrimination two-dimensional graph Dg based on, in addition to visualizing the learning status (individuality) of the trained model 35, an arbitrary sample image with a teacher signal, a discrimination target, and a designated area It is also possible to visualize the discrimination status of image classification.
  • the selected two-dimensional graph Cg and the discriminating two-dimensional graph Dg are displayed in yellowish colors. , It becomes easy to confirm the discrimination status of the classification of any one sample image with a teacher signal, the discrimination target, and the designated area image.
  • the discrimination device since the similar two-dimensional graph Sg is displayed, it is possible to confirm whether or not the features of an arbitrary region can be appropriately captured. Further, when an erroneous determination occurs in the determination of the classification of an arbitrary area, the sample image data 34a with a teacher signal that caused the erroneous determination can be confirmed, so that the second multidimensional of the arbitrary area can be confirmed.
  • the distance between the feature vector 92c and the minimum distance second multidimensional feature vector 92a'(the second multidimensional feature vector 92a of the sample image data 34a with a teacher signal that causes an erroneous determination) is optimized.
  • the discriminating device since the bar graph Bg is displayed, the user can select the designated area image as an OK product or an NG product in addition to whether the designated area image is an OK product or an NG product. You can see at a glance how close it is.
  • the discrimination device since the feature extractor 26 and the feature converter 27 are learned by using deep metric learning, the visualization of the trained model 35 is more effective. can do.
  • the discrimination device since the feature extractor 26, the feature converter 27, and the classifier 28 are provided as separate configurations, the feature extractor 26 is used to improve the discrimination accuracy of the discrimination target. And the learning of the feature converter 27 and the learning of the classifier 28 can be carried out separately. That is, when the cause of the low discrimination accuracy is the low learning accuracy of the feature extractor 26 and the feature converter 27, only the feature extractor 26 and the feature converter 27 are trained, and the classifier 28 is used. When it is caused by the low classification accuracy, only the classifier 28 can be trained, so that the discrimination accuracy can be efficiently improved.
  • the learning status (individuality) of the trained model 35 since the learning status (individuality) of the trained model 35 can be visualized, it depends on the classifier 28 whether the cause of the low discrimination accuracy is the low learning accuracy of the feature extractor 26 and the feature converter 27. It can be easily determined whether it is due to the low classification accuracy.
  • the discriminating device has been described as a device that discriminates whether the discriminating target is an OK product or an NG product, but the present invention is not limited to this.
  • the discriminating device may be applied to a device that discriminates which of a plurality of classifications the discriminating target is classified into.
  • the two-dimensional graph Og for the model and the two-dimensional graph Ng for the model are displayed using different system colors, but the present invention is not limited to this.
  • the model two-dimensional graph Og and the model two-dimensional graph Ng are displayed using different line types (for example, solid line and broken line, solid line and one-dot chain line, solid line and two-dot chain line, etc.) and different line widths. You may.
  • the two-dimensional graphs Og and Ng for the model, the two-dimensional graph Dg for discrimination and the selected two-dimensional graph Cg are displayed in different system colors, but the present invention is not limited to this.
  • the two-dimensional graph Og and Ng for the model and the two-dimensional graph Dg for discrimination and the selected two-dimensional graph Cg are different line types (for example, solid line and broken line, solid line and one-dot chain line, solid line and two-dot chain line, etc.). , May be displayed using different line widths.
  • the similar two-dimensional graph Sg is displayed in a system color different from that of the model two-dimensional graphs Og and Ng, the discrimination two-dimensional graph Dg, and the selected two-dimensional graph Cg, but the present invention is not limited to this.
  • a similar two-dimensional graph Sg is different from the two-dimensional graph Og, Ng for model, the two-dimensional graph Dg for discrimination, and the selected two-dimensional graph Cg (for example, a solid line and a broken line, a solid line and a one-point chain line, and a solid line). It may be displayed using a two-point chain line, etc.) or a different line width.
  • the bar graph is used to notify the user of the closeness (degree of similarity) of the designated area image to the OK product, but the present invention is not limited to this.
  • the user can be informed of the closeness (similarity) of the specified area image to the OK product. It may be configured to inform.
  • the user is notified of the closeness (similarity) of the specified area image to the OK product by changing the magnitude of vibration or the cycle of vibration, for example, the user's hand is vibrated via a mouse. Can be configured to be transmitted.
  • the bar graphed data 39 is generated based on the minimum distance between the dimensional feature vector 92c and each distance, but is not limited to this.
  • Bar graphed data 39 may be generated based on the average of each distance between and.
  • the bar graphed data 39 may be generated based on the average of each distance between the second multidimensional feature vector 92c of the designated area image data 34c.
  • the vertical axis has column numbers 1, 2, 3, ..., N-1, n
  • the horizontal axis is the feature quantity.
  • a coordinate system Cartesian coordinate system
  • these feature quantities f 1 , f 2 , f 3 , ..., f n A two-dimensional graph in which -1 and f n are plotted and connected by a curve or a straight line is used, but the present invention is not limited to this.
  • the discriminator has a feature extractor 26, a feature converter 27, and a classifier 28 as separate configurations, but the discriminator may not have the classifier 28.
  • the feature extractor 26, the feature converter 27, and the distance calculator 29 may be used to classify the discrimination targets.
  • a convolutional neural network is used as the feature extractor 26, but the present invention is not limited to this.
  • a neural network other than a convolutional neural network may be used, and so-called statistics such as gradient boosting, support vector machine, random forest, neural network, Gaussian normalization, and ensemble inspection may be used.
  • Mechanical machine learning may be used.
  • statistical machine learning the multidimensional feature vector extracted by the statistical machine learning is graphed and visualized, and a classifier 28 for classifying the discrimination target is not required.
  • the input device 14 has been described as a keyboard and a mouse, but may include a pointing device such as a touch panel, a button, a dial, a touch sensor, a touch pad, and the like.
  • the large-capacity memory for storing various data including image data is HDD 10, but the present invention is not limited to this.
  • a large-capacity memory for storing various data including image data a flash memory (USB memory, SD card, etc.), SSD, floppy disk, CD, DVD, or the like may be applied.
  • various applications including a visualization program are stored in the HDD 10, but the present invention is not limited to this.
  • various applications including a visualization program may be configured to be distributed from another computer to the computer 1 as a discrimination device according to the present embodiment via a transmission medium, for example, a communication network such as the Internet or LAN.
  • the present embodiment shows an example of a mode for carrying out the present invention. Therefore, the present invention is not limited to the configuration of the present embodiment.

Abstract

【課題】判別精度の向上および学習済モデルの信頼性の向上を図ること。 【解決手段】特徴変換器27によって変換された教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aを読み込み(ステップS10)、読み込んだ第2多次元特徴ベクトル92aに基づいてモデル用二次元グラフ化データ36aを生成および記憶し(ステップS12)、生成したモデル用二次元グラフ化データ36aに基づいてモデル用二次元グラフOg,Ngを生成してウィンドウ62に表示する(ステップS14)。なお、第2多次元特徴ベクトル92aは、学習済モデル35の学習状況(個性)の可視化に適した指標である。これにより、学習済モデル35が適切な学習状況(個性)にあるか否かを視覚的に確認して評価することができる。

Description

可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置
 本発明は、複数のサンプルデータを用いて学習する学習済モデルの学習状況を可視化する可視化方法、当該可視化方法の各ステップを1又は複数のコンピュータに実行させるためのプログラム、および、複数のサンプルデータを用いて学習する学習済モデルの学習状況を可視化する可視化装置、並びに、判別対象の分類を判別可能な判別装置に関するものである。
 特開2019-211288号公報(特許文献1)には、畳み込みニューラルネットワークを用いて判別対象の画像から特徴量を抽出し、抽出した当該特徴量について多変量解析を実行して、当該多変量解析の結果に基づいて判別対象の分類を判別する判別装置が記載されている。
 当該判別装置では、バラエティに富む判別対象の分類を高い精度で行うことができると共に、多変量解析の結果に基づいて判別基準を設定するため、判別対象の付加価値、例えば、高級品や汎用品等を加味した判別のための閾値を容易に設定することができる。
特開2019-211288号公報
 ところで、畳み込みニューラルネットワークを含む特徴抽出器を用いて生成した学習済モデルの評価は、正解率や適合率、再現率などの一次元の数値指標によって行われることが一般的である。これら数値指標は学習用のサンプルデータによる判定結果に基づいており、サンプルデータの偏りを排除して適切な学習済モデルを生成するためには大量のサンプルデータが必要だった。しかしながら、本発明者らが鋭意研究したところ、同じ数値指標を示す学習済モデルであっても、その判定結果の算出の仕方は、当該学習済モデルの学習状況により異なっていることが判明した。即ち、学習済モデルの学習状況(個性)を知ることができれば、少量のサンプルデータからでも適切な学習済モデルを生成可能であることが判明した。上述した公報には、こうした点については何ら言及されておらず、適切な学習済モデルを簡易かつ迅速に生成するという点において、なお改良の余地がある。
 本発明は、上記に鑑みてなされたものであり、適切な学習済モデルの簡易かつ迅速な生成に資する技術を提供することを目的の一つとする。また、学習済モデルの信頼性および判別精度の向上に資する技術を提供することを目的の一つとする。
 本発明に係る可視化方法の好ましい形態によれば、複数のサンプルデータを用いて学習される学習済モデルの学習状況を可視化する可視化方法が構成される。当該可視化方法は、(a)学習済モデルを生成する際、複数のサンプルデータそれぞれの第1多次元特徴ベクトルを前記特徴抽出器によって抽出し、(b)抽出した第1多次元特徴ベクトルを、複数の全結合層を用いた特徴変換器によって、当該第1多次元特徴ベクトルよりも次元の低い第2多次元特徴ベクトルに変換し、(c)変換された複数のサンプルデータそれぞれの第2多次元特徴ベクトルをグラフ化し、(d)生成された複数のグラフを表示部の第1領域に表示するステップを含んでいる。
 本発明によれば、学習済モデルを生成する際に、学習済モデルの学習状況、即ち、学習済モデルの個性の可視化に有効な第2多次元特徴ベクトルをグラフ化し、当該グラフを表示部の第1領域に表示するため、学習済モデルの学習状況(個性)を簡易に可視化することができる。これにより、学習済モデルの学習状況が、判別対象の分類を適切に判別できる状況にあるか否かを評価することができるため、従来に比べて少量のサンプルデータで適切な学習済モデルを生成することができる。この結果、適切な学習済モデルを簡易かつ迅速に生成することができる。もとより、学習済モデルの学習状況(個性)を視覚的に確認することができるため、学習済モデルの信頼性が向上する。また、適切な学習済モデルを生成することができるため、判別対象を適切に分類可能な閾値の設定範囲を広くとることができる。これにより、外乱、例えば、判別対象の画像を取得する際の外光の影響などによる誤判別を抑制でき、正確な判別結果を安定して得ることができる。
 本発明に係る可視化方法の更なる形態によれば、ステップ(d)は、複数のグラフのうち同一または類似するグラフ同士を同一または類似する態様で表示し、類似しないグラフを異なる態様で表示するステップである。ここで、本発明における「同一または類似するグラフ」とは、サンプルデータに付された教師信号が同一または類似するグラフがこれに該当する。また、本発明における「同一または類似する態様で表示」とは、典型的には、同一色または同系色で表示する態様がこれに該当するが、同一線幅で表示する態様や同一線種(例えば、実線同士や破線同士、一点鎖線同士、二点鎖線同士など)で表示する態様を好適に包含する。また、本発明における「異なる態様で表示」とは、典型的には、異色または異系色で表示する態様がこれに該当するが、異なる線幅で表示する態様や異なる線種(例えば、実線と破線、実線と一点鎖線、実線と二点鎖線など)で表示する態様を好適に包含する。
 本形態によれば、学習済モデルの学習状況(個性)を視覚的により明瞭なものとすることができる。
 本発明に係る可視化方法の更なる形態によれば、ステップ(c)は、第2多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化するステップである。ここで、本発明における「二次元グラフ」とは、典型的には、平面上に表記され得るグラフがこれに該当する。平面上に表記され得るグラフとしては、例えば、直交座標系に表記されるグラフが考えられるが、極座標系に表記されるグラフを好適に包含する。
 本形態によれば、第2多次元特徴ベクトルを簡易にグラフ化することができる。
 本発明に係る可視化方法の更なる形態によれば、ステップ(a)は、判別対象の分類の際には、判別対象の第3多次元特徴ベクトルを特徴抽出器によって抽出するステップを含んでいる。また、ステップ(b)は、抽出された第3多次元特徴ベクトルを、特徴変換器によって、第3多次元特徴ベクトルよりも次元の低い第4多次元特徴ベクトルに変換するステップを含んでいる。さらに、ステップ(c)は、第4多次元特徴ベクトルをグラフ化するステップを含んでいる。そして、ステップ(d)は、第4多次元特徴ベクトルのグラフを複数のグラフとは異なる態様で第1領域に表示するステップを含んでいる。ここで、本発明における「判別対象」とは、典型的には、分類が不明な対象がこれに該当するが、学習済モデルの学習結果の検証や学習精度向上を目的として分類が既知の対象、例えば、学習に用いた複数のサンプルデータから任意に抽出されるサンプルデータを好適に包含する。
 本形態によれば、判別対象の分類の際には、学習済モデルの学習状況(個性)の可視化に加えて、判別対象の分類の判別状況も可視化することができる。なお、判別対象における第4多次元特徴ベクトルのグラフが複数のグラフ(第2多次元特徴ベクトルのグラフ)とは異なる態様で表示されるため、当該判別対象の分類の判別状況が確認し易い。
 本発明に係る可視化方法の更なる形態によれば、ステップ(c)は、第4多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化するステップである。ここで、本発明における「二次元グラフ」とは、典型的には、平面上に表記され得るグラフがこれに該当する。平面上に表記され得るグラフとしては、例えば、直交座標系に表記されるグラフが考えられるが、極座標系に表記されるグラフを好適に包含する。
 本形態によれば、第4多次元特徴ベクトルを簡易にグラフ化することができる。
 本発明に係る可視化方法の更なる形態によれば、判別対象の画像を表示部の第2領域に表示するステップ(e)と、判別対象の画像の任意の領域を指定するステップ(f)と、をさらに含んでいる。ステップ(a)は、指定された任意の領域における第5多次元特徴ベクトルを特徴抽出器によって抽出するステップを含んでいる。また、ステップ(b)は、抽出された第5多次元特徴ベクトルを、特徴変換器によって、第5多次元特徴ベクトルよりも次元の低い第6多次元特徴ベクトルに変換するステップを含んでいる。さらに、ステップ(c)は、第6多次元特徴ベクトルをグラフ化するステップを含んでいる。そして、ステップ(d)は、第6多次元特徴ベクトルのグラフを複数のグラフとは異なる態様で第1領域に表示するステップを含んでいる。
 本形態によれば、判別対象の任意の領域の分類の判別状況を可視化することができる。これにより、ユーザ自ら気になる箇所の判別状況を視覚的に確認することができると共に、当該気になる箇所の判別状況に応じて、学習のやり直しを行うことができる。この結果、学習済モデルの信頼性の向上および判別精度の向上を図ることができる。なお、表示部の第2領域を用いて判別対象の任意の領域を指定しながら、表示部の第1領域を用いて当該任意の領域の分類の判別状況を確認することができるため、操作も容易である。また、任意の領域における第6多次元特徴ベクトルのグラフが複数のグラフ(第2多次元特徴ベクトルのグラフ)とは異なる態様で表示されるため、当該任意の領域の分類の判別状況が確認し易い。
 本発明に係る可視化方法の更なる形態によれば、複数のグラフのうち第6多次元特徴ベクトルのグラフと類似するグラフを選択するステップ(g)をさらに含んでいる。そして、ステップ(d)は、複数のグラフのうち第6多次元特徴ベクトルのグラフと類似するグラフを、複数のグラフおよび第6多次元特徴ベクトルのグラフとは異なる態様で第1領域に表示するステップを含んでいる。ここで、本発明における「類似するグラフ」とは、第6多次元特徴ベクトルとの距離が最短となる第2多次元特徴ベクトルのグラフがこれに該当する。
 本形態によれば、第6多次元特徴ベクトルのグラフに加えて、当該グラフに類似する第2多次元特徴ベクトルのグラフを、複数のグラフ(第2多次元特徴ベクトルのグラフ)および第6多次元特徴ベクトルのグラフとは異なる態様で第1領域に表示するため、判別対象が適正に分類できているか否かに加えて、学習済モデルが適正に学習できているか否かの確認を視覚的に知ることができる。即ち、分類が既知である判別対象の任意の領域の第6多次元特徴ベクトルのグラフを第1領域に表示させた際に、当該グラフに類似するとして第1領域に表示されたサンプルデータの第2多次元特徴ベクトルのグラフが、分類が既知である判別対象の任意の領域の第6多次元特徴ベクトルのグラフとは別の分類領域に表示された場合や別形状で表示された場合には、学習済モデルの学習状況が不適切であるということを知ることができる。もとより、分類が既知である判別対象の任意の領域の第6多次元特徴ベクトルのグラフに類似するとして第1領域に表示されたサンプルデータの第2多次元特徴ベクトルのグラフが、分類が既知である判別対象の任意の領域の第6多次元特徴ベクトルのグラフと同じ分類領域に類似の形状で表示された場合には、学習済モデルの学習状況が適切であるということを知ることができる。
 本発明に係る可視化方法の更なる形態によれば、所定の第2多次元特徴ベクトルに基づき基準値を設定するステップ(h)と、第6多次元特徴ベクトルと基準値との差を一次元の数値として算出するステップ(i)と、算出した当該差を視覚的および/または聴覚的および/または触覚的な態様で報知するステップ(j)と、をさらに備えている。
 本形態によれば、任意の領域の基準値に対する類似度を視覚的および/または聴覚的および/または触覚的に確認することができる。
 本発明に係る可視化方法の更なる形態によれば、テップ(c)は、第6多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化するステップである。ここで、本発明における「二次元グラフ」とは、典型的には、平面上に表記され得るグラフがこれに該当する。平面上に表記され得るグラフとしては、例えば、直交座標系に表記されるグラフが考えられるが、極座標系に表記されるグラフを好適に包含する。
 本形態によれば、第6多次元特徴ベクトルを簡易にグラフ化することができる。
 本発明に係る可視化方法の更なる形態によれば、特徴抽出器および特徴変換器は、深層学習を含むニューラルネットワークを用いて学習する。なお、ニューラルネットワークとして、ディープメトリックラーニングを用いることができる。
 本形態によれば、学習済モデルの可視化を効果的なものとすることができる。これにより、判別精度をより向上することができる。
 本発明に係るプログラムの好ましい形態によれば、複数のサンプルデータを用いて学習される学習済モデルの学習状況を可視化するためのプログラムが構成される。当該プログラムは、上述したいずれかの態様の本発明に係る可視化方法の各ステップを1又は複数のコンピュータに実行させるためものである。当該プログラムは、コンピュータが読み取り可能な記録媒体、例えば、ハードディスクやROM、SSD、フラッシュメモリ(USBメモリ、SDカードなど)、フロッピーディスク、CD、DVDなどに記録されていても良いし、伝送媒体、例えば、インターネットやLANなどの通信網を介してあるコンピュータから別のコンピュータへ配信されても良いし、あるいは、その他如何なる態様で授受されても良い。
 本発明によれば、プログラムを一つのコンピュータに実行させるか又は複数のコンピュータに各ステップを分担して実行させることによって、上述したいずれかの態様の本発明に係る可視化方法の各ステップが実行されるため、上述した本発明に係る可視化方法と同様の作用効果、例えば、学習済モデルが、判別対象の分類を適切に判別できる学習状況にあるか否かを評価することができるため、従来に比べて少量のサンプルデータで適切な学習済モデルを生成することができ、適切な学習済モデルを簡易かつ迅速に生成することができるといった効果や、学習済モデルの信頼性を向上できるといった効果、適正な学習済モデルを使用することにより正確な判別結果を安定して得ることができるといった効果などを得ることができる。
 本発明に係る可視化装置の好ましい形態によれば、複数のサンプルデータを用いて学習される学習済モデルの学習状況を可視化する可視化装置が構成される。当該可視化装置は、学習済モデルを生成する際、複数のサンプルデータそれぞれの第1多次元特徴ベクトルを抽出する特徴抽出器と、抽出された第1多次元特徴ベクトルを、複数の全結合層を用いて第1多次元特徴ベクトルよりも次元の低い第2多次元特徴ベクトルに変換する特徴変換器と、変換された複数のサンプルデータそれぞれの第2多次元特徴ベクトルをグラフ化するための複数の第1グラフ化データを生成するグラフ生成部と、生成された複数の第1グラフ化データに基づき複数のグラフを表示可能な第1領域を有する表示部と、を備えている。
 本発明によれば、学習済モデルを生成する際に、学習済モデルの学習状況、即ち、学習済モデルの個性の可視化に有効な第2多次元特徴ベクトルをグラフ化し、当該グラフを表示部の第1領域に表示するため、学習済モデルの学習状況(個性)を簡易に可視化することができる。これにより、学習済モデルの学習状況が、判別対象の分類を適切に判別できる状況にあるか否かを評価することができるため、従来に比べて少量のサンプルデータで適切な学習済モデルを生成することができる。この結果、適切な学習済モデルを簡易かつ迅速に生成することができる。もとより、学習済モデルの学習状況を視覚的に確認することができるため、学習済モデルの信頼性が向上する。また、適切な学習済モデルを生成することができるため、判別対象を適切に分類可能な閾値の設定範囲を広くとることができる。これにより、外乱、例えば、判別対象の画像を取得する際の外光の影響などによる誤判別を抑制でき、正確な判別結果を安定して得ることができる。
 本発明に係る可視化装置の更なる形態によれば、グラフ生成部は、第2多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化データを生成する。ここで、本発明における「二次元グラフ」とは、典型的には、平面上に表記され得るグラフがこれに該当する。平面上に表記され得るグラフとしては、例えば、直交座標系に表記されるグラフが考えられるが、極座標系に表記されるグラフを好適に包含する。
 本形態によれば、第2多次元特徴ベクトルを簡易にグラフ化することができる。
 本発明に係る可視化装置の更なる形態によれば、グラフ生成部は、複数の第1グラフ化データのうち同一または類似するデータ同士には同一または類似する第1識別情報を付加する。そして、表示部は、第1識別情報が付加された複数の第1グラフ化データに基づき複数のグラフを前記第1領域に表示する。ここで、本発明における「同一または類似するデータ」とは、サンプルデータに付された教師信号が同一または類似するデータがこれに該当する。また、本発明における「同一または類似する第1識別情報」は、典型的には、同一色または同系色といった色情報がこれに該当するが、同一線幅といったサイズ情報や同一線種(例えば、実線や破線、一点鎖線、二点鎖線など)といった線種情報を好適に包含する。
 本形態によれば、学習済モデルの個性を視覚的により明瞭なものとすることができる。
 本発明に係る可視化装置の更なる形態によれば、特徴抽出器は、判別対象の分類の際には、当該判別対象の第3多次元特徴ベクトルを抽出する。また、特徴変換器は、抽出された第3多次元特徴ベクトルを、当該3多次元特徴ベクトルよりも次元の低い第4多次元特徴ベクトルに変換する。さらに、グラフ生成部は、第4多次元特徴ベクトルをグラフ化するための第2グラフ化データを生成すると共に、当該第2グラフ化データに第1識別情報とは異なる第2識別情報を付加する。そして、表示部は、第2識別情報が付加された第2グラフ化データに基づき第4多次元特徴ベクトルのグラフを第1領域に表示する。ここで、本発明における「判別対象」とは、典型的には、分類が不明な対象がこれに該当するが、学習済モデルの学習結果の検証や学習精度向上を目的として分類が既知の対象、例えば、学習に用いた複数のサンプルデータから任意に抽出されるサンプルデータを好適に包含する。
 本形態によれば、判別対象の分類の際には、学習済モデルの学習状況(個性)の可視化に加えて、判別対象の分類の判別状況も可視化することができる。なお、判別対象における第4多次元特徴ベクトルのグラフが複数のグラフ(第2多次元特徴ベクトルのグラフ)とは異なる態様で表示されるため、当該判別対象の分類の判別状況が確認し易い。
 本発明に係る可視化装置の更なる形態によれば、グラフ生成部は、第4多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化データを生成する。ここで、本発明における「二次元グラフ」とは、典型的には、平面上に表記され得るグラフがこれに該当する。平面上に表記され得るグラフとしては、例えば、直交座標系に表記されるグラフが考えられるが、極座標系に表記されるグラフを好適に包含する。
 本形態によれば、第4多次元特徴ベクトルを簡易にグラフ化することができる。
 本発明に係る可視化装置の更なる形態によれば、表示部は、判別対象の画像を表示可能な第2領域を有すると共に、当該第2領域において判別対象の画像の任意の領域を指定可能である。また、特徴抽出器は、指定された任意の領域における第5多次元特徴ベクトルを抽出する。さらに、特徴変換器は、抽出された第5多次元特徴ベクトルを、当該5多次元特徴ベクトルよりも次元の低い第6多次元特徴ベクトルに変換する。また、グラフ生成部は、第6多次元特徴ベクトルをグラフ化するための第3グラフ化信号を生成すると共に、当該第3グラフ化データに第1識別情報とは異なる第3識別情報を付加する。そして、表示部は、第3識別情報が付加された第3グラフ化データに基づき第6多次元特徴ベクトルのグラフを第1領域に表示する。ここで、本発明における「判別対象の任意の領域を指定可能」とは、典型的には、コンピュータに情報を入力するためのポインティング・デバイス(所謂「マウス」)によって、表示部に表示された画像の任意の領域をクリックやドラッグなどで当該任意の領域を指定する態様がこれに該当するが、指やタッチペン等によって表示部を直接触れることで、表示部に表示された画像の任意の領域を指定する態様を好適に包含する。
 本形態によれば、表示部の第2領域を用いて判別対象の任意の領域を指定しながら、表示部の第1領域を用いて当該任意の領域の分類の判別状況を確認することができる。なお、第6多次元特徴ベクトルのグラフが複数のグラフ(第2多次元特徴ベクトルのグラフ)とは異なる態様で表示されるため、当該任意の領域の分類の判別状況が確認し易い。ここで、第3識別情報は、第1識別情報とは異なる情報であれば良く、第2識別情報とは同じ情報であっても異なる情報であっても何れでも良い。
 本発明に係る可視化装置の更なる形態によれば、複数の第1グラフ化データのうち第3グラフ化データと類似する第4グラフ化データを選定し、選定した当該第4グラフ化データに、第1および第2識別情報とは異なる第4識別情報を付加する選定部をさらに備えている。そして、表示部は、第4識別情報が付加された第4グラフ化データに基づき第6多次元特徴ベクトルのグラフと類似するグラフを第1領域に表示する。ここで、本発明における「第3グラフ化データと類似する第4グラフ化データ」とは、第3グラフ化データに基づく第6多次元特徴ベクトルとの距離が最短となる第2多次元特徴ベクトルのグラフを生成する第4グラフ化データがこれに該当する。
 本形態によれば、第6多次元特徴ベクトルのグラフに加えて、当該グラフに類似する第2多次元特徴ベクトルのグラフを、複数のグラフ(第2多次元特徴ベクトルのグラフ)および第6多次元特徴ベクトルのグラフとは異なる態様で第1領域に表示するため、判別対象が適正に分類できているか否かに加えて、学習済モデルが適正に学習できているか否かの確認を視覚的に知ることができる。即ち、分類が既知である判別対象の任意の領域の第6多次元特徴ベクトルのグラフを第1領域に表示させた際に、当該グラフに類似するとして第1領域に表示されたサンプルデータの第2多次元特徴ベクトルのグラフが、分類が既知である判別対象の任意の領域の第6多次元特徴ベクトルのグラフとは別の分類領域に表示された場合や別形状で表示された場合には、学習済モデルの学習状況が不適切であるということを知ることができる。もとより、分類が既知である判別対象の任意の領域の第6多次元特徴ベクトルのグラフに類似するとして第1領域に表示されたサンプルデータの第2多次元特徴ベクトルのグラフが、分類が既知である判別対象の任意の領域の第6多次元特徴ベクトルのグラフと同じ分類領域に類似の形状で表示された場合には、学習済モデルの学習状況が適切であるということを知ることができる。
 本発明に係る可視化装置の更なる形態によれば、所定の第2多次元特徴ベクトルに基づき基準値を設定すると共に、第6多次元特徴ベクトルと当該基準値との差を一次元の数値として算出し、算出した当該差を視覚的および/または聴覚的および/または触覚的な態様で報知する報知部をさらに備えている。
  本形態によれば、任意の領域の基準値に対する類似度を視覚的および/または聴覚的および/または触覚的に確認することができる。
 本発明に係る可視化装置の更なる形態によれば、グラフ生成部は、第6多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化データを生成する。ここで、本発明における「二次元グラフ」とは、典型的には、平面上に表記され得るグラフがこれに該当する。平面上に表記され得るグラフとしては、例えば、直交座標系に表記されるグラフが考えられるが、極座標系に表記されるグラフを好適に包含する。
 本形態によれば、第6多次元特徴ベクトルを簡易にグラフ化することができる。
 本発明に係る可視化装置の更なる形態によれば、特徴抽出器および特徴変換器は、深層学習を含むニューラルネットワークを用いて学習する。なお、深層学習としてディープメトリックラーニングを用いることができる。
 本形態によれば、学習済モデルの可視化を効果的なものとすることができる。これにより、判別精度をより向上することができる。
 本発明に係る判別装置の好ましい形態によれば、判別対象の分類を判別可能な判別装置が構成される。当該判別装置は、上述したいずれかの形態の本発明に係る可視化装置と、統計的機械学習を用いた分類器と、を備えている。分類器は、第2多次元特徴ベクトルに基づいて複数のサンプルデータを分類する。
 本発明によれば、上述したいずれかの態様の本発明に係る可視化装置を備えるため、本発明の可視化装置が奏する効果と同様の作用効果、例えば、学習済モデルが、判別対象の分類を適切に判別できる学習状況にあるか否かを評価することができるため、従来に比べて少量のサンプルデータで適切な学習済モデルを生成することができ、適切な学習済モデルを簡易かつ迅速に生成することができるといった効果や、学習済モデルの信頼性を向上できるといった効果、適正な学習済モデルを使用することにより正確な判別結果を安定して得ることができるといった効果などを得ることができる。なお、学習済モデルの学習状況(個性)を確認しながら複数のサンプルデータの分類を行うことができるため、適切な学習を実施できる。
 なお、本発明によれば、特徴抽出器および特徴変換器と、分類器と、を別構成として有するため、判別対象の判別精度の向上に際し、特徴抽出器および特徴変換器の学習と、分類器の学習と、を分けて実施することができる。即ち、判別精度の低さの原因が、特徴抽出器および特徴変換器による学習精度の低さに起因する場合には特徴抽出器および特徴変換器のみを学習させ、分類器による分類精度の低さに起因する場合には分類器のみを学習させることができる。これにより、判別精度の向上を効率良く行うことができる。ここで、本発明では、学習済モデルの学習状況(個性)を可視化できるため、判別精度の低さの原因が、特徴抽出器および特徴変換器による学習精度の低さに起因するのか、分類器による分類精度の低さに起因するのかを容易に判断することができる。
 判別対象の分類の判別状況を可視化する可視化装置を備える態様の本発明に係る判別装置の更なる形態によれば、分類器は、分類された複数のサンプルデータそれぞれの第2多次元特徴ベクトルと、第4多次元特徴ベクトルと、に基づいて判別対象を分類する。
 本形態によれば、判別対象の分類を適切に実施するこができる。
 判別対象の任意の領域における分類の判別状況を可視化する可視化装置を備える態様の本発明に係る判別装置の更なる形態によれば、分類器は、分類された複数のサンプルデータそれぞれの第2多次元特徴ベクトルと、第6多次元特徴ベクトルと、に基づいて判別対象の任意の領域を分類する。
 本形態によれば、判別対象の任意の領域の分類を適切に実施することができる。
 本発明によれば、適切な学習済モデルを簡易かつ迅速に生成することができる。また、本発明によれば、学習済モデルの信頼性および判別精度を向上することができる。
本発明の実施の形態に係る判別装置として機能するコンピュータ1の構成の概略を示す構成図である。 本発明の実施の形態に係る判別装置として機能するコンピュータ1の機能構成を示す機能ブロック図である。 特徴抽出器26の構成の概略を示す構成図である。 学習済モデル35の生成および判別対象の分類の概略を示す説明図である。 第2多次元特徴ベクトル92a,92b,92cの二次元グラフ化の概略を示す説明図である。 学習済モデル生成段階可視化ルーチンの一例を示すフローチャートである。 判別段階可視化ルーチンの一例を示すフローチャートである。 判別段階可視化ルーチンから分岐した部分のフローチャートである。 判別段階可視化ルーチンから分岐した部分のフローチャートである。 判別段階可視化ルーチンから分岐した部分のフローチャートである。 同じ数値指標を有する学習済モデル35の学習状況(個性)を示す説明図である。 ウィンドウ62にモデル用二次元グラフOg,Ngが表示された状態を示す説明図である。 ウィンドウ62の第1領域62aにモデル用二次元グラフOg,Ng、判別用二次元グラフDg、類似二次元グラフSg、および、バーグラフBgが表示された状態を示す説明図である。 分類器28の演算パラメータあるいは閾値の値の設定が適切でない場合の判別用二次元グラフDgの状態を示す説明図である。 ユーザによって指定された領域の分類の判別において誤判別が発生した状態を示す説明図である。 ウィンドウ62に選択二次元グラフCgまたは判別用二次元グラフDgが表示された状態を示す説明図である。
 次に、本発明を実施するための最良の形態を実施例を用いて説明する。
 本実施の形態に係る判別装置として機能するコンピュータ1は、図1に示すように、CPU2を中心とするマイクロプロセッサとして構成されており、各種処理プログラムを記憶するROM4、一時的にデータを記憶するRAM6、画像処理を行う際に必要な計算処理や行列演算処理を行うGPU8、各種アプリケーションプログラム(単にアプリケーションと称する)や画像データを含む各種データを記憶する大容量メモリであるハードディスク(HDD)10、カメラ70などの外部機器とのデータの入出力を行う入出力インターフェイス(I/F)12などを備えている。なお、以下では説明の便宜上、本実施の形態に係る判別装置としてのコンピュータ1が、判別対象がOK品であるかNG品であるかの判別を行う装置として説明する。コンピュータ1は、本発明における「判別装置」に対応する実施構成の一例である。
コンピュータ1は、ユーザが各種指令を入力するキーボードおよびマウス等の入力装置14や、各種情報を表示するディスプレイ60などを備えている。CPU2やROM4、RAM6、GPU8、HDD10、I/F12、入力装置14、ディスプレイ60などは、バス80によって電気的に接続され、互いに各種制御信号やデータのやり取りができるように構成されている。
 当該コンピュータ1は、ディスプレイ60に表示されたカーソル等をユーザが入力装置14を介して入力操作すると、その入力操作に応じた動作を実行する機能を有している。また、当該コンピュータ1は、HDD10に格納されたアプリケーション、具体的には、判別対象の判別処理を実行する判別アプリケーションによって各種処理が実行されることで、本実施の形態に係る判別装置として機能する。なお、本実施の形態では、判別装置としてコンピュータ1によって実現可能な構成としたが、専用装置として実現しても良い。
 また、コンピュータ1には、図2に示すように、CPU2やROM4、RAM6、GPU8、HDD10、I/F12、入力装置14、ディスプレイ60などの前述したハードウェア資源と、判別アプリケーションや本実施の形態に係る可視化プログラムといったソフトウェアと、の一方または双方の協働により、画像表示制御部20や、画像取得部22、領域指定部24、特徴抽出器26、特徴変換器27、分類器28、距離算定器29、二次元グラフ化データ生成部30、選定部31、報知部32、記憶部33等が機能ブロックとして構成されている。換言すれば、これらの各部(画像表示制御部20、画像取得部22、領域指定部24、特徴抽出器26、特徴変換器27、分類器28、距離算定器29、二次元グラフ化データ生成部30、選定部31、報知部32、記憶部33)は、HDD10からRAM6上に展開されたアプリケーションを実行するCPU2からの命令によって、図1に示す各構成要素(CPU2やROM4、RAM6、GPU8、HDD10、I/F12、入力装置14、ディスプレイ60など)が単独あるいは協働して動作することにより実現される機能であると言うことができる。なお、画像表示制御部20や、画像取得部22、領域指定部24、特徴抽出器26、特徴変換器27、分類器28、距離算定器29、二次元グラフ化データ生成部30、選定部31、報知部32、記憶部33等は、アドレスバスやデータバスなどのバスライン82によって電気的に接続されている。特徴抽出器26、特徴変換器27およびディスプレイ60(後述するウィンドウ62)は、本発明における「可視化装置」に対応する実施構成の一例である。
 画像表示制御部20は、判別アプリケーションが起動されると、図1に示すように、ディスプレイ60の画面61に所定のウィンドウ62を表示する。また、画像表示制御部20は、ディスプレイ60に表示されたカーソル等をユーザが入力装置14を介して入力操作することにより選択された教師信号付きサンプル画像データ34a(図2参照)に基づいて教師信号付きサンプル画像をウィンドウ62上に表示させたり、画像取得部22により取得される判別対象画像データ34b(図2参照)に基づいて判別対象画像をウィンドウ62上に表示させたり、領域指定部24により取得される指定領域画像データ34c(図2参照)に基づいて指定領域画像をウィンドウ62上に表示させる。複数の教師信号付きサンプル画像データ34aは、本発明における「複数のサンプルデータ」に対応する実施構成の一例である。また、ディスプレイ60およびウィンドウ62は、本発明における「表示部」に対応する実施構成の一例である。
 さらに、画像表示制御部20は、記憶部33に記憶されたモデル用二次元グラフ化データ36a(図2参照)に基づいて二次元グラフをウィンドウ62上に表示させたり、二次元グラフ化データ生成部30によって生成される判別用二次元グラフ化データ36b、および、報知部32によって生成されるバーグラフ化データ39(図2参照)に基づいて判別用二次元グラフおよびバーグラフをウィンドウ62上に表示させたりする。また、画像表示制御部20は、分類器28による判別結果をウィンドウ62に表示する。なお、教師信号付きサンプル画像とは、特徴抽出器26および特徴変換器27の学習を行うために使用する画像である。また、判別対象画像とは、典型的には、分類(OK品 or NG品)が不明な対象の画像がこれに該当するが、特徴抽出器26および特徴変換器27の学習結果の検証や学習精度の向上を目的として分類(OK品 or NG品)が既知の対象の画像、例えば、複数の教師信号付きサンプル画像からユーザが任意に選択した教師信号付きサンプル画像を好適に包含する。
 画像取得部22は、カメラ70(図1参照)によって撮影された教師信号付きサンプル画像データ34aや判別対象画像データ34bを取得し、取得したこれら画像データを画像表示制御部20や特徴抽出器26、記憶部33などに供給する。
 領域指定部24は、ユーザの入力装置14を介した入力操作によって、ウィンドウ62上に表示された教師信号付きサンプル画像や判別対象画像の任意の領域がクリックやドラッグなどされた際に、当該領域の画像データ(以下、「指定領域画像データ」という)34cを取得し、取得した指定領域画像データ34c(図2参照)を画像表示制御部20や特徴抽出器26、記憶部33などに供給する。
 特徴抽出器26は、複数の教師信号付きサンプル画像データ34aや、判別対象画像データ34b、指定領域画像データ34cから第1多次元特徴ベクトル90a,90b,90cを抽出し、抽出した第1多次元特徴ベクトル90a,90b,90cを特徴変換器27に供給する。ここで、本実施の形態では、特徴抽出器26には、図3および図4に示すように、畳み込みニューラルネットワーク(CNN)を用いる構成とした。第1多次元特徴ベクトル90a,90b,90cは、それぞれ本発明における「第1多次元特徴ベクトル」、「第3多次元特徴ベクトル」、「第5多次元特徴ベクトル」に対応する実施構成の一例である。
 特徴抽出器26による第1多次元特徴ベクトル90a,90b,90cの抽出は、図3に示すように、所定のフィルタ(図示せず)を用いて複数の教師信号付きサンプル画像データ34aや判別対象画像データ34b、指定領域画像データ34cから、これら画像データ34a,34b,34cの特徴を失うことなく特徴を抽出する所謂畳み込み処理を複数回行った後、列ベクトルにフラット化することにより行う。
 特徴変換器27は、図4に示すように、複数の全結合層27a,27bを有しており、当該全結合層27a,27bを用いて、特徴抽出器26によって抽出された第1多次元特徴ベクトル90a,90b,90cを低次元化する処理を実行する。具体的には、全結合(Fully Connected)処理によって、第1多次元特徴ベクトル90a,90b,90cを当該第1多次元特徴ベクトル90a,90b,90cよりも低次元の第2多次元特徴ベクトル92a,92b,92cに変換し、分類器28や距離算定器29、二次元グラフ化データ生成部30、記憶部33に供給する。なお、全結合(Fully Connected)処理に替えてGlobal max PoolingやGlobal Average Poolingなどのプーリング処理によって、第1多次元特徴ベクトル90a,90b,90cを当該第1多次元特徴ベクトル90a,90b,90cよりも低次元の第2多次元特徴ベクトル92a,92b,92cに変換しても良い。第2多次元特徴ベクトル92a,92b,92cは、それぞれ記憶部33に記憶される。第2多次元特徴ベクトル92a,92b,92cは、それぞれ本発明における「第2多次元特徴ベクトル」、「第4多次元特徴ベクトル」、「第6多次元特徴ベクトル」に対応する実施構成の一例である。
 なお、特徴抽出器26および特徴変換器27は、判別対象の分類の判別を精度良く行うことができるような第1多次元特徴ベクトル90a,90b,90cおよび第2多次元特徴ベクトル92a,92b,92cを得ることができるように、予め学習を行って、学習済モデル35として記憶部33に記憶させておく。   
 分類器28は、図4(b)に示すように、判別対象の分類の判別を行う際に機能する。図4(b)に示すように、特徴変換器27によって変換された第2多次元特徴ベクトル92a,92b,92cに基づいて、判別対象の分類、即ち、判別対象がOK品であるかNG品であるかの判別を行い、当該判別結果を画像表示制御部20に供給する。判別対象の分類は、具体的には、第2多次元特徴ベクトル92a,92b,92cを用いて機械学習した演算パラメータにより判別対象の第2多次元特徴ベクトル92a,92b,92cがOK品である確信度を示す一次元の数値を演算し、設定した閾値以上であればOK品であると分類し、設定した閾値未満であればNG品であると分類する。本実施の形態では、分類器28には、勾配ブースティングや、サポートベクターマシーン、ランダムフォレスト、ニューラルネットワーク、ガウス正規化、アンサンブル検査、などの所謂統計的機械学習を用いる構成とした。
 距離算定器29は、学習済モデル35を生成する際、および、当該学習済モデル35の検証や精度の向上を図る際に機能する。学習済モデル35を生成する際には、距離算定器29は、複数の教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92a間の距離を算定し、算定した当該距離を距離データ38として記憶部33に記憶する。算定した当該距離は、特徴抽出器26および特徴変換器27にフィードバックされる(図4(a)参照)。一方、学習済モデル35の検証や精度の向上を図る際には、距離算定器29は、複数の教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aと、判別対象画像データ34bや指定領域画像データ34cの第2多次元特徴ベクトル92b,92cと、の間の距離を算定し、算定した当該距離を距離データ38として記憶部33に記憶する。
 本実施の形態では、特徴抽出器26および特徴変換器27へのフィードバックは、OK品同士の第2多次元特徴ベクトル92a間の距離と、OK品の第2多次元特徴ベクトル92aおよびNG品の第2多次元特徴ベクトル92a間の距離と、が相対的に最適化されるように、Triplet loss関数などの損失関数を用いて誤差逆伝搬法および勾配降下法により、特徴抽出器26および特徴変換器27のパラメータの修正を行うことにより行う構成とした。このようなパラメータの修正(特徴抽出器26および特徴変換器27の学習)は、第2多次元特徴ベクトル92aの可視化(二次元グラフ化)を行って、学習済モデル35(特徴抽出器26および特徴変換器27)の学習状況(個性)を把握したうえで、当該学習状況(個性)が所望の状態となるまで実施される。こうして、学習済モデル35が生成され、記憶部33に記憶される。なお、本実施の形態では、学習済モデル35の学習と、特徴抽出器26および特徴変換器27の学習と、は同義である。
 ここで、本実施の形態では、特徴抽出器26および特徴変換器27のパラメータの修正には、ディープメトリックラーニングを用いる構成とした。即ち、特徴抽出器26によって第1多次元特徴ベクトル90aを抽出し、抽出した第1多次元特徴ベクトル90aを特徴変換器27によって第2多次元特徴ベクトル92aに変換すると共に、変換した第2多次元特徴ベクトル92a間の距離を距離算定器29によって算定して、算定した当該距離に基づき誤差逆伝搬法および勾配降下法により特徴抽出器26および特徴変換器27のパラメータの修正を行う一連の処理にディープメトリックラーニングを適用した。なお、第2多次元特徴ベクトル92aの可視化(二次元グラフ化)、および、特徴抽出器26および特徴変換器27の学習(個性)が所望の状態となったか否かの判定についての詳細は後述する。
 二次元グラフ化データ生成部30は、複数の教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aに基づいて、モデル用二次元グラフ化データ36aを生成すると共に、判別対象画像データ34bや指定領域画像データ34cの第2多次元特徴ベクトル92b,92cに基づいて、判別用二次元グラフ化データ36bを生成する。モデル用二次元グラフ化データ36aは、本発明における「第1グラフ化データ」に対応し、判別用二次元グラフ化データ36bは、本発明における「第2グラフ化データ」および「第3グラフ化データ」に対応する実施構成の一例である。
 具体的には、第2多次元特徴ベクトル92a,92b,92cを次元数の特徴量の集合としてモデル用二次元グラフ化データ36aや判別用二次元グラフ化データ36bを生成する。例えば、第2多次元特徴ベクトル92a,92b,92cがn次元列ベクトル(f,f,f,・・・,fn-1,f)である場合、n個の特徴量f,f,f,・・・,fn-1,fの集合としたデータ、即ち、図5に示すように、縦軸に列番号1,2,3,・・・,n-1,nをとり、横軸に特徴量f,f,f,・・・,fn-1,fをとった座標系(直交座標系)に、これら特徴量f,f,f,・・・,fn-1,fをプロットして曲線ないし直線で繋いだ二次元グラフを表示可能なデータを生成する。
 なお、学習済モデル35(特徴抽出器26および特徴変換器27)の学習結果の検証や学習精度の向上を目的として、ユーザが記憶部33に記憶された複数の教師信号付きサンプル画像データ34aの中から任意の一の教師信号付きサンプル画像データ34aを選択した場合には、二次元グラフ化データ生成部30は、モデル用二次元グラフ化データ36aの中から、当該任意の一の教師信号付きサンプル画像データ34aの第2多次元特徴ベクトルデータ92aに基づいて生成されたモデル用二次元グラフ化データ36a(以下、「選択二次元グラフ化データ36a’」という)を抽出する。選択二次元グラフ化データ36a’は、本発明における「第2グラフ化データ」に対応する実施構成の一例である。
 モデル用二次元グラフ化データ36aには、色情報(RGB情報などの色調情報や階調情報)が付加される。ここで、同じ教師信号が付された第2多次元特徴ベクトル92a同士は同系色の色情報が付される。具体的には、本実施の形態では、OK品同士のモデル用二次元グラフ化データ36aには青系統色が付され、NG品同士のモデル用二次元グラフ化データ36aには赤系統色が付される。生成されたモデル用二次元グラフ化データ36aは、記憶部33に記憶される。OK品同士のモデル用二次元グラフ化データ36aに青系統色を付し、NG品同士のモデル用二次元グラフ化データ36aに赤系統色を付す態様は、本発明における「複数のグラフのうち同一または類似するグラフ同士を同一または類似する態様で表示し、類似しないグラフを異なる態様で表示する」態様、および、「複数の第1グラフ化データのうち同一または類似するデータ同士には同一または類似する第1識別情報を付加」する態様に対応する実施構成の一例である。
 また、判別用二次元グラフ化データ36bおよび選択二次元グラフ化データ36a’には、モデル用二次元グラフ化データ36aとは異なる色情報が付される。具体的には、本実施の形態では、黄系統色が付される。抽出された選択二次元グラフ化データ36a’または生成された判別用二次元グラフ化データ36bは、画像表示制御部20に供給される。なお、判別用二次元グラフ化データ36bは、記憶部33に記憶される。二次元グラフ化データ生成部30は、本発明における「グラフ生成部」に対応する実施構成の一例である。判別用二次元グラフ化データ36bおよび選択二次元グラフ化データ36a’に黄系統色を付す態様は、本発明における「第4多次元特徴ベクトルのグラフを複数のグラフとは異なる態様で第1領域に表示する」態様、「第6多次元特徴ベクトルのグラフを複数のグラフとは異なる態様で第1領域に表示する」態様、「第2グラフ化データに第1識別情報とは異なる第2識別情報を付加」する態様、および、「第3グラフ化データに第1識別情報とは異なる第3識別情報を付加」する態様に対応する実施構成の一例である。
 選定部31は、ユーザの入力装置14を介した入力操作によって、ウィンドウ62上に表示された各種コマンドボタンの中から類似二次元グラフSgの表示指示を含むコマンドボタンが押された際に、記憶部33に記憶された複数の第2多次元特徴ベクトル92aの中から、指定領域画像データ34cから抽出された第2多次元特徴ベクトル92cとの距離が最も小さい第2多次元特徴ベクトル(以下、「距離最小第2多次元特徴ベクトル」という)92a’を選定すると共に、モデル用二次元グラフ化データ36aの中から、当該選定された距離最小第2多次元特徴ベクトル92a’に基づいて生成された二次元グラフ化データ(類似二次元グラフ化データ)36cを選定し、選定した類似二次元グラフ化データ36cを画像表示制御部20や記憶部33などに供給する。ここで、類似二次元グラフ化データ36cは、本発明における「第4グラフ化データ」に対応し、類似二次元グラフ化データ36cに基づき生成されるグラフは、本発明における「前記複数のグラフのうち前記第6多次元特徴ベクトルのグラフと類似するグラフ」に対応する実施構成の一例である。
 ここで、本実施の形態では、距離最小第2多次元特徴ベクトル92a’の選定は、記憶部33に記憶された距離データ38に基づいて行う構成とした。具体的には、指定領域画像データ34cの第2多次元特徴ベクトル92cと、複数の各教師信号付きサンプル画像データ34aそれぞれの第2多次元特徴ベクトル92aと、の間の距離が最小となる組合せの第2多次元特徴ベクトル92aを選定する構成とした。
 なお、選定部31は、選定した類似二次元グラフ化データ36cに上述した何れの色情報とも異なる色情報を付す。具体的には、本実施の形態では、白系統色が付される。類似二次元グラフ化データ36cに白系統色を付す態様は、本発明における「第6多次元特徴ベクトルのグラフと同一または類似するグラフを、複数のグラフおよび第6多次元特徴ベクトルのグラフとは異なる態様で第1領域に表示する」態様、および、「第4グラフ化データに、第1および第2識別情報とは異なる第4識別情報を付加する」態様に対応する実施構成の一例である。
 報知部32は、ユーザの入力装置14を介した入力操作によって、ウィンドウ62上に表示された各種コマンドボタンの中からバーグラフBgの表示指示を含むコマンドボタンが押された際に、学習済モデル35の生成段階でOK品に分類された複数の各教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aそれぞれと,指定領域画像データ34cの第2多次元特徴ベクトル92cと,の間の各距離のうち最小となる最小距離を選定すると共に、当該最小距離に基づいてバーグラフ化データ39を生成し、生成した当該バーグラフ化データ39を画像表示制御部20や記憶部33などに供給する。
 ここで、本実施の形態では、最小距離の選定は、記憶部33に記憶された距離データ38に基づいて行う構成とした。具体的には、指定領域画像データ34cの第2多次元特徴ベクトル92cと、複数のOK品の第2多次元特徴ベクトル92aそれぞれと、の間の各距離のうち最小となる値を選定する構成とした。
 報知部32は、最小距離が大きいほどバーグラフが長くなる態様でバーグラフ化データ39を生成する。なお、最小距離が小さいときと大きいときとでバーグラフの色が異なる態様で表示されるようにバーグラフ化データ39を生成することもできる。
 本実施の形態では、最小距離が小さいほど青系統色が強く、最小距離が多きくなるほど赤系統色が強くなる態様とした。当該バーグラフを見ることにより、ユーザ(判別者)は、指定領域画像がOK品であるのか、NG品であるのかに加えて、OK品あるいはNG品にどれだけ近いのかを一目で知ることができる。ここで、複数のOK品の第2多次元特徴ベクトル92aは、本発明における「所定の前記第2多次元特徴ベクトル」に対応し、学習済モデル35の生成段階でOK品に分類された複数の各教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aのうち指定領域画像データ34cの第2多次元特徴ベクトル92cとの間の距離が最小となる第2多次元特徴ベクトル92aは、本発明における「基準値」に対応し、最小距離は、本発明における「差」および「一次元の数値」に対応する実施構成の一例である。また、最小距離の大きさに応じたバーグラフをウィンドウ62上に表示する態様は、本発明における「算出した該差を視覚的および/または聴覚的および/または触覚的な態様で報知する」態様に対応する実施構成の一例である。
 記憶部33は、RAM6およびHDD10の少なくとも一方に確保され、カメラ70(図1参照)によって撮影された教師信号付きサンプル画像データ34aおよび判別対象画像データ34bや、領域指定部24によって取得された指定領域画像データ34c、学習済モデル35、二次元グラフ化データ生成部30によって生成されたモデル用二次元グラフ化データ36aおよび判別用二次元グラフ化データ36b、選定部31によって生成された類似二次元グラフ化データ36c、特徴変換器27によって変換された第2多次元特徴ベクトル92a,92b,92c、距離算定器29によって算定された距離データ38、および、報知部32によって生成されたバーグラフ化データ39を記憶する。
 可視化プログラムは、学習済モデル35の生成段階で実行される学習済モデル生成段階可視化ルーチンと、学習済モデル35の精度向上段階や判別対象の分類の判別段階で実行される判別段階可視化ルーチンと、から構成されており、学習済モデル35の学習状況(個性)および判別対象の判別状況を可視化可能なように、二次元グラフ化データ生成部30によって生成されたモデル用二次元グラフ化データ36a、判別用二次元グラフ化データ36b、および、選択二次元グラフ化データ36a’や、選定部31によって生成された類似二次元グラフ化データ36c、報知部32によって生成されたバーグラフ化データ39に基づいて、画像表示制御部20にモデル用二次元グラフOg,Ng(図15、図16参照)や判別用二次元グラフDg(図16参照)、選択二次元グラフCg(図16参照)、類似二次元グラフSg(図16、図15参照)、バーグラフBg(図16、図15参照)などをウィンドウ62上に表示させる機能を有している。
 次に、判別アプリケーションが起動されたときにコンピュータ1において実行される可視化プログラムについて説明する。まず、学習済モデル生成段階可視化ルーチンについて説明し、続いて、判別段階可視化ルーチンについて説明する。図6は、学習済モデル生成段階可視化ルーチンの一例を示すフローチャートであり、図7は、判別段階可視化ルーチンの一例を示すメインフローチャートであり、図8、図9および図10は、図7のメインフローチャートから分岐したサブフローチャートである。
 学習済モデル生成段階可視化ルーチンは、例えば、ユーザがウィンドウ62上に表示される各種コマンドボタンの中から「学習済モデル生成」ボタンを押したときに実行される。学習済モデル生成段階可視化ルーチンは、主に、画像表示制御部20、画像取得部22、特徴抽出器26、特徴変換器27、距離算定器29、二次元グラフ化データ生成部30などにより実行される。
 学習済モデル生成段階可視化ルーチンでは、学習済モデル35を可視化する処理が実行される。具体的には、図6に示すように、まず、二次元グラフ化データ生成部30が、記憶部33に記憶された教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aを読み込み(ステップS10)、読み込んだ第2多次元特徴ベクトル92aに基づいてモデル用二次元グラフ化データ36aを生成すると共に記憶部33に記憶する処理を実行すると共に(ステップS12、画像表示制御部20が、記憶部33に記憶されたモデル用二次元グラフ化データ36aを読み込み、読み込んだモデル用二次元グラフ化データ36aに基づいてモデル用二次元グラフOg,Ng(図12参照)をウィンドウ62に表示して(ステップS14)、本ルーチンを終了する処理を実行する。ここで、学習済モデル35の生成段階においては、モデル用二次元グラフOg,Ngは、例えば、図12に示すように、特徴抽出器26、特徴変換器27、および、分類器28から算出される判定の精度や、特徴抽出器26、特徴変換器27、および、距離算定器29から算出される損失など従来技術による学習状況(一次元の数値指標)のグラフと共にウィンドウ62に表示することができる。この場合、ウィンドウ62のうちモデル用二次元グラフOg,Ngの表示領域は、本発明における「第1領域」に対応する実施構成の一例である。また、OK品のモデル用二次元グラフOgおよびNG品のモデル用二次元グラフNgは、本発明における「複数のグラフ」に対応する実施構成の一例である。
 このように、学習済モデル35の学習状況(個性)の可視化に適した第2多次元特徴ベクトル92aに基づいてグラフ化したモデル用二次元グラフOg,Ng(図12参照)をウィンドウ62に表示するため、学習済モデル35が適切な学習状況(個性)にあるか否かを視覚的に確認して評価することができる。ここで、学習済モデル35の学習状況(個性)の評価は、正解率や適合率、再現率などの一次元の数値指標によって行われることが一般的であるが、これら数値指標が同じであっても学習済モデル35には判別精度および信頼精度に違いがあり、本発明者らが鋭意研究したところ、学習状況(個性)を視覚的に確認することで、適切な学習済モデル35を生成可能であることが判明した。
 図11は、同じ数値指標を有する学習済モデル35の学習状況(個性)を示す説明図である。なお、図11(a)は、学習済モデル35が適切な学習状況(個性)にある状態を示すモデル用二次元グラフOg,Ngであり、図11(b)は、学習済モデル35の学習状況(個性)が適切でない状態を示すモデル用二次元グラフOg,Ngである。ここで、本実施の形態では、OK品同士のモデル用二次元グラフ化データ36aには青系統色が付され、NG品同士のモデル用二次元グラフ化データ36aには赤系統色が付される構成としたため、実際には、OK品のモデル用二次元グラフOgは青系統色で表示され、NG品のモデル用二次元グラフNgは赤系統色で表示されることになるが、図11中では、便宜上、青系統色を二点鎖線で記載し、赤系統色を破線で記載している。
 図11(a)に示すように、学習済モデル35が適切な学習状況(個性)にあると、OK品の教師信号付きサンプル画像データ34aに基づき生成されたモデル用二次元グラフOgと、NG品の教師信号付きサンプル画像データ34aに基づき生成されたモデル用二次元グラフNgと、が明確に離隔されて表示され、境界が明確となる。一方、学習済モデル35の学習状況(個性)が適切でないと、モデル用二次元グラフOgと、モデル用二次元グラフNgと、が近接して表示され、境界が不明確となる。
 このように、学習済モデル35の学習状況(個性)を可視化することにより、学習済モデル35が判別対象の分類を適切に判別できる学習状況(個性)にあるか否かを評価することができるため、従来に比べて少量のサンプルデータで適切な学習済モデル35を生成することができる。この結果、適切な学習済モデル35を簡易かつ迅速に生成することができる。もとより、学習済モデル35の学習状況(個性)を視覚的に確認することができるため、学習済モデル35の信頼性が向上する。また、適切な学習済モデル35を生成することができるため、分類器28による判別対象の分類に適切な閾値の設定範囲を広くとることができる。これにより、外乱、例えば、判別対象の画像を取得する際の外光の影響などによる誤判別を抑制でき、正確な判別結果を安定して得ることができる。
 次に、判別段階可視化ルーチンについて説明する。判別段階可視化ルーチンは、例えば、ユーザがウィンドウ62上に表示される各種コマンドボタンの中から「学習済モデルのテスト」ボタンや「学習済モデルの精度向上」ボタン、「判別対象の判別」ボタンを押したときに実行される。判別段階可視化ルーチンは、主にコンピュータ1の画像表示制御部20や、画像取得部22、領域指定部24、特徴抽出器26、特徴変換器27、分類器28、二次元グラフ化データ生成部30、選定部31、および、報知部32により実行される。
 判別段階可視化ルーチンでは、図7に示すように、まず、学習済モデル35を読み込んで可視化する処理、具体的には、画像表示制御部20が、記憶部33に記憶されたモデル用二次元グラフ化データ36aを読み込み(ステップS100)、読み込んだモデル用二次元グラフ化データ36aに基づいてモデル用二次元グラフOg,Ng(図11参照)をウィンドウ62の第1領域62a(図1参照)に表示する処理を実行する(ステップS102)。ここで、モデル用二次元グラフ化データ36aは、上述した学習済モデル生成段階可視化ルーチンのステップS12において、二次元グラフ化データ生成部30によって生成され、記憶部33に記憶されている。この場合、第1領域62aは、本発明における「第1領域」に対応する実施構成の一例である。
 ステップS102において、モデル用二次元グラフOg,Ngをウィンドウ62の第1領域62a(図1参照)に表示する処理を実行した後、続いて、画像表示制御部20は、画像表示要求の有無を判定する処理を実行する(ステップS104)。ここで、「画像表示要求」は、例えば、記憶部33に記憶された複数の教師信号付きサンプル画像データ34aの中からユーザが任意の一の教師信号付きサンプル画像データ34aを選択した場合や、画像取得部22が判別対象の画像を取得した場合に「画像表示要求有り」と判定される。
 画像表示要求がなかった場合には、画像表示要求が有るまでステップS104の処理を繰り返し実行し、画像表示要求が有った場合には、画像表示制御部20は、当該要求のあった画像データ(任意の一の教師信号付きサンプル画像データ34aまたは判別対象画像データ34b)を読み込むと共に、読み込んだ画像データ(任意の一の教師信号付きサンプル画像データ34aまたは判別対象画像データ34b)に基づいて、要求のあった画像(任意の一の教師信号付きサンプル画像または判別対象画像)をウィンドウ62の第2領域62b(図1参照)に表示する処理を実行する(ステップS106)。
 次に、画像表示制御部20は、ウィンドウ62の第2領域62b(図1参照)に表示された画像(任意の一の教師信号付きサンプル画像または判別対象画像)の任意の領域が、ユーザにより指定されたか否かを判定する処理を実行する(ステップS108)。ユーザによる任意の領域が指定されたか否かの判定は、例えば、領域指定部24からの指定領域画像データ34cの入力があったか否かにより行うことができる。
 ユーザによる任意の領域指定があった場合は、類似二次元グラフSg(図13参照)を表示する要求が有るか否かを判定する処理を実行する(ステップS110)。ここで、類似二次元グラフSg(図13参照)の表示要求の有無の判定は、例えば、選定部31からの類似二次元グラフ化データ36cの入力があった否かにより行うことができる。
 類似二次元グラフSg(図13参照)を表示する要求が有る場合には、バーグラフBg(図13参照)を表示する要求が有るか否かを判定する処理を実行する(ステップS112)。ここで、バーグラフBg(図13参照)の表示要求の有無の判定は、例えば、報知部32からのバーグラフ化データ39の入力があった否かにより行うことができる。
 バーグラフBg(図13参照)を表示する要求が有る場合には、画像表示制御部20は、指定領域画像データ34c、距離最小第2多次元特徴ベクトル92a’(指定領域画像データ34cから抽出された第2多次元特徴ベクトル92cとの距離が最も近い第2多次元特徴ベクトル92a)を有する教師信号付きサンプル画像データ34a(以下、「類似画像データ34a’」という)、指定領域画像データ34cの第2多次元特徴ベクトル92cに基づき生成された判別用二次元グラフ化データ36b、類似二次元グラフ化データ36c、および、バーグラフ化データ39を読み込む処理を実行する(ステップS114)。
 ここで、判別用二次元グラフ化データ36bは、任意の領域が指定された際に、二次元グラフ化データ生成部30によって、指定領域画像データ34cの第2多次元特徴ベクトル92cに基づいて生成され、画像表示制御部20に出力されるものであり、類似二次元グラフ化データ36cは、類似二次元グラフSgを表示する要求が有った際(類似二次元グラフSgの表示指示を含むコマンドボタンが押された際)に、選定部31によって、距離最小第2多次元特徴ベクトル92a’に基づいて生成され、画像表示制御部20に出力されるものであり、バーグラフ化データ39は、バーグラフBgを表示する要求が有った際に、報知部32によって、指定領域画像データ34cの第2多次元特徴ベクトル92cと,OK品に分類された複数の各教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aそれぞれと,の距離のうち最小となる最小距離に基づいて生成され、画像表示制御部20に出力されるものである。
 そして、読み込んだ指定領域画像データ34c、類似画像データ34a’、判別用二次元グラフ化データ36b、類似二次元グラフ化データ36c、および、バーグラフ化データ39に基づいて、指定領域画像をウィンドウ62の第3領域62c(図1参照)に表示すると共に、類似画像をウィンドウ62の第4領域62d(図1参照)に表示し、図13に示すように、既にウィンドウ62の第1領域62aに表示されたモデル用二次元グラフOg,Ngと共に判別用二次元グラフDg、類似二次元グラフSg、および、バーグラフBgを第1領域62aに表示する処理を実行して(ステップS116)、ステップS104に戻る。ここで、判別用二次元グラフDgは、本発明における「第4多次元特徴ベクトルのグラフ」および「第6多次元特徴ベクトルのグラフ」に対応する実施構成の一例である。
 図13は、モデル用二次元グラフOg,Ngに加えて、判別用二次元グラフDg、類似二次元グラフSg、および、バーグラフBgを、ウィンドウ62の第1領域62aに表示した状態を示す説明図である。なお、図13(a)は、判別用二次元グラフDgおよび類似二次元グラフSgがNG品のモデル用二次元グラフNg側に表示された状態を示す説明図であり、図13(b)は、判別用二次元グラフDgおよび類似二次元グラフSgがOK品のモデル用二次元グラフOg側に表示された状態を示す説明図である。ここで、本実施の形態では、判別用二次元グラフDgには黄系統色が付され、類似二次元グラフSgには白系統色が付される構成としたため、実際には、判別用二次元グラフDgは黄系統色で表示され、類似二次元グラフSgは白系統色で表示されることになるが、図13中では、便宜上、黄系統色を太実線で記載し、白系統色を太一点鎖線で記載している。
 このように、モデル用二次元グラフOg,Ngに加えて、ユーザによって指定された領域の第2多次元特徴ベクトル92cの状態を判別用二次元グラフDgとして表示するため、指定された領域の分類の判別状況を可視化することができる。これにより、ユーザ自ら気になる箇所の判別状況を視覚的に確認することができると共に(例えば、判別対象に傷などがあった場合に、当該傷をNGとして判別できているのかなど)、当該気になる箇所の判別状況に応じて(OK品であるのにNGであると判別していた場合や、これとは逆に、NG品であるのにOK品であると判別していた場合)、特徴抽出器26および特徴変換器27の学習、あるいは、分類器28の学習をやり直すことができる。
 ここで、上述したような誤判別が発生した場合(OK品であるのにNGであると判別していた場合や、これとは逆に、NG品であるのにOK品であると判別していた場合)、モデル用二次元グラフOg,Ngおよび判別用二次元グラフDgの形状や、判別用二次元グラフDgの動きを確認することによって、誤判別の原因が特徴抽出器26および特徴変換器27の学習にあるのか、分類器28の演算パラメータの機械学習や閾値の設定にあるのか、を判断することができる。なお、判別用二次元グラフDgの動きとは、ユーザが、ウィンドウ62の第2領域62b(図1参照)に表示された画像(ユーザが選択した任意の一の教師信号付きサンプル画像または判別対象画像)上において、指定領域を様々に変化させたときの、判別用二次元グラフDgの変化を意味する。
 図14(a)に示すように、判別用二次元グラフDgの形状がモデル用二次元グラフNgと離れており、異なる形状にも関わらず、NG品と判断された場合や、図14(b)に示すように、判別用二次元グラフDgの形状がモデル用二次元グラフOgと離れており、異なる形状にも関わらず、OK品と判断された場合、即ち、OK品およびNG品の特徴は捉えることができているが、OK品およびNG品の分類を誤っているような場合には、分類器28の演算パラメータの機械学習や閾値の設定が適切でないと判断することができ、この場合、分類器28の演算パラメータの機械学習や閾値の設定をし直すことで対応できる。
 一方、ユーザが、ウィンドウ62の第2領域62b(図1参照)に表示された画像(ユーザが選択した任意の一の教師信号付きサンプル画像または判別対象画像)上において、正常箇所から例えば傷などの欠陥が存在する箇所に亘って指定領域を変化させているのに、判別用二次元グラフDgの動きに変化がない、あるいは、変化が乏しい場合、即ち、OK品およびNG品の特徴を適切に捉えることができていない場合は、特徴抽出器26および特徴変換器27の学習が適切でないと判断することができ、この場合、特徴抽出器26および特徴変換器27の学習をし直すことで対応できる。
 このように、本実施の形態に係る判別装置によれば、特徴抽出器26および特徴変換器27と、分類器28と、を別構成として有すると共に、学習済モデル35の学習状況(個性)を可視化することができるため、誤判定した場合に当該誤判定の原因を簡易に特定することができると共に、その対処を適切に行うことができる。これにより、簡単かつ迅速に判定装置の判定精度を向上することができ、かつ、学習済モデル35の信頼性の向上を図ることができる。なお、ウィンドウ62の第2領域62b(図1参照)に表示された画像(ユーザが選択した任意の一の教師信号付きサンプル画像または判別対象画像)を用いて任意の領域を指定しながら、ウィンドウ62の第1領域62aを用いて当該任意の領域の分類の判別状況を確認することができるため、操作も容易である。
 また、モデル用二次元グラフOg,Ngおよび判別用二次元グラフDgに加えて、類似二次元グラフSgを表示するため、任意の領域の特徴を適切に捉えることができているかを確認することができる。図13に示すように、任意の領域の分類が適切に行われている場合(図13(a)は、任意の領域がNG品であった場合、図13(b)は、任意の領域がOK品であった場合)には、判別用二次元グラフDgと類似二次元グラフSgとが類似形状を示していることを確認することで、当該任意の領域の特徴を適切に捉えることができていることを確認することができる。
 一方、図15に示すように、任意の領域の分類の判別において誤判別が発生した場合(図15(a)は、任意の領域がNG品であるものをOK品と分類した場合、図15(b)は、任意の領域がOK品であるものをNG品と分類した場合)には、当該誤判別の原因となった教師信号付きサンプル画像データ34aを類似二次元グラフSgによって確認することができるため、任意の領域の第2多次元特徴ベクトル92cと当該誤判定の原因となるような距離最小第2多次元特徴ベクトル92a’(教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92a)との距離が最適となるように、特徴抽出器26および特徴変換器27の学習のし直し、あるいは、判別用二次元グラフDgと類似二次元グラフSgとを確実に分類できるように、分類器28の演算パラメータの機械学習のし直し、および、閾値の再設定を行うことで、精度の向上を図ることができる。
 さらに、モデル用二次元グラフOg,Ng、判別用二次元グラフDg、および、類似二次元グラフSgに加えて、バーグラフBgを表示するため、ユーザは、指定領域画像がOK品であるのか、NG品であるのかに加えて、OK品あるいはNG品にどれだけ近いのかを一目で知ることができる。
 図7の特徴抽出器可視化ルーチンに戻って、ステップS108において、ユーザによる任意の領域指定がなかった場合は、図8のフローチャートに示すように、選択二次元グラフ化データ36a’または判別用二次元グラフ化データ36bを読み込むと共に(ステップS118)、読み込んだ選択二次元グラフ化データ36a’または判別用二次元グラフ化データ36bに基づいて、図16に示すように、選択二次元グラフCgまたは判別用二次元グラフDgを、既にウィンドウ62の第1領域62aに表示されたモデル用二次元グラフOg,Ngと共に当該第1領域62aに表示する処理を実行して(ステップS120)、ステップS104に戻る。選択二次元グラフCgは、本発明における「第4多次元特徴ベクトルのグラフ」に対応する実施構成の一例である。
 ここで、選択二次元グラフ化データ36a’は、ユーザが記憶部33に記憶された複数の教師信号付きサンプル画像データ34aの中から任意の一の教師信号付きサンプル画像データ34aを選択した際に、二次元グラフ化データ生成部30によってモデル用二次元グラフ化データ36aの中から抽出され、画像表示制御部20に出力されるものであり、判別用二次元グラフ化データ36bは、画像取得部22が判別対象画像データ34bを取得した際に、二次元グラフ化データ生成部30によって、判別用二次元グラフ化データ36bの第2多次元特徴ベクトル92bに基づいて生成され、画像表示制御部20に出力されるものである。
 また、ステップS110において、類似二次元グラフ表示要求がなかった場合には、図9のフローチャートに示すように、領域指定部24から出力された指定領域画像データ34cおよび判別用二次元グラフ化データ36bを読み込む処理を実行する(ステップS122)。ここで、判別用二次元グラフ化データ36bは、任意の領域が指定された際に、二次元グラフ化データ生成部30によって、指定領域画像データ34cの第2多次元特徴ベクトル92cに基づいて生成され、画像表示制御部20に出力されるものである。
 そして、読み込んだ指定領域画像データ34cおよび判別用二次元グラフ化データ36bに基づいて、指定領域画像をウィンドウ62の第3領域62c(図1参照)に表示すると共に、図16示すように、既にウィンドウ62の第1領域62a(図1参照)に表示されたモデル用二次元グラフOg,Ngと共に判別用二次元グラフDgを第1領域62aに表示する処理を実行して(ステップS124)、ステップS104に戻る。
 さらに、ステップS112において、バーグラフ表示要求がなかった場合には、図10のフローチャートに示すように、画像表示制御部20は、指定領域画像データ34c、類似画像データ34a’、指定領域画像データ34cの第2多次元特徴ベクトル92cに基づき生成された判別用二次元グラフ化データ36b、類似二次元グラフ化データ36cを読み込む処理を実行し(ステップS126)、読み込んだ指定領域画像データ34c、類似画像データ34a’、判別用二次元グラフ化データ36b、および、類似二次元グラフ化データ36cに基づいて、指定領域画像をウィンドウ62の第3領域62c(図1参照)に表示すると共に、類似画像をウィンドウ62の第4領域62d(図1参照)に表示し、既にウィンドウ62の第1領域62aに表示されたモデル用二次元グラフOg,Ngと共に判別用二次元グラフDgおよび類似二次元グラフSgを第1領域62aに表示する処理を実行して(ステップS128)、ステップS104に戻る。
 以上説明した本実施の形態に係る判別装置によれば、学習済モデル35の学習状況(個性)の可視化に適した第2多次元特徴ベクトル92aに基づいてグラフ化したモデル用二次元グラフOg,Ng(図12、図13参照)をウィンドウ62に表示するため、学習済モデル35が適切な学習状況(個性)にあるか否かを視覚的に確認して評価することができるため、従来に比べて少量のサンプルデータで適切な学習済モデル35を生成することができる。この結果、適切な学習済モデル35を簡易かつ迅速に生成することができる。もとより、学習済モデル35の学習状況(個性)を視覚的に確認することができるため、学習済モデル35の信頼性が向上する。また、適切な学習済モデル35を生成することができるため、判別対象を適切に分類可能な閾値の設定範囲を広くとることができる。これにより、外乱、例えば、判別対象の画像を取得する際の外光の影響などによる誤判別を抑制でき、正確な判別結果を安定して得ることができる。なお、第2多次元特徴ベクトル92a,92b,92cを二次元グラフによってグラフ化したため、学習済モデル35の学習状況(個性)の可視化を簡易に実現することができる。
 また、本実施の形態に係る判別装置によれば、OK品のモデル用二次元グラフOgと、NG品のモデル用二次元グラフNgと、を異なる態様、即ち、OK品のモデル用二次元グラフOgは青系統色で表示し、NG品のモデル用二次元グラフNgは赤系統色で表示するため、学習済モデル35の学習状況(個性)を視覚的により明瞭なものとすることができる。
 さらに、本実施の形態に係る判別装置によれば、任意の一の教師信号付きサンプル画像データ34aや、判別対象画像データ34b、指定領域画像データ34cの第2多次元特徴ベクトル92a,92b,92cに基づく選択二次元グラフCgや判別用二次元グラフDgを表示するため、学習済モデル35の学習状況(個性)の可視化に加えて、任意の一の教師信号付きサンプル画像や判別対象、指定領域画像の分類の判別状況も可視化することができる。なお、選択二次元グラフCgや判別用二次元グラフDgをモデル用二次元グラフOg,Ngとは異なる態様、即ち、選択二次元グラフCgや判別用二次元グラフDgを黄系統色で表示するため、任意の一の教師信号付きサンプル画像や判別対象、指定領域画像の分類の判別状況が確認し易いものとなる。
 また、本実施の形態に係る判別装置によれば、類似二次元グラフSgを表示するため、任意の領域の特徴を適切に捉えることができているか否かを確認することができる。また、任意の領域の分類の判別において誤判別が発生した場合には、当該誤判別の原因となった教師信号付きサンプル画像データ34aを確認することができるため、任意の領域の第2多次元特徴ベクトル92cと、距離最小第2多次元特徴ベクトル92a’(誤判定の原因となるような教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92a)と、の距離が最適となるように、特徴抽出器26および特徴変換器27の学習のし直し、あるいは、判別用二次元グラフDgと類似二次元グラフSgとを確実に分類できるように、分類器28の演算パラメータの機械学習のし直しや閾値の再設定を行うことで、精度の向上を図ることができる。
 また、本実施の形態に係る判別装置によれば、バーグラフBgを表示するため、ユーザは、指定領域画像がOK品であるのか、NG品であるのかに加えて、OK品あるいはNG品にどれだけ近いのかを一目で知ることができる。
 また、本実施の形態に係る判別装置によれば、ディープメトリックラーニングを用いて特徴抽出器26および特徴変換器27を学習する構成であるため、学習済モデル35の可視化をより効果的なものとすることができる。
 また、本実施の形態に係る判別装置によれば、特徴抽出器26および特徴変換器27と、分類器28と、を別構成として有するため、判別対象の判別精度の向上に際し、特徴抽出器26および特徴変換器27の学習と、分類器28の学習と、を分けて実施することができる。即ち、判別精度の低さの原因が、特徴抽出器26および特徴変換器27による学習精度の低さに起因する場合には特徴抽出器26および特徴変換器27のみを学習させ、分類器28による分類精度の低さに起因する場合には分類器28のみを学習させることができるため、判別精度の向上を効率良く行うことができる。なお、学習済モデル35の学習状況(個性)を可視化できるため、判別精度の低さの原因が、特徴抽出器26および特徴変換器27による学習精度の低さに起因するのか、分類器28による分類精度の低さに起因するのかを容易に判断することができる。
 本実施の形態では、判別装置が、判別対象がOK品であるかNG品であるかの判別を行う装置として説明したが、これに限らない。例えば、判別装置が、判別対象を複数の分類のうちのいずれに分類されるかの判別を行う装置に適用しても良い。
 本実施の形態では、モデル用二次元グラフOgとモデル用二次元グラフNgとを、異なる系統色を用いて表示したが、これに限らない。例えば、モデル用二次元グラフOgとモデル用二次元グラフNgとを、異なる線種(例えば、実線と破線、実線と一点鎖線、実線と二点鎖線など)や、異なる線幅を用いて表示しても良い。
 本実施の形態では、モデル用二次元グラフOg,Ngと、判別用二次元グラフDgおよび選択二次元グラフCgと、を異なる系統色で表示したが、これに限らない。例えば、モデル用二次元グラフOg,Ngと、判別用二次元グラフDgおよび選択二次元グラフCgと、を異なる線種(例えば、実線と破線、実線と一点鎖線、実線と二点鎖線など)や、異なる線幅を用いて表示しても良い。
 本実施の形態では、類似二次元グラフSgを、モデル用二次元グラフOg,Ng、判別用二次元グラフDgおよび選択二次元グラフCgとは、異なる系統色で表示したが、これに限らない。例えば、類似二次元グラフSgを、モデル用二次元グラフOg,Ng、判別用二次元グラフDgおよび選択二次元グラフCgとは、異なる線種(例えば、実線と破線、実線と一点鎖線、実線と二点鎖線など)や、異なる線幅を用いて表示しても良い。
 本実施の形態では、バーグラフによって、指定領域画像のOK品に対する近さ(類似度合)をユーザに知らせる構成としたが、これに限らいない。例えば、音色の変化や音の大きさの変化、振動の振幅の大きさの変化、振動の周期の変化、アニメーションの変化などによって、指定領域画像のOK品に対する近さ(類似度合)をユーザに知らせる構成としても良い。なお、振動の大きさの変化や振動の周期の変化によって、指定領域画像のOK品に対する近さ(類似度合)をユーザに知らせる構成の場合には、例えば、マウスを介してユーザの手に振動が伝わる構成とすることができる。
 本実施の形態では、学習済モデル35の生成段階でOK品に分類された複数の各教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aそれぞれと、指定領域画像データ34cの第2多次元特徴ベクトル92cと、の間の各距離のうち最小となる最小距離に基づいてバーグラフ化データ39を生成したが、これに限らない。例えば、学習済モデル35の生成段階でOK品に分類された複数の各教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aそれぞれと、指定領域画像データ34cの第2多次元特徴ベクトル92cと、の間の各距離の平均に基づいてバーグラフ化データ39を生成しても良い。あるいは、学習済モデル35の生成段階でNG品に分類された複数の各教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aそれぞれと、指定領域画像データ34cの第2多次元特徴ベクトル92cと、の間の各距離のうち最小となる最小距離や、学習済モデル35の生成段階でNG品に分類された複数の各教師信号付きサンプル画像データ34aの第2多次元特徴ベクトル92aそれぞれと、指定領域画像データ34cの第2多次元特徴ベクトル92cと、の間の各距離の平均に基づいてバーグラフ化データ39を生成しても良い。
 本実施の形態では、第2多次元特徴ベクトル92a,92b,92cのグラフ化として、縦軸に列番号1,2,3,・・・,n-1,nをとり、横軸に特徴量f,f,f,・・・,fn-1,fをとった座標系(直交座標系)に、これら特徴量f,f,f,・・・,fn-1,fをプロットして曲線ないし直線で繋いだ二次元グラフを用いたが、これに限らない。
 本実施の形態では、判別装置が特徴抽出器26および特徴変換器27と、分類器28と、を別構成として有する構成としたが、判別装置が分類器28を有さない構成としても良い。この場合、例えば、特徴抽出器26、特徴変換器27および距離算定器29によって判別対象の分類まで行う構成とすれば良い。
 本実施の形態では、特徴抽出器26として畳み込みニューラルネットワーク(CNN)を用いたが、これに限らない。例えば、特徴抽出器26として、畳み込みニューラルネットワーク(CNN)以外のニューラルネットワークを用いても良いし、勾配ブースティングや、サポートベクターマシーン、ランダムフォレスト、ニューラルネットワーク、ガウス正規化、アンサンブル検査などの所謂統計的機械学習を用いても良い。なお、統計的機械学習を用いる場合には、当該統計的機械学習によって抽出される多次元特徴ベクトルをグラフ化して可視化する構成となり、また、判別対象を分類するための分類器28は必要ない。
 本実施の形態では、入力装置14は、キーボードおよびマウスとして説明したが、タッチパネル等のポインティングデバイスや、ボタン、ダイヤル、タッチセンサ、タッチパッド等を含んでいても良い。
 本実施の形態では、画像データを含む各種データを記憶する大容量メモリをHDD10としたが、これに限らない。画像データを含む各種データを記憶する大容量メモリとして、フラッシュメモリ(USBメモリ、SDカードなど)や、SSD、フロッピーディスク、CD、DVDなどを適用しても良い。
 本実施の形態では、可視化プログラムを含む各種アプリケーションをHDD10に記憶する構成としたが、これに限らない。例えば、可視化プログラムを含む各種アプリケーションは、伝送媒体、例えば、インターネットやLANなどの通信網を介して他コンピュータから本実施の形態に係る判別装置としてのコンピュータ1へ配信される構成としても良い。
 本実施形態は、本発明を実施するための形態の一例を示すものである。したがって、本発明は、本実施形態の構成に限定されるものではない。
1      コンピュータ1(判別装置)
2      CPU
4      ROM
6      RAM
8      GPU
10     HDD
12     入出力インターフェイス
14     入力装置
20     画像表示制御部
22     画像取得部
24     領域指定部
26     特徴抽出器(特徴抽出器)
27     特徴変換器(特徴変換器)
27a    全結合層(複数の全結合層)
27b    全結合層(複数の全結合層)
28     分類器(分類器)
29     距離算定器
30     二次元グラフ化データ生成部(グラフ生成部)
31     選定部(選定部)
32     報知部(報知部)
33     記憶部
34a    教師信号付きサンプル画像データ(サンプルデータ)
34b    判別対象画像データ
34c    指定領域画像データ
35     学習済モデル(学習済モデル)
36a    モデル用二次元グラフ化データ(第1グラフ化データ)
36a’   選択二次元グラフ化データ(第2グラフ化データ)
36b    判別用二次元グラフ化データ(第2グラフ化データ、第3グラフ化データ)
36c    類似二次元グラフ化データ(第4グラフ化データ)
38     距離データ
39     バーグラフ化データ
60     ディスプレイ(表示部)
62     ウィンドウ(表示部)
62a    第1領域(第1領域)
62b    第2領域(第2領域)
62c    第3領域(第3領域)
62d    第4領域(第4領域)
80     バス
82     バスライン
90a    第1多次元特徴ベクトル(第1多次元特徴ベクトル)
90b    第1多次元特徴ベクトル(第3多次元特徴ベクトル)
90c    第1多次元特徴ベクトル(第5多次元特徴ベクトル)
92a    第2多次元特徴ベクトル(第2多次元特徴ベクトル)
92a’   距離最小第2多次元特徴ベクトル
92b    第2多次元特徴ベクトル(第4多次元特徴ベクトル)
92c    第2多次元特徴ベクトル(第6多次元特徴ベクトル)
fn     特徴量(特徴量)
n      列番号
Og     OK品のモデル用二次元グラフ(複数のグラフ)
Ng     NG品のモデル用二次元グラフ(複数のグラフ)
Sg     類似二次元グラフ(第6多次元特徴ベクトルのグラフと類似するグラフ)
Bg     バーグラフ
Dg     判別用二次元グラフ(第4多次元特徴ベクトルのグラフ、第6多次元特徴ベクトルのグラフ)
Cg     選択二次元グラフ(第4多次元特徴ベクトルのグラフ)
 

Claims (26)

  1.  複数のサンプルデータを用いて学習される学習済モデルの学習状況を可視化する可視化方法であって、
     (a)前記学習済モデルを生成する際、前記複数のサンプルデータそれぞれの第1多次元特徴ベクトルを特徴抽出器によって抽出し、
     (b)抽出した前記第1多次元特徴ベクトルを、複数の全結合層を用いた特徴変換器によって、前記第1多次元特徴ベクトルよりも次元の低い第2多次元特徴ベクトルに変換し、
     (c)変換された前記複数のサンプルデータそれぞれの前記第2多次元特徴ベクトルをグラフ化し、
     (d)生成された複数のグラフを表示部の第1領域に表示する
     可視化方法。
  2.  前記ステップ(d)は、前記複数のグラフのうち同一または類似するグラフ同士を同一または類似する態様で表示し、類似しないグラフを異なる態様で表示するステップである
     請求項1に記載の可視化方法。
  3.  前記ステップ(c)は、前記第2多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化するステップである
     請求項1または2に記載の可視化方法。
  4.  前記ステップ(a)は、判別対象の分類の際には、該判別対象の第3多次元特徴ベクトルを前記特徴抽出器によって抽出するステップであり、
     前記ステップ(b)は、抽出された前記第3多次元特徴ベクトルを、前記特徴変換器によって、前記第3多次元特徴ベクトルよりも次元の低い第4多次元特徴ベクトルに変換するステップを含み、
     前記ステップ(c)は、前記第4多次元特徴ベクトルをグラフ化するステップを含み、
     前記ステップ(d)は、前記第4多次元特徴ベクトルのグラフを前記複数のグラフとは異なる態様で前記第1領域に表示するステップを含む
     請求項1ないし3のいずれか1項に記載の可視化方法。
  5.  前記ステップ(c)は、前記第4多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化するステップである
     請求項4に記載の可視化方法。
  6.  前記判別対象の画像を前記表示部の第2領域に表示するステップ(e)と、
     前記判別対象の画像の任意の領域を指定するステップ(f)と、
     をさらに含み、
     前記ステップ(a)は、指定された前記任意の領域における第5多次元特徴ベクトルを前記特徴抽出器によって抽出するステップを含み、
     前記ステップ(b)は、抽出された前記第5多次元特徴ベクトルを、前記特徴変換器によって、前記第5多次元特徴ベクトルよりも次元の低い第6多次元特徴ベクトルに変換するステップを含み、
     前記ステップ(c)は、前記第6多次元特徴ベクトルをグラフ化するステップを含み、
     前記ステップ(d)は、前記第6多次元特徴ベクトルのグラフを前記複数のグラフとは異なる態様で前記第1領域に表示するステップを含む
     請求項4または5に記載の可視化方法。
  7.  前記複数のグラフのうち前記第6多次元特徴ベクトルのグラフと類似するグラフを選択するステップ(g)をさらに含み、
     前記ステップ(d)は、前記複数のグラフのうち前記第6多次元特徴ベクトルのグラフと類似するグラフを、前記複数のグラフおよび前記第6多次元特徴ベクトルのグラフとは異なる態様で前記第1領域に表示するステップを含んでいる
     請求項6に記載の可視化方法。
  8.  所定の前記第2多次元特徴ベクトルに基づき基準値を設定するステップ(h)と、
    前記第6多次元特徴ベクトルと前記基準値との差を一次元の数値として算出するステップ(i)と、
     算出した該差を視覚的および/または聴覚的および/または触覚的な態様で報知するステップ(j)と、
     をさらに備える請求項6または7に記載の可視化方法。
  9.  前記ステップ(c)は、前記第6多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化するステップである
     請求項6ないし8のいずれか1項に記載の可視化方法。
  10.  前記特徴抽出器および前記特徴変換器は、深層学習を含むニューラルネットワークを用いて学習する
     請求項1ないし9のいずれか1項に記載の可視化方法。
  11.  前記特徴抽出器および前記特徴変換器は、ディープメトリックラーニングを用いて学習する
     請求項10に記載の可視化方法。
  12.  複数のサンプルデータを用いて学習される学習済モデルの学習状況を可視化するためのプログラムであって、
    請求項1ないし11のいずれか1項に記載の可視化方法の各ステップを1又は複数のコンピュータに実行させるためのプログラム。
  13.   複数のサンプルデータを用いて学習される学習済モデルの学習状況を可視化する可視化装置であって、
     前記学習済モデルを生成する際、前記複数のサンプルデータそれぞれの第1多次元特徴ベクトルを抽出する特徴抽出器と、
     抽出された前記第1多次元特徴ベクトルを、複数の全結合層を用いて該第1多次元特徴ベクトルよりも次元の低い第2多次元特徴ベクトルに変換する特徴変換器と、
     変換された前記複数のサンプルデータそれぞれの前記第2多次元特徴ベクトルをグラフ化するための複数の第1グラフ化データを生成するグラフ生成部と、
     生成された前記複数の第1グラフ化データに基づき複数のグラフを表示可能な第1領域を有する表示部と、
     を備える可視化装置。
  14.  前記グラフ生成部は、前記第2多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化データを生成する
     請求項13に記載の可視化装置。
  15.  前記グラフ生成部は、前記複数の第1グラフ化データのうち同一または類似するデータ同士には同一または類似する第1識別情報を付加し、
     前記表示部は、前記第1識別情報が付加された前記複数の第1グラフ化データに基づき前記複数のグラフを前記第1領域に表示する
     請求項13または14に記載の可視化装置。
  16.  前記特徴抽出器は、判別対象の分類の際には、該判別対象の第3多次元特徴ベクトルを抽出し、
     前記特徴変換器は、抽出された前記第3多次元特徴ベクトルを、該第3多次元特徴ベクトルよりも次元の低い第4多次元特徴ベクトルに変換し
     前記グラフ生成部は、該第4多次元特徴ベクトルをグラフ化するための第2グラフ化データを生成すると共に、該第2グラフ化データに前記第1識別情報とは異なる第2識別情報を付加し、
     前記表示部は、前記第2識別情報が付加された前記第2グラフ化データに基づき前記第4多次元特徴ベクトルのグラフを前記第1領域に表示する
     請求項15に記載の可視化装置。
  17.  前記グラフ生成部は、前記第4多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化データを生成する
     請求項16に記載の可視化装置。
  18.  前記表示部は、前記判別対象の画像を表示可能な第2領域を有すると共に、該第2領域において前記判別対象の画像の任意の領域を指定可能であり、
     前記特徴抽出器は、指定された前記任意の領域における第5多次元特徴ベクトルを抽出し、
     前記特徴変換器は、抽出された前記第5多次元特徴ベクトルを、該第5多次元特徴ベクトルよりも次元の低い第6多次元特徴ベクトルに変換し
     前記グラフ生成部は、前記第6多次元特徴ベクトルをグラフ化するための第3グラフ化データを生成すると共に、該第3グラフ化データに前記第1識別情報とは異なる第3識別情報を付加し、
     前記表示部は、前記第3識別情報が付加された前記第3グラフ化データに基づき前記第6多次元特徴ベクトルのグラフを前記第1領域に表示する
     請求項16または17に記載の可視化装置。
  19.  前記複数の第1グラフ化データのうち前記第3グラフ化データと類似する第4グラフ化データを選定し、選定した該第4グラフ化データに、前記第1および第2識別情報とは異なる第4識別情報を付加する選定部をさらに備え、
     前記表示部は、前記第4識別情報が付加された前記第4グラフ化データに基づき前記第6多次元特徴ベクトルのグラフと類似するグラフを前記第1領域に表示する
     請求項18に記載の可視化装置。
  20.  所定の前記第2多次元特徴ベクトルに基づき基準値を設定すると共に、前記第6多次元特徴ベクトルと該基準値との差を一次元の数値として算出し、算出した該差を視覚的および/または聴覚的および/または触覚的な態様で報知する報知部をさらに備える請求項18または19に記載の可視化装置。
  21. 前記グラフ生成部は、前記第6多次元特徴ベクトルを次元数分の特徴量の集合として二次元グラフ化データを生成する
     請求項18ないし20のいずれか1項に記載の可視化装置。
  22.  前記特徴抽出器および前記特徴変換器は、深層学習を含むニューラルネットワークを用いて学習する
     請求項13ないし21のいずれか1項に記載の可視化装置。
  23.  前記特徴抽出器および前記特徴変換器は、ディープメトリックラーニングを用いて学習する
     請求項22に記載の可視化装置。
  24.  判別対象の分類を判別可能な判別装置であって、
     請求項13ないし23のいずれか1項に記載の可視化装置と、
     前記第2多次元特徴ベクトルに基づいて前記複数のサンプルデータを分類する統計的機械学習を用いた分類器と、
     を備える判別装置。
  25.  請求項16ないし23のいずれか1項に記載の可視化装置を備える請求項24に記載の判別装置であって、
     前記分類器は、分類された前記複数のサンプルデータそれぞれの前記第2多次元特徴ベクトルと、前記第4多次元特徴ベクトルと、に基づいて前記判別対象を分類する
     判別装置。
  26.  請求項18ないし23のいずれか1項に記載の可視化装置を備える請求項24に記載の判別装置であって、
     前記分類器は、分類された前記複数のサンプルデータそれぞれの前記第2多次元特徴ベクトルと、前記第6多次元特徴ベクトルと、に基づいて前記任意の領域を分類する
     判別装置。
PCT/JP2021/014131 2020-04-17 2021-04-01 可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置 WO2021210414A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/907,135 US20230103374A1 (en) 2020-04-17 2021-04-01 Visualization method, program for the same, visualization device, and discrimination device having the same
JP2022515304A JP7309134B2 (ja) 2020-04-17 2021-04-01 可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020073810 2020-04-17
JP2020-073810 2020-04-17

Publications (1)

Publication Number Publication Date
WO2021210414A1 true WO2021210414A1 (ja) 2021-10-21

Family

ID=78084205

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/014131 WO2021210414A1 (ja) 2020-04-17 2021-04-01 可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置

Country Status (3)

Country Link
US (1) US20230103374A1 (ja)
JP (1) JP7309134B2 (ja)
WO (1) WO2021210414A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61156389A (ja) * 1984-12-27 1986-07-16 富士通株式会社 鑑別論理構成方法
JP2001250101A (ja) * 2000-03-07 2001-09-14 Yamatake Corp データ領域の解析方法及び表現方法
WO2002021441A1 (fr) * 2000-09-06 2002-03-14 Hitachi, Ltd. Detecteur de comportement anormal
WO2018170421A1 (en) * 2017-03-17 2018-09-20 Magic Leap, Inc. Room layout estimation methods and techniques
JP2019507935A (ja) * 2016-03-11 2019-03-22 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 物体ランドマーク検出のための深層変形ネットワーク
JP2019212296A (ja) * 2018-05-31 2019-12-12 キヤノンメディカルシステムズ株式会社 医用情報処理装置、方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61156389A (ja) * 1984-12-27 1986-07-16 富士通株式会社 鑑別論理構成方法
JP2001250101A (ja) * 2000-03-07 2001-09-14 Yamatake Corp データ領域の解析方法及び表現方法
WO2002021441A1 (fr) * 2000-09-06 2002-03-14 Hitachi, Ltd. Detecteur de comportement anormal
JP2019507935A (ja) * 2016-03-11 2019-03-22 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 物体ランドマーク検出のための深層変形ネットワーク
WO2018170421A1 (en) * 2017-03-17 2018-09-20 Magic Leap, Inc. Room layout estimation methods and techniques
JP2019212296A (ja) * 2018-05-31 2019-12-12 キヤノンメディカルシステムズ株式会社 医用情報処理装置、方法及びプログラム

Also Published As

Publication number Publication date
JP7309134B2 (ja) 2023-07-18
US20230103374A1 (en) 2023-04-06
JPWO2021210414A1 (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
JP6547275B2 (ja) 情報処理システム、情報処理装置、情報処理方法、及びプログラム
US10460256B2 (en) Interactive performance visualization of multi-class classifier
US9886669B2 (en) Interactive visualization of machine-learning performance
JP2018124639A (ja) データ分析システム、データ分析方法およびプログラム
JP4603512B2 (ja) 異常領域検出装置および異常領域検出方法
EP2216749A1 (en) Image classification device and image classification program
US20150278167A1 (en) Automatic measure of visual similarity between fonts
JP2018142097A (ja) 情報処理装置、情報処理方法及びプログラム
US10852245B2 (en) Information processing apparatus, information processing method, and storage medium
JP2019036186A (ja) 異常検知モデル構築装置、異常検知モデル構築方法及びプログラム
WO2021130888A1 (ja) 学習装置、推定装置および学習方法
JP2020052520A (ja) 判定装置、判定方法、およびプログラム
JP2020042519A (ja) 異常検知装置、異常検知方法、及び異常検知プログラム
JP6950504B2 (ja) 異常候補抽出プログラム、異常候補抽出方法および異常候補抽出装置
JP7046768B2 (ja) 情報推定装置及び情報推定方法
WO2014091712A1 (ja) 可視化装置、可視化方法および可視化プログラム
WO2021210414A1 (ja) 可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置
JP4397264B2 (ja) 技術文献の市場性分析システム及び市場性分析プログラム
WO2021210413A1 (ja) 判別対象の分類方法、これに用いるプログラム、および、判別装置
JP5104291B2 (ja) 画像解析プログラム、画像解析装置、および画像解析方法
US20220405299A1 (en) Visualizing feature variation effects on computer model prediction
Vesanto et al. An automated report generation tool for the data understanding phase
EP3923228B1 (en) Data analysis method, device and program
JP6996360B2 (ja) レポート作成プログラム、およびレポート作成方法
WO2020152870A1 (ja) 信号処理方法,信号処理装置および信号処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21788088

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022515304

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21788088

Country of ref document: EP

Kind code of ref document: A1