WO2020070876A1 - 教師データ拡張装置、教師データ拡張方法およびプログラム - Google Patents

教師データ拡張装置、教師データ拡張方法およびプログラム

Info

Publication number
WO2020070876A1
WO2020070876A1 PCT/JP2018/037377 JP2018037377W WO2020070876A1 WO 2020070876 A1 WO2020070876 A1 WO 2020070876A1 JP 2018037377 W JP2018037377 W JP 2018037377W WO 2020070876 A1 WO2020070876 A1 WO 2020070876A1
Authority
WO
WIPO (PCT)
Prior art keywords
teacher data
unit
feature
features
expansion device
Prior art date
Application number
PCT/JP2018/037377
Other languages
English (en)
French (fr)
Inventor
佐藤 秀昭
恭太 比嘉
岩元 浩太
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2018/037377 priority Critical patent/WO2020070876A1/ja
Priority to US17/280,252 priority patent/US20220044147A1/en
Priority to JP2020551050A priority patent/JP7063393B2/ja
Publication of WO2020070876A1 publication Critical patent/WO2020070876A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Definitions

  • the present invention relates to a teacher data expansion device, a teacher data expansion method, and a program.
  • machine learning is performed using teacher data in which data indicating characteristics of a learning target such as an image of the learning target or sensor data relating to the learning target and a label indicating a correct answer (correct learning result) are combined.
  • teacher data data indicating characteristics of a learning target such as an image of the learning target or sensor data relating to the learning target and a label indicating a correct answer (correct learning result) are combined.
  • a feature quantity representing the feature of vibration given to the component and the failure amount after the start of use of the component The document describes that machine learning is performed using a set of labels indicating the length of time until the learning is performed as teacher data.
  • Patent Document 2 discloses that in order to classify images, a feature amount is extracted from image information, and a feature based on a combination (for example, a weighted sum) of the extracted feature amounts is calculated to perform machine learning. Is described.
  • One example of an object of the present invention is to provide a teacher data expansion device, a teacher data expansion method, and a program that can solve the above-described problems.
  • the teacher data expansion device includes: a relationship acquisition unit that obtains a relationship between a plurality of features included in each of the plurality of teacher data; and any one of the plurality of features based on the relationship.
  • a relationship acquisition unit that obtains a relationship between a plurality of features included in each of the plurality of teacher data; and any one of the plurality of features based on the relationship.
  • the value of the feature selected by the feature selection unit is replaced with the value of the feature in other teacher data classified into the same class.
  • a teacher data extension unit for generating new teacher data.
  • a teacher data expanding method includes a step of obtaining a relationship between a plurality of features included in each of a plurality of teacher data, and any one of the plurality of features based on the relationship. Selecting one or more training data, and generating new teacher data in which the value of the feature selected for one or more training data is replaced with the value of the feature in other training data classified into the same class. And a step.
  • a program stores in a computer a relationship between a plurality of features included in each of a plurality of teacher data, and any one of the plurality of features based on the relationship. Selecting one or more training data, and generating new teacher data in which the value of the feature selected for one or more training data is replaced with the value of the feature in other training data classified into the same class. And a program for executing the steps.
  • the teacher data expansion device According to the teacher data expansion device, the teacher data expansion method, and the program described above, the amount of data that needs to be collected in a real environment for machine learning can be reduced.
  • FIG. 2 is a schematic block diagram illustrating an example of a functional configuration of the teacher data expansion device according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of actual teacher data according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of artificial teacher data generated by a teacher data extension unit according to the first embodiment.
  • 5 is a flowchart illustrating an example of a process performed by the teacher data expansion device according to the first embodiment.
  • FIG. 9 is a schematic block diagram illustrating an example of a functional configuration of a teacher data expansion device according to a second embodiment. It is a figure showing the example of the display screen of the artificial teacher data by the display part concerning a 2nd embodiment.
  • FIG. 13 is a schematic block diagram illustrating an example of a functional configuration of a teacher data extension device according to a third embodiment. It is a figure showing the example of a display of the learning result by the machine learning part concerning a 3rd embodiment. It is a flow chart which shows an example of processing which a teacher data extension device concerning a 3rd embodiment performs. It is a figure showing the example of composition of the teacher data extension device concerning a 4th embodiment.
  • FIG. 14 is a schematic block diagram illustrating a configuration example of a computer according to at least one embodiment.
  • FIG. 1 is a schematic block diagram illustrating an example of a functional configuration of the teacher data expansion device according to the first embodiment.
  • the teacher data expansion device 100 includes a storage unit 170 and a processing unit 180.
  • the storage unit 170 includes a label information storage unit 171 and a teacher data storage unit 172.
  • the processing unit 180 includes a feature extraction unit 181, an actual teacher data generation unit 182, a relationship acquisition unit 183, a feature selection unit 184, and a teacher data extension unit 185.
  • the teacher data expansion device 100 acquires teacher data, and generates new teacher data by replacing the values of the features in the acquired teacher data.
  • the teacher data expansion device 100 may be configured using a computer such as a personal computer (PC) or a workstation (Workstation). Alternatively, the teacher data expansion device 100 may be configured using dedicated hardware.
  • the storage unit 170 stores various data.
  • the storage unit 170 is configured using a storage device included in the teacher data expansion device 100.
  • the label information storage unit 171 stores label information.
  • the label information is information indicating a class into which the classification target indicated in the input data is classified.
  • the label information is used as a label (correct answer) in supervised learning.
  • the label information may be provided to the input data in a time-series image unit or in an image unit.
  • the teacher data storage unit 172 stores the actual teacher data generated by the real teacher data generation unit 182 and the artificial teacher data generated by the teacher data expansion unit 185.
  • the actual teacher data referred to here is an image obtained by photographing one classification target, sensor data obtained by sensing the classification target, or teacher data indicating the characteristics of the actual classification target, such as generated using a combination thereof. It is.
  • the artificial teacher data referred to here is teacher data indicating characteristics different from the characteristics of the actual classification target, such as teacher data obtained by processing actual teacher data or teacher data obtained by calculation.
  • the processing unit 180 controls each unit of the teacher data expansion device 100 to execute various processes.
  • the processing unit 180 may be configured such that a CPU (Central Processing Unit) of the teacher data expansion device 100 reads a program from the storage unit 170 and executes the program.
  • the teacher data expansion device 100 may be configured using dedicated hardware.
  • the feature extraction unit 181 acquires input data, and extracts a plurality of features for classifying a classification target from the acquired input data.
  • the feature extracting unit 181 outputs the extracted features to the teacher data expanding unit 185.
  • the input data is image data
  • the feature extracting unit 181 may acquire data of an image captured using a video camera, an analog camera, or the like as input data.
  • the feature extraction unit 181 may acquire image data stored in another storage medium or the like as input data.
  • the feature extracting unit 181 may acquire, for example, data of a plurality of temporally continuous images as input data. Therefore, the feature extraction unit 181 may acquire, as input data, at least one of image data and data of a plurality of temporally continuous images.
  • a plurality of temporally continuous images is referred to as a time-series image.
  • the feature extraction unit 181 may use a human-designed feature such as a HOG (Histograms of Oriented Gradients) feature, a SURF (Speeded-Up Robust Features) feature, a color histogram, and a neural encoder such as an auto encoder from an image. Any one of the features generated by the network or a combination thereof may be used as a feature for machine learning.
  • a human-designed feature such as a HOG (Histograms of Oriented Gradients) feature, a SURF (Speeded-Up Robust Features) feature, a color histogram, and a neural encoder such as an auto encoder from an image.
  • a human-designed feature such as a HOG (Histograms of Oriented Gradients) feature, a SURF (Speeded-Up Robust Features) feature, a color histogram, and a neural encoder such as an auto encoder from an image.
  • the feature extraction unit 181 extracts, for example, a DT (Dense Trajectories) feature, a STIP (Space Time Interest Points) feature, and a temporal Machine learning of any one of human-designed features such as apparent changes, periodic motion patterns of objects, movement trajectories of objects, and features generated by neural networks such as auto-encoders, or a combination thereof May be extracted.
  • DT Dense Trajectories
  • STIP Space Time Interest Points
  • a temporal Machine learning of any one of human-designed features such as apparent changes, periodic motion patterns of objects, movement trajectories of objects, and features generated by neural networks such as auto-encoders, or a combination thereof May be extracted.
  • the feature extraction unit 181 may extract features designed to identify the classification target from the input data. Alternatively, the feature extracting unit 181 may design a feature using a neural network and extract the feature from input data.
  • the real teacher data generation unit 182 generates real teacher data by associating the plurality of features extracted by the feature extraction unit 181 with the label information stored in the label information storage unit 171.
  • the relationship acquisition unit 183 obtains a relationship between a plurality of features included in each of the plurality of teacher data.
  • the relation acquisition unit 183 obtains a relation between a plurality of features included in each of the plurality of actual teacher data.
  • the relationship obtained by the relationship acquisition unit 183 may be a relationship such as uncorrelation or independence.
  • the feature selection unit 184 selects one or more of a plurality of features based on the relationship obtained by the relationship acquisition unit 183.
  • the feature selection unit 184 selects a feature based on at least one of decorrelation and independence between features.
  • the teacher data expanding unit 185 replaces the new teacher data obtained by replacing the value of the feature selected by the feature selecting unit 184 with the value of the feature in another teacher data classified into the same class for one or more teacher data. Generate.
  • the teacher data expansion unit 185 may generate new teacher data by replacing the values of the features included in the actual teacher data as described above.
  • the teacher data extension unit 185 stores the generated artificial teacher data in the teacher data storage unit 172.
  • FIG. 2 is a diagram illustrating an example of the actual teacher data.
  • the horizontal axis of the graph in FIG. 2 indicates luminance, and the vertical axis indicates color.
  • the luminance on the horizontal axis is smaller as the position is closer to the origin, and is higher as the position is farther from the origin.
  • the teacher data D11 indicated by a circle ( ⁇ ) indicates the actual teacher data of an apple.
  • the teacher data D12 indicated by a triangle ( ⁇ ) indicates the actual teacher data of the pear.
  • the regions R11, R12, and R13 indicate the ranges of the luminance obtained from the images captured at the stores A, B, and C, respectively.
  • FIG. 3 is a diagram illustrating an example of artificial teacher data generated by the teacher data extension unit 185.
  • the horizontal axis of the graph in FIG. 3 indicates luminance, and the vertical axis indicates color.
  • the teacher data D11 indicated by a circle ( ⁇ ) indicates the actual apple teacher data as in the case of FIG.
  • the teacher data D21 indicated by a triangle ( ⁇ ) is the actual teacher data of the pear as in the case of FIG.
  • teacher data D12 indicated by a dashed circle indicates apple artificial teacher data.
  • Teacher data D22 indicated by a broken triangle indicates pear artificial teacher data.
  • the teacher data extending unit 185 combines the new teacher data with the color feature amount within the luminance range included in at least one of the regions R11, R12, and R13, that is, within the luminance range at the time of shooting at the store. Has been generated.
  • the selection of the features to be combined may be performed by a person (for example, a user).
  • the feature selection unit 184 selects two or more uncorrelated or independent features that can be combined in the same real teacher data with the same label information, and outputs the selected features to the teacher data extension unit 185.
  • Xcn corresponds to the characteristic of X1, x1 of Xcn has a value of "1", and if not, it has a value of "0". Similarly, if Xcn corresponds to the characteristic of X2, x2 of Xcn has a value of “1”, and if not, it has a value of “0”.
  • c indicates a class to which the actual teacher data corresponds. n indicates that it is the nth real teacher data.
  • the feature selection unit 184 creates, for example, a cross-tabulation table of each class for x1 and x2 based on the actual teacher data, determines the independence of the features using a chi-square test, and selects a combinable feature. .
  • the method for determining the independence and non-correlation of features is not limited to this method.
  • the feature selection unit 184 may use another statistical method such as independent component analysis, a method using an information amount criterion, or the like.
  • the storage unit 170 is configured using the storage device included in the teacher data expansion device 100.
  • the storage unit 170 may be configured using a magnetic storage disk device, or may be configured using an electronic disk device.
  • the processing unit 180 may be configured using a computer, or may be configured using dedicated hardware. The same applies to each unit of the processing unit 180.
  • FIG. 4 is a flowchart illustrating an example of a process performed by the teacher data expansion device 100.
  • the teacher data expansion device 100 upon receiving a user operation instructing generation of artificial teacher data, the teacher data expansion device 100 starts the processing in FIG.
  • the feature extraction unit 181 extracts a plurality of features for classifying the target from the classification obtained from an apparatus such as a camera or an external storage medium (step S111).
  • the real teacher data generation unit 182 generates real teacher data by associating the plurality of features obtained from the feature extraction unit 181 with the label information obtained from the label information storage unit 171 (step S112).
  • the relationship acquisition unit 183 acquires a relationship between a plurality of features included in the actual teacher data (Step S113).
  • the feature selection unit 184 selects one or more of a plurality of features included in the real teacher data generated by the real teacher data generation unit 182 based on the relationship acquired by the relationship acquisition unit 183 (Ste S114). For example, the feature selection unit 184 selects a feature whose relationship with another feature is uncorrelated or independent.
  • the teacher data expanding unit 185 generates artificial teacher data by replacing the value of the feature selected by the feature selecting unit 184 with the value of the same feature in other real teacher data having the same label information (step S115). That is, the teacher data extending unit 185 replaces the value of the feature selected by the feature selecting unit 184 with the value of the same feature in other real teacher data classified into the same class. As described above, the teacher data extension unit 185 stores the generated artificial teacher data in the teacher data storage unit 172. After step S115, the teacher data expansion device 100 ends the process of FIG.
  • the relationship acquisition unit 183 obtains a relationship between a plurality of features included in each of the plurality of teacher data.
  • the feature selection unit 184 selects one or more of a plurality of features based on the relationship obtained by the relationship acquisition unit 183.
  • the teacher data expanding unit 185 replaces the new teacher data obtained by replacing the value of the feature selected by the feature selecting unit 184 with the value of the feature in another teacher data classified into the same class for one or more teacher data. Generate.
  • the teacher data expansion device 100 the amount of data that needs to be collected in a real environment for machine learning can be reduced by generating artificial teacher data based on the actual teacher data.
  • the teacher data expanding apparatus 100 does not need to manually define the feature change range. In this respect, the teacher data expansion device 100 can reduce the trial cost for determining the change range of one or more features.
  • the feature extracting unit 181 extracts a plurality of features from the input data.
  • the label information storage unit 171 stores label information indicating a class into which the classification target indicated by the input data is classified.
  • the real teacher data generation unit 182 generates real teacher data by associating the plurality of features extracted by the feature extraction unit 181 with the label information stored in the label information storage unit 171.
  • the relationship acquisition unit 183 obtains a relationship between a plurality of features included in each of the plurality of real teacher data.
  • the teacher data expansion device 100 generates artificial teacher data using the actual teacher data generated by itself. Therefore, the teacher data expansion device 100 does not need to acquire actual teacher data from another device.
  • the input data is at least one of an image and a plurality of temporally continuous images.
  • the teacher data expansion device 100 can classify the classification target by machine learning using an image.
  • the feature extracting unit 181 extracts features designed to identify a classification target from input data.
  • the teacher data expansion device 100 can perform the machine learning using the teacher data including the feature to perform the classification of the classification target.
  • the feature extracting unit 181 may design and extract features using a neural network. Accordingly, it is expected that the feature extraction unit 181 can cope with various features by machine learning using a neural network.
  • the feature selection unit 184 selects a feature based on at least one of uncorrelation and independence between features. Since the features have uncorrelation or independence, it is considered that changing the value of any feature does not affect other features. In this regard, it is expected that machine learning can be performed with high accuracy using the artificial teacher data generated by the teacher data expansion device 100. Further, according to the teacher data extending apparatus 100, when generating the artificial teacher data, the user does not need to judge and select the feature to be changed, and the user does not need to determine the change range of the feature. According to the teacher data expansion device 100, in this regard, it is possible to reduce the user load for selecting the feature to be changed and determining the change range of one or more features.
  • FIG. 5 is a schematic block diagram illustrating an example of a functional configuration of the teacher data expansion device according to the second embodiment.
  • the teacher data expansion device 200 includes a display unit 110, an operation input unit 120, a storage unit 170, and a processing unit 180.
  • the storage unit 170 includes a label information storage unit 171 and a teacher data storage unit 172.
  • the processing unit 180 includes a feature extraction unit 181, an actual teacher data generation unit 182, a relationship acquisition unit 183, a feature selection unit 184, a teacher data extension unit 185, and an extension result display processing unit 286.
  • the teacher data expansion device 200 differs from the teacher data expansion device 100 (FIG. 1) in that it has a display unit 110 and an operation input unit 120, and that the processing unit 180 has an expansion result display processing unit 286. Otherwise, the teacher data expansion device 200 is the same as the teacher data expansion device 100.
  • the display unit 110 includes a display screen such as a liquid crystal panel or an LED (Light Emitting Diode), and displays various images.
  • the display unit 110 displays the artificial teacher data generated by the teacher data extension unit 185.
  • the operation input unit 120 includes an input device such as a keyboard and a mouse, and receives a user operation.
  • the operation input unit 120 receives a user operation for designating a feature to be replaced with another feature when generating artificial teacher data.
  • the extension result display processing unit 286 controls the display unit 110 to display the artificial teacher data.
  • FIG. 6 is a diagram illustrating an example of a display screen of the artificial teacher data on the display unit 110.
  • the display unit 110 displays a selection field of a feature to be displayed on the graph, a graph based on the selected feature, and a selection button for confirming the selection.
  • the operation input unit 120 receives a user operation indicating a feature to be displayed on each of the vertical axis and the horizontal axis of the graph
  • the display unit 110 reflects the user operation on the display of the feature selection column.
  • the feature selection unit 184 selects a feature specified by the user.
  • the teacher data expanding unit 185 generates artificial teacher data in which the value of the feature selected by the feature selecting unit 184 is replaced with the value of the feature in other teacher data classified into the same class.
  • the teacher data expansion unit 185 temporarily generates artificial teacher data until the user performs an operation of confirming the selection of a feature (pressing a selection button).
  • the teacher data extension unit 185 temporarily generates artificial teacher data by exchanging features by combining the features 1 and 3, and the display unit 110 controls the artificial teacher data according to the control of the extension result display processing unit 286.
  • the data is displayed in a graph. If the user determines that the feature displayed on the screen is inappropriate as a feature for classifying, or wants to change a feature to be combined, the user performs an operation on a feature selection column. The user causes a pull-down menu to be displayed on the display unit 110 by a user operation in the feature selection column, and instructs selection of an arbitrary feature from the displayed pull-down menu.
  • the feature selection unit 184 updates the feature selection according to the user's instruction.
  • the teacher data expanding unit 185 generates artificial teacher data in which the value of the feature selected by the feature selecting unit 184 is replaced with the value of the feature in other teacher data classified into the same class.
  • the display unit 110 updates the graph display of the artificial teacher data according to the control of the extension result display processing unit 286.
  • the feature selection unit 184 has determined to be combinable are displayed in the pull-down menu. This allows the user to select, for example, a feature suitable for distinguishing only a specific class from two or more classes.
  • the teacher data expansion device 200 can present to the user in an easy-to-understand manner whether the distribution of the generated real teacher data and artificial teacher data is suitable for the classification of the identification target.
  • the operation input unit 120 has received a user operation instructing to change from the feature 3 to the feature 2.
  • the feature selection unit 184 receives this instruction and selects feature 1 and feature 2 again.
  • the teacher data expansion unit 185 temporarily generates artificial teacher data in which the values of the features 1 and 3 selected by the feature selection unit 184 are replaced with the values of the features in other teacher data classified into the same class.
  • the display unit 110 updates the display of the graph to the display of the artificial teacher data generated by the teacher data expansion unit 185 according to the control of the expansion result display processing unit 286.
  • the user determines that the presented result is a feature suitable for classifying an object included in the image, the user performs a pressing operation of a selection button.
  • the feature selecting unit 184 causes the generated artificial teacher data to be stored in the teacher data storage unit 172.
  • the storage unit 170 is configured using a storage device included in the teacher data expansion device 200.
  • the storage unit 170 may be configured using a magnetic storage disk device, or may be configured using an electronic disk device. The same applies to the label information storage unit 171 and the teacher data storage unit 172 which are part of the storage unit 170.
  • the processing unit 180 may be configured using a computer, or may be configured using dedicated hardware. The same applies to each unit of the processing unit 180.
  • the method of presenting the feature selection to the user is not limited to the above-described screen display method.
  • the teacher data expansion device 300 may present the selection of the feature to the user by voice output in addition to or instead of the screen display.
  • FIG. 7 is a flowchart illustrating an example of a process performed by the teacher data expansion device 200. Steps S211 to S214 in FIG. 7 are the same as steps S111 to S114 in FIG.
  • step S215 the teacher data extension unit 185 generates artificial teacher data as in step S115 of FIG.
  • the generation of the artificial teacher data here is a temporary generation. Therefore, at this stage, the teacher data extension unit 185 does not store the artificial teacher data in the teacher data storage unit 172.
  • the display unit 110 displays the artificial teacher data temporarily generated by the teacher data expanding unit 185 under the control of the expansion result display processing unit 286 (step S216). For example, the display unit 110 displays the artificial teacher data on a graph as in the example of FIG.
  • the operation input unit 120 receives a user operation (step S217).
  • the processing unit 180 determines whether or not a user operation for finalizing the selection of the feature has been performed (step S218).
  • the user operation for confirming the selection of the feature is performed by pressing the selection button.
  • the user performs an operation of changing the feature selection.
  • the user causes the display unit 110 to display a pull-down menu, and selects one of the features shown in the displayed pull-down menu.
  • step S218 determines that the user operation for confirming the selection of the feature has not been performed (step S218: NO)
  • the feature selecting unit 184 selects the feature again according to the user's instruction (step S221). Specifically, the feature selection unit 184 selects a feature specified by a user operation for changing the selection of the feature. After step S221, the process returns to step S215.
  • step S218 determines that the user operation for confirming the feature selection has been performed (step S218: NO)
  • the teacher data expanding unit 185 stores the generated artificial teacher data in the teacher data storage unit 172. (Step S231). After step S231, the teacher data expansion device 200 ends the process of FIG.
  • the display unit 110 displays the teacher data generated by the teacher data extension unit 185.
  • the operation input unit 120 receives a user operation for designating a feature to be replaced with another feature.
  • the feature selection unit 184 selects one or more of a plurality of features according to a user operation.
  • the teacher data expansion device 200 the user's judgment can be reflected in the generation of the artificial teacher data.
  • the teacher data expansion device 200 presents the distribution of the generated artificial teacher data to the user in a graph display, so that the user can intuitively determine whether or not the classification of the object included in the input data is suitable.
  • the feature selection unit 184 can select a feature having the highest classification accuracy.
  • FIG. 8 is a schematic block diagram illustrating an example of a functional configuration of a teacher data expansion device according to the third embodiment.
  • the teacher data expansion device 300 includes a display unit 110, an operation input unit 120, a storage unit 170, and a processing unit 180.
  • the storage unit 170 includes a label information storage unit 171, a teacher data storage unit 172, and a dictionary storage unit 373.
  • the processing unit 180 includes a feature extraction unit 181, an actual teacher data generation unit 182, a relationship acquisition unit 183, a feature selection unit 184, a teacher data extension unit 185, an extension result display processing unit 286, and a machine learning unit 387. And an identification result display processing unit 388.
  • the teacher data expansion device 300 is different from the teacher data expansion device 200 (FIG. 4) in that the storage unit 170 includes the dictionary storage unit 373 and the processing unit 180 includes the machine learning unit 387 and the identification result display processing unit 388. And different. Otherwise, the teacher data expansion device 300 is the same as the teacher data expansion device 200.
  • the machine learning unit 387 performs machine learning of the discriminator using at least the artificial teacher data generated by the teacher data expanding unit 185.
  • the machine learning unit 387 performs machine learning of the discriminator using both the actual teacher data and the artificial teacher data.
  • the machine learning unit 387 may learn the classifier using a machine learning technique such as SVM (Support Vector Machine) or deep learning.
  • the learning unit 70 may use a network such as LSTM (Long Short Term Memory).
  • the storage unit 170 may store features extracted from images and time-series images, and time-series identification results.
  • the dictionary storage unit 373 stores the discriminator obtained by the machine learning by the machine learning unit 387.
  • the identification result display processing unit 388 causes the display unit 110 to display the learning result obtained by the machine learning unit 387. Specifically, the identification result display processing unit 388 causes the display unit 110 to display an identification result when an image to be identified is input to the classifier obtained by machine learning by the machine learning unit 387.
  • FIG. 9 is a diagram illustrating a display example of a learning result by the machine learning unit 387.
  • the horizontal axis and the vertical axis of the graph shown in FIG. 9 indicate the characteristics used by the classifier of the learning result for the classification.
  • the symbols of circles ( ⁇ ) and triangles ( ⁇ ) indicate classes that are the identification results of the images input to the classifier.
  • the display unit 110 displays a pull-down menu for feature selection as in the case of FIG. 6, and the processing unit 180 sets the feature specified by the user operation on the axis of the graph, and identifies the feature to the classifier of the learning result. May be performed. Further, FIG. 9 illustrates an example in which the display unit 110 displays the identification result using a two-dimensional graph, but is not limited thereto. When there are three or more features to be combined, the display unit 110 may display the identification result in a display form corresponding to the number of features to be combined.
  • the storage unit 170 is configured using a storage device included in the teacher data expansion device 300.
  • the storage unit 170 may be configured using a magnetic storage disk device, or may be configured using an electronic disk device.
  • the processing unit 180 may be configured using a computer, or may be configured using dedicated hardware. Is also good. The same applies to each unit of the processing unit 180.
  • the method of presenting the learning result to the user is not limited to the above-described screen display method.
  • the teacher data expansion device 300 may present the learning result to the user by voice output in addition to or instead of the screen display.
  • FIG. 10 is a flowchart illustrating an example of a process performed by the teacher data expansion device 300. Steps S311 to S331 in FIG. 10 are the same as steps S211 to S231 in FIG.
  • the machine learning unit 387 reads the real teacher data and the artificial teacher data from the teacher data storage unit 172, and machine learns the classifier using the obtained real teacher data and the artificial teacher data (step S332). .
  • the machine learning unit 387 causes the dictionary storage unit 373 to store the classifier obtained as a result of the machine learning.
  • the processing unit 180 performs image identification using the obtained classifier, and the display unit 110 displays the classification result by the classifier as a result of machine learning according to the control of the classification result display processing unit 388 ( Step S333).
  • the teacher data expansion device 300 ends the process of FIG.
  • the machine learning unit 387 performs machine learning of the discriminator using at least the artificial teacher data generated by the teacher data expanding unit 185.
  • the teacher data expansion device 300 even if the number of actual teacher data obtained is relatively small, machine learning can be performed using more teacher data by using artificial teacher data.
  • the teacher data expansion device 300 in this regard, the load for acquiring the actual teacher data is light, and machine learning can be performed with high accuracy using more teacher data.
  • FIG. 11 is a diagram illustrating an example of a configuration of a teacher data expansion device according to the fourth embodiment.
  • the teacher data expansion device 10 includes a relationship acquisition unit 11, a feature selection unit 12, and a teacher data expansion unit 13.
  • the relationship acquisition unit 11 obtains a relationship between a plurality of features included in each of the plurality of teacher data.
  • the feature selection unit 12 selects one or more of a plurality of features based on the relationship obtained by the relationship acquisition unit 11.
  • the teacher data expansion unit 13 replaces the new teacher data obtained by replacing the value of the feature selected by the feature selection unit 12 with the value of the feature in other teacher data classified into the same class for one or more teacher data. Generate. According to the teacher data expansion device 10, by generating artificial teacher data based on the actual teacher data, it is possible to reduce the amount of data that needs to be collected in a real environment for machine learning. In addition, in generating the artificial teacher data, the teacher data expanding device 10 does not need to manually determine the feature change range. In this respect, the teacher data expansion device 10 can reduce the trial cost for determining the change range of one or more features.
  • FIG. 12 is a schematic block diagram illustrating a configuration example of a computer according to at least one embodiment.
  • the computer 500 includes a CPU 510, a main storage device 520, an auxiliary storage device 530, and an interface 540.
  • the operation of each processing unit described above is stored in the auxiliary storage device 530 in the form of a program.
  • the CPU 510 executes the processing of each processing unit by reading the program from the auxiliary storage device 530, expanding the program in the main storage device 520, and executing the program. Further, CPU 510 secures storage areas corresponding to the above-described storage units in auxiliary storage device 530 according to a program.
  • the functions of the display unit 110 and the operation input unit 120 are executed by the CPU 500 controlling a display device and an input device as the interface 540 according to a program.
  • a program for realizing all or a part of the function of the control unit 180 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed to execute each unit. May be performed.
  • the “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system.
  • the above-mentioned program may be for realizing a part of the above-mentioned functions, or may be for realizing the above-mentioned functions in combination with a program already recorded in a computer system.
  • the embodiment of the present invention may be applied to a teacher data expansion device, a teacher data expansion method, and a program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

教師データ拡張装置が、複数の教師データの各々に含まれる複数の特徴の関係を求める関係取得部と、前記関係に基づいて前記複数の特徴のうち何れか1つ以上を選択する特徴選択部と、1つ以上の教師データについて、前記特徴選択部が選択した特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する教師データ拡張部と、を備える。

Description

教師データ拡張装置、教師データ拡張方法およびプログラム
 本発明は、教師データ拡張装置、教師データ拡張方法およびプログラムに関する。
 教師あり機械学習では、学習対象を撮影した画像または学習対象に関するセンサデータなど学習対象の特徴を示すデータと、正解(正しい学習結果)を示すラベルとが組み合わせられた教師データを用いて機械学習を行う。
 例えば、特許文献1には、部品が使用開始されてから故障するまでの長さを予測するために、部品に対して与えられる振動の特徴を表す特徴量と、部品が使用開始されてから故障するまでの時間の長さを示すラベルとの組を教師データとして用いて機械学習を行うことが記載されている。
 また、学習対象に関する撮影データまたはセンサデータをそのまま用いるだけでなく、加工したデータを機械学習に用いる場合がある。
 例えば、特許文献2には、画像のクラス分けを行うために、画像情報から特徴量を抽出し、抽出された特徴量の組み合わせ(例えば、重み付け合計)による特徴を算出して機械学習を行うことが記載されている。
特開2018-72029号公報 特開2006-127446号公報
 深層学習等の機械学習手法を用いて解析精度の良いモデル(例えば、識別器)を学習するためには、大量のデータが必要である。しかし、実環境で大量のデータを収集するために、一般的に時間を要し、また、長時間データを収集し続ける際の設備の管理等が、データ収集およびデータ処理を管理する担当者にとって負担となる。
 機械学習のために実環境で収集する必要のあるデータ量を低減させることができれば、データ収集に要する時間を低減させることができ、その点で、データ収集およびデータ処理を管理する担当者の負担を低減させることができる。
 本発明の目的の一例は、上述の課題を解決することのできる、教師データ拡張装置、教師データ拡張方法およびプログラムを提供することである。
 本発明の第1の態様によれば、教師データ拡張装置は、複数の教師データの各々に含まれる複数の特徴の関係を求める関係取得部と、前記関係に基づいて前記複数の特徴のうち何れか1つ以上を選択する特徴選択部と、1つ以上の教師データについて、前記特徴選択部が選択した特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する教師データ拡張部と、を備える。
 本発明の第2の態様によれば、教師データ拡張方法は、複数の教師データの各々に含まれる複数の特徴の関係を求める工程と、前記関係に基づいて前記複数の特徴のうち何れか1つ以上を選択する工程と、1つ以上の教師データについて、選択された前記特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する工程と、を含む。
 本発明の第3の態様によれば、プログラムは、コンピュータに、複数の教師データの各々に含まれる複数の特徴の関係を求める工程と、前記関係に基づいて前記複数の特徴のうち何れか1つ以上を選択する工程と、1つ以上の教師データについて、選択された前記特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する工程と、を実行させるためのプログラムである。
 上記した教師データ拡張装置、教師データ拡張方法およびプログラムによれば、機械学習のために実環境で収集する必要のあるデータ量を低減させることができる。
第1実施形態に係る教師データ拡張装置の機能構成の例を示す概略ブロック図である。 第1実施形態に係る実教師データの例を示す図である。 第1実施形態に係る教師データ拡張部が生成する人工教師データの例を示す図である。 第1実施形態に係る教師データ拡張装置が行う処理の例を示すフローチャートである。 第2実施形態に係る教師データ拡張装置の機能構成の例を示す概略ブロック図である。 第2実施形態に係る表示部による人工教師データの表示画面の例を示す図である。 第2実施形態に係る教師データ拡張装置が行う処理の例を示すフローチャートである。 第3実施形態に係る教師データ拡張装置の機能構成の例を示す概略ブロック図である。 第3実施形態に係る機械学習部による学習結果の表示例を示す図である。 第3実施形態に係る教師データ拡張装置が行う処理の例を示すフローチャートである。 第4実施形態に係る教師データ拡張装置の構成の例を示す図である。 少なくとも1つの実施形態に係るコンピュータの構成例を示す概略ブロック図である。
 以下、本発明の実施形態を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
<第1実施形態>
 図1は、第1実施形態に係る教師データ拡張装置の機能構成の例を示す概略ブロック図である。図1に示す構成で、教師データ拡張装置100は、記憶部170と、処理部180とを備える。記憶部170は、ラベル情報記憶部171と、教師データ記憶部172とを備える。処理部180は、特徴抽出部181と、実教師データ生成部182と、関係取得部183と、特徴選択部184と、教師データ拡張部185とを備える。
 教師データ拡張装置100は、教師データを取得し、取得した教師データにおける特徴の値を入れ替えることで新たな教師データを生成する。教師データ拡張装置100が、例えばパソコン(Personal Computer;PC)またはワークステーション(Workstation)等のコンピュータを用いて構成されていてもよい。あるいは、教師データ拡張装置100が、専用のハードウェアを用いて構成されていてもよい。
 記憶部170は、各種データを記憶する。記憶部170は、教師データ拡張装置100が備える記憶デバイスを用いて構成される。
 ラベル情報記憶部171は、ラベル情報を記憶する。ラベル情報は、入力データに示される分類対象が分類されるクラスを示す情報である。ラベル情報は、教師有り学習におけるラベル(正解)として用いられる。入力データが時系列画像のデータである場合、ラベル情報が入力データに対して時系列画像単位で付与されていてもよいし、画像単位で付与されていてもよい。
 教師データ記憶部172は、実教師データ生成部182が生成する実教師データ、及び、教師データ拡張部185が生成する人工教師データを記憶する。
 ここでいう実教師データは、1つの分類対象を撮影した画像、または、その分類対象をセンシングしたセンサデータ、あるいはこれらの組み合わせを用いて生成されるなど、実際の分類対象の特徴を示す教師データである。
 ここでいう人工教師データは、実教師データを加工して得られた教師データ、あるいは、計算によって得られた教師データなど、実際の分類対象の特徴とは異なる特徴を示す教師データである。
 処理部180は、教師データ拡張装置100の各部を制御して各種処理を実行する。処理部180が、教師データ拡張装置100が備えるCPU(Central Processing Unit、中央処理装置)が記憶部170からプログラムを読み出して実行することで構成されていてもよい。あるいは、教師データ拡張装置100が、専用のハードウェアを用いて構成されていてもよい。
 特徴抽出部181は、入力データを取得し、取得した入力データから分類対象を分類するための複数の特徴を抽出する。特徴抽出部181は、抽出した特徴を教師データ拡張部185に出力する。
 以下では、入力データが画像データである場合を例に説明する。特徴抽出部181が、例えば、ビデオカメラやアナログカメラ等を用いて撮像された画像のデータを入力データとして取得するにしてもよい。あるいは、特徴抽出部181が、別の記憶媒体等に保存された画像データを入力データとして取得するようにしてもよい。
 また、特徴抽出部181が、例えば、時間的に連続した複数枚の画像のデータを入力データとして取得するようにしてもよい。従って、特徴抽出部181が、画像データ、および、時間的に連続する複数枚の画像のデータのうち少なくとも何れか一方を入力データとして取得するようにしてもよい。時間的に連続した複数枚の画像を時系列画像と称する。
 また、特徴抽出部181が、例えば、画像から、HOG(Histograms of Oriented Gradients)特徴、SURF(Speeded-Up Robust Features)特徴、色のヒストグラム等の人が設計した特徴、及び、オートエンコーダ等のニューラルネットワークが生成する特徴のうち何れか1つ、あるいはこれらの組み合わせを機械学習のための特徴として用いるようにしてもよい。
 また、特徴抽出部181が、例えば、時間的に連続した複数枚の画像を束ねた時系列画像から、DT(Dense Trajectories)特徴、STIP(Space Time Interest Points)特徴、識別対象物体の時間的な見かけの変化、物体の周期的な運動パターン、物体の移動軌跡等の人が設計した特徴、および、オートエンコーダ等のニューラルネットワークが生成する特徴のうち何れか1つ、あるいはこれらの組み合わせを機械学習のための特徴として抽出するようにしてもよい。
 特徴抽出部181が、分類対象を識別するために設計された特徴を入力データから抽出するようにしてもよい。あるいは、特徴抽出部181が、ニューラルネットワークを用いて特徴を設計し入力データから抽出するようにしてもよい。
 実教師データ生成部182は、特徴抽出部181が抽出した複数の特徴と、ラベル情報記憶部171が記憶するラベル情報とを紐づけることにより実教師データを生成する。
 関係取得部183は、複数の教師データの各々に含まれる複数の特徴の関係を求める。例えば、関係取得部183は、複数の実教師データの各々に含まれる複数の特徴の関係を求める。関係取得部183が求める関係は、無相関性あるいは独立性といった関係であってもよい。
 特徴選択部184は、関係取得部183が求めた関係に基づいて、複数の特徴のうち何れか1つ以上を選択する。例えば、特徴選択部184は、特徴同士の無相関性および独立性のうち少なくとも何れか一方に基づいて、特徴の選択を行う。教師データに含まれる特徴同士が無相関性を有する場合、一方の特徴の値を加工しても、あるいは、他の値に置き換えても、他の特徴に影響を及ぼさないと考えられる。この点で、教師データに含まれる特徴のうち他の特徴と無相関性を有する特徴の値を加工するか、あるいは別の教師データにおけるその特徴の値と入れ替えて、新たな特徴を生成可能である。
 教師データ拡張部185は、1つ以上の教師データについて、特徴選択部184が選択した特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する。教師データ拡張部185が、実教師データに含まれる特徴の値を上記のように入れ替えて、新たな教師データを生成するようにしてもよい。
 教師データ拡張部185は、生成した人工教師データを教師データ記憶部172に記憶させる。
 教師データ拡張部185が行う処理の具体例として、色味と輝度を特徴とし、様々な店舗のナシとリンゴとを区別する識別器を生成することを考える。
 図2は、実教師データの例を示す図である。図2のグラフの横軸は輝度を示し、縦軸は色味を示す。縦軸の色味は、原点に近いほど赤色成分が小さく、原点から遠いほど赤色成分が大きい。横軸の輝度は、原点に近いほど輝度が小さく、原点から遠いほど、輝度が大きい。
 丸(○)で示される教師データD11は、リンゴの実教師データを示す。三角(△)で示される教師データD12は、ナシの実教師データを示す。
 領域R11、R12、R13は、それぞれ店舗A、B、Cで撮影した画像から得られた輝度の範囲を示している。
 図3は、教師データ拡張部185が生成する人工教師データの例を示す図である。図3のグラフの横軸は輝度を示し、縦軸は色味を示す。
 丸(○)で示される教師データD11は、図2の場合と同じくリンゴの実教師データを示す。三角(△)で示される教師データD21は、図2の場合と同じくナシの実教師データを示す。
一方、破線の丸で示される教師データD12は、リンゴの人工教師データを示す。破線の三角で示される教師データD22は、ナシの人工教師データを示す。
 教師データ拡張部185は、領域R11、R12、R13の少なくともいずれかに含まれる輝度の範囲内すなわち、店舗での撮影時の輝度の範囲内で色味の特徴量と組み合わせて新たな教師データを生成している。
 組み合わせる特徴の選択を、人(例えばユーザ)が行うようにしてもよい。
 特徴選択部184は、ラベル情報が同じ実教師データの中で組み合わせ可能な特徴として、無相関または、独立であるものを二つ以上選択し、選択した特徴を教師データ拡張部185に出力する。特徴選択部184が特徴を選択する方法について、リンゴとナシの識別を例にして説明するが、以下に説明する内容に限定されない。
 リンゴとナシを識別するための特徴として、例えば、R成分が125以上であること(X1)、および、円形度が0.8以上であること(X2)があるとする。この場合の識別器の学習に必要な実教師データをXcn=(x1、x2)と示す。XcnがX1の特徴に該当すれば、Xcnのx1は“1”の値を有し、該当しなければ“0”の値を有する。同様に、XcnがX2の特徴に該当すれば、Xcnのx2は“1”の値を有し、該当しなければ“0”の値を有する。cは実教師データが該当するクラスを示す。nはn番目の実教師データであることを示す。
 特徴選択部184は、実教師データを元にx1とx2に関して、例えば、各クラスのクロス集計表を作成し、カイ二乗検定を用いて特徴の独立性を判断し、組み合わせ可能な特徴を選択する。但し、特徴の独立性と無相関性を判断する方法は、この方法に限定されない。例えば、特徴選択部184が、その他の独立成分分析等の統計的な手法、または、情報量基準などを用いた手法等を用いるようにしてもよい。
 上記のように、記憶部170は、教師データ拡張装置100が備える記憶デバイスを用いて構成される。記憶部170が、磁気記憶ディスク装置を用いて構成されていてもよいし、電子ディスク装置を用いて構成されていてもよい。
 記憶部170の一部であるラベル情報記憶部171および教師データ記憶部172についても同様である。
 上記のように、処理部180が、コンピュータを用いて構成されていてもよいし、専用のハードウェアを用いて構成されていてもよい。処理部180の各部についても同様である。
 次に、教師データ拡張装置100の動作について説明する。
 図4は、教師データ拡張装置100が行う処理の例を示すフローチャートである。教師データ拡張装置100は、例えば、人工教師データの生成を指示するユーザ操作を受けると、図4の処理を開始する。
 図4の処理で、特徴抽出部181は、カメラ等の装置や外部記憶媒体等から得た画像から分類対対象を分類するための複数の特徴を抽出する(ステップS111)。
 実教師データ生成部182は、特徴抽出部181から得られた複数の特徴と、ラベル情報記憶部171から得られたラベル情報とを紐づけることにより実教師データを生成する(ステップS112)。
 関係取得部183は、実教師データに含まれる複数の特徴の関係を取得する(ステップS113)。
 また、特徴選択部184は、実教師データ生成部182が生成した実教師データに含まれる複数の特徴のうちの何れか1つ以上を、関係取得部183が取得した関係に基づいて選択する(ステップS114)。例えば、特徴選択部184は、他の特徴との関係が無相関性または独立性である特徴を選択する。
 教師データ拡張部185は、特徴選択部184が選択した特徴の値を、ラベル情報が同じ他の実教師データにおける同じ特徴の値と置き換えることで、人工教師データを生成する(ステップS115)。すなわち、教師データ拡張部185は、特徴選択部184が選択した特徴の値を、同じクラスに分類される他の実教師データにおける同じ特徴の値と置き換える。上記のように、教師データ拡張部185は、生成した人工教師データを教師データ記憶部172に記憶させる。
 ステップS115の後、教師データ拡張装置100は、図4の処理を終了する。
 以上のように、関係取得部183は、複数の教師データの各々に含まれる複数の特徴の関係を求める。特徴選択部184は、関係取得部183が求めた関係に基づいて複数の特徴のうち何れか1つ以上を選択する。教師データ拡張部185は、1つ以上の教師データについて、特徴選択部184が選択した特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する。
 教師データ拡張装置100によれば、実教師データに基づいて人工教師データを生成することで、機械学習のために実環境で収集する必要のあるデータ量を低減させることができる。
 また、教師データ拡張装置100では、人工教師データを生成する際に、特徴の変更範囲を人手で定める必要がない。教師データ拡張装置100ではこの点で、1つ以上の特徴の変更範囲を決定する試行コストを低減させることができる。
 また、特徴抽出部181は、入力データから複数の特徴を抽出する。ラベル情報記憶部171は、入力データに示される分類対象が分類されるクラスを示すラベル情報を記憶する。実教師データ生成部182は、特徴抽出部181が抽出した複数の特徴とラベル情報記憶部171が記憶するラベル情報とを紐づけることにより実教師データを生成する。関係取得部183は、複数の実教師データの各々に含まれる複数の特徴の関係を求める。
 これにより、教師データ拡張装置100では、自らが生成した実教師データを用いて人工教師データを生成する。従って、教師データ拡張装置100は、他の装置から実教師データを取得する必要がない。
 また、入力データは、画像、および、時間的に連続する複数枚の画像のうち少なくとも何れか一方である。
 教師データ拡張装置100は、画像を用いた機械学習により、分類対象を分類することができる。
 また、特徴抽出部181は、入力データから分類対象を識別するために設計された特徴を抽出する。
 教師データ拡張装置100は、この特徴を含む教師データを用いて機械学習を行って、分類対象の分類を行うことができる。
 特徴抽出部181が、ニューラルネットワークを用いて特徴を設計し抽出するようにしてもよい。
 これにより、特徴抽出部181が、ニューラルネットワークを用いた機械学習にていろいろな特徴に対応できることが期待される。
 特徴選択部184は、特徴同士の無相関性および独立性のうち少なくとも何れか一方に基づいて、特徴の選択を行う。
 特徴同士に無相関性または独立性があることで、何れかの特徴の値を変更しても、他の特徴に影響を及ぼさないと考えられる。この点で、教師データ拡張装置100が生成する人工教師データを用いて高精度に機械学習を行えることが期待される。
 また、教師データ拡張装置100によれば、人工教師データを生成する際に、変更させる特徴をユーザが判断して選択する必要、および、ユーザが特徴の変更範囲を定める必要がない。教師データ拡張装置100によれば、この点で、変更させる特徴の選定と一つ以上の特徴の変更範囲を決定するユーザ負荷を低減させることができる。
<第2実施形態>
 図5は、第2実施形態に係る教師データ拡張装置の機能構成の例を示す概略ブロック図である。図2に示す構成で、教師データ拡張装置200は、表示部110と、操作入力部120と、記憶部170と、処理部180とを備える。記憶部170は、ラベル情報記憶部171と、教師データ記憶部172とを備える。処理部180は、特徴抽出部181と、実教師データ生成部182と、関係取得部183と、特徴選択部184と、教師データ拡張部185と、拡張結果表示処理部286とを備える。
 図5の各部のうち、図1の各部に対応して同様の機能を有する部分には同一の符号(170、171、172、180、181、182、183、184、185)を付して説明を省略する。
 教師データ拡張装置200は、表示部110および操作入力部120を備える点、および、処理部180が拡張結果表示処理部286を備える点で、教師データ拡張装置100(図1)と異なる。それ以外の点では、教師データ拡張装置200は、教師データ拡張装置100と同様である。
 表示部110は、例えば液晶パネルまたはLED(Light Emitting Diode、発光ダイオード)等の表示画面を備え、各種画像を表示する。特に、表示部110は、教師データ拡張部185が生成する人工教師データを表示する。
 操作入力部120は、例えばキーボードおよびマウス等の入力デバイスを備え、ユーザ操作を受け付ける。特に、操作入力部120は、人工教師データの生成の際に他の特徴に置き換える特徴を指示するユーザ操作を受け付ける。
 拡張結果表示処理部286は、表示部110を制御して人工教師データを表示させる。
 図6は、表示部110による人工教師データの表示画面の例を示す図である。
 図6の例で、表示部110は、グラフに表示する特徴の選択欄と、選択された特徴に基づくグラフと、選択を確定させるための選択ボタンとを表示している。
 操作入力部120が、グラフの縦軸、横軸それぞれに表示する特徴を指示するユーザ操作を受けると、表示部110は、特徴の選択欄の表示にユーザ操作を反映させる。また、特徴選択部184は、ユーザが指示する特徴を選択する。教師データ拡張部185は、特徴選択部184が選択した特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた人工教師データを生成する。図6の例では、ユーザが特徴の選択を確定させる操作(選択ボタンの押下操作)を行うまでは、教師データ拡張部185は、人工教師データを仮生成する。
 図6の例では、教師データ拡張部185が特徴1と特徴3との組み合わせで特徴を入れ替えで人工教師データを仮に生成し、表示部110が拡張結果表示処理部286の制御に従って、この人工教師データをグラフに表示している。
 ユーザは、画面に表示されている特徴がクラスを分類する特徴として不適であると判断した場合、または組み合わせる特徴を変更したい場合は、特徴の選択欄に対する操作を行う。ユーザは、特徴の選択欄へのユーザ操作にてプルダウンメニューを表示部110に表示させ、表示されたプルダウンメニューから任意の特徴の選択を指示する。
 特徴選択部184は、ユーザの指示に従って特徴の選択を更新する。教師データ拡張部185は、特徴選択部184が選択した特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた人工教師データを生成する。このように、教師データ拡張部185が人工教師データを生成し直すと、表示部110は、拡張結果表示処理部286の制御に従って、人工教師データのグラフ表示を更新する。
 なお、特徴選択部184が組み合わせ可能と判定した特徴のみが、プルダウンメニューに表示される。これにより、ユーザは、例えば、二つ以上のクラスのうち、特定のクラスだけを区別することに適した特徴を選ぶことができる。また、教師データ拡張装置200は、生成された実教師データ及び人工教師データの分布が、識別対象の分類に適しているかについて、ユーザにわかりやすく提示できる。
 図6の例では、操作入力部120は、特徴3から特徴2に変更するよう指示するユーザ操作を受けている。特徴選択部184は、この指示を受けて特徴1および特徴2を選択し直す。教師データ拡張部185は、特徴選択部184が選択した特徴1および特徴3の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた人工教師データを仮に生成する。表示部110が拡張結果表示処理部286の制御に従って、グラフの表示を教師データ拡張部185が生成した人工教師データの表示に更新する。
 ユーザは、提示された結果に対して、画像に含まれる物体のクラスの分類に適している特徴だと判断した場合は、選択ボタンの押下操作を行う。ユーザが選択ボタンに対するユーザ操作にて特徴の選択を確定させるよう指示すると、特徴選択部184は、生成している人工教師データを教師データ記憶部172に記憶させる。
 第1実施形態で説明したのと同様、第2実施形態でも、記憶部170は、教師データ拡張装置200が備える記憶デバイスを用いて構成される。記憶部170が、磁気記憶ディスク装置を用いて構成されていてもよいし、電子ディスク装置を用いて構成されていてもよい。
 記憶部170の一部であるラベル情報記憶部171および教師データ記憶部172についても同様である。
 第1実施形態で説明したのと同様、第2実施形態でも、処理部180が、コンピュータを用いて構成されていてもよいし、専用のハードウェアを用いて構成されていてもよい。処理部180の各部についても同様である。
 特徴の選択をユーザに提示する方法は、上述した画面表示による方法に限定されない。例えば、教師データ拡張装置300が、画面表示に加えて、あるいは代えて、音声出力にて特徴の選択をユーザに提示するようにしてもよい。
 次に、教師データ拡張装置200の動作について説明する。
 図7は、教師データ拡張装置200が行う処理の例を示すフローチャートである。図7のステップS211からS214は、図4のステップS111からS114と同様である。
 ステップS215では、図4のステップS115の場合と同様、教師データ拡張部185が人工教師データを生成する。但し、ここでの人工教師データの生成は、仮の生成である。従って、この段階では教師データ拡張部185は、人工教師データを教師データ記憶部172に記憶させない。
 ステップS215の後、表示部110は、教師データ拡張部185が仮に生成した人工教師データを、拡張結果表示処理部286の制御に従って表示する(ステップS216)。例えば、表示部110は、図6の例のように人工教師データをグラフに表示する。
 次に、操作入力部120がユーザ操作を受け付ける(ステップS217)。処理部180は、特徴の選択を確定させるユーザ操作が行われたか否かを判定する(ステップS218)。図6の例では、特徴の選択を確定させるユーザ操作は、選択ボタンの押下操作によって行われる。特徴の選択を確定させない場合、ユーザは、特徴の選択を変更する操作を行う。図6の例の場合、ユーザは、表示部110にプルダウンメニューを表示させ、表示されたプルダウンメニューに示される特徴の何れかを選択する。
 特徴の選択を確定させるユーザ操作が行われていないと処理部180が判定した場合(ステップS218:NO)、特徴選択部184は、ユーザの指示に従って特徴を選択し直す(ステップS221)。具体的には、特徴選択部184は、特徴の選択を変更するユーザ操作にて指定された特徴を選択する。
 ステップS221の後、処理がステップS215へ戻る。
 一方、特徴の選択を確定させるユーザ操作が行われたと処理部180が判定した場合(ステップS218:NO)、教師データ拡張部185は、生成している人工教師データを教師データ記憶部172に記憶させる(ステップS231)。
 ステップS231の後、教師データ拡張装置200は、図7の処理を終了する。
 以上のように、表示部110は、教師データ拡張部185が生成する教師データを表示する。操作入力部120は、他の特徴に置き換える特徴を指示するユーザ操作を受け付ける。特徴選択部184は、ユーザ操作に従って複数の特徴のうち何れか1つ以上を選択する。
 教師データ拡張装置200によれば、人工教師データの生成にユーザの判断を反映させることができる。
 例えば、教師データ拡張装置200が、生成した人工教師データの分布をグラフ表示にてユーザに提示することで、入力データに含まれる物体のクラスの分類に適しているかについてユーザが直観的に判断できる。特徴選択部184は、ユーザ操作を受けて、分類精度が最も高くなるような特徴を選択することができる。
<第3実施形態>
 図8は、第3実施形態に係る教師データ拡張装置の機能構成の例を示す概略ブロック図である。図8に示す構成で、教師データ拡張装置300は、表示部110と、操作入力部120と、記憶部170と、処理部180とを備える。記憶部170は、ラベル情報記憶部171と、教師データ記憶部172と、辞書記憶部373とを備える。処理部180は、特徴抽出部181と、実教師データ生成部182と、関係取得部183と、特徴選択部184と、教師データ拡張部185と、拡張結果表示処理部286と、機械学習部387と、識別結果表示処理部388とを備える。
 図8の各部のうち、図1または4の各部に対応して同様の機能を有する部分には同一の符号(110、120、170、171、172、180、181、182、183、184、185、286)を付して説明を省略する。
 教師データ拡張装置300は、記憶部170が辞書記憶部373を備える点、および、処理部180が機械学習部387および識別結果表示処理部388を備える点で、教師データ拡張装置200(図4)と異なる。それ以外の点では、教師データ拡張装置300は、教師データ拡張装置200と同様である。
 機械学習部387は、少なくとも教師データ拡張部185が生成した人工教師データを用いて識別機の機械学習を行う。例えば、機械学習部387は、実教師データおよび人工教師データの両方を用いて識別器の機械学習を行う。
 機械学習部387が、例えば、SVM(Support Vector Machine)または深層学習などの機械学習の手法を用いて識別器を学習するようにしてもよい。また、学習部70が、例えばLSTM(Long Short Term Memory)等のネットワークを用いるようにしてもよい。そのために、記憶部170が、画像や時系列画像から抽出された特徴、および、時系列の識別結果を記憶するようにしてもよい。
 辞書記憶部373は、機械学習部387による機械学習で得られた識別器を記憶する。
 識別結果表示処理部388は、機械学習部387による学習結果を表示部110に表示させる。具体的には、識別結果表示処理部388は、機械学習部387による機械学習で得られた識別器に識別対象である画像を入力した場合の識別結果を表示部110に表示させる。
 図9は、機械学習部387による学習結果の表示例を示す図である。図9に示すグラフの横軸と縦軸は、学習結果の識別器が識別に使用した特徴を示している。また、丸(○)および三角(△)の記号は、それぞれ、識別器に入力された画像の識別結果であるクラスを示している。
 表示部110が、図6の場合と同様に特徴選択用のプルダウンメニューを表示し、処理部180が、ユーザ操作で指定された特徴をグラフの軸に設定して、学習結果の識別器に識別を行わせるようにしてもよい。
 また、図9では、表示部110が2次元のグラフを用いて識別結果を表示する場合の例を示しているが、これに限定されない。組み合わせる特徴が3つ以上である場合、表示部110が、組み合わせる特徴の個数に応じた表示形態で識別結果を表示するようにしてもよい。
 第1実施形態および第2実施形態で説明したのと同様、第3実施形態でも、記憶部170は、教師データ拡張装置300が備える記憶デバイスを用いて構成される。記憶部170が、磁気記憶ディスク装置を用いて構成されていてもよいし、電子ディスク装置を用いて構成されていてもよい。
 記憶部170の一部であるラベル情報記憶部171、教師データ記憶部172および辞書記憶部373についても同様である。
 第1実施形態および第2実施形態で説明したのと同様、第3実施形態でも、処理部180が、コンピュータを用いて構成されていてもよいし、専用のハードウェアを用いて構成されていてもよい。処理部180の各部についても同様である。
 学習結果をユーザに提示する方法は、上述した画面表示による方法に限定されない。例えば、教師データ拡張装置300が、画面表示に加えて、あるいは代えて、音声出力にて学習結果をユーザに提示するようにしてもよい。
 次に、教師データ拡張装置300の動作について説明する。
 図10は、教師データ拡張装置300が行う処理の例を示すフローチャートである。図10のステップS311からS331は、図7のステップS211からS231と同様である。
 ステップS331の後、機械学習部387は、教師データ記憶部172から実教師データおよび人工教師データを読み出し、得られた実教師データおよび人工教師データを用いて識別器を機械学習する(ステップS332)。機械学習部387は、機械学習の結果得らえた識別器を辞書記憶部373に記憶させる。
 また、処理部180は、得らえた識別器を用いて画像の識別を行い、表示部110は、識別結果表示処理部388の制御に従って、識別器による識別結果を機械学習の結果として表示する(ステップS333)。
 ステップS333の後、教師データ拡張装置300は図10の処理を終了する。
 以上のように、機械学習部387は、少なくとも教師データ拡張部185が生成した人工教師データを用いて識別機の機械学習を行う。
 教師データ拡張装置300によれば、得られる実教師データの数が比較的少なくても、人工教師データを用いることで、より多くの教師データを用いて機械学習を行うことができる。教師データ拡張装置300によれば、この点で、実教師データを取得するための負荷が軽くて済み、かつ、より多くの教師データを用いて高精度に機械学習を行うことができる。
<第4実施形態>
 第4実施形態では、教師データ拡張装置の構成の例について説明する。
 図11は、第4実施形態に係る教師データ拡張装置の構成の例を示す図である。図11に示す構成で、教師データ拡張装置10は、関係取得部11と、特徴選択部12と、教師データ拡張部13とを備える。
 かかる構成にて、関係取得部11は、複数の教師データの各々に含まれる複数の特徴の関係を求める。特徴選択部12は、関係取得部11が求めた関係に基づいて複数の特徴のうち何れか1つ以上を選択する。教師データ拡張部13は、1つ以上の教師データについて、特徴選択部12が選択した特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する。
 教師データ拡張装置10によれば、実教師データに基づいて人工教師データを生成することで、機械学習のために実環境で収集する必要のあるデータ量を低減させることができる。
 また、教師データ拡張装置10では、人工教師データを生成する際に、特徴の変更範囲を人手で定める必要がない。教師データ拡張装置10ではこの点で、1つ以上の特徴の変更範囲を決定する試行コストを低減させることができる。
 図12は、少なくとも1つの実施形態に係るコンピュータの構成例を示す概略ブロック図である。図12に示す構成で、コンピュータ500は、CPU510と、主記憶装置520と、補助記憶装置530と、インタフェース540とを備える。
 上述の教師データ拡張装置10、100、200および300の何れか1つ以上がコンピュータに実装される場合、上述した各処理部の動作は、プログラムの形式で補助記憶装置530に記憶されている。CPU510は、プログラムを補助記憶装置530から読み出し、主記憶装置520に展開して実行することで、各処理部の処理を実行する。また、CPU510は、プログラムに従って、上述した各記憶部に対応する記憶領域を補助記憶装置530に確保する。表示部110および操作入力部120の機能は、CPU500がプログラムに従ってインタフェース540としての表示デバイスおよび入力デバイスを制御することで実行される。
 なお、制御部180の全部または一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。ここでいう「コンピュータシステム」とは、OS(オペレーティングシステム)や周辺機器等のハードウェアを含む。
 「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
 以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。
 本発明の実施形態は、教師データ拡張装置、教師データ拡張方法およびプログラムに適用してもよい。
 10、100、200、300、 教師データ拡張装置
 11、183 関係取得部
 12、184 特徴選択部
 13、185 教師データ拡張部
 110 表示部
 120 操作入力部
 170 記憶部
 171 ラベル情報記憶部
 172 教師データ記憶部
 180 処理部
 181 特徴抽出部
 182 実教師データ生成部
 286 拡張結果表示処理部
 373 辞書記憶部
 387 機械学習部
 388 識別結果表示処理部

Claims (10)

  1.  複数の教師データの各々に含まれる複数の特徴の関係を求める関係取得部と、
     前記関係に基づいて前記複数の特徴のうち何れか1つ以上を選択する特徴選択部と、
     1つ以上の教師データについて、前記特徴選択部が選択した特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する教師データ拡張部と、
     を備える教師データ拡張装置。
  2.  入力データから複数の特徴を抽出する特徴抽出部と、
     前記入力データに示される分類対象が分類されるクラスを示すラベル情報を記憶するラベル情報記憶部と、
     前記特徴抽出部が抽出した前記複数の特徴と前記ラベル情報記憶部が記憶する前記ラベル情報とを紐づけることにより実教師データを生成する実教師データ生成部と、
     をさらに備え、
     前記関係取得部は、複数の前記実教師データの各々に含まれる複数の特徴の関係を求める、
     請求項1に記載の教師データ拡張装置。
  3.  前記入力データは、画像、および、時間的に連続する複数枚の画像のうち少なくとも何れか一方である、
     請求項2に記載の教師データ拡張装置。
  4.  前記特徴抽出部は、前記入力データから前記分類対象を識別するために設計された前記特徴を抽出する、
     請求項2または請求項3に記載の教師データ拡張装置。
  5.  前記特徴抽出部は、ニューラルネットワークを用いて特徴を設計し抽出する、
     請求項2または請求項3に記載の教師データ拡張装置。
  6.  前記特徴選択部は、前記特徴同士の無相関性および独立性のうち少なくとも何れか一方に基づいて、前記特徴の選択を行う、
     請求項1から5の何れか一項に記載の教師データ拡張装置。
  7.  前記教師データ拡張部が生成する教師データを表示する表示部と、
     他の特徴に置き換える特徴を指示するユーザ操作を受け付ける操作入力部と、
     をさらに備え、
     前記特徴選択部は、前記ユーザ操作に従って前記複数の特徴のうち何れか1つ以上を選択する、
     請求項1から6の何れか一項に記載の教師データ拡張装置。
  8.  少なくとも前記教師データ拡張部が生成した教師データを用いて識別機の機械学習を行う学習部をさらに備える、
     請求項1から7の何れか一項に記載の教師データ拡張装置。
  9.  複数の教師データの各々に含まれる複数の特徴の関係を求める工程と、
     前記関係に基づいて前記複数の特徴のうち何れか1つ以上を選択する工程と、
     1つ以上の教師データについて、選択された前記特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する工程と、
     を含む教師データ拡張方法。
  10.  コンピュータに、
     複数の教師データの各々に含まれる複数の特徴の関係を求める工程と、
     前記関係に基づいて前記複数の特徴のうち何れか1つ以上を選択する工程と、
     1つ以上の教師データについて、選択された前記特徴の値を、同じクラスに分類される他の教師データにおけるその特徴の値に入れ替えた新たな教師データを生成する工程と、
     を実行させるためのプログラム。
PCT/JP2018/037377 2018-10-05 2018-10-05 教師データ拡張装置、教師データ拡張方法およびプログラム WO2020070876A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2018/037377 WO2020070876A1 (ja) 2018-10-05 2018-10-05 教師データ拡張装置、教師データ拡張方法およびプログラム
US17/280,252 US20220044147A1 (en) 2018-10-05 2018-10-05 Teaching data extending device, teaching data extending method, and program
JP2020551050A JP7063393B2 (ja) 2018-10-05 2018-10-05 教師データ拡張装置、教師データ拡張方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/037377 WO2020070876A1 (ja) 2018-10-05 2018-10-05 教師データ拡張装置、教師データ拡張方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2020070876A1 true WO2020070876A1 (ja) 2020-04-09

Family

ID=70055315

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/037377 WO2020070876A1 (ja) 2018-10-05 2018-10-05 教師データ拡張装置、教師データ拡張方法およびプログラム

Country Status (3)

Country Link
US (1) US20220044147A1 (ja)
JP (1) JP7063393B2 (ja)
WO (1) WO2020070876A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021193564A (ja) * 2020-06-05 2021-12-23 宏達國際電子股▲ふん▼有限公司 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体
WO2022195762A1 (ja) * 2021-03-17 2022-09-22 日本電気株式会社 学習装置、学習方法、及び、記録媒体
WO2023089888A1 (ja) * 2021-11-18 2023-05-25 コニカミノルタ株式会社 機械学習方法、機械学習プログラム、機械学習装置、および情報処理装置
WO2023139760A1 (ja) * 2022-01-21 2023-07-27 日本電気株式会社 データ拡張装置、データ拡張方法、及び非一時的なコンピュータ可読媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309485A (ja) * 2005-04-28 2006-11-09 Nec Corp 能動学習方法および能動学習システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309485A (ja) * 2005-04-28 2006-11-09 Nec Corp 能動学習方法および能動学習システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHAWLA, NITESH V. ET AL.: "Synthetic Minority Over-sampling Technique", SMOTE, vol. 16, 1 January 2002 (2002-01-01), pages 321 - 357, XP055657168, Retrieved from the Internet <URL:https://arxiv.org/pdf/1106.1813.pdf> [retrieved on 20181218] *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021193564A (ja) * 2020-06-05 2021-12-23 宏達國際電子股▲ふん▼有限公司 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体
JP7226696B2 (ja) 2020-06-05 2023-02-21 宏達國際電子股▲ふん▼有限公司 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体
TWI831016B (zh) * 2020-06-05 2024-02-01 宏達國際電子股份有限公司 機器學習方法、機器學習系統以及非暫態電腦可讀取媒體
WO2022195762A1 (ja) * 2021-03-17 2022-09-22 日本電気株式会社 学習装置、学習方法、及び、記録媒体
WO2023089888A1 (ja) * 2021-11-18 2023-05-25 コニカミノルタ株式会社 機械学習方法、機械学習プログラム、機械学習装置、および情報処理装置
WO2023139760A1 (ja) * 2022-01-21 2023-07-27 日本電気株式会社 データ拡張装置、データ拡張方法、及び非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
US20220044147A1 (en) 2022-02-10
JPWO2020070876A1 (ja) 2021-09-02
JP7063393B2 (ja) 2022-05-09

Similar Documents

Publication Publication Date Title
WO2020070876A1 (ja) 教師データ拡張装置、教師データ拡張方法およびプログラム
CN110602526B (zh) 视频处理方法、装置、计算机设备及存储介质
CN101685542B (zh) 电子设备、模糊图像分拣方法
JP5527423B2 (ja) 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
CN103140862A (zh) 用户界面系统及其操作方法
US9721153B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP6529314B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20190333204A1 (en) Image processing apparatus, image processing method, and storage medium
JP6334767B1 (ja) 情報処理装置、プログラム、及び情報処理方法
JP2007052609A (ja) 手領域検出装置及び手領域検出方法、並びにプログラム
JP2006163452A (ja) 追跡装置および追跡方法
US20220366244A1 (en) Modeling Human Behavior in Work Environment Using Neural Networks
JP2011133984A (ja) 動作特徴抽出装置および動作特徴抽出方法
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
Putro et al. An efficient face detector on a cpu using dual-camera sensors for intelligent surveillance systems
JP2011146827A (ja) 画像処理装置および方法、並びにプログラム
Mayo et al. How hard are computer vision datasets? Calibrating dataset difficulty to viewing time
Guraya et al. Neural networks based visual attention model for surveillance videos
TWI478099B (zh) 具學習力之視覺注意預測系統及其方法
Gollan et al. SEEV-effort—Is it enough to model human attentional behavior in public display settings
JP2008148262A (ja) 撮像装置及び撮像装置の制御方法、プログラム及び記憶媒体
Grewe et al. A detective and corrective exercise assistant using computer vision and machine learning
WO2023233650A1 (en) Pose analyzing apparatus, pose analyzing method, and non-transitory computer-readable storage medium
US11436833B2 (en) Image processing method, image processing apparatus, and storage medium that determine a type of moving image, extract and sort frames, and display an extracted frame
TW202019150A (zh) 資訊顯示系統及資訊顯示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18936147

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020551050

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18936147

Country of ref document: EP

Kind code of ref document: A1