WO2020110272A1 - 機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体 - Google Patents

機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2020110272A1
WO2020110272A1 PCT/JP2018/044072 JP2018044072W WO2020110272A1 WO 2020110272 A1 WO2020110272 A1 WO 2020110272A1 JP 2018044072 W JP2018044072 W JP 2018044072W WO 2020110272 A1 WO2020110272 A1 WO 2020110272A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
task
pseudo data
machine learning
loss value
Prior art date
Application number
PCT/JP2018/044072
Other languages
English (en)
French (fr)
Inventor
利憲 細井
小西 勇介
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2018/044072 priority Critical patent/WO2020110272A1/ja
Priority to US17/296,003 priority patent/US20220012551A1/en
Priority to JP2020557493A priority patent/JP7211430B2/ja
Publication of WO2020110272A1 publication Critical patent/WO2020110272A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Definitions

  • the present invention relates to a machine learning device and a machine learning method capable of carrying out transfer learning, and further relates to a computer-readable recording medium recording a program for realizing these.
  • preparing a large amount of data for learning with a wide variety of variations may be difficult depending on the learning target. For example, considering the case of identifying the motion of a person, it is easy to prepare a large amount of moving image data that can be used as learning data for common motions such as walking motions. However, it is difficult to prepare a large amount of variation and a large amount of moving image data of an operation that is not frequently performed, such as an operation during suspicious behavior. Therefore, the actions that can be identified by the identifier are limited, and the recognition accuracy of the actions becomes very low.
  • Transfer learning also called Fine Tuning, is a learning method that re-learns a classifier that has learned a specific task (domain) that can prepare a large amount of variation-rich data for another final-purpose task.
  • transfer learning for example, when there is a classifier that has learned the task of classifying objects in an image into 1000 types (task of transfer source), this classifier classifies plants in detail. Re-learning about the task (target task of the transfer destination) is performed. Thus, transfer learning makes it possible to construct a classifier even for tasks for which a large amount of learning data cannot be prepared.
  • transfer learning when the transfer source task and the transfer destination task are significantly different, the result of machine learning with the data of the transfer source task is not useful for machine learning of the transfer destination task and There is a problem that re-learning, that is, transfer is likely to fail.
  • An example of an object of the present invention is to provide a machine learning device, a machine learning method, and a computer-readable recording medium that can solve the above problems and improve the success rate in transfer learning.
  • the machine learning apparatus constructs a second identification dictionary used in a second task from a first identification dictionary used in a first task by transfer learning.
  • a device for doing A pseudo data generation unit that generates pseudo data by processing either or both of the real data in the first task and the real data in the second task, First transfer learning using the pseudo data as learning data is performed using the first identification dictionary to construct a third identification dictionary, and further using the third identification dictionary.
  • the machine learning method uses transfer learning to transform a first identification dictionary used in a first task into a second identification dictionary used in a second task.
  • a method for building (A) processing either or both of the real data in the first task and the real data in the second task to generate pseudo data, and (B)
  • the first identification dictionary is used to perform a first transfer learning using the pseudo data as learning data to construct a third identification dictionary, and further, the third identification dictionary.
  • Performing the second transfer learning using the actual data in the second task as learning data by using, to build the second identification dictionary. have, It is characterized by
  • a computer-readable recording medium can be used in a second task from a first identification dictionary used in the first task by transfer learning using a computer.
  • a computer-readable recording medium for recording a program for constructing a second identification dictionary to be used On the computer, (A) processing either or both of the real data in the first task and the real data in the second task to generate pseudo data, and (B) The first identification dictionary is used to perform a first transfer learning using the pseudo data as learning data to construct a third identification dictionary, and further, the third identification dictionary. Performing the second transfer learning using the actual data in the second task as learning data by using, to build the second identification dictionary. Recording the program, including the instructions to execute It is characterized by
  • FIG. 1 is a block diagram showing a schematic configuration of a machine learning device according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram specifically showing the configuration of the machine learning device according to the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a pseudo data generation process performed in the first embodiment.
  • FIG. 4 is a flowchart showing the operation of the machine learning device according to the first embodiment of the present invention.
  • FIG. 5 is a block diagram showing the configuration of the machine learning device in the first modification of the first embodiment of the present invention.
  • FIG. 6 is a block diagram showing the configuration of the machine learning device according to the second modification of the first embodiment of the present invention.
  • FIG. 7 is a block diagram showing the configuration of the machine learning device according to the second embodiment of the present invention.
  • FIG. 8 is a flowchart showing the operation of the machine learning device according to the second embodiment of the present invention.
  • FIG. 9 is a block diagram showing the configuration of a machine learning device in a modification of the second embodiment of the present invention.
  • FIG. 10 is a block diagram showing an example of a computer that realizes the machine learning device according to the embodiment of the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of a machine learning device according to Embodiment 1 of the present invention.
  • the machine learning device 100 constructs a second identification dictionary used in the second task from the first identification dictionary used in the first task by transfer learning. It is a device for. As shown in FIG. 1, the machine learning device 100 includes a pseudo data generation unit 10 and a learning unit 20.
  • the first task will be referred to as a "transfer source task” and the first identification dictionary will be referred to as a "transfer source task identification dictionary”.
  • the second task is referred to as a "target task” and the second identification dictionary is referred to as a "target task identification dictionary”.
  • the pseudo data generation unit 10 processes one or both of the real data in the transfer source task and the real data in the target task to generate pseudo data.
  • the learning unit 20 performs a first transfer learning using pseudo data as learning data by using the transfer source task identification dictionary, and a third identification dictionary (hereinafter referred to as “pseudo task identification dictionary”). Build). Further, the learning unit 20 uses the constructed pseudo task identification dictionary to perform the second transfer learning using the actual data in the target task as the learning data to construct the target task identification dictionary.
  • the pseudo data task is further transferred to the target task. That is, in the first embodiment, a task that relays the transfer from the transfer source task to the target task is prepared. Therefore, according to the first embodiment, it is possible to improve the success rate in the transfer learning in which the target task identification dictionary is constructed from the transfer source task identification dictionary.
  • FIG. 2 is a block diagram specifically showing the configuration of the machine learning device according to the first embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a pseudo data generation process performed in the first embodiment.
  • the machine learning device 100 includes the dictionary storage unit 30, the actual data storage unit 40, and the pseudo data in addition to the pseudo data generation unit 10 and the learning unit 20 described above.
  • the storage unit 50 is further provided.
  • the dictionary storage unit 30 stores a transfer source task identification dictionary 31, a pseudo task identification dictionary 32, and a target task identification dictionary 33.
  • the pseudo data generation unit 10 generates, as the pseudo data, data similar to the actual data in the target task, and stores the generated pseudo data in the pseudo data storage unit 50.
  • the transfer source task is a task for identifying the motion of a person
  • the target task is a task for identifying a motion different from the motion identified by the transfer source task. Therefore, as shown in FIG. 2, the pseudo data generation unit 10 includes a motion analysis unit 11 and a motion video composition unit 12.
  • the motion analysis unit 11 identifies the joint of the person from the image data of the person, which is the actual data in the target task.
  • the motion video composition unit 12 performs image processing for perturbing the specified joint on the video data of the person, which is the actual data in the target task, to change the posture of the person in the image, thereby generating pseudo data. To generate.
  • the motion analysis unit 11 acquires HOG (Histograms of Oriented Gradients) characteristics for each frame constituting video data when acquiring video data of a person as actual data in a target task. An image of a portion corresponding to the human body is detected using the amount and the like. Next, the motion analysis unit 11 identifies each joint of the human body in the detected image from the detected image feature vector and the prepared human body model feature vector.
  • HOG Hemograms of Oriented Gradients
  • the motion video composition unit 12 selects one or more joints randomly or according to a rule from the joints specified for each frame, perturbs the selected joints by a set amount, and detects the joints.
  • the posture of the human body in the captured image is changed.
  • pseudo data is generated.
  • the pseudo data is stored in the pseudo data storage unit 50.
  • the motion image synthesis unit 12 selects the right elbow, the right shoulder, and the left knee, and perturbs the selected joint to change the posture of the human body.
  • the set amount of perturbation may be a fixed value or may be changed according to conditions as shown in a modified example described later.
  • the learning unit 20 executes, for example, machine learning by deep learning, and each identification dictionary is composed of a neural network parameter set. Therefore, the learning unit 20 includes a first parameter updating unit 21 and a second parameter updating unit 22.
  • the first parameter updating unit 21 performs learning (first transfer learning) of a pseudo data task (pseudo task) by using the parameter set of the identification dictionary 31 of the transfer source task and the pseudo data, and the pseudo data is acquired.
  • the parameter set of the task identification dictionary 32 is updated.
  • the second parameter updating unit 22 performs learning of the target task (second transfer learning) using the parameter set of the pseudo task identification dictionary 32 and the actual data of the target task to determine the target task.
  • the parameter set of the identification dictionary 33 is updated.
  • FIG. 4 is a flowchart showing the operation of the machine learning device according to the first embodiment of the present invention.
  • FIGS. 1 to 3 will be referred to as appropriate.
  • the machine learning method is implemented by operating the machine learning device 100. Therefore, the description of the machine learning method according to the first embodiment will be replaced with the following description of the operation of the machine learning device 100.
  • the motion analysis unit 11 acquires, from the actual data storage unit 40, the video data of a person, which is the actual data in the target task, in frame units ( Step A1).
  • the motion analysis unit 11 detects an image of a portion corresponding to a human body from the frame acquired in step A1 by using the HOG feature amount for each frame (step A2).
  • the motion analysis unit 11 identifies each joint of the human body of the detected image from the feature vector of the image detected in step A1 and the feature vector of the human body model prepared in advance (step A3). ..
  • the motion video composition unit 12 selects one or more joints randomly or according to a rule from the joints identified in step A2, and perturbs the selected joints by a set amount.
  • the posture of the human body of the detected image is changed to generate (frame) of pseudo data (step A4).
  • the pseudo data generated in step A4 is stored in the pseudo data storage unit 50.
  • the first parameter updating unit 21 acquires the pseudo data generated in step A3 from the pseudo data storage unit 50. Then, the first parameter updating unit 21 learns the task of the pseudo data (pseudo task) by using the parameter set of the transfer source task identification dictionary 31 and the pseudo data, and identifies the pseudo task identification dictionary 32. The parameter set of is updated (step A5).
  • the second parameter updating unit 22 learns the target task by using the parameter set of the pseudo task identification dictionary 32 updated in step A5 and the actual data in the target task, and learns the target task.
  • the parameter set of the identification dictionary 33 is updated (step A6).
  • step A1 is executed again for another frame of the video data stored in the actual data storage unit 40. That is, steps A1 to A6 are repeatedly executed in frame units of video data which is actual data. Note that steps A1 to A4 may be performed on a plurality of frames. In this case, steps A5 and A6 are repeatedly executed for each frame.
  • the pseudo data is generated from the actual data of the target task, and both are similar. Further, the task of the actual data is learned using the learning result of the task of the pseudo data obtained using the dictionary for identifying the transfer source task, and the dictionary for identifying the target task is constructed. Therefore, according to the first embodiment, it is possible to improve the success rate in the transfer learning in which the target task identification dictionary is constructed from the transfer source task identification dictionary.
  • the program according to the first embodiment may be any program that causes a computer to execute steps A1 to A6 shown in FIG.
  • the machine learning device 100 and the machine learning method according to the first embodiment can be realized by installing and executing this program on a computer.
  • the processor of the computer functions as the pseudo data generation unit 10 and the learning unit 20 to perform the processing.
  • the dictionary storage unit 30, the actual data storage unit 40, and the pseudo data storage unit 50 are to store the data files configuring them in a storage device such as a hard disk provided in the computer. Is realized by.
  • the program according to the first embodiment may be executed by a computer system constructed by a plurality of computers.
  • each computer may function as either the pseudo data generation unit 10 or the learning unit 20, respectively.
  • the dictionary storage unit 30, the actual data storage unit 40, and the pseudo data storage unit 50 may be constructed on a computer different from the computer that executes the program according to the first embodiment.
  • FIG. 5 is a block diagram showing the configuration of the machine learning device in the first modification of the first embodiment of the present invention.
  • the motion image synthesis unit 12 sets the loss value calculated by the second parameter update unit 22 during the second transfer learning. Based on the acquired loss value, the degree (set amount) when the joint is perturbed is adjusted, and pseudo data is generated.
  • the second parameter updating unit 22 outputs the loss value calculated at that time to the pseudo data generating unit 10. Then, the motion video composition unit 12 sets the perturbation amount at the time of perturbation of the joint based on the output loss value in the generation of the pseudo data from the next frame.
  • the pseudo data generation unit 10 makes it easier to identify in learning at the beginning of the repeated processing of steps A1 to A5, that is, reduces the loss value. Pseudo data can be created. Further, the pseudo data generation unit 10 can create the pseudo data such that the identification becomes difficult, that is, the loss value increases as the iterative process of steps A1 to A5 progresses. As a result, in the first modification, pseudo data closer to the actual data of the transfer source task is gradually generated, so that the success rate of transfer learning is further improved.
  • FIG. 6 is a block diagram showing the configuration of the machine learning device according to the second modification of the first embodiment of the present invention.
  • the motion image synthesis unit 12 sets the loss value calculated by the first parameter update unit 21 during the first transfer learning. Based on the acquired loss value, the degree (set amount) when the joint is perturbed is adjusted, and pseudo data is generated.
  • the motion video composition unit 12 sets the perturbation amount at the time of perturbation of the joint based on the output loss value in the generation of the pseudo data from the next frame.
  • the pseudo data generation unit 10 makes it easier to identify in learning, that is, the loss value becomes smaller in the initial stage of the iterative process of steps A1 to A5. Pseudo data can be created. Further, the pseudo data generation unit 10 can create the pseudo data such that the identification becomes difficult, that is, the loss value increases as the iterative process of steps A1 to A5 progresses. As a result, also in the second modification, similar to the first modification, since pseudo data closer to the actual data of the transfer source task is gradually generated, the success rate of transfer learning is further improved.
  • FIG. 7 is a block diagram showing the configuration of the machine learning device according to the second embodiment of the present invention.
  • the machine learning device 101 according to the second embodiment of the present invention is similar to the machine learning device 100 according to the first embodiment shown in FIG. 1 and FIG. 20, a dictionary storage unit 30, a real data storage unit 40, and a pseudo data storage unit 50.
  • the machine learning device 101 is different from the machine learning device 100 in the first embodiment, and includes the pseudo data selection unit 60. The differences from the first embodiment will be mainly described below.
  • the motion video synthesis unit 12 creates a plurality of pseudo data with different degrees of joint perturbation for one frame, and the created pseudo data. Is stored in the pseudo data storage unit 50.
  • the pseudo data selecting unit 60 acquires the loss value calculated by the second parameter updating unit 22 during the second transfer learning. Further, the pseudo data selection unit 60 selects specific pseudo data from the generated pseudo data based on the acquired loss value, and outputs only the selected pseudo data to the learning unit 10. If the loss value has not been calculated yet, the pseudo data selecting unit 60 selects the pseudo data using the default value as the loss value.
  • the second parameter updating unit 22 when the second transfer learning is performed for a certain frame, the second parameter updating unit 22 outputs the loss value calculated at that time to the pseudo data selecting unit 60. Then, the pseudo data selection unit 60 uses the first parameter update unit 21 for learning in the next frame from the pseudo data stored in the pseudo data storage unit 50 based on the output loss value. Select the pseudo data to be used.
  • FIG. 8 is a flowchart showing the operation of the machine learning device according to the second embodiment of the present invention.
  • FIG. 7 will be referred to as appropriate.
  • the machine learning method is implemented by operating the machine learning device 101. Therefore, the description of the machine learning method according to the second embodiment will be replaced with the following description of the operation of the machine learning device 101.
  • Step B1 is the same step as step A1 shown in FIG.
  • Step B2 is the same step as step A2 shown in FIG.
  • the motion analysis unit 11 identifies each joint of the human body of the detected image from the feature vector of the image detected in step B1 and the feature vector of the human body model prepared in advance (step B3). .. Step 3 is the same step as step A3 shown in FIG.
  • the motion video composition unit 12 selects one or more joints randomly or according to a rule from the joints identified in step B2. Then, the motion video composition unit 12 perturbs the selected joint in a plurality of patterns with different set amounts at the time of perturbation, and generates (frames) of a plurality of pseudo data (step B4).
  • the pseudo data generated in step B4 is stored in the pseudo data storage unit 50.
  • the pseudo data selecting unit 60 identifies from the pseudo data generated in step B4 based on the loss value calculated by the second parameter updating unit 22 in the previous second transfer learning. Of the selected pseudo data and outputs only the selected pseudo data to the learning unit 10 (step B5).
  • the first parameter updating unit 21 acquires the pseudo data selected by the pseudo data selecting unit 60 in step B5. Then, the first parameter updating unit 21 learns the task of the pseudo data (pseudo task) by using the parameter set of the transfer source task identification dictionary 31 and the pseudo data, and identifies the pseudo task identification dictionary 32. The parameter set of is updated (step B6).
  • the second parameter updating unit 22 learns the target task by using the parameter set of the pseudo task identification dictionary 32 updated in step B6 and the actual data in the target task, and learns the target task.
  • the parameter set of the identification dictionary 33 is updated (step B7).
  • the second parameter updating unit 22 outputs the loss value calculated at the time of learning to the pseudo data selecting unit 60 (step B8).
  • step B1 is executed again for another frame of the video data stored in the actual data storage unit 40. That is, steps B1 to B8 are repeatedly executed in frame units of video data which is actual data.
  • the pseudo data selection unit 60 has a large perturbation so that it can be easily identified in learning in the initial learning process, that is, the loss value becomes small. Pseudo data can be selected. Further, the pseudo data selection unit 60 can select pseudo data with small perturbation such that the identification becomes difficult as the learning progresses, that is, the loss value becomes high.
  • pseudo data closer to the actual data of the task of the transfer source is gradually generated, so that transfer learning succeeds. The rate will improve even further.
  • the program according to the second embodiment may be any program that causes a computer to execute steps B1 to B8 shown in FIG.
  • the machine learning apparatus 100 and the machine learning method according to the second embodiment can be realized by installing and executing this program on a computer.
  • the processor of the computer functions as the pseudo data generation unit 10, the learning unit 20, and the pseudo data selection unit 60, and performs processing.
  • the dictionary storage unit 30, the actual data storage unit 40, and the pseudo data storage unit 50 are to store the data files configuring them in a storage device such as a hard disk provided in the computer. Is realized by.
  • the program according to the second embodiment may be executed by a computer system constructed by a plurality of computers.
  • each computer may function as any one of the pseudo data generation unit 10, the learning unit 20, and the pseudo data selection unit 60.
  • the dictionary storage unit 30, the actual data storage unit 40, and the pseudo data storage unit 50 may be constructed on a computer different from the computer that executes the program according to the first embodiment.
  • FIG. 9 is a block diagram showing the configuration of a machine learning device in a modification of the second embodiment of the present invention.
  • the pseudo data selection unit 60 acquires the loss value calculated by the first parameter updating unit 21 during the first transfer learning. Also in this modification, the pseudo data selecting unit 60 selects specific pseudo data from the generated pseudo data based on the acquired loss value and outputs only the selected pseudo data to the learning unit 10. ..
  • the pseudo data selection unit 60 facilitates identification in learning, that is, the loss. Pseudo-data with large perturbations can be selected to have small values. Further, the pseudo data selection unit 60 can select pseudo data with small perturbation such that the identification becomes difficult as the learning progresses, that is, the loss value becomes high. Also in this modification, since pseudo data closer to the actual data of the transfer source task is gradually generated, the success rate of transfer learning is further improved.
  • FIG. 10 is a block diagram showing an example of a computer that realizes the machine learning device according to the embodiment of the present invention.
  • the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader/writer 116, and a communication interface 117. With. These units are connected to each other via a bus 121 so as to be able to perform data communication with each other.
  • the computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) in addition to the CPU 111 or in place of the CPU 111.
  • the CPU 111 expands the program (code) according to the present embodiment stored in the storage device 113 into the main memory 112 and executes these in a predetermined order to perform various calculations.
  • the main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).
  • the program in the present embodiment is provided in a state of being stored in computer-readable recording medium 120.
  • the program according to the present embodiment may be distributed on the Internet connected via the communication interface 117.
  • the storage device 113 include a semiconductor storage device such as a flash memory in addition to a hard disk drive.
  • the input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and a mouse.
  • the display controller 115 is connected to the display device 119 and controls the display on the display device 119.
  • the data reader/writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads a program from the recording medium 120, and writes the processing result in the computer 110 to the recording medium 120.
  • the communication interface 117 mediates data transmission between the CPU 111 and another computer.
  • the recording medium 120 include general-purpose semiconductor storage devices such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), magnetic recording media such as a flexible disk, or CD- An optical recording medium such as a ROM (Compact Disk Read Only Memory) can be used.
  • CF Compact Flash
  • SD Secure Digital
  • magnetic recording media such as a flexible disk
  • CD- An optical recording medium such as a ROM (Compact Disk Read Only Memory) can be used.
  • the machine learning device can be realized not by using a computer in which a program is installed but by using hardware corresponding to each unit. Further, a part of the machine learning device may be realized by a program, and the remaining part may be realized by hardware.
  • a device for constructing a second identification dictionary used in a second task from a first identification dictionary used in a first task by transfer learning comprising: A pseudo data generation unit that generates pseudo data by processing either or both of the real data in the first task and the real data in the second task, First transfer learning using the pseudo data as learning data is performed using the first identification dictionary to construct a third identification dictionary, and further using the third identification dictionary.
  • a learning unit configured to perform the second transfer learning using the actual data in the second task as learning data to construct the second identification dictionary. Is equipped with, A machine learning device characterized by the above.
  • the machine learning device (Appendix 2) The machine learning device according to attachment 1, The pseudo data generation unit generates, as the pseudo data, data similar to actual data in the second task, A machine learning device characterized by the above.
  • the machine learning device (Appendix 4) The machine learning device according to attachment 3, The pseudo data generation unit acquires the loss value calculated during the second transfer learning, and adjusts the degree of perturbation of the joint based on the acquired loss value, Generate data, A machine learning device characterized by the above.
  • the machine learning device (Appendix 5) The machine learning device according to attachment 3, The pseudo data generation unit acquires a loss value calculated during the first transfer learning, adjusts a degree of perturbation of the joint based on the acquired loss value, Generate data, A machine learning device characterized by the above.
  • a method for constructing a second identification dictionary used in a second task from a first identification dictionary used in a first task by transfer learning comprising: (A) processing either or both of the real data in the first task and the real data in the second task to generate pseudo data, and (B) The first identification dictionary is used to perform a first transfer learning using the pseudo data as learning data to construct a third identification dictionary, and further, the third identification dictionary.
  • Performing the second transfer learning using the actual data in the second task as learning data by using, to build the second identification dictionary. have, A machine learning method characterized by the above.
  • (Appendix 15) A computer-readable record of a program for constructing a second identification dictionary used in a second task from a first identification dictionary used in a first task by transfer learning using a computer.
  • a medium On the computer, (A) processing either or both of the actual data in the first task and the actual data in the second task to generate pseudo data, and (B) The first identification dictionary is used to perform a first transfer learning using the pseudo data as learning data to construct a third identification dictionary, and further, the third identification dictionary. Performing the second transfer learning using the real data in the second task as learning data by using, to construct the second identification dictionary. Recording the program, including the instructions to execute A computer-readable recording medium characterized by the above.
  • the present invention is useful for various systems in which transfer learning is performed, for example, a monitoring device that monitors a suspicious person from an image from a camera.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

機械学習装置100は、転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための装置である。機械学習装置100は、第1のタスクにおける実データ及び第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、疑似データ生成部10と、第1の識別用辞書を用いて、疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、第3の識別用辞書を用いて、第2のタスクにおける実データを学習データとした第2の転移学習を行って、第2の識別用辞書を構築する、学習部20と、を備えている。

Description

機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体
 本発明は、転移学習を実施できる、機械学習装置及び機械学習方法に関し、更には、これらを実現するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
 一般的に、機械学習を成功させるためには、つまり、識別器によって学習した対象を識別できるようになるためには、バリエーションが豊富な学習用のデータを大量に用意する必要がある。とりわけ、機械学習のなかでも、精度の高さから利用されることが多い深層学習(ディープラーニング)では、特に大量の学習データが必要になる。
 但し、バリエーションが豊富な学習用のデータを大量に用意することは、学習の対象によっては難しいことがある。例えば、人物の動作を識別する場合を検討すると、歩行動作等のありふれた動作であれば、学習データに使える動画データを大量に用意することは容易である。しかし、不審な行動時の動作等、あまり行われない動作の動画データを、バリエーション豊富に、且つ、大量に用意することは困難である。従って、識別器で識別できる動作は限定的となり、動作の認識精度は非常に低くなってしまう。
 このため、従来から、転移学習と呼ばれる技術が利用されている(例えば、特許文献1参照)。転移学習は、Fine Tuningとも呼ばれ、バリエーションが豊富なデータを大量に準備できる特定のタスク(ドメイン)を学習した識別器を、別の最終目的のタスクについて再学習させる学習方式である。
 具体的には、転移学習では、例えば、画像中の物体を1000種類に分類するタスク(転移元のタスク)を学習した識別器が存在する場合に、この識別器を、植物を詳細に分類するタスク(転移先の目標タスク)について再学習させることが行われる。このように、転移学習によれば、大量の学習データを用意できないタスクについても、識別器を構築することが可能となる。
特開2017-224156号公報
 しかしながら、転移学習には、転移元のタスクと転移先のタスクとが大きく異なった場合に、転移元のタスクのデータで機械学習した結果が、転移先のタスクの機械学習に役立たず、識別器の再学習、即ち、転移に失敗しやすいという問題がある。
 特に、人物の動作を識別する場合のように動画データを利用する例では、転移元のタスクと転移先のタスクとの異なり具合を予想することが、識別器にとって困難であるため、転移に失敗しやすいと考えられる。また、転移先のタスクでの学習データのバリエーション及び数が少な過ぎる場合も、同様に転移に失敗しやすくなる。
 本発明の目的の一例は、上記問題を解消し、転移学習における成功率の向上を図り得る、機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体を提供することにある。
 上記目的を達成するため、本発明の一側面における機械学習装置は、転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための装置であって、
 前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、疑似データ生成部と、
 前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、学習部と、
を備えている、
ことを特徴とする。
 また、上記目的を達成するため、本発明の一側面における機械学習方法は、転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための方法であって、
(a)前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、ステップと、
(b)前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、ステップと、
を有している、
ことを特徴とする。
 更に、上記目的を達成するため、本発明の一側面におけるコンピュータ読み取り可能な記録媒体は、コンピュータを用いて転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための、プログラムを記録した、コンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、ステップと、
(b)前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、ステップと、
を実行させる命令を含む、プログラムを記録している、
ことを特徴とする。
 以上のように、本発明によれば、転移学習における成功率の向上を図ることができる。
図1は、本発明の実施の形態1における機械学習装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態1における機械学習装置の構成を具体的に示すブロック図である。 図3は、本実施の形態1で行われる疑似データの生成処理を説明する図である。 図4は、本発明の実施の形態1における機械学習装置の動作を示すフロー図である。 図5は、本発明の実施の形態1の変形例1における機械学習装置の構成を示すブロック図である。 図6は、本発明の実施の形態1の変形例2における機械学習装置の構成を示すブロック図である。 図7は、本発明の実施の形態2における機械学習装置の構成を示すブロック図である。 図8は、本発明の実施の形態2における機械学習装置の動作を示すフロー図である。 図9は、本発明の実施の形態2の変形例における機械学習装置の構成を示すブロック図である。 図10は、本発明の実施の形態における機械学習装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態1)
 以下、本発明の実施の形態1における、機械学習装置、機械学習方法、及びプログラムについて、図1~図6を参照しながら説明する。
[装置構成]
 最初に、図1を用いて、本発明の実施の形態1における機械学習装置の概略構成について説明する。図1は、本発明の実施の形態1における機械学習装置の概略構成を示すブロック図である。
 図1に示す、本実施の形態1における機械学習装置100は、転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための装置である。図1に示すように、機械学習装置100は、疑似データ生成部10と、学習部20とを備えている。以降において、第1のタスクを「転移元タスク」、第1の識別用辞書を「転移元タスクの識別用辞書」と表記する。また、第2のタスクを「目的タスク」、第2の識別用辞書を「目的タスクの識別用辞書」と表記する。
 疑似データ生成部10は、転移元タスクにおける実データ及び目的タスクにおける実データのいずれか又は両方を加工して、疑似データを生成する。学習部20は、転移元タスクの識別用辞書を用いて、疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書(以下「疑似タスクの識別用辞書」と表記する)を構築する。更に、学習部20は、構築した疑似タスクの識別用辞書を用いて、目的タスクにおける実データを学習データとした第2の転移学習を行って、目的タスクの識別用辞書を構築する。
 このように、本実施の形態1では、転移元のタスクから疑似データのタスクへと転移が行われた後に、更に、疑似データのタスクから目的タスクへと転移が行われる。つまり、本実施の形態1では、転移元タスクから目的タスクへの転移を中継するタスクが用意されている。このため、本実施の形態1によれば、転移元タスクの識別用辞書から目的タスクの識別用辞書を構築する転移学習において、成功率の向上を図ることができる。
 続いて、図2及び図3を用いて、本実施の形態1における機械学習装置の構成をより具体的に説明する。図2は、本発明の実施の形態1における機械学習装置の構成を具体的に示すブロック図である。図3は、本実施の形態1で行われる疑似データの生成処理を説明する図である。
 図2に示すように、本実施の形態1では、機械学習装置100は、上述した疑似データ生成部10及び学習部20に加えて、辞書格納部30と、実データ格納部40と、疑似データ格納部50とを更に備えている。辞書格納部30は、転移元タスクの識別用辞書31と、疑似タスクの識別用辞書32と、目的タスクの識別用辞書33とを格納している。
 疑似データ生成部10は、本実施の形態1では、疑似データとして、目的タスクにおける実データに類似しているデータを生成し、生成した疑似データを疑似データ格納部50に格納する。また、本実施の形態1では、転移元タスクが、人物の動作を識別するタスクであり、目的タスクが、転移元タスクで識別される動作とは別の動作を識別するタスクである。このため、図2に示すように、疑似データ生成部10は、動作解析部11と、動作映像合成部12を備えている。
 動作解析部11は、目的タスクにおける実データである人物の映像データから、人物の関節を特定する。動作映像合成部12は、目的タスクにおける実データである人物の映像データに対して、特定した関節を摂動させる画像処理を実行して、画像中の人物の姿勢を変化させ、これによって疑似データを生成する。
 具体的には、動作解析部11は、図3に示すように、目的タスクにおける実データとして、人物の映像データを取得すると、映像データを構成するフレーム毎に、HOG(Histograms of Oriented Gradients)特徴量等を用いて、人体に相当する部分の画像を検出する。次に、動作解析部11は、検出された画像の特徴ベクトルと、予め用意されている人体モデルの特徴ベクトルとから、検出された画像の人体の各関節を特定する。
 動作映像合成部12は、フレーム毎に、特定された関節の中から、ランダムに又はルールに沿って、1又は2以上の関節を選択し、選択した関節を、設定量だけ摂動させて、検出された画像の人体の姿勢を変化させる。この結果、疑似データが生成される。疑似データは、疑似データ格納部50に格納される。
 図3の例では、動作映像合成部12は、右肘、右肩、及び左膝を選択し、選択した関節を摂動させて、人体の姿勢を変化させている。なお、摂動の設定量は、固定値であっても良いし、後述の変形例に示すように条件に応じて変動しても良い。
 また、学習部20は、本実施の形態1では、例えば、ディープラーニングによる機械学習を実行し、各識別用辞書は、ニューラルネットワークのパラメータセットで構成されている。このため、学習部20は、第1のパラメータ更新部21と、第2のパラメータ更新部22とを備えている。
 第1のパラメータ更新部21は、転送元タスクの識別用辞書31のパラメータセットと疑似データとを用いて、疑似データのタスク(疑似タスク)の学習(第1の転移学習)を行って、疑似タスクの識別用辞書32のパラメータセットを更新する。
 また、第2のパラメータ更新部22は、疑似タスクの識別用辞書32のパラメータセットと目的タスクにおける実データとを用いて、目的タスクの学習(第2の転移学習)を行って、目的タスクの識別用辞書33のパラメータセットを更新する。
[装置動作]
 次に、本発明の実施の形態1における機械学習装置100の動作について図4を用いて説明する。図4は、本発明の実施の形態1における機械学習装置の動作を示すフロー図である。以下の説明においては、適宜図1~図3を参酌する。また、本実施の形態1では、機械学習装置100を動作させることによって、機械学習方法が実施される。よって、本実施の形態1における機械学習方法の説明は、以下の機械学習装置100の動作説明に代える。
 図4に示すように、最初に、疑似データ生成部10において、動作解析部11が、実データ格納部40から、目的タスクにおける実データである、人物の映像データを、フレーム単位で取得する(ステップA1)。
 次に、動作解析部11は、ステップA1で取得されたフレームから、フレーム毎に、HOG特徴量を用いて、人体に相当する部分の画像を検出する(ステップA2)。
 次に、動作解析部11は、ステップA1で検出された画像の特徴ベクトルと、予め用意されている人体モデルの特徴ベクトルとから、検出された画像の人体の各関節を特定する(ステップA3)。
 次に、動作映像合成部12は、ステップA2で特定された関節の中から、ランダムに又はルールに沿って、1又は2以上の関節を選択し、選択した関節を、設定量だけ摂動させて、検出された画像の人体の姿勢を変化させ、疑似データの(フレーム)を生成する(ステップA4)。ステップA4によって生成された疑似データは、疑似データ格納部50に格納される。
 次に、学習部20において、第1のパラメータ更新部21は、疑似データ格納部50から、ステップA3で生成された疑似データを取得する。そして、第1のパラメータ更新部21は、転送元タスクの識別用辞書31のパラメータセットと疑似データとを用いて、疑似データのタスク(疑似タスク)を学習して、疑似タスクの識別用辞書32のパラメータセットを更新する(ステップA5)。
 次に、第2のパラメータ更新部22は、ステップA5で更新された疑似タスクの識別用辞書32のパラメータセットと、目的タスクにおける実データとを用いて、目的タスクを学習して、目的タスクの識別用辞書33のパラメータセットを更新する(ステップA6)。
 また、ステップA6の実行後は、実データ格納部40に格納されている映像データの別のフレームを対象にして、再度、ステップA1が実行される。つまり、ステップA1~A6は、実データである映像データのフレーム単位で繰り返し実行される。なお、ステップA1~A4は、複数のフレームに対して行われていても良い。この場合は、ステップA5及びA6が、フレーム毎に繰り返し実行される。
[実施の形態1における効果]
 このように、本実施の形態1では、疑似データは、目的タスクの実データから生成されており、両者は類似している。また、転送元タスクの識別用辞書を用いて得られた、疑似データのタスクの学習結果を用いて、実データのタスクが学習され、目的タスクの識別用辞書が構築される。このため、本実施の形態1によれば、転移元タスクの識別用辞書から目的タスクの識別用辞書を構築する転移学習において、成功率の向上を図ることができる。
[プログラム]
 本実施の形態1におけるプログラムは、コンピュータに、図4に示すステップA1~A6を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態1における機械学習装置100と機械学習方法とを実現することができる。この場合、コンピュータのプロセッサは、疑似データ生成部10及び学習部20として機能し、処理を行なう。
 また、本実施の形態1では、辞書格納部30、実データ格納部40、及び疑似データ格納部50は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって実現されている。
 更に、本実施の形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、疑似データ生成部10及び学習部20のいずれかとして機能しても良い。また、辞書格納部30、実データ格納部40、及び疑似データ格納部50は、本実施の形態1におけるプログラムを実行するコンピュータとは別のコンピュータ上に構築されていても良い。
[変形例]
 続いて、図5及び図6を用いて、本実施の形態1における機械学習装置100の変形例について以下に説明する。
変形例1:
 図5は、本発明の実施の形態1の変形例1における機械学習装置の構成を示すブロック図である。図5に示すように、本変形例1では、疑似データ生成部10において、動作映像合成部12は、第2のパラメータ更新部22が第2の転移学習の際に算出している損失値を取得し、取得した損失値に基づいて、関節を摂動させる際の程度(設定量)を調整して、疑似データを生成する。
 つまり、本変形例1では、第2のパラメータ更新部22は、あるフレームについて、第2の転移学習を行うと、その際に算出された損失値を、疑似データ生成部10に出力する。そして、動作映像合成部12は、次のフレームからの疑似データの生成において、出力されてきた損失値に基づいて、関節の摂動時の摂動量を設定する。
 このような構成により、本変形例1では、疑似データ生成部10は、ステップA1~A5の繰り返し処理の初期においては、学習において識別がし易くなるように、即ち、損失値が小さくなるように疑似データを作成することができる。また、疑似データ生成部10は、ステップA1~A5の繰り返し処理が進んでいくと、識別が難しくなるように、即ち、損失値が高くなるように疑似データを作成することができる。この結果、本変形例1では、徐々に、転移元のタスクの実データにより近い疑似データが生成されるので、転移学習の成功率がよりいっそう向上することになる。
変形例2:
 図6は、本発明の実施の形態1の変形例2における機械学習装置の構成を示すブロック図である。図6に示すように、本変形例2では、疑似データ生成部10において、動作映像合成部12は、第1のパラメータ更新部21が第1の転移学習の際に算出している損失値を取得し、取得した損失値に基づいて、関節を摂動させる際の程度(設定量)を調整して、疑似データを生成する。
 つまり、本変形例2では、第1のパラメータ更新部21は、あるフレームについて、第1の転移学習を行うと、その際に算出された損失値を、疑似データ生成部10に出力する。そして、動作映像合成部12は、次のフレームからの疑似データの生成において、出力されてきた損失値に基づいて、関節の摂動時の摂動量を設定する。
 このような構成により、本変形例2でも、疑似データ生成部10は、ステップA1~A5の繰り返し処理の初期においては、学習において識別がし易くなるように、即ち、損失値が小さくなるように疑似データを作成することができる。また、疑似データ生成部10は、ステップA1~A5の繰り返し処理が進んでいくと、識別が難しくなるように、即ち、損失値が高くなるように疑似データを作成することができる。この結果、本変形例2でも、変形例1と同様に、徐々に、転移元のタスクの実データにより近い疑似データが生成されるので、転移学習の成功率がよりいっそう向上することになる。
(実施の形態2)
 続いて、本発明の実施の形態2における、機械学習装置、機械学習方法、及びプログラムについて、図7~図9を参照しながら説明する。
[装置構成]
 最初に、図7を用いて、本発明の実施の形態2における機械学習装置の構成について説明する。図7は、本発明の実施の形態2における機械学習装置の構成を示すブロック図である。
 図7に示すように、本発明の実施の形態2における機械学習装置101は、図1及び図2に示した実施の形態1における機械学習装置100と同様に、疑似データ生成部10、学習部20、辞書格納部30、実データ格納部40、及び疑似データ格納部50を備えている。但し、本実施の形態2においては、機械学習装置101は、実施の形態1における機械学習装置100と異なり、疑似データ選択部60を備えている。以下、実施の形態1との相違点を中心に説明する。
 まず、本実施の形態2では、疑似データ生成部10において、動作映像合成部12は、1つのフレームに対して、関節の摂動の程度が異なる複数の疑似データを作成し、作成した各疑似データを疑似データ格納部50に格納する。
 疑似データ選択部60は、第2のパラメータ更新部22が第2の転移学習の際に算出している損失値を取得する。また、疑似データ選択部60は、取得した損失値に基づいて、生成された疑似データの中から特定の疑似データを選択し、選択した疑似データのみを学習部10に出力する。なお、損失値が未だ算出されていない場合は、疑似データ選択部60は、デフォルトの値を損失値として用いて、疑似データを選択する。
 つまり、本実施の形態2では、第2のパラメータ更新部22は、あるフレームについて、第2の転移学習を行うと、その際に算出された損失値を、疑似データ選択部60に出力する。そして、疑似データ選択部60は、出力されてきた損失値に基づいて、疑似データ格納部50に格納されている疑似データの中から、次のフレームにおいて第1のパラメータ更新部21による学習で使用する疑似データを選択する。
[装置動作]
 次に、本発明の実施の形態2における機械学習装置101の動作について図8を用いて説明する。図8は、本発明の実施の形態2における機械学習装置の動作を示すフロー図である。以下の説明においては、適宜図7を参酌する。また、本実施の形態2では、機械学習装置101を動作させることによって、機械学習方法が実施される。よって、本実施の形態2における機械学習方法の説明は、以下の機械学習装置101の動作説明に代える。
 図8に示すように、最初に、疑似データ生成部10において、動作解析部11が、実データ格納部40から、目的タスクにおける実データである、人物の映像データを、フレーム単位で取得する(ステップB1)。ステップB1は、図4に示したステップA1と同様のステップである。
 次に、動作解析部11は、ステップB1で取得されたフレームから、フレーム毎に、HOG特徴量を用いて、人体に相当する部分の画像を検出する(ステップB2)。ステップB2は、図4に示したステップA2と同様のステップである。
 次に、動作解析部11は、ステップB1で検出された画像の特徴ベクトルと、予め用意されている人体モデルの特徴ベクトルとから、検出された画像の人体の各関節を特定する(ステップB3)。ステップ3は、図4に示したステップA3と同様のステップである。
 次に、動作映像合成部12は、ステップB2で特定された関節の中から、ランダムに又はルールに沿って、1又は2以上の関節を選択する。そして、動作映像合成部12は、選択した関節を、摂動時の設定量が異なる複数のパターンで摂動させて、複数の疑似データの(フレーム)を生成する(ステップB4)。ステップB4によって生成された各疑似データは、疑似データ格納部50に格納される。
 次に、疑似データ選択部60は、第2のパラメータ更新部22が前回の第2の転移学習の際に算出している損失値に基づいて、ステップB4で生成された疑似データの中から特定の疑似データを選択し、選択した疑似データのみを学習部10に出力する(ステップB5)。
 次に、学習部20において、第1のパラメータ更新部21は、ステップB5で疑似データ選択部60によって選択された疑似データを取得する。そして、第1のパラメータ更新部21は、転送元タスクの識別用辞書31のパラメータセットと疑似データとを用いて、疑似データのタスク(疑似タスク)を学習して、疑似タスクの識別用辞書32のパラメータセットを更新する(ステップB6)。
 次に、第2のパラメータ更新部22は、ステップB6で更新された疑似タスクの識別用辞書32のパラメータセットと、目的タスクにおける実データとを用いて、目的タスクを学習して、目的タスクの識別用辞書33のパラメータセットを更新する(ステップB7)。その後、第2のパラメータ更新部22は、学習の際に算出した損失値を、疑似データ選択部60に出力する(ステップB8)。
 ステップB8の実行後は、実データ格納部40に格納されている映像データの別のフレームを対象にして、再度、ステップB1が実行される。つまり、ステップB1~B8は、実データである映像データのフレーム単位で繰り返し実行される。
[実施の形態2における効果]
 このような構成により、本実施の形態2では、疑似データ選択部60は、初期の学習処理においては、学習において識別がし易くなるように、即ち、損失値が小さくなるように、摂動の大きい疑似データを選択することができる。また、疑似データ選択部60は、学習が進んでいくと、識別が難しくなるように、即ち、損失値が高くなるように、摂動の小さい疑似データを選択することができる。この結果、本実施の形態2でも、上述の実施の形態1の変形例1及び2と同様に、徐々に、転移元のタスクの実データにより近い疑似データが生成されるので、転移学習の成功率がよりいっそう向上することになる。
[プログラム]
 本実施の形態2におけるプログラムは、コンピュータに、図8に示すステップB1~B8を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態2における機械学習装置100と機械学習方法とを実現することができる。この場合、コンピュータのプロセッサは、疑似データ生成部10、学習部20、及び疑似データ選択部60として機能し、処理を行なう。
 また、本実施の形態2では、辞書格納部30、実データ格納部40、及び疑似データ格納部50は、コンピュータに備えられたハードディスク等の記憶装置に、これらを構成するデータファイルを格納することによって実現されている。
 更に、本実施の形態2におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、疑似データ生成部10、学習部20、及び疑似データ選択部60のいずれかとして機能しても良い。また、辞書格納部30、実データ格納部40、及び疑似データ格納部50は、本実施の形態1におけるプログラムを実行するコンピュータとは別のコンピュータ上に構築されていても良い。
[変形例]
 続いて、図9を用いて、本実施の形態2における機械学習装置100の変形例について以下に説明する。図9は、本発明の実施の形態2の変形例における機械学習装置の構成を示すブロック図である。
 本変形例では、疑似データ選択部60は、第1のパラメータ更新部21が第1の転移学習の際に算出している損失値を取得する。なお、本変形例でも、疑似データ選択部60は、取得した損失値に基づいて、生成された疑似データの中から特定の疑似データを選択し、選択した疑似データのみを学習部10に出力する。
 このような構成により、本変形例でも、図7及び8に示した例と同様に、疑似データ選択部60は、初期の学習処理においては、学習において識別がし易くなるように、即ち、損失値が小さくなるように、摂動の大きい疑似データを選択することができる。また、疑似データ選択部60は、学習が進んでいくと、識別が難しくなるように、即ち、損失値が高くなるように、摂動の小さい疑似データを選択することができる。本変形例においても、徐々に、転移元のタスクの実データにより近い疑似データが生成されるので、転移学習の成功率がよりいっそう向上することになる。
(物理構成)
 ここで、実施の形態1及び2におけるプログラムを実行することによって、機械学習装置を実現するコンピュータについて図10を用いて説明する。図10は、本発明の実施の形態における機械学習装置を実現するコンピュータの一例を示すブロック図である。
 図10に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
 CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
 また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
 データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
 また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
 なお、本実施の形態における機械学習装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、機械学習装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
 上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記21)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
 転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための装置であって、
 前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、疑似データ生成部と、
 前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、学習部と、
を備えている、
ことを特徴とする機械学習装置。
(付記2)
付記1に記載の機械学習装置であって、
 前記疑似データ生成部が、前記疑似データとして、前記第2のタスクにおける実データに類似しているデータを生成する、
ことを特徴とする機械学習装置。
(付記3)
付記2に記載の機械学習装置であって、
 前記第1のタスクが、人物の動作を識別するタスクであり、前記第2のタスクが、前記第1のタスクで識別される動作とは別の動作を識別するタスクである場合において、
 前記疑似データ生成部が、
前記第2のタスクにおける実データである人物の映像データから、前記人物の関節を特定し、前記映像データに対して、特定した前記関節を摂動させる画像処理を実行して、前記人物の姿勢を変化させることによって、前記疑似データを生成する、
ことを特徴とする機械学習装置。
(付記4)
付記3に記載の機械学習装置であって、
 前記疑似データ生成部が、前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
ことを特徴とする機械学習装置。
(付記5)
付記3に記載の機械学習装置であって、
 前記疑似データ生成部が、前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
ことを特徴とする機械学習装置。
(付記6)
付記3に記載の機械学習装置であって、
 前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記学習部に出力する、疑似データ選択部を、
更に備えている、
ことを特徴とする機械学習装置。
(付記7)
付記3に記載の機械学習装置であって、
 前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記学習部に出力する、疑似データ選択部を、
更に備えている、
ことを特徴とする機械学習装置。
(付記8)
 転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための方法であって、
(a)前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、ステップと、
(b)前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、ステップと、
を有している、
ことを特徴とする機械学習方法。
(付記9)
付記8に記載の機械学習方法であって、
 前記(a)のステップにおいて、前記疑似データとして、前記第2のタスクにおける実データに類似しているデータを生成する、
ことを特徴とする機械学習方法。
(付記10)
付記9に記載の機械学習方法であって、
 前記第1のタスクが、人物の動作を識別するタスクであり、前記第2のタスクが、前記第1のタスクで識別される動作とは別の動作を識別するタスクである場合において、
 前記(a)のステップにおいて、
前記第2のタスクにおける実データである人物の映像データから、前記人物の関節を特定し、前記映像データに対して、特定した前記関節を摂動させる画像処理を実行して、前記人物の姿勢を変化させることによって、前記疑似データを生成する、
ことを特徴とする機械学習方法。
(付記11)
付記10に記載の機械学習方法であって、
 前記(a)のステップにおいて、前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
ことを特徴とする機械学習方法。
(付記12)
付記10に記載の機械学習方法であって、
 前記(a)のステップにおいて、前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
ことを特徴とする機械学習方法。
(付記13)
付記10に記載の機械学習方法であって、
(c)前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記(b)のステップのために出力する、ステップを、
更に有する、
ことを特徴とする機械学習方法。
(付記14)
付記10に記載の機械学習方法であって、
(d)前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記(b)のステップのために出力する、ステップを、
更に有する、
ことを特徴とする機械学習方法。
(付記15)
 コンピュータを用いて転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための、プログラムを記録した、コンピュータ読み取り可能な記録媒体であって、
前記コンピュータに、
(a)前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、ステップと、
(b)前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、ステップと、
を実行させる命令を含む、プログラムを記録している、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記16)
付記15に記載のコンピュータ読み取り可能な記録媒体であって、
 前記(a)のステップにおいて、前記疑似データとして、前記第2のタスクにおける実データに類似しているデータを生成する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記17)
付記16に記載のコンピュータ読み取り可能な記録媒体であって、
 前記第1のタスクが、人物の動作を識別するタスクであり、前記第2のタスクが、前記第1のタスクで識別される動作とは別の動作を識別するタスクである場合において、
 前記(a)のステップにおいて、
前記第2のタスクにおける実データである人物の映像データから、前記人物の関節を特定し、前記映像データに対して、特定した前記関節を摂動させる画像処理を実行して、前記人物の姿勢を変化させることによって、前記疑似データを生成する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記18)
付記17に記載のコンピュータ読み取り可能な記録媒体であって、
 前記(a)のステップにおいて、前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記19)
付記17に記載のコンピュータ読み取り可能な記録媒体であって、
 前記(a)のステップにおいて、前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記20)
付記17に記載のコンピュータ読み取り可能な記録媒体であって、
前記プログラムが、前記コンピュータに、
(c)前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記(b)のステップのために出力する、ステップを、
実行させる命令を更に含む、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
(付記21)
付記17に記載のコンピュータ読み取り可能な記録媒体であって、
前記プログラムが、前記コンピュータに、
(d)前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記(b)のステップのために出力する、ステップを、
実行させる命令を更に含む、
ことを特徴とするコンピュータ読み取り可能な記録媒体。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 以上のように、本発明によれば、転移学習における成功率の向上を図ることができる。本発明は、転移学習が行われる種々のシステム、例えば、カメラから映像から不審な人物を監視する監視装置等に有用である。
 10 疑似データ生成部
 11 動作解析部
 12 動作映像合成部
 20 学習部
 21 第1のパラメータ更新部
 22 第2のパラメータ更新部
 30 辞書格納部
 31 転移元タスクの識別用辞書
 32 疑似タスクの識別用辞書
 33 目的タスクの識別用辞書
 40 実データ格納部
 50 疑似データ格納部
 100 機械学習装置(実施の形態1)
 101 機械学習装置(実施の形態2)
 110 コンピュータ
 111 CPU
 112 メインメモリ
 113 記憶装置
 114 入力インターフェイス
 115 表示コントローラ
 116 データリーダ/ライタ
 117 通信インターフェイス
 118 入力機器
 119 ディスプレイ装置
 120 記録媒体
 121 バス

Claims (21)

  1.  転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための装置であって、
     前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、疑似データ生成手段と、
     前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、学習手段と、
    を備えている、
    ことを特徴とする機械学習装置。
  2. 請求項1に記載の機械学習装置であって、
     前記疑似データ生成手段が、前記疑似データとして、前記第2のタスクにおける実データに類似しているデータを生成する、
    ことを特徴とする機械学習装置。
  3. 請求項2に記載の機械学習装置であって、
     前記第1のタスクが、人物の動作を識別するタスクであり、前記第2のタスクが、前記第1のタスクで識別される動作とは別の動作を識別するタスクである場合において、
     前記疑似データ生成手段が、
    前記第2のタスクにおける実データである人物の映像データから、前記人物の関節を特定し、前記映像データに対して、特定した前記関節を摂動させる画像処理を実行して、前記人物の姿勢を変化させることによって、前記疑似データを生成する、
    ことを特徴とする機械学習装置。
  4. 請求項3に記載の機械学習装置であって、
     前記疑似データ生成手段が、前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
    ことを特徴とする機械学習装置。
  5. 請求項3に記載の機械学習装置であって、
     前記疑似データ生成手段が、前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
    ことを特徴とする機械学習装置。
  6. 請求項3に記載の機械学習装置であって、
     前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記学習手段に出力する、疑似データ選択手段を、
    更に備えている、
    ことを特徴とする機械学習装置。
  7. 請求項3に記載の機械学習装置であって、
     前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記学習手段に出力する、疑似データ選択手段を、
    更に備えている、
    ことを特徴とする機械学習装置。
  8.  転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための方法であって、
    (a)前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、ステップと、
    (b)前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、ステップと、
    を有している、
    ことを特徴とする機械学習方法。
  9. 請求項8に記載の機械学習方法であって、
     前記(a)のステップにおいて、前記疑似データとして、前記第2のタスクにおける実データに類似しているデータを生成する、
    ことを特徴とする機械学習方法。
  10. 請求項9に記載の機械学習方法であって、
     前記第1のタスクが、人物の動作を識別するタスクであり、前記第2のタスクが、前記第1のタスクで識別される動作とは別の動作を識別するタスクである場合において、
     前記(a)のステップにおいて、
    前記第2のタスクにおける実データである人物の映像データから、前記人物の関節を特定し、前記映像データに対して、特定した前記関節を摂動させる画像処理を実行して、前記人物の姿勢を変化させることによって、前記疑似データを生成する、
    ことを特徴とする機械学習方法。
  11. 請求項10に記載の機械学習方法であって、
     前記(a)のステップにおいて、前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
    ことを特徴とする機械学習方法。
  12. 請求項10に記載の機械学習方法であって、
     前記(a)のステップにおいて、前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
    ことを特徴とする機械学習方法。
  13. 請求項10に記載の機械学習方法であって、
    (c)前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記(b)のステップのために出力する、ステップを、
    更に有する、
    ことを特徴とする機械学習方法。
  14. 請求項10に記載の機械学習方法であって、
    (d)前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記(b)のステップのために出力する、ステップを、
    更に有する、
    ことを特徴とする機械学習方法。
  15.  コンピュータを用いて転移学習によって、第1のタスクで用いる第1の識別用辞書から、第2のタスクで用いる第2の識別用辞書を構築するための、プログラムを記録した、コンピュータ読み取り可能な記録媒体であって、
    前記コンピュータに、
    (a)前記第1のタスクにおける実データ及び前記第2のタスクにおける実データのいずれか又は両方を加工して、疑似データを生成する、ステップと、
    (b)前記第1の識別用辞書を用いて、前記疑似データを学習データとした第1の転移学習を行って、第3の識別用辞書を構築し、更に、前記第3の識別用辞書を用いて、前記第2のタスクにおける実データを学習データとした第2の転移学習を行って、前記第2の識別用辞書を構築する、ステップと、
    を実行させる命令を含む、プログラムを記録している、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  16. 請求項15に記載のコンピュータ読み取り可能な記録媒体であって、
     前記(a)のステップにおいて、前記疑似データとして、前記第2のタスクにおける実データに類似しているデータを生成する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  17. 請求項16に記載のコンピュータ読み取り可能な記録媒体であって、
     前記第1のタスクが、人物の動作を識別するタスクであり、前記第2のタスクが、前記第1のタスクで識別される動作とは別の動作を識別するタスクである場合において、
     前記(a)のステップにおいて、
    前記第2のタスクにおける実データである人物の映像データから、前記人物の関節を特定し、前記映像データに対して、特定した前記関節を摂動させる画像処理を実行して、前記人物の姿勢を変化させることによって、前記疑似データを生成する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  18. 請求項17に記載のコンピュータ読み取り可能な記録媒体であって、
     前記(a)のステップにおいて、前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  19. 請求項17に記載のコンピュータ読み取り可能な記録媒体であって、
     前記(a)のステップにおいて、前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、前記関節を摂動させる際の程度を調整して、前記疑似データを生成する、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  20. 請求項17に記載のコンピュータ読み取り可能な記録媒体であって、
    前記プログラムが、前記コンピュータに、
    (c)前記第2の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記(b)のステップのために出力する、ステップを、
    実行させる命令を更に含む、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
  21. 請求項17に記載のコンピュータ読み取り可能な記録媒体であって、
    前記プログラムが、前記コンピュータに、
    (d)前記第1の転移学習の際に算出されている損失値を取得し、取得した前記損失値に基づいて、生成された前記疑似データの中から特定の疑似データを選択し、選択した疑似データのみを前記(b)のステップのために出力する、ステップを、
    実行させる命令を更に含む、
    ことを特徴とするコンピュータ読み取り可能な記録媒体。
PCT/JP2018/044072 2018-11-29 2018-11-29 機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体 WO2020110272A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2018/044072 WO2020110272A1 (ja) 2018-11-29 2018-11-29 機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体
US17/296,003 US20220012551A1 (en) 2018-11-29 2018-11-29 Machine learning apparatus, machine learning method, and computer-readable recording medium
JP2020557493A JP7211430B2 (ja) 2018-11-29 2018-11-29 機械学習装置、機械学習方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/044072 WO2020110272A1 (ja) 2018-11-29 2018-11-29 機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2020110272A1 true WO2020110272A1 (ja) 2020-06-04

Family

ID=70854193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/044072 WO2020110272A1 (ja) 2018-11-29 2018-11-29 機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US20220012551A1 (ja)
JP (1) JP7211430B2 (ja)
WO (1) WO2020110272A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115526340A (zh) * 2022-11-25 2022-12-27 北京烽火万家科技有限公司 一种稳态视觉诱发电位范式迁移学习的方法及装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
DAISUKELAB, WHEN TRAINING A GOOD CLASSIFIER WITH A SMALL DATA SET, 7 October 2018 (2018-10-07), Retrieved from the Internet <URL:https://qiita.com/daisukelab/items/381099590f22e4f9ablf> [retrieved on 20181226] *
FUKUI, KAZUHIRO ET AL.: "Hand shape recognition based on distribution of multiple viewpoint images", IEICE TECHNICAL REPORT, vol. 110, no. 422, 14 February 2011 (2011-02-14), pages 23 - 28, ISSN: 0913-5685 *
KAWAI, RYO ET AL.: "Robust fluctuating walking recognition against overlapping of people by learning artificially generated data", PROCEEDINGS OF THE 24TH SYMPOSIUM ON SENSING VIA IMAGE INFORMATION, June 2018 (2018-06-01) *
SHOUNO, HAYARU ET AL.: "Deep convolution neural network with 2-stage transfer learning for medical image classification", THE BRAIN & NEURAL NETWORKS, vol. 24, no. 1, March 2017 (2017-03-01), pages 3 - 12, XP55712075, ISSN: 1340-766X *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115526340A (zh) * 2022-11-25 2022-12-27 北京烽火万家科技有限公司 一种稳态视觉诱发电位范式迁移学习的方法及装置

Also Published As

Publication number Publication date
JP7211430B2 (ja) 2023-01-24
US20220012551A1 (en) 2022-01-13
JPWO2020110272A1 (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
US10963783B2 (en) Technologies for optimized machine learning training
US10726335B2 (en) Generating compressed representation neural networks having high degree of accuracy
JP6657137B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6678246B2 (ja) 大域的最適化に基づく意味的セグメント化
WO2016051640A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6258560B2 (ja) ニューラルネットワークの学習装置及び学習方法
JP6892424B2 (ja) ハイパーパラメータチューニング方法、装置及びプログラム
JP6673355B2 (ja) 配備装置、配備方法、及び、プログラム
JP2019046236A (ja) 学習装置、情報処理装置、学習方法およびプログラム
WO2020110272A1 (ja) 機械学習装置、機械学習方法、及びコンピュータ読み取り可能な記録媒体
JP6622150B2 (ja) 情報処理装置および情報処理方法
JP7036128B2 (ja) 制御装置、制御方法およびプログラム
KR102161670B1 (ko) 군장비 수리부속 품목 수요예측을 위한 수요패턴 별 클러스터링 시스템 및 방법
US20220222927A1 (en) Apparatus, system, and method of generating a multi-model machine learning (ml) architecture
KR102580131B1 (ko) 순환 생성 적대 네트워크 조건부 생성 적대 네트워크
KR20190118766A (ko) 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치
JP7441444B2 (ja) コンピュータシステム、情報処理方法、プログラム及び情報処理装置
US20200184029A1 (en) Simulation apparatus, simulation method, and non-transitory computer readable medium storing program
WO2022181252A1 (ja) 関節点検出装置、学習モデル生成装置、関節点検出方法、学習モデル生成方法、及びコンピュータ読み取り可能な記録媒体
JP2020179438A (ja) 計算機システム及び機械学習方法
JP2016099726A (ja) 仕様生成方法、仕様生成装置、及びプログラム
JPWO2018225747A1 (ja) 分散システム、データ管理装置、データ管理方法、及びコンピュータ読み取り可能な記録媒体
KR102196874B1 (ko) 위성 이미지 생성 학습 장치, 위성 이미지 생성 학습 방법, 위성 이미지 생성 장치 및 위성 이미지 생성 방법
WO2022181251A1 (ja) 関節点検出装置、関節点検出方法、及びコンピュータ読み取り可能な記録媒体
WO2023175977A1 (ja) 学習装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18941182

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020557493

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18941182

Country of ref document: EP

Kind code of ref document: A1