WO2020255301A1 - 学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム - Google Patents

学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム Download PDF

Info

Publication number
WO2020255301A1
WO2020255301A1 PCT/JP2019/024326 JP2019024326W WO2020255301A1 WO 2020255301 A1 WO2020255301 A1 WO 2020255301A1 JP 2019024326 W JP2019024326 W JP 2019024326W WO 2020255301 A1 WO2020255301 A1 WO 2020255301A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
correct answer
learning data
data
conditions
Prior art date
Application number
PCT/JP2019/024326
Other languages
English (en)
French (fr)
Inventor
雄貴 蔵内
阿部 直人
瀬下 仁志
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to US17/620,055 priority Critical patent/US20220366271A1/en
Priority to JP2021528539A priority patent/JP7268731B2/ja
Priority to PCT/JP2019/024326 priority patent/WO2020255301A1/ja
Publication of WO2020255301A1 publication Critical patent/WO2020255301A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Definitions

  • the present disclosure relates to a learning data generation device, a learning device, a learning data generation method, and a learning data generation program.
  • Non-Patent Document 1 Non-Patent Document 2
  • the above estimation is performed using, for example, an estimation model constructed by learning using learning data.
  • the conventional method has problems that the estimation accuracy is not sufficient and a large amount of learning data is required. For this reason, there is a problem that the cost is increased because a large amount of learning data is collected, but it is not possible to estimate the desired state with sufficient accuracy.
  • the disclosed technique is made in view of the above points, and is a learning data generator, a learning data generation method, and a learning data capable of generating learning data for accurately estimating a state at low cost.
  • the purpose is to provide a generator.
  • the disclosed technology aims to provide a learning device capable of learning an estimation model for accurately estimating a state.
  • the first aspect of the present disclosure is a learning data generator, which is a first correct answer label which is a label indicating a correct answer for any of a plurality of conditions, and a second correct answer label which is a correct answer label indicating a predetermined state.
  • a learning data generator which is a first correct answer label which is a label indicating a correct answer for any of a plurality of conditions, and a second correct answer label which is a correct answer label indicating a predetermined state.
  • the second aspect of the present disclosure is a learning data generation method, wherein the first learning unit has a first correct answer label which is a label indicating a correct answer for any of a plurality of conditions, and a correct answer label indicating a predetermined state.
  • the first correct answer label indicating any of the plurality of conditions is indicated.
  • the generation model that outputs the data to which is given is learned, and the generation unit is the learning data collected under a predetermined condition among the plurality of conditions, and the learning to which the second correct answer label is given is given.
  • the first correct answer label and the second correct answer label for the conditions other than the predetermined condition are Generate a set of the given third training data.
  • the third aspect of the present disclosure is a learning data generation program, wherein the first learning unit has a first correct answer label which is a label indicating a correct answer for any of a plurality of conditions, and a correct answer label indicating a predetermined state.
  • the first correct answer label indicating any of the plurality of conditions is indicated.
  • the generation model that outputs the data to which is given is learned, and the generation unit is the learning data collected under a predetermined condition among the plurality of conditions, and the learning to which the second correct answer label is given is given.
  • the first correct answer label and the second correct answer label for the conditions other than the predetermined condition are It is a training data generation program for causing a computer to generate a set of given third training data.
  • the fourth aspect of the present disclosure is a learning device, which is input based on the set of the second learning data and the set of the third learning data generated by the learning data generation device according to claim 1.
  • a second learning unit for learning an estimation model for estimating the predetermined state of the data is included.
  • the learning data generation device is first given a first correct answer label, which is a label indicating a correct answer for any of a plurality of conditions, and a second correct answer label, which is a correct answer label indicating a predetermined state.
  • a first correct answer label which is a label indicating a correct answer for any of a plurality of conditions
  • a second correct answer label which is a correct answer label indicating a predetermined state.
  • the learning data generation device is provided with a set of second learning data, which is data to which a first correct answer label and a second correct answer label are given for a predetermined condition among a plurality of conditions, and a first learning unit.
  • a set of the third training data to which the first correct answer label and the second correct answer label are given for the conditions other than the predetermined conditions is generated.
  • the second learning data means that there is general learning data obtained under predetermined conditions that are easy to collect.
  • the third learning data is learning data that satisfies conditions other than the predetermined conditions, and means that the learning data is given a correct answer label for the conditions other than the predetermined conditions.
  • the second learning which is general learning data that can be collected at low cost by using the trained generation model even when the first learning data is small, by the learning data generation device according to the present embodiment. From the set of data, a large amount of third learning data satisfying various conditions can be generated.
  • a predetermined state is estimated for the input data based on the set of the second learning data and the set of the third learning data generated by the learning data generation device. Learn an estimation model for. In this way, since the set of the second training data collected at low cost and the third training data under various conditions generated in large quantities can be used, an estimation model that can be estimated accurately is learned. be able to.
  • FIG. 1 is a block diagram showing a hardware configuration of the learning data generation device 10 according to the present embodiment.
  • the learning data generation device 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a storage 14, an input unit 15, a display unit 16, and communication. It has an interface (I / F) 17. Each configuration is communicably connected to each other via a bus 19.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the CPU 11 is a central arithmetic processing unit that executes various programs and controls each part. That is, the CPU 11 reads the program from the ROM 12 or the storage 14, and executes the program using the RAM 13 as a work area. The CPU 11 controls each of the above configurations and performs various arithmetic processes according to the program stored in the ROM 12 or the storage 14. In the present embodiment, the ROM 12 or the storage 14 stores a learning data generation program for executing the learning data generation process.
  • the ROM 12 stores various programs and various data.
  • the RAM 13 temporarily stores a program or data as a work area.
  • the storage 14 is composed of an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores various programs including an operating system and various data.
  • the input unit 15 includes a pointing device such as a mouse and a keyboard, and is used for performing various inputs.
  • the display unit 16 is, for example, a liquid crystal display and displays various types of information.
  • the display unit 16 may adopt a touch panel method and function as an input unit 15.
  • the communication interface 17 is an interface for communicating with other devices, and for example, standards such as Ethernet (registered trademark), FDDI, and Wi-Fi (registered trademark) are used.
  • FIG. 2 is a block diagram showing an example of the functional configuration of the learning data generation device 10.
  • the learning data generation device 10 has a first data storage unit 101, a pre-learning generation model storage unit 102, a first learning unit 103, and a trained generation model storage unit 104 as functional configurations. , A second data storage unit 105, a generation unit 106, a third data storage unit 107, a coupling unit 108, and a learning data storage unit 109.
  • Each functional configuration is realized by the CPU 11 reading the learning data generation program stored in the ROM 12 or the storage 14, deploying it in the RAM 13, and executing it.
  • the first data storage unit 101 is given a first correct answer label which is a label indicating a correct answer for any of a plurality of conditions and a second correct answer label which is a correct answer label indicating a predetermined state. Contains a set of data.
  • the first learning data is collected by measuring the road surface data indicating the condition of the road surface measured by the sensor mounted on the moving body traveling on the road surface.
  • the first learning data is given a first correct answer label indicating that it is one of a plurality of conditions regarding the road surface environment at the time of measurement. Multiple conditions include, for example, measurement on a smooth road surface, measurement on a rough road surface, measurement on a moving body with determined tire cushioning, and the location of the sensor installed on the moving body. Adopt conditions such as being measured in a fixed situation.
  • the first learning data is given a second correct answer label, which is a correct answer label indicating what kind of barrier the road surface of the measured section is.
  • the generation model that outputs the data with the first correct answer label indicating any of a plurality of conditions is trained.
  • the previous state that is, the parameter is stored in the initial value state.
  • Any neural network can be adopted as the generative model.
  • an autoencoder can be adopted.
  • the first learning unit 103 learns the generative model based on the set of the first learning data. Specifically, the first learning unit 103 first acquires a set of the first learning data from the first data storage unit 101. In addition, the first learning unit 103 acquires a generation model and initial parameters from the pre-learning generation model storage unit 102. Next, in the first learning unit 103, the likelihood of each first correct answer label indicating each of a plurality of conditions for the data to which the second correct answer label is given by the generative model based on the set of the first learning data. Learn the parameters of the generative model so that In addition, the first learning unit 103 learns the parameters of the generative model so that the second correct label of the input data is not affected.
  • the first learning unit 103 learns parameters by using, for example, the inverse error propagation method.
  • the first learning unit 103 repeats the learning of the parameters until the end condition is satisfied.
  • the parameters previously learned by the first learning unit 103 are used instead of the initial parameters.
  • the first learning unit 103 stores the learned generation model and parameters in the learned generation model storage unit 104.
  • the trained generation model storage unit 104 stores the generation model and parameters learned by the first learning unit 103.
  • the second data storage unit 105 stores a set of second learning data, which is learning data collected under a predetermined condition among a plurality of conditions and is given a second correct answer label.
  • the predetermined condition is measured on a smooth road surface, which is a general condition in the present embodiment. This is because the training data is easy to collect at low cost under general conditions. That is, any condition can be used as long as it is inexpensive and easy to collect.
  • the second learning data is given a second correct answer label, which is a correct answer label of what kind of barrier the road surface is. That is, the second learning data is given a correct label of the state to be estimated.
  • the generation unit 106 is given a first correct answer label and a second correct answer label for a condition other than a predetermined condition based on the set of the second learning data and the generation model learned by the first learning unit 103. Generates a set of third training data. Specifically, the generation unit 106 first acquires a set of the second learning data from the second data storage unit 105. In addition, the generation unit 106 acquires the learned generation model and parameters from the trained generation model storage unit 104. Next, the generation unit 106 uses the generative model that has been trained for each of the conditions other than the predetermined conditions among the plurality of conditions, and assigns the first correct answer label of the condition to the second learning data. Generate data. That is, as shown in FIG.
  • road surface data of a rough road surface and road surface data of other conditions are generated from smooth road surface data.
  • a large amount of third training data under special conditions can be generated from a large amount of second training data under general conditions and a small amount of first training data under special conditions.
  • the generation unit 106 stores the generated set of the third learning data in the third data storage unit 107.
  • the third data storage unit 107 stores a set of the third learning data generated by the generation unit 106.
  • the connecting unit 108 combines the set of the second learning data and the set of the third learning data to form a set of combined learning data.
  • the coupling unit 108 first acquires a set of the second learning data from the second data storage unit 105, and acquires a set of the third learning data from the third data storage unit 107.
  • the connecting unit 108 connects the set of the second learning data and the set of the third learning data so that the learning device 20 can easily learn.
  • the joining unit 108 joins the set of the second training data and the set of the third learning data by a method such as indexing or randomly rearranging.
  • the connecting unit 108 stores the set of the combined learning data in the learning data storage unit 109.
  • FIG. 4 is a flowchart showing the flow of the learning data generation processing routine by the learning data generation device 10.
  • the learning data generation processing routine is performed by the CPU 11 reading the learning data generation program from the ROM 12 or the storage 14, expanding it into the RAM 13 and executing it.
  • step S101 the CPU 11 assigns a first correct answer label, which is a label indicating a correct answer for any of a plurality of conditions, and a second correct answer label, which is a correct answer label indicating a predetermined state, as the first learning unit 103.
  • a set of the first training data is acquired from the first data storage unit 101.
  • step S102 when the data with the second correct answer label is input from the pre-learning generation model storage unit 102 as the first learning unit 103, the CPU 11 indicates the first correct answer label indicating any of a plurality of conditions. Acquires the generative model and initial parameters that output the data to which is given.
  • step S103 as the first learning unit 103, the generative model indicates, as the first learning unit 103, each of a plurality of conditions for the data to which the second correct answer label is given, based on the set of the first learning data.
  • the parameters of the generative model are learned so as to obtain the likelihood of the first correct answer label of.
  • step S104 the CPU 11 determines whether or not the end condition is satisfied as the first learning unit 103.
  • step S104 If the end condition is not satisfied (NO in step S104 above), the process returns to step S101.
  • step S105 the CPU 11 stores the learned generation model and parameters in the learned generation model storage unit 104 as the first learning unit 103.
  • step S106 the CPU 11 acquires the generation model and parameters learned in step S103 from the trained generation model storage unit 104 as the generation unit 106.
  • step S107 the CPU 11 acquires a set of the second learning data from the second data storage unit 105 as the generation unit 106.
  • step S108 the CPU 11, as the generation unit 106, sets the first correct answer label and the second correct answer for the conditions other than the predetermined conditions based on the set of the second learning data and the generation model learned in the step S103.
  • a set of third training data with a label is generated.
  • step S109 the CPU 11 combines the set of the second learning data and the set of the third learning data as the connecting unit 108 to form a set of the combined learning data.
  • a first correct answer label which is a label indicating a correct answer for any of a plurality of conditions
  • a correct answer label which indicates a predetermined state.
  • the data with the second correct answer label is input based on the set of the first training data with the second correct answer label
  • the first correct answer label indicating any of a plurality of conditions
  • a set of second training data which is training data collected under a predetermined condition among a plurality of conditions by training a generation model that outputs data, and is training data with a second correct label.
  • the state is estimated accurately in order to generate a set of the third training data to which the first correct answer label and the second correct answer label are given for the conditions other than the predetermined conditions.
  • the training data for this can be generated at low cost.
  • FIG. 1 is a block diagram showing a hardware configuration of the learning device 20 according to the present embodiment. Since the hardware configuration of the learning device 20 is the same as that of the learning data generation device 10, the description thereof will be omitted.
  • FIG. 2 is a block diagram showing an example of the functional configuration of the learning device 20.
  • the learning device 20 has a pre-learning estimation model storage unit 201, a second learning unit 202, and a learned estimation model storage unit 203 as functional configurations.
  • Each functional configuration is realized by the CPU 11 reading the learning program stored in the ROM 12 or the storage 14 and deploying it in the RAM 13 for execution.
  • an estimation model for estimating a predetermined state of the input data is stored in the pre-learning state, that is, in the state where the parameters are the initial values.
  • Any neural network can be adopted as the estimation model.
  • an autoencoder can be adopted.
  • the second learning unit 202 outputs a second correct answer label for the input data as an estimation result based on the set of the second learning data and the set of the third learning data generated by the learning data generation device 10. Learn the estimation model.
  • the second learning unit 202 first acquires a set of combined learning data generated by the learning data generation device 10 from the learning data generation device 10. In addition, the second learning unit 202 acquires the estimation model and the initial parameters from the pre-learning estimation model storage unit 201. Next, the second learning unit 202 estimates for each set of the combined learning data so that the estimation result obtained by inputting to the estimation model matches the second correct answer label given to the combined learning data. Learn the parameters of the model. The second learning unit 202 learns the parameters by using, for example, the inverse error propagation method. The second learning unit 202 repeats the learning of the parameters until the end condition is satisfied. In the second and subsequent learnings, the parameters previously learned by the second learning unit 202 are used instead of the initial parameters. Then, the second learning unit 202 stores the learned estimation model and parameters in the learned estimation model storage unit 203.
  • the learned estimation model storage unit 203 stores the estimation model and parameters learned by the second learning unit 202.
  • the learned estimation model and parameters are used by an estimation device (not shown) for estimating the road surface condition when estimating the road surface condition from the input road surface data.
  • the estimation device can accurately estimate the road surface condition.
  • FIG. 5 is a flowchart showing the flow of the learning processing routine by the learning device 20.
  • the learning processing routine is performed by the CPU 11 reading the learning data generation program from the ROM 12 or the storage 14, expanding it into the RAM 13 and executing it.
  • step S201 the CPU 11 acquires a set of combined learning data generated by the learning data generation device 10 from the learning data generation device 10 as the second learning unit 202.
  • step S202 as the second learning unit 202, the CPU 11 acquires an estimation model and initial parameters for estimating a predetermined state of the input data from the pre-learning estimation model storage unit 201.
  • step S203 as the second learning unit 202, the estimation result obtained by inputting the estimation result into the estimation model for each set of the combined learning data matches the second correct answer label given to the combined learning data. As such, learn the parameters of the estimation model.
  • step S204 the CPU 11 determines whether or not the end condition is satisfied as the second learning unit 202.
  • step S204 If the end condition is not satisfied (NO in step S204 above), the process returns to step S201.
  • step S205 the CPU 11 stores the learned estimation model and parameters in the learned estimation model storage unit 203 as the second learning unit 202, and performs processing. finish.
  • the input data is based on the set of the second learning data and the set of the third learning data generated by the learning data generation device. Since the estimation model for estimating a predetermined state is learned, the estimation model for estimating the state with high accuracy can be learned.
  • the learning data generation device and the learning device have been described as separate devices, but they may be configured as one device.
  • various processors other than the CPU may execute the learning data generation program executed by the CPU reading the software (program) in the above embodiment.
  • the processors include PLD (Programmable Logic Device) whose circuit configuration can be changed after manufacturing FPGA (Field-Programmable Gate Array), and ASIC (Application Specific Integrated Circuit) for executing ASIC (Application Special Integrated Circuit).
  • PLD Programmable Logic Device
  • ASIC Application Specific Integrated Circuit
  • An example is a dedicated electric circuit or the like, which is a processor having a circuit configuration designed exclusively for the purpose.
  • the training data generation program may be executed by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs, and a CPU and an FPGA). It may be executed by combination etc.).
  • the hardware structure of these various processors is, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the program is a non-temporary storage medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital entirely Disk Online Memory), and a USB (Universal Serial Bus) memory. It may be provided in the form. Further, the program may be downloaded from an external device via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

精度よく状態を推定するための学習データを、低コストに生成することができるようにする。 第1学習部103が、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、第2正解ラベルが付与されたデータが入力されると、複数の条件の何れかを示す第1正解ラベルが付与されたデータを出力する生成モデルを学習し、生成部106が、複数の条件のうち所定の条件のもとで収集された学習データであって、第2正解ラベルが付与された学習データである第2学習データの集合と、学習された生成モデルとに基づいて、所定の条件以外の条件についての第1正解ラベルと第2正解ラベルとが付与された第3学習データの集合を生成する。

Description

学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム
 本開示は、学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラムに関する。
 従来から、計測されたデータを用いて、ある条件を満たすか否かを推定する技術が研究されている。例えば、歩道や車道等の路面上を移動する歩行者、自動車、車椅子等の移動体に搭載されたセンサを用いて、移動体が移動する路面の状況(例えば段差、勾配等)を推定する手法が研究されている(非特許文献1、非特許文献2)。
宮田章裕、荒木伊織、王統順、鈴木天詩、「健常歩行者センサデータを用いたバリア検出の基礎検討」、IPSJ論文誌(2018)。 「高速バスに載せたスマホの加速度センサーで路面の凹凸を検知、検証試験を実施」、[online]、[2018年9月4日検索]、インターネット<URL:https://sgforum.impress.co.jp/news/3595>。
 上記の推定は、例えば、学習データを用いた学習により構築された推定モデルを用いて行われる。しかし、従来の手法では、推定の精度が十分でなかったり、多くの学習データが必要となったりする、という問題があった。このため、多くの学習データを収集するためにコストが大きくなる一方で、十分な精度で求める状態の推定をすることができない、という問題があった。
 開示の技術は、上記の点に鑑みてなされたものであり、精度よく状態を推定するための学習データを、低コストに生成することができる学習データ生成装置、学習データ生成方法、及び学習データ生成プログラムを提供することを目的とする。
 また、開示の技術は、精度よく状態を推定するための推定モデルを学習することができる学習装置を提供することを目的とする。
 本開示の第1態様は、学習データ生成装置であって、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、前記第2正解ラベルが付与されたデータが入力されると、前記複数の条件の何れかを示す前記第1正解ラベルが付与されたデータを出力する生成モデルを学習する第1学習部と、前記複数の条件のうち所定の条件のもとで収集された学習データであって、前記第2正解ラベルが付与された学習データである第2学習データの集合と、前記第1学習部により学習された前記生成モデルとに基づいて、前記所定の条件以外の条件についての前記第1正解ラベルと前記第2正解ラベルとが付与された第3学習データの集合を生成する生成部と、を含む。
 本開示の第2態様は、学習データ生成方法であって、第1学習部が、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、前記第2正解ラベルが付与されたデータが入力されると、前記複数の条件の何れかを示す前記第1正解ラベルが付与されたデータを出力する生成モデルを学習し、生成部が、前記複数の条件のうち所定の条件のもとで収集された学習データであって、前記第2正解ラベルが付与された学習データである第2学習データの集合と、前記第1学習部により学習された前記生成モデルとに基づいて、前記所定の条件以外の条件についての前記第1正解ラベルと前記第2正解ラベルとが付与された第3学習データの集合を生成する。
 本開示の第3態様は、学習データ生成プログラムであって、第1学習部が、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、前記第2正解ラベルが付与されたデータが入力されると、前記複数の条件の何れかを示す前記第1正解ラベルが付与されたデータを出力する生成モデルを学習し、生成部が、前記複数の条件のうち所定の条件のもとで収集された学習データであって、前記第2正解ラベルが付与された学習データである第2学習データの集合と、前記第1学習部により学習された前記生成モデルとに基づいて、前記所定の条件以外の条件についての前記第1正解ラベルと前記第2正解ラベルとが付与された第3学習データの集合を生成することをコンピュータに実行させるための学習データ生成プログラムである。
 本開示の第4態様は、学習装置であって、前記第2学習データの集合と、請求項1記載の学習データ生成装置により生成された前記第3学習データの集合とに基づいて、入力されたデータについて、前記所定の状態を推定するための推定モデルを学習する第2学習部を含む。
 開示の技術によれば、精度よく状態を推定するための学習データを、低コストに生成することができる。
 また、開示の技術によれば、精度よく状態を推定するための推定モデルを学習することができる。
実施形態に係る学習データ生成装置(学習装置)として機能するコンピュータの概略構成を示すブロック図である。 実施形態に係る学習データ生成装置及び学習装置の機能構成の例を示すブロック図である。 滑らかな路面データから、粗い路面の路面データや他の条件の路面データを生成する様子を表すイメージ図である。 本実施形態に係る学習データ生成装置の学習データ生成処理ルーチンを示すフローチャートである。 本実施形態に係る学習装置の学習処理ルーチンを示すフローチャートである。
<本開示の技術の実施形態に係る学習データ生成装置及び学習装置の概要>
 まず、本開示の技術の実施形態の概要を説明する。本実施形態に係る学習データ生成装置は、まず、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合を用意しておく。すなわち、複数の条件の各々について、当該条件を満たすことが既知であり、かつ、所定の状態について既知である学習データを用意する。そして、第1学習データの集合を用いて、第2正解ラベルが付与されたデータが入力されると、複数の条件の何れかを示す第1正解ラベルが付与されたデータを出力する生成モデルを学習する。学習済みの生成モデルを用いることにより、複数の条件のうち、当該第1正解ラベルに対応する条件を満たす学習データを生成することができるようになる。
 次に、学習データ生成装置は、複数の条件のうち所定の条件についての第1正解ラベルと、第2正解ラベルとが付与されたデータである第2学習データの集合と、第1学習部により学習された生成モデルとに基づいて、所定の条件以外の条件についての第1正解ラベルと第2正解ラベルとが付与された第3学習データの集合を生成する。ここで、第2学習データは、収集しやすい所定の条件で得られる一般的な学習データあることを意味する。また、第3学習データは、所定の条件以外の条件を満たすような学習データであり、所定の条件以外の条件の正解ラベルが付与された学習データであることを意味する。
 このように、本実施形態に係る学習データ生成装置により、第1学習データが少ない場合でも、学習済み生成モデルを用いることにより、低コストで集めることができる一般的な学習データである第2学習データの集合から、様々な条件を満たす第3学習データを大量に生成することができるのである。
 また、本実施形態に係る学習装置では、第2学習データの集合と、学習データ生成装置により生成された第3学習データの集合とに基づいて、入力されたデータについて、所定の状態を推定するための推定モデルを学習する。このように、低コストで収集した第2学習データの集合と、大量に生成された様々な条件による第3学習データとを用いることができるため、精度よく推定することができる推定モデルを学習することができる。
<本開示の技術の実施形態に係る学習データ生成装置の構成>
 以下、開示の技術の実施形態の例を、図面を参照しつつ説明する。本実施形態では、路面を走行する移動体に搭載されたセンサにより計測された路面データのバリアの状況を推定するための推定モデルを学習する場合を例に説明する。本実施形態では、バリアが路面の段差や傾斜等の走行の妨害となる条件であるものとして説明する。推定モデルを学習するために必要な学習データは、路面がどのような状況であるかを示す正解ラベルが付与された路面データである。本開示の学習データ生成装置10は、このような学習データを生成するものである。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
 図1は、本実施形態に係る学習データ生成装置10のハードウェア構成を示すブロック図である。図1に示すように、学習データ生成装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。
 CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、学習データ生成処理を実行するための学習データ生成プログラムが記憶されている。
 ROM12は、各種プログラム及び各種データを記憶する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを記憶する。
 入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、各種の入力を行うために使用される。
 表示部16は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部16は、タッチパネル方式を採用して、入力部15として機能しても良い。
 通信インタフェース17は、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI、Wi-Fi(登録商標)等の規格が用いられる。
 次に、学習データ生成装置10の機能構成について説明する。図2は、学習データ生成装置10の機能構成の例を示すブロック図である。
 図2に示すように、学習データ生成装置10は、機能構成として、第1データ格納部101と、学習前生成モデル格納部102と、第1学習部103と、学習済み生成モデル格納部104と、第2データ格納部105と、生成部106と、第3データ格納部107と、結合部108と、学習データ格納部109とを有する。各機能構成は、CPU11がROM12又はストレージ14に記憶された学習データ生成プログラムを読み出し、RAM13に展開して実行することにより実現される。
 第1データ格納部101には、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合が格納されている。
 具体的には、第1学習データは、路面を走行する移動体に搭載されたセンサにより計測された路面の状況を示す路面データを計測して収集される。第1学習データには、計測の際の路面環境についての複数の条件の何れかであることを示す第1正解ラベルが付与されている。複数の条件としては、例えば、滑らかな路面で計測されたことや、粗い路面で計測されたこと、タイヤのクッション性が決められた移動体で計測されたこと、移動体に設置するセンサの場所が定まった状況で計測されたこと等の条件を採用する。また、第1学習データには、計測された区間の路面が、どのようなバリアであるかを示す正解ラベルである第2正解ラベルが付与されている。
 学習前生成モデル格納部102には、第2正解ラベルが付与されたデータが入力されると、複数の条件の何れかを示す第1正解ラベルが付与されたデータを出力する生成モデルが、学習前の状態、すなわち、パラメータが初期値の状態で格納されている。生成モデルは、任意のニューラルネットワークを採用することができる。例えば、オートエンコーダを採用することができる。
 第1学習部103は、第1学習データの集合に基づいて、生成モデルを学習する。具体的には、第1学習部103は、まず、第1データ格納部101から、第1学習データの集合を取得する。また、第1学習部103は、学習前生成モデル格納部102から、生成モデル及び初期パラメータを取得する。次に、第1学習部103は、第1学習データの集合に基づいて、生成モデルが、第2正解ラベルが付与されたデータに対する、複数の条件の各々を示す第1正解ラベル毎の尤度を求めるように、生成モデルのパラメータを学習する。また、第1学習部103は、入力されたデータの第2正解ラベルについては影響が無いように、生成モデルのパラメータを学習する。第1学習部103は、例えば、逆誤差伝搬法を用いてパラメータの学習を行う。第1学習部103は、終了条件を満たすまで、パラメータの学習を繰り返す。なお、2回目以降の学習では、初期パラメータではなく、第1学習部103により前回学習されたパラメータを用いる。そして、第1学習部103は、学習した生成モデル及びパラメータを、学習済み生成モデル格納部104に格納する。
 学習済み生成モデル格納部104には、第1学習部103により学習された生成モデル及びパラメータが格納されている。
 第2データ格納部105には、複数の条件のうち所定の条件のもとで収集された学習データであって、第2正解ラベルが付与された学習データである第2学習データの集合が格納されている。所定の条件は、本実施形態では、一般的な条件である滑らかな路面で計測されたこととする。これは、一般的な条件とした場合、学習データが低コストで収集しやすいためである。すなわち、低コストで収集しやすい条件であれば何でもよい。また、第2学習データには、路面がどのようなバリアであるかの正解ラベルである第2正解ラベルが付与されている。すなわち、第2学習データには、推定したい状態の正解ラベルが付与されているのである。
 生成部106は、第2学習データの集合と、第1学習部103により学習された生成モデルとに基づいて、所定の条件以外の条件についての第1正解ラベルと第2正解ラベルとが付与された第3学習データの集合を生成する。具体的には、生成部106は、まず、第2データ格納部105から、第2学習データの集合を取得する。また、生成部106は、学習済み生成モデル格納部104から、学習された生成モデル及びパラメータを取得する。次に、生成部106は、複数の条件うち、所定の条件以外の条件の各々について、学習済みの生成モデルを用いて、第2学習データに当該条件の第1正解ラベルを付与した第3学習データを生成する。すなわち、図3に示すように、滑らかな路面データから、粗い路面の路面データや他の条件の路面データを生成する。これにより、大量の一般的な条件の第2学習データと、少量の特殊な条件の第1学習データとから、大量の特殊な条件の第3学習データを生成することができる。そして、生成部106は、生成した第3学習データの集合を、第3データ格納部107に格納する。
 第3データ格納部107には、生成部106により生成された第3学習データの集合が格納されている。
 結合部108は、第2学習データの集合と、第3学習データの集合とを結合し、結合学習データの集合とする。具体的には、結合部108は、まず、第2データ格納部105から第2学習データの集合を取得し、第3データ格納部107から、第3学習データの集合を取得する。次に、結合部108は、学習装置20による学習がしやすいように、第2学習データの集合と第3学習データの集合とを結合する。例えば、結合部108は、インデックスを付ける、ランダムに並び替える等の方法により、第2学習データの集合と第3学習データの集合とを結合する。そして、結合部108は、結合学習データの集合を、学習データ格納部109に格納する。
 学習データ格納部109には、結合部108により結合された結合学習データの集合が格納されている。
<本開示の技術の実施形態に係る学習データ生成装置の作用>
 次に、学習データ生成装置10の作用について説明する。
 図4は、学習データ生成装置10による学習データ生成処理ルーチンの流れを示すフローチャートである。CPU11がROM12又はストレージ14から学習データ生成プログラムを読み出して、RAM13に展開して実行することにより、学習データ生成処理ルーチンが行なわれる。
 ステップS101において、CPU11は、第1学習部103として、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1データ格納部101から、第1学習データの集合を取得する。
 ステップS102において、CPU11は、第1学習部103として、学習前生成モデル格納部102から、第2正解ラベルが付与されたデータが入力されると、複数の条件の何れかを示す第1正解ラベルが付与されたデータを出力する生成モデル及び初期パラメータを取得する。
 ステップS103において、CPU11は、第1学習部103として、第1学習データの集合に基づいて、生成モデルが、第2正解ラベルが付与されたデータに対する、複数の条件の各々を示す第1学習データの第1正解ラベルの尤度を求めるように、生成モデルのパラメータを学習する。
 ステップS104において、CPU11は、第1学習部103として、終了条件を満たすか否かを判定する。
 終了条件を満たしていない場合(上記ステップS104のNO)、ステップS101に戻る。
 一方、終了条件を満たす場合(上記ステップS104のYES)、ステップS105において、CPU11は、第1学習部103として、学習した生成モデル及びパラメータを、学習済み生成モデル格納部104に格納する。
 ステップS106において、CPU11は、生成部106として、学習済み生成モデル格納部104から、上記ステップS103により学習された生成モデル及びパラメータを取得する。
 ステップS107において、CPU11は、生成部106として、第2データ格納部105から、第2学習データの集合を取得する。
 ステップS108において、CPU11は、生成部106として、第2学習データの集合と、上記ステップS103により学習された生成モデルとに基づいて、所定の条件以外の条件についての第1正解ラベルと第2正解ラベルとが付与された第3学習データの集合を生成する。
 ステップS109において、CPU11は、結合部108として、第2学習データの集合と、第3学習データの集合とを結合し、結合学習データの集合とする。
 ステップS110において、CPU11は、結合部108として、結合学習データの集合を、学習データ格納部109に格納し、処理を終了する。
 以上説明したように、本開示の実施形態に係る学習データ生成装置によれば、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、第2正解ラベルが付与されたデータが入力されると、複数の条件の何れかを示す第1正解ラベルが付与されたデータを出力する生成モデルを学習し、複数の条件のうち所定の条件のもとで収集された学習データであって、第2正解ラベルが付与された学習データである第2学習データの集合と、学習された生成モデルとに基づいて、所定の条件以外の条件についての第1正解ラベルと第2正解ラベルとが付与された第3学習データの集合を生成するため、精度よく状態を推定するための学習データを、低コストに生成することができる。
<本開示の技術の実施形態に係る学習装置の構成>
 以下、開示の技術の実施形態の例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
 図1は、本実施形態に係る学習装置20のハードウェア構成を示すブロック図である。学習装置20のハードウェア構成は、学習データ生成装置10と同様であるため、説明を省略する。
 次に、学習装置20の機能構成について説明する。図2は、学習装置20の機能構成の例を示すブロック図である。
 図2に示すように、学習装置20は、機能構成として、学習前推定モデル格納部201と、第2学習部202と、学習済み推定モデル格納部203とを有する。各機能構成は、CPU11がROM12又はストレージ14に記憶された学習プログラムを読み出し、RAM13に展開して実行することにより実現される。
 学習前推定モデル格納部201には、入力されたデータについて、所定の状態を推定するための推定モデルが、学習前の状態、すなわち、パラメータが初期値の状態で格納されている。推定モデルは、任意のニューラルネットワークを採用することができる。例えば、オートエンコーダを採用することができる。
 第2学習部202は、第2学習データの集合と、学習データ生成装置10により生成された第3学習データの集合とに基づいて、入力されたデータに対する第2正解ラベルを推定結果として出力する推定モデルを学習する。
 具体的には、第2学習部202は、まず、学習データ生成装置10により生成された結合学習データの集合を、学習データ生成装置10から取得する。また、第2学習部202は、学習前推定モデル格納部201から、推定モデル及び初期パラメータを取得する。次に、第2学習部202は、結合学習データの集合の各々について、推定モデルに入力して得られる推定結果が、当該結合学習データに付与された第2正解ラベルと一致するように、推定モデルのパラメータを学習する。第2学習部202は、例えば、逆誤差伝搬法を用いてパラメータの学習を行う。第2学習部202は、終了条件を満たすまで、パラメータの学習を繰り返す。なお、2回目以降の学習では、初期パラメータではなく、第2学習部202により前回学習されたパラメータを用いる。そして、第2学習部202は、学習した推定モデル及びパラメータを、学習済み推定モデル格納部203に格納する。
 学習済み推定モデル格納部203には、第2学習部202により学習された推定モデル及びパラメータが格納されている。
 学習された推定モデル及びパラメータは、路面の状態を推定する推定装置(図示しない)が、入力された路面データから、路面の状態を推定する際に用いられる。学習装置20により学習された推定モデル及びパラメータを用いることにより、当該推定装置は精度よく路面の状況を推定することができることとなる。
<本開示の技術の実施形態に係る学習装置の作用>
 次に、学習装置20の作用について説明する。
 図5は、学習装置20による学習処理ルーチンの流れを示すフローチャートである。CPU11がROM12又はストレージ14から学習データ生成プログラムを読み出して、RAM13に展開して実行することにより、学習処理ルーチンが行なわれる。
 ステップS201において、CPU11は、第2学習部202として、学習データ生成装置10により生成された結合学習データの集合を、学習データ生成装置10から取得する。
 ステップS202において、CPU11は、第2学習部202として、学習前推定モデル格納部201から、入力されたデータについて、所定の状態を推定するための推定モデル及び初期パラメータを取得する。
 ステップS203において、CPU11は、第2学習部202として、結合学習データの集合の各々について、推定モデルに入力して得られる推定結果が、当該結合学習データに付与された第2正解ラベルと一致するように、推定モデルのパラメータを学習する。
 ステップS204において、CPU11は、第2学習部202として、終了条件を満たすか否かを判定する。
 終了条件を満たしていない場合(上記ステップS204のNO)、ステップS201に戻る。
 一方、終了条件を満たす場合(上記ステップS204のYES)、ステップS205において、CPU11は、第2学習部202として、学習した推定モデル及びパラメータを、学習済み推定モデル格納部203に格納し、処理を終了する。
 以上説明したように、本開示の実施形態に係る学習装置によれば、第2学習データの集合と、学習データ生成装置により生成された第3学習データの集合とに基づいて、入力されたデータについて、所定の状態を推定するための推定モデルを学習するため、精度よく状態を推定するための推定モデルを学習することができる。
 なお、本開示は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
 例えば、上述の実施形態では、学習データ生成装置と学習装置とを別の装置として説明したが、1つの装置として構成してもよい。
 なお、上記実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した学習データ生成プログラムを、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、学習データ生成プログラムを、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 また、上記各実施形態では、学習データ生成プログラム及び学習プログラムの各々がROM12又はストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non-transitory)記憶媒体に記憶された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 以上の実施形態に関し、更に以下の付記を開示する。
 (付記項1)
 メモリと、
 前記メモリに接続された少なくとも1つのプロセッサと、
 を含み、
 前記プロセッサは、
 複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、前記第2正解ラベルが付与されたデータが入力されると、前記複数の条件の何れかを示す前記第1正解ラベルが付与されたデータを出力する生成モデルを学習し、
 前記複数の条件のうち所定の条件のもとで収集された学習データであって、前記第2正解ラベルが付与された学習データである第2学習データの集合と、前記第1学習部により学習された前記生成モデルとに基づいて、前記所定の条件以外の条件についての前記第1正解ラベルと前記第2正解ラベルとが付与された第3学習データの集合を生成する
 ように構成されている学習データ生成装置。
 (付記項2)
 複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、前記第2正解ラベルが付与されたデータが入力されると、前記複数の条件の何れかを示す前記第1正解ラベルが付与されたデータを出力する生成モデルを学習し、
 前記複数の条件のうち所定の条件のもとで収集された学習データであって、前記第2正解ラベルが付与された学習データである第2学習データの集合と、前記第1学習部により学習された前記生成モデルとに基づいて、前記所定の条件以外の条件についての前記第1正解ラベルと前記第2正解ラベルとが付与された第3学習データの集合を生成する
 ことをコンピュータに実行させる学習データ生成プログラムを記憶した非一時的記憶媒体。
10   学習データ生成装置
11   CPU
12   ROM
13   RAM
14   ストレージ
15   入力部
16   表示部
17   通信インタフェース
19   バス
20   学習装置
101 データ格納部
102 学習前生成モデル格納部
103 学習部
104 生成モデル格納部
105 データ格納部
106 生成部
107 データ格納部
108 結合部
109 学習データ格納部
201 学習前推定モデル格納部
202 学習部
203 推定モデル格納部

Claims (5)

  1.  複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、前記第2正解ラベルが付与されたデータが入力されると、前記複数の条件の何れかを示す前記第1正解ラベルが付与されたデータを出力する生成モデルを学習する第1学習部と、
     前記複数の条件のうち所定の条件のもとで収集された学習データであって、前記第2正解ラベルが付与された学習データである第2学習データの集合と、前記第1学習部により学習された前記生成モデルとに基づいて、前記所定の条件以外の条件についての前記第1正解ラベルと前記第2正解ラベルとが付与された第3学習データの集合を生成する生成部と、
     を含む学習データ生成装置。
  2.  前記第1学習データの集合及び前記第2学習データの集合は、路面上を移動する移動体に搭載されたセンサによって測定された、路面の状況を示す路面データを含み、
     前記所定の条件は、滑らかな路面で計測されたことを条件とするものであり、
     前記所定の状態は、路面がどのようなバリアであるかを示す状態である
     請求項1記載の学習データ生成装置。
  3.  前記第2学習データの集合と、請求項1又は請求項2記載の学習データ生成装置により生成された前記第3学習データの集合とに基づいて、入力されたデータについて、前記所定の状態を推定するための推定モデルを学習する第2学習部
     を含む学習装置。
  4.  第1学習部が、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、前記第2正解ラベルが付与されたデータが入力されると、前記複数の条件の何れかを示す前記第1正解ラベルが付与されたデータを出力する生成モデルを学習し、
     生成部が、前記複数の条件のうち所定の条件のもとで収集された学習データであって、前記第2正解ラベルが付与された学習データである第2学習データの集合と、前記第1学習部により学習された前記生成モデルとに基づいて、前記所定の条件以外の条件についての前記第1正解ラベルと前記第2正解ラベルとが付与された第3学習データの集合を生成する
     学習データ生成方法。
  5.  第1学習部が、複数の条件の何れかについての正解を示すラベルである第1正解ラベルと、所定の状態を示す正解ラベルである第2正解ラベルとが付与された第1学習データの集合に基づいて、前記第2正解ラベルが付与されたデータが入力されると、前記複数の条件の何れかを示す前記第1正解ラベルが付与されたデータを出力する生成モデルを学習し、
     生成部が、前記複数の条件のうち所定の条件のもとで収集された学習データであって、前記第2正解ラベルが付与された学習データである第2学習データの集合と、前記第1学習部により学習された前記生成モデルとに基づいて、前記所定の条件以外の条件についての前記第1正解ラベルと前記第2正解ラベルとが付与された第3学習データの集合を生成する
     ことを含む処理をコンピュータに実行させるための学習データ生成プログラム。
PCT/JP2019/024326 2019-06-19 2019-06-19 学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム WO2020255301A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/620,055 US20220366271A1 (en) 2019-06-19 2019-06-19 Learning data generation device, learning device, learning data generation method, and learning data generation program
JP2021528539A JP7268731B2 (ja) 2019-06-19 2019-06-19 学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム
PCT/JP2019/024326 WO2020255301A1 (ja) 2019-06-19 2019-06-19 学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024326 WO2020255301A1 (ja) 2019-06-19 2019-06-19 学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム

Publications (1)

Publication Number Publication Date
WO2020255301A1 true WO2020255301A1 (ja) 2020-12-24

Family

ID=74040322

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024326 WO2020255301A1 (ja) 2019-06-19 2019-06-19 学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム

Country Status (3)

Country Link
US (1) US20220366271A1 (ja)
JP (1) JP7268731B2 (ja)
WO (1) WO2020255301A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040335A (ja) * 2017-08-24 2019-03-14 三菱電機インフォメーションシステムズ株式会社 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040335A (ja) * 2017-08-24 2019-03-14 三菱電機インフォメーションシステムズ株式会社 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GANIN, YAROSLAV ET AL.: "Domain-Adversarial Training of Neural Networks", ARXIV, 26 May 2016 (2016-05-26), XP002789597, Retrieved from the Internet <URL:https://arxiv.org/pdf/1505.07818v4.pdf> [retrieved on 20190814] *

Also Published As

Publication number Publication date
JP7268731B2 (ja) 2023-05-08
JPWO2020255301A1 (ja) 2020-12-24
US20220366271A1 (en) 2022-11-17

Similar Documents

Publication Publication Date Title
JP6414247B2 (ja) クラウドソースを利用した車両シミュレーション装置
Li et al. Comparative study of vehicle tyre–road friction coefficient estimation with a novel cost-effective method
Selyunin et al. Applying runtime monitoring for automotive electronic development
Abbas et al. A driver’s license test for driverless vehicles
US20140309754A1 (en) Method and device for creating a data-based function model
JP6347190B2 (ja) 情報処理装置、プログラム及び方法
WO2020255301A1 (ja) 学習データ生成装置、学習装置、学習データ生成方法、及び学習データ生成プログラム
US20150046138A1 (en) Vehicular simulation test generation
KR101449212B1 (ko) Can 버스 시뮬레이터의 제어기 모델링 장치 및 방법
RU2017132375A (ru) Способ и устройство обнаружения изменения поведения водителя автотранспортного средства
JP7276449B2 (ja) 一般化データ生成装置、推定装置、一般化データ生成方法、推定方法、一般化データ生成プログラム、及び推定プログラム
US9928327B2 (en) Efficient deployment of table lookup (TLU) in an enterprise-level scalable circuit simulation architecture
Vater et al. Test case selection method for the verification of automated driving systems
Osswald et al. Prototyping automotive cyber-physical systems
Tideman et al. Integrated simulation toolset for ada system development
JP7381861B2 (ja) 複合モデル生成プログラム及び方法、並びに情報処理システム
Dooner et al. Dynamic modelling and experimental validation of an automotive windshield wiper system for hardware in the loop simulation
Franco et al. Model-based functional safety for the embedded software of automobile power window system
US8904336B1 (en) Determination of meta-stable latch bias voltages
WO2020059538A1 (ja) 学習データ生成装置、学習データ生成方法およびプログラム
JP7048896B2 (ja) 学習データ生成装置、学習データ生成方法およびプログラム
JP2010036733A (ja) タイヤの転がり抵抗のシミュレーション方法および装置
WO2021064899A1 (ja) 学習装置、予測装置、学習方法、及び学習プログラム
KR101998177B1 (ko) 타이어 정상상태 해석방법
WO2020100893A1 (ja) 学習装置、推定装置、方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19933911

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528539

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19933911

Country of ref document: EP

Kind code of ref document: A1