WO2020202244A1 - モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体 - Google Patents

モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体 Download PDF

Info

Publication number
WO2020202244A1
WO2020202244A1 PCT/JP2019/013974 JP2019013974W WO2020202244A1 WO 2020202244 A1 WO2020202244 A1 WO 2020202244A1 JP 2019013974 W JP2019013974 W JP 2019013974W WO 2020202244 A1 WO2020202244 A1 WO 2020202244A1
Authority
WO
WIPO (PCT)
Prior art keywords
model
parameter
parameters
target
domain
Prior art date
Application number
PCT/JP2019/013974
Other languages
English (en)
French (fr)
Inventor
あずさ 澤田
剛志 柴田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2019/013974 priority Critical patent/WO2020202244A1/ja
Priority to PCT/JP2019/025113 priority patent/WO2020202591A1/ja
Priority to US17/598,422 priority patent/US20220180195A1/en
Priority to JP2021511083A priority patent/JP7251613B2/ja
Publication of WO2020202244A1 publication Critical patent/WO2020202244A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Definitions

  • the present invention relates to domain adaptation of a recognition model.
  • Patent Document 1 describes a method of correcting and interpolating the parameters of a model obtained by learning the data of the first domain by using the parameters obtained by learning the data of the second domain.
  • One of the objects of the present invention is to make it possible to generate a model adapted to the target domain even when there is only a limited amount of data for the target domain.
  • one aspect of the present invention is a model generator.
  • a learning unit that learns model parameters corresponding to the model to be used using training data in multiple source domains. It includes a relevance information generation unit that generates parametric relevance information indicating the relevance between the model parameter and the parametric parameter.
  • Another aspect of the present invention is a model adjuster. Based on the trained model parameters for each of a plurality of source domains and the mediation parameter relevance information indicating the relationship between the trained model parameters and the mediation parameters, the model parameters corresponding to the target domain and including the mediation parameters are used.
  • a target model parameter generator that generates a certain target model parameter, It is provided with a determination unit for determining the parameter included in the target model parameter using the evaluation data of the target domain.
  • the model generation method Using the training data in multiple source domains, learn the model parameters corresponding to the model to be used, The parameter relevance information indicating the relationship between the model parameter and the parameter is generated.
  • the model adjustment method Based on the trained model parameters for each of a plurality of source domains and the mediation parameter relevance information indicating the relation between the trained model parameters and the mediation parameters, the model parameters corresponding to the target domain and including the mediation parameters are used. Generate a target model parameter and The mediation parameters included in the target model parameters are determined using the evaluation data of the target domain.
  • the recording medium is Using the training data in multiple source domains, learn the model parameters corresponding to the model to be used, A program that causes a computer to execute a process of generating mediation parameter relevance information indicating the relation between the model parameter and the parametric parameter is recorded.
  • the recording medium is Based on the trained model parameters for each of a plurality of source domains and the mediation parameter relevance information indicating the relation between the trained model parameters and the mediation parameters, the model parameters corresponding to the target domain and including the mediation parameters are used. Generate a target model parameter and Using the evaluation data of the target domain, a computer is made to execute a process of determining the parameter included in the target model parameter.
  • the basic principle of domain adaptation according to the embodiment is schematically shown. It is a block diagram which shows the hardware composition of the model generation apparatus by 1st Embodiment. It is a block diagram which shows the functional structure of a model generator. It is a flowchart of a model generation process. It is a block diagram which shows the hardware structure of the model adjustment apparatus by 1st Embodiment. It is a block diagram which shows the functional structure of a model adjustment apparatus. It is a flowchart of a model adjustment process. The relevance of the parameter according to the first embodiment of the model generation process is schematically shown. A configuration example of the learning model according to the second embodiment is shown. Another configuration example of the learning model according to the second embodiment is shown. It is a block diagram which shows the functional structure of the model generation apparatus and model adjustment apparatus by 2nd Embodiment.
  • the embodiment is characterized in that domain adaptation is performed using a limited amount of target domain evaluation data.
  • the "domain” is, for example, a data area defined by conditions such as the place, time, and environment in which the data was obtained, and the data having these conditions in common is the data of the same domain. For example, even if the image data is taken at the same place, if the time is different or the camera characteristics are different, the image data will be in different domains.
  • the domain used for learning the model is referred to as a "source domain”
  • the domain to which the model obtained by the learning is applied is referred to as a "target domain”.
  • Domain adaptation is basically performed by a model generator and a model adjustment device.
  • the model generation device generates model parameters (hereinafter, referred to as “model parameters”) for each source domain and parametric parameter relevance information using training data of a plurality of source domains.
  • model parameters model parameters
  • the model adjustment device generates the parameters of the model adapted to the target domain by using the model parameter and the parametric parameter relevance information generated by the model generation device and the evaluation data of the target domain.
  • FIG. 1 schematically shows the basic principle of domain adaptation according to the embodiment.
  • the model generation device shall generate a recognition model used in the process of recognizing an object from image data.
  • the recognition model is a model using a neural network.
  • the model generator trains the learning model for the source domain 1 using the learning data D1 and generates a learning result.
  • the model generation device trains the learning model for the source domain 2 using the learning data D2, and generates a learning result.
  • these learning results are a set of parameters (weights) in the neural network that constitutes the learning model, and are also hereinafter referred to as "trained model parameters".
  • the mediation parameter is a parameter having a role of mediating the model parameter corresponding to the different source domain, and has a relation to the model parameter of the different source domain.
  • the parametric parameters are defined based on the learning results of the source domains 1 and 2, and are conceptually given by the curve C connecting the learning results of the source domains 1 and 2, as shown in FIG.
  • the value of the parameter specifies the position on the curve C.
  • the model parameter moves between the trained model parameter of the source domain 1 and the trained model parameter of the source domain 2 on the curve C.
  • This curve C shows information indicating the relationship between the parameter and the trained model parameter for each source domain (hereinafter, referred to as “parameter relevance information”). How the model generator uses the trained model parameters of the source domain 1, the trained model parameters of the source domain 2, and the training data D1 and D2 of the source domains 1 and 2 according to the values of the parameters.
  • the model generator Generates parametric relevance information that indicates whether to transform the model parameters. Then, the model generator generates a parameter set including the trained model parameters for each source domain and the parameter relevance information. This parameter set is configured to allow model parameters to be adapted to the target domain by adjusting the parametric parameters.
  • the model adjustment device first generates a model of the target domain (hereinafter, referred to as “target model”) by using the trained model parameters for each source domain and the parameter relevance information.
  • the model coordinator generates a target model by reflecting the parametric parameters to the trained model parameters of the source domain closest to the target domain among the plurality of source domains.
  • the model regulator generates a target model by reflecting the parametric parameters to the trained model parameters of one predetermined basic domain among the plurality of source domains.
  • the model regulator generates a target model by reflecting the parametric parameters to the trained model parameters for some or all of the multiple source domains.
  • the model adjustment device performs performance evaluation using the evaluation data of the target domain while changing the value of the parameter.
  • the model tuning device uses the evaluation data of the target domain to search for the parametric parameters adapted to the target domain. Then, the value of the parametric parameter when the best performance is obtained is determined as the value of the parametric parameter adapted to the target domain, and the value is applied to the parametric parameter of the target model.
  • the model obtained by learning using sufficient learning data is defined as the "optimal model Mt".
  • the target model adapted to the target domain by adjusting the parametric parameters by the method of the embodiment is indicated by "Ma”.
  • the target model Ma is determined at a position sufficiently close to the optimum model Mt on the curve C showing the parameter relevance information.
  • the method of the embodiment cannot generate a model that matches the optimum model Mt, but the target model Ma that is located on the curve C showing the parameter relevance information and is closest to the optimum model Mt. Can be obtained.
  • FIG. 2 is a block diagram showing a hardware configuration of the model generator according to the first embodiment.
  • the model generation device 10 is configured by using a computer, and learns the parameters of the recognition model to be used by using the training data of a plurality of source domains.
  • the model generator 10 includes a processor 11 and a memory 12.
  • the processor 11 is a CPU, a CPU and a GPU, or the like, and executes a model generation process by executing a program prepared in advance.
  • the memory 12 is composed of a RAM (Random Access Memory), a ROM (Read Only Memory), and the like, and stores a program executed by the processor 11.
  • the memory 12 also functions as a working memory during execution of processing by the processor 11.
  • the model generator 10 can read the recording medium 5.
  • the recording medium 5 records a program for performing the model generation process.
  • the recording medium 5 is a non-temporary recording medium such as a non-volatile recording medium that can be read by a computer. Examples of the recording medium 5 include a magnetic recording device, an optical disk, an optical magnetic recording medium, a semiconductor memory, and the like.
  • the program recorded on the recording medium 5 is read into the memory 12 and executed by the processor 11 when the processing by the model generation device 10 is executed.
  • the learning data 21 and the learning model 22 are input to the model generation device 10.
  • the learning data 21 is a group of image data prepared in a plurality of source domains.
  • the learning model 22 is a discriminative model prepared in advance for performing a target recognition process.
  • the model generation device 10 performs a model generation process using the learning data 21 and the learning model 22, and outputs the trained model parameter 23 and the parameter relevance information 24.
  • the trained model parameter 23 is generated for each of a plurality of source domains.
  • Parameter is a parameter corresponding to the difference between different source domains, the details of which will be described later.
  • FIG. 3 is a block diagram showing a functional configuration of the model generation device 10. As shown in the figure, the model generation device 10 functionally includes a model parameter learning unit 15 and a relevance information generation unit 16.
  • the model parameter learning unit 15 learns model parameters, which are parameters of the learning model, for each of a plurality of source domains, and generates trained model parameters 23 for each source domain. Assuming that there is learning data of source domains 0 and 2 as learning data 21, the model parameter learning unit 15 learns a learning model using the learning data of source domain 0, and the source domain 0 Generate trained model parameters for.
  • the trained model parameter is a set of weights in the neural network that constitutes the recognition model. Further, the model parameter learning unit 15 learns the learning model using the learning data of the source domain 1 and generates the learned model parameters of the source domain 1. Further, the model parameter learning unit 15 learns the learning model using the learning data of the source domain 2 and generates the learned model parameters of the source domain 2. Then, the model parameter learning unit 15 outputs the learned model parameters 23 of the source domains 0 and 2.
  • the model parameter learning unit 15 is an example of the learning unit of the present invention.
  • the relevance information generation unit 16 uses the training data of a plurality of source domains and the trained model parameters for each source domain generated by the model parameter learning unit 15 to relate the trained model parameters to the parametric parameters. Generates parameter relevance information 24 indicating sex. Here, “relevance” indicates how the model parameter is deformed depending on the value of the parameter. The relevance information generation unit 16 generates the parameter relevance information separately from the learning of the model parameters by the model parameter learning unit 15.
  • FIG. 4 is a flowchart of the model generation process. This process is realized by the processor 11 shown in FIG. 2 executing a program prepared in advance.
  • the model generation device 10 acquires the learning data 21 of a plurality of source domains and the learning model 22 (step S11). Next, the model generation device 10 learns the model parameters for each source domain by the model parameter learning unit 15 using the learning data for each source domain (step S12).
  • the model generation device 10 uses the relevance information generation unit 16 to learn the trained model parameters based on the training data of the plurality of source domains and the trained model parameters for each source domain obtained in step S12.
  • the parameter relevance information 24 indicating the relationship between the parameter and the parameter is generated (step S13).
  • the model generation device 10 outputs the trained model parameter 23 for each source domain obtained in step S12 and the parameter relevance information 24 obtained in step S13 (step S14). Then, the process ends.
  • FIG. 5 is a block diagram showing a hardware configuration of the model adjusting device according to the embodiment.
  • the model adjusting device 50 is configured by using a computer.
  • the model adjustment device 50 uses the trained model parameters for each source domain generated by the model generation device 10 and the parameter relevance information, and is also referred to as a recognition model adapted to the target domain (hereinafter, also referred to as a “target model”). ) (Hereinafter, also referred to as “target model parameter”) is generated.
  • the model adjusting device 50 includes a processor 51 and a memory 52.
  • the processor 51 is a CPU, a CPU and a GPU, or the like, and executes a model adjustment process by executing a program prepared in advance.
  • the memory 52 is composed of RAM, ROM, and the like, and stores a program executed by the processor 51.
  • the memory 52 also functions as a working memory during execution of processing by the processor 51.
  • the model adjusting device 50 can read the recording medium 5.
  • the recording medium 5 records a program for performing the model adjustment process.
  • the example of the recording medium 5 is the same as that of the model generator 10.
  • the program recorded on the recording medium 5 is read into the memory 52 when the processing by the model adjusting device 50 is executed, and is executed by the processor 51.
  • the trained model parameter 23, the parameter relevance information 24, and the evaluation data 25 of the target domain are input to the model adjustment device 50.
  • the trained model parameter 23 and the parameter relevance information 24 are generated by the model generation device 10 described above.
  • the evaluation data 25 is data obtained in the target domain.
  • the target domain is a domain different from the source domain of the learning data 21 input to the model generation device 10 shown in FIG. 2, that is, each source domain of the trained model parameter 23.
  • the model adjustment device 50 generates a target model corresponding to the target domain using the above input data. Next, the model adjustment device 50 adjusts the mediation parameters included in the target model, and outputs the target model parameter 26 defined by the adjusted mediation parameters.
  • FIG. 6 is a block diagram showing a functional configuration of the model adjusting device 50.
  • the model adjustment device 50 functionally includes a parameter reflection unit 54, a performance evaluation unit 55, an evaluation result storage unit 56, a parameter adjustment unit 57, and a parameter storage unit 58. Be prepared.
  • the parameter reflection unit 54 reflects the parameters in the trained model parameters 23 based on the parameter relevance information 24, and generates a target model including the parameters.
  • the performance evaluation unit 55 evaluates the performance of the target model generated by the parameter reflection unit 54 using the evaluation data of the target domain.
  • the performance evaluation unit 55 evaluates the performance of the target model including the mediation parameter while changing the value of the mediation parameter.
  • the performance evaluation unit 55 evaluates the performance of all the evaluation data of the target domain by using a predetermined evaluation index while changing the value of the parameter. Then, the obtained performance evaluation value is stored in the evaluation result storage unit 56.
  • the parameter reflection unit 54 is an example of the target model parameter generation unit of the present invention.
  • the parameter adjustment unit 57 refers to the performance evaluation result stored in the evaluation result storage unit 56, and uses the value of the parameter when the best evaluation result is obtained as the parameter of the parameter used for the target domain. Determine with a value. Then, the parameter adjustment unit 57 generates a target model including the parameter of the determined value, stores the target model parameter 26 which is the parameter in the parameter storage unit 58, and outputs the target model parameter 26 to the outside.
  • the parameter adjusting unit 57 is an example of the determining unit of the present invention.
  • FIG. 7 is a flowchart of the model adjustment process. This process is realized by the processor 51 shown in FIG. 5 executing a program prepared in advance.
  • the model adjustment device 50 acquires the trained model parameter 23, the parameter relevance information 24, and the evaluation data 25 of the target domain (step S21).
  • the model adjusting device 50 generates a target model reflecting the parametric parameters by the parametric parameter reflecting unit 54 (step S22).
  • the model adjusting device 50 performs performance evaluation using the evaluation data while changing the parametric parameters by the performance evaluation unit 55 (step S23).
  • the parameter adjusting unit 57 determines the value of the parameter that gives the best performance evaluation result as the value of the parameter for the target domain (step S24).
  • the model adjustment device 50 outputs a target model parameter including the value of the determined parameter (step S25). Then, the process ends.
  • the parameter relevance information is expressed by using the difference between the trained model parameters of a plurality of source domains.
  • FIG. 8 schematically shows the parameter relevance information according to the first embodiment of the model generation process.
  • FIG. 8 schematically shows a model space defined by parameters.
  • one basic domain is determined from a plurality of source domains. Since the basic domain is a reference domain among a plurality of source domains, it is preferable that the characteristics of the source domain are not extreme. In addition, the basic domain preferably has the best data set quality. As a specific example, the basic domain is preferably one having the largest number of data, one having the least deterioration of data, one having the least noise, etc., among a plurality of source domains.
  • the basic domain is the source domain 0, and the trained model parameter of the source domain 0 is “w 0 ”.
  • the trained model parameter of the source domain 1 is set to "w 1 "
  • the trained model parameter of the source domain 2 is set to "w 2 ". All of these trained model parameters w 0 to w 2 are generated by the model parameter learning unit 15 of the model generation device 10. Further, it is assumed that the learning model generated by the model generation device 10, that is, the model represented by the model parameters including the parameter is indicated by "w".
  • the learning model w generated by the model generation device 10 is expressed as a linear combination of the difference vectors between the trained model parameters of the basic domain and the trained model parameters of the other source domains. Specifically, the learning model w is given by the following equation.
  • the parameter adjustment unit 57 may search for the value of the parameter in the model space of (number of source domains-1) dimension (two dimensions in this example). Two or more source domains are required to define the model space including the learning model w, but if the number of source domains is too large, the search process performed by the parameter adjustment unit 57 in the model adjustment process becomes enormous. .. Therefore, when the number of source domains is large, the number of source domains may be reduced in order to suppress the dimension of the model space. For example, you can select some source domains that you think are useful from multiple source domains, or you can select some source domains using criteria such as the major direction of change in parameter variation.
  • the model parameter learning unit 15 of the model generation device 10 sets the trained model parameter w 0 of the source domain 0 as the initial value, and trained the trained model parameter w 1 of the source domain 1 and the trained model of the source domain 2. to learn the parameters w 2. Then, the model parameter learning unit 15 outputs each model parameter w 0 to w 2 as the trained model parameter 23.
  • the relevance information generation unit 16 indicates that the above equation (1) or the parameters a and b are coefficients that are multiplied by the difference vectors (w 1- w 0 ) and (w 2- w 0 ). The information is output as the parameter relevance information 24. In order to acquire the parameter relevance information output at this time suitable for the purpose used for adjustment, the model parameter learning unit 15 uses a constraint that suppresses the difference from the trained model parameters in other domains. You may.
  • the parameter is defined as a variable input to the neural network constituting the learning model.
  • FIG. 9 shows a configuration example of the learning model according to the second embodiment.
  • the variable corresponding to the difference in the source domain is the domain information d, and this is the input variable of the neural network. That is, in addition to the input x, the domain information d is input to the input layer of the neural network as an input variable.
  • the domain information d different conditions in each source domain, for example, the scale ratio of image data, the color temperature, the image angle of the camera, and the like can be used.
  • the model parameter learning unit 15 of the model generation device 10 outputs the neural network parameter set and the domain information d as the trained model parameters 23. Further, the relevance information generation unit 16 outputs information such as the input position of the domain information d in the neural network, for example, the number of layers of the input layer and the hidden layer, as the parametric parameter relevance information 24.
  • the model adjustment device 50 evaluates the performance of the target model using the evaluation data of the target domain while changing the domain information d as an intermediary parameter, that is, the scale ratio of the image. Then, the model adjusting device 50 determines the target model by adopting the value of the parameter when the best performance is obtained, that is, the scale ratio of the image. For example, if the scale ratio of the image in the target domain is unknown, but the best performance is obtained when the scale of the image is set to "3" by the performance evaluation performed using the evaluation data, the target model is used. The value of the parameter is determined to be "3".
  • the model adjusting device 50 may determine the value of the parameter to "2" in the target model generated by the parameter reflecting unit 54.
  • the domain information d is input to the input layer of the neural network.
  • the domain information d may be input to the hidden layer of the neural network.
  • the domain information d may be input to one place in the hidden layer.
  • the domain information d may be input to a plurality of locations in the neural network.
  • the model adjusting device 50 can perform performance evaluation using the evaluation data set and determine an appropriate parameter. Therefore, it is not necessary to prepare a large amount of data in the target domain as learning data, and domain adaptation is possible even if the amount of data obtained in the target domain is small.
  • the model generation process may be performed using the learning data of the source domain, and the result may be provided to the company.
  • the target model can be generated by performing the above model adjustment process using the data of the target domain hidden in the company.
  • the model can be adapted to the target domain by adjusting the parameter in the model adjustment process. Therefore, not only when the data of the target domain is small or concealed, but also when deploying the generated model, it is possible to adjust the model using a small amount of data obtained in the target domain. ..
  • FIG. 11A shows the functional configuration of the model generator 60 according to the second embodiment of the present invention.
  • the hardware configuration of the model generator 60 is the same as that of the model generator 10 shown in FIG.
  • the model generation device 60 includes a learning unit 61 and a relevance information generation unit 62.
  • the learning unit 61 learns the model parameters corresponding to the model to be used by using the learning data in the plurality of source domains.
  • the relevance information generation unit 62 generates parametric parameter relevance information indicating the relevance between the model parameters of the plurality of source domains and the parametric parameters.
  • a model adapted to the target domain can be obtained by adjusting the parametric parameters using the evaluation data of the target domain.
  • FIG. 11B shows the functional configuration of the model adjusting device according to the second embodiment.
  • the hardware configuration of the model adjusting device 70 is the same as that of the model adjusting device 50 shown in FIG.
  • the model adjustment device 70 includes a target model parameter generation unit 71 and a determination unit 72.
  • the target model parameter generation unit 71 acquires the trained model parameters for each of the plurality of source domains and the parameter relevance information indicating the relationship between the trained model parameters of the plurality of source domains and the parametric parameters. Then, the target model parameter generation unit 71 corresponds to the target domain based on the trained model parameters for each of the plurality of source domains and the parameter relevance information, and sets the target model parameters which are model parameters including the parameters. Generate.
  • the determination unit 72 determines the parametric parameters included in the target model parameters using the evaluation data of the target domain. As a result, a target model adapted to the target domain can be obtained.
  • model generation device and the model adjustment device are configured as separate devices, but a single model generation device having both functions may be configured.
  • the target of processing by the model is image data, but this is only an example, and various other data can be targeted.
  • a learning unit that learns model parameters corresponding to the model to be used using training data in multiple source domains.
  • a relevance information generation unit that generates parametric relevance information indicating the relevance between the model parameter and the parametric parameter,
  • a model generator equipped with.
  • the learning unit generates trained model parameters for each of the source domains by using the learning data in the plurality of source domains.
  • the relevance information generation unit uses the trained model parameters for each source domain to generate parametric parameter relevance information indicating the relationship between the mediation parameters and the trained model parameters for each source domain.
  • the parameter relevance information is indicated by a linear combination of the difference vectors between the trained model parameters for each source domain.
  • Appendix 4 The model generator according to Appendix 3, wherein the difference vector indicates a difference between a trained model parameter of one of the plurality of source domains and a trained model parameter of another source domain.
  • Appendix 5 The model generator according to Appendix 4, wherein the basic domain is the source domain having the largest number of learning data among the plurality of source domains.
  • the model is a neural network
  • the model generator according to Appendix 1 or 2 wherein the parameter is a variable input to at least one of the input layer or the hidden layer of the neural network.
  • Appendix 7 The model generator according to Appendix 2, further comprising a trained model parameter for each source domain and an output unit for outputting the parameter relevance information.
  • a target model parameter generation unit that generates a target model parameter that corresponds to a target domain and is a model parameter including the parameter based on the trained model parameter for each of the plurality of source domains and the parameter relevance information.
  • a decision unit that determines the parametric parameters included in the target model parameters using the evaluation data of the target domain, and 2.
  • the model generator according to Appendix 2.
  • the determination unit changes the value of the mediation parameter and evaluates the performance using the evaluation data, and the value of the mediation parameter when the result of the performance evaluation is the best is included in the target model parameter.
  • the model adjusting device according to Appendix 9, which determines the value of.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Feedback Control In General (AREA)

Abstract

モデル生成装置は、複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータ、及び、複数のソースドメインのモデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する。モデル調整装置は、複数のソースドメイン毎の学習済モデルパラメータ、及び、媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成する。そして、モデル調整装置は、ターゲットドメインの評価用データを用いて、ターゲットモデルパラメータに含まれる媒介パラメータを決定する。

Description

モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体
 本発明は、認識モデルのドメイン適応に関する。
 様々なタスクにおいて、ニューラルネットワークを用いた認識モデルの性能が良いことが知られている。しかし、モデルが柔軟性を有するため、学習用データの表面的特性にも適合してしまい、異なるデータに転用すると性能が低下してしまう。そこで、目的のデータ特性(ターゲットドメイン)において良い性能を得るための学習技術が開発されている。この手法は「ドメイン適応」とも呼ばれる。具体的に、ソースドメインで学習されたモデルを、ターゲットドメインの学習用データを用いて追加で学習する手法が知られている。例えば、特許文献1は、第1ドメインのデータの学習により得られたモデルのパラメータを、第2ドメインの学習により得られたパラメータを用いて補正、補間する手法を記載している。
特願2018-180045号公報
 しかし、上記の手法では、ターゲットドメインについての十分な学習用データや計算環境が得られないところでは、ドメイン適応を行うことは困難であった。
 本発明の目的の1つは、ターゲットドメインについて限られた量のデータしかない場合でも、ターゲットドメインに適応したモデルを生成可能とすることにある。
 上記の課題を解決するため、本発明の一つの観点は、モデル生成装置であって、
 複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習する学習部と、
 前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する関連性情報生成部と、を備える。
 本発明の他の観点は、モデル調整装置であって、
 複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成部と、
 前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定部と、を備える。
 本発明の他の観点では、モデル生成方法は、
 複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習し、
 前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する。
 本発明の他の観点では、モデル調整方法は、
 複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成し、
 前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する。
 本発明の他の観点では、記録媒体は、
 複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習し、
 前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する処理をコンピュータに実行させるプログラムを記録する。
 本発明の他の観点では、記録媒体は、
 複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成し、
 前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する処理をコンピュータに実行させる。
 本発明によれば、ターゲットドメインのデータを用いて媒介パラメータを決定することにより、ターゲットドメインに適応したモデルを得ることが可能となる。
実施形態によるドメイン適応の基本原理を模式的に示す。 第1実施形態によるモデル生成装置のハードウェア構成を示すブロック図である。 モデル生成装置の機能構成を示すブロック図である。 モデル生成処理のフローチャートである。 第1実施形態によるモデル調整装置のハードウェア構成を示すブロック図である。 モデル調整装置の機能構成を示すブロック図である。 モデル調整処理のフローチャートである。 モデル生成処理の第1実施例に係る媒介パラメータの関連性を模式的に示す。 第2実施例による学習モデルの構成例を示す。 第2実施例による学習モデルの他の構成例を示す。 第2実施形態によるモデル生成装置及びモデル調整装置の機能構成を示すブロック図である。
 以下、図面を参照して本発明の好適な実施形態について説明する。
 <基本原理>
 まず、実施形態によるドメイン適応の基本原理を説明する。実施形態は、限られた量のターゲットドメインの評価用データを用いてドメイン適応を行う点に特徴を有する。ここで、「ドメイン」とは、例えばデータが得られた場所、時間、環境などの条件により規定されるデータの領域であり、これらの条件が共通するデータが同一のドメインのデータとなる。例えば、同じ場所で撮影された画像データであっても、時間が違ったり、カメラ特性が違ったりした場合は、異なるドメインの画像データとなる。また、同じ場所で同一のカメラで撮影された画像データであっても、撮影画像のスケール比、照明条件、カメラの向き、カメラの画角などの撮影条件が異なる場合は、異なるドメインの画像データとなる。以下では、モデルの学習に用いられるドメインを「ソースドメイン」と呼び、その学習により得られたモデルを適用するドメインを「ターゲットドメイン」と呼ぶ。
 実施形態によるドメイン適応は、基本的にモデル生成装置とモデル調整装置により行われる。モデル生成装置は、複数のソースドメインの学習用データを用いて、ソースドメイン毎のモデルのパラメータ(以下、「モデルパラメータ」と呼ぶ。)と、媒介パラメータ関連性情報とを生成する。一方、モデル調整装置は、モデル生成装置が生成したモデルパラメータ及び媒介パラメータ関連性情報と、ターゲットドメインの評価用データとを用いて、ターゲットドメインに適応したモデルのパラメータを生成する。
 図1は、実施形態によるドメイン適応の基本原理を模式的に示す。本実施形態では、モデル生成装置は、画像データから物体を認識する処理に使用される認識モデルを生成するものとする。また、認識モデルはニューラルネットワークを用いたモデルであるものとする。いま、図示のように、ソースドメイン1、2があり、ソースドメイン1について学習用データD1が用意され、ソースドメイン2について学習用データD2が用意されているとする。モデル生成装置は、ソースドメイン1について、学習用データD1を用いて学習モデルの学習を行い、学習結果を生成する。また、モデル生成装置は、ソースドメイン2について、学習用データD2を用いて学習モデルの学習を行い、学習結果を生成する。なお、これらの学習結果は、学習モデルを構成するニューラルネットワークにおけるパラメータ(重み)の集合であり、以下「学習済モデルパラメータ」とも呼ぶ。
 いま、ソースドメイン1、2とは異なるターゲットドメインについてモデルパラメータを生成することを考える。ターゲットドメインについて十分な学習用データがあれば、それらを使ってモデルの学習を行えばよいが、ここではターゲットドメインについては、限られた量のデータ、具体的には評価用データしか得られないものとする。この場合、本実施形態では、ドメインの差に対応する媒介パラメータを導入する。媒介パラメータは、異なるソースドメインに対応するモデルパラメータを媒介する役割を有するパラメータであり、異なるソースドメインのモデルパラメータに対する関連性を有する。
 媒介パラメータは、ソースドメイン1、2の学習結果に基づいて規定され、概念的には図1に示すように、ソースドメイン1、2の学習結果を接続する曲線Cにより与えられる。媒介パラメータの値は、曲線C上の位置を指定する。媒介パラメータの値を変化させることにより、モデルパラメータが、曲線C上で、ソースドメイン1の学習済モデルパラメータと、ソースドメイン2の学習済モデルパラメータとの間を移動する。この曲線Cは、媒介パラメータと、ソースドメイン毎の学習済モデルパラメータとの関連性を示す情報(以下、「媒介パラメータ関連性情報」と呼ぶ。)を示す。モデル生成装置は、ソースドメイン1の学習済モデルパラメータと、ソースドメイン2の学習済モデルパラメータと、ソースドメイン1、2の学習用データD1、D2とを用いて、媒介パラメータの値によってどのようにモデルパラメータを変形するかを示す媒介パラメータ関連性情報を生成する。そして、モデル生成装置は、ソースドメイン毎の学習済モデルパラメータと、媒介パラメータ関連性情報とを含むパラメータセットを生成する。このパラメータセットは、媒介パラメータを調整することにより、モデルパラメータをターゲットドメインに適応させることが可能に構成されたものである。
 次に、あるターゲットドメインの評価用データを用いて、ターゲットドメインのモデルパラメータを調整することを考える。この場合、モデル調整装置は、まず、ソースドメイン毎の学習済モデルパラメータと、媒介パラメータ関連性情報とを用いて、ターゲットドメインのモデル(以下、「ターゲットモデル」と呼ぶ。)を生成する。一例では、モデル調整装置は、複数のソースドメインのうち、ターゲットドメインに最も近いソースドメインの学習済モデルパラメータに、媒介パラメータを反映してターゲットモデルを生成する。他の例では、モデル調整装置は、複数のソースドメインのうち、予め決められた1つの基本ドメインの学習済モデルパラメータに、媒介パラメータを反映してターゲットモデルを生成する。さらに他の例では、モデル調整装置は、複数のソースドメインのいくつか又は全てについての学習済モデルパラメータに、媒介パラメータを反映してターゲットモデルを生成する。
 次に、モデル調整装置は、媒介パラメータの値を変化させつつ、ターゲットドメインの評価用データを用いた性能評価を行う。言い換えると、モデル調整装置は、ターゲットドメインの評価用データを用いて、そのターゲットドメインに適応する媒介パラメータの探索を行う。そして、最も良い性能が得られたときの媒介パラメータの値を、そのターゲットドメインに適応した媒介パラメータの値と決定し、ターゲットモデルの媒介パラメータにその値を適用する。
 図1において、ターゲットドメインにおける十分な学習用データが存在すると仮定した場合に、十分な学習用データを用いた学習により得られるモデルを「最適モデルMt」とする。これに対し、実施形態の手法により、媒介パラメータを調整してターゲットドメインに適応させたターゲットモデルを「Ma」で示す。ターゲットモデルMaは、媒介パラメータ関連性情報を示す曲線C上であって、最適モデルMtに十分に近い位置に決定される。このように、実施形態の手法では、最適モデルMtと一致するモデルを生成することはできないが、媒介パラメータ関連性情報を示す曲線C上に位置し、かつ、最適モデルMtに最も近いターゲットモデルMaを得ることができる。
 <第1実施形態>
 次に、本発明の第1実施形態について説明する。
 [モデル生成装置]
 まず、モデル生成装置について詳しく説明する。
 (ハードウェア構成)
 図2は、第1実施形態に係るモデル生成装置のハードウェア構成を示すブロック図である。モデル生成装置10は、コンピュータを用いて構成され、複数のソースドメインの学習用データを用いて、使用する認識モデルのパラメータを学習する。
 図2に示すように、モデル生成装置10は、プロセッサ11と、メモリ12とを備える。プロセッサ11は、CPU、又は、CPUとGPUなどであり、予め用意されたプログラムを実行することによりモデル生成処理を実行する。メモリ12は、RAM(Random Access Memory)、ROM(Read Only Memory)などにより構成され、プロセッサ11が実行するプログラムを記憶する。また、メモリ12は、プロセッサ11による処理の実行中に作業メモリとしても機能する。
 モデル生成装置10は、記録媒体5を読み取り可能である。記録媒体5は、モデル生成処理を行うためのプログラムを記録している。記録媒体5は、コンピュータにより読み取り可能な、不揮発性記録媒体などの非一時的な記録媒体である。記録媒体5の例としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどが挙げられる。記録媒体5に記録されているプログラムは、モデル生成装置10による処理の実行時にメモリ12に読み込まれ、プロセッサ11により実行される。
 モデル生成装置10には、学習用データ21と、学習モデル22とが入力される。学習用データ21は、複数のソースドメインで用意された画像データ群である。学習モデル22は、目的の認識処理を行うために予め用意された識別モデルである。モデル生成装置10は、学習用データ21及び学習モデル22を用いてモデル生成処理を行い、学習済モデルパラメータ23と、媒介パラメータ関連性情報24とを出力する。学習済モデルパラメータ23は、複数のソースドメイン毎に生成される。媒介パラメータは、異なるソースドメイン間の差に対応するパラメータであるが、その詳細は後述する。
 (機能構成)
 次に、モデル生成装置10の機能構成について説明する。図3は、モデル生成装置10の機能構成を示すブロック図である。図示のように、モデル生成装置10は、機能的には、モデルパラメータ学習部15と、関連性情報生成部16と、を備える。
 モデルパラメータ学習部15は、複数のソースドメイン毎に学習モデルのパラメータであるモデルパラメータを学習し、ソースドメイン毎に学習済モデルパラメータ23を生成する。いま、学習用データ21として、ソースドメイン0~2の学習用データがあると仮定すると、モデルパラメータ学習部15は、ソースドメイン0の学習用データを用いて学習モデルの学習を行い、ソースドメイン0の学習済モデルパラメータを生成する。なお、学習済モデルパラメータは、認識モデルを構成するニューラルネットワークにおける重みの集合である。また、モデルパラメータ学習部15は、ソースドメイン1の学習用データを用いて学習モデルの学習を行い、ソースドメイン1の学習済モデルパラメータを生成する。さらに、モデルパラメータ学習部15は、ソースドメイン2の学習用データを用いて学習モデルの学習を行い、ソースドメイン2の学習済モデルパラメータを生成する。そして、モデルパラメータ学習部15は、ソースドメイン0~2の学習済モデルパラメータ23を出力する。モデルパラメータ学習部15は、本発明の学習部の一例である。
 関連性情報生成部16は、複数のソースドメインの学習用データと、モデルパラメータ学習部15により生成されるソースドメイン毎の学習済モデルパラメータとを用いて、学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報24を生成する。ここで、「関連性」とは、媒介パラメータの値によって、どのようにモデルパラメータを変形するかを示す。なお、関連性情報生成部16は、モデルパラメータ学習部15によるモデルパラメータの学習とは分離して媒介パラメータ関連性情報の生成を行う。
 (モデル生成処理)
 次に、モデル生成装置10により実行されるモデル生成処理について説明する。図4は、モデル生成処理のフローチャートである。この処理は、図2に示すプロセッサ11が、予め用意されたプログラムを実行することにより実現される。
 まず、モデル生成装置10は、複数のソースドメインの学習用データ21と、学習モデル22とを取得する(ステップS11)。次に、モデル生成装置10は、モデルパラメータ学習部15により、ソースドメイン毎の学習用データを用いて、ソースドメイン毎にモデルパラメータを学習する(ステップS12)。
 次に、モデル生成装置10は、関連性情報生成部16により、複数のソースドメインの学習用データと、ステップS12で得られたソースドメイン毎の学習済モデルパラメータとに基づいて、学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報24を生成する(ステップS13)。そして、モデル生成装置10は、ステップS12で得られたソースドメイン毎の学習済モデルパラメータ23と、ステップS13で得られた媒介パラメータ関連性情報24とを出力する(ステップS14)。そして、処理は終了する。
 [モデル調整装置]
 次に、モデル調整装置について詳しく説明する。
 (ハードウェア構成)
 図5は、実施形態に係るモデル調整装置のハードウェア構成を示すブロック図である。モデル調整装置50は、コンピュータを用いて構成される。モデル調整装置50は、モデル生成装置10が生成したソースドメイン毎の学習済モデルパラメータと、媒介パラメータ関連性情報とを用いて、ターゲットドメインに適応した認識モデル(以下、「ターゲットモデル」とも呼ぶ。)のパラメータ(以下、「ターゲットモデルパラメータ」とも呼ぶ。)を生成する。
 図5に示すように、モデル調整装置50は、プロセッサ51と、メモリ52とを備える。プロセッサ51は、CPU、又は、CPUとGPUなどであり、予め用意されたプログラムを実行することによりモデル調整処理を実行する。メモリ52は、RAM、ROMなどにより構成され、プロセッサ51が実行するプログラムを記憶する。また、メモリ52は、プロセッサ51による処理の実行中に作業メモリとしても機能する。
 また、モデル調整装置50は、記録媒体5を読み取り可能である。記録媒体5は、モデル調整処理を行うためのプログラムを記録している。記録媒体5の例は、モデル生成装置10の場合と同様である。記録媒体5に記録されているプログラムは、モデル調整装置50による処理の実行時にメモリ52に読み込まれ、プロセッサ51により実行される。
 モデル調整装置50には、学習済モデルパラメータ23と、媒介パラメータ関連性情報24と、ターゲットドメインの評価用データ25とが入力される。学習済モデルパラメータ23と媒介パラメータ関連性情報24は、上述のモデル生成装置10により生成されたものである。評価用データ25は、ターゲットドメインにおいて得られたデータである。なお、このターゲットドメインは、図2に示すモデル生成装置10に入力される学習用データ21のソースドメイン、即ち、学習済モデルパラメータ23の各ソースドメインとは異なるドメインである。
 モデル調整装置50は、上記の入力データを用いてターゲットドメインに対応するターゲットモデルを生成する。次に、モデル調整装置50は、ターゲットモデルに含まれる媒介パラメータの調整を行い、調整後の媒介パラメータにより規定されるターゲットモデルパラメータ26を出力する。
 (機能構成)
 次に、モデル調整装置50の機能構成について説明する。図6は、モデル調整装置50の機能構成を示すブロック図である。図示のように、モデル調整装置50は、機能的には、媒介パラメータ反映部54と、性能評価部55と、評価結果保存部56と、媒介パラメータ調整部57と、パラメータ保存部58と、を備える。
 媒介パラメータ反映部54は、媒介パラメータ関連性情報24に基づいて媒介パラメータを学習済モデルパラメータ23に反映し、媒介パラメータを含むターゲットモデルを生成する。性能評価部55は、ターゲットドメインの評価用データを用いて、媒介パラメータ反映部54が生成したターゲットモデルの性能評価を行う。ここで、性能評価部55は、媒介パラメータを含むターゲットモデルにおいて、媒介パラメータの値を変化させつつ、そのターゲットモデルの性能評価を行う。具体的には、性能評価部55は、媒介パラメータの値を変化させつつ、ターゲットドメインの全ての評価用データについて、予め決められた評価指標を用いて性能評価を行う。そして、得られた性能評価値を評価結果保存部56に保存する。媒介パラメータ反映部54は、本発明のターゲットモデルパラメータ生成部の一例である。
 媒介パラメータ調整部57は、評価結果保存部56に保存された性能評価結果を参照し、最も良い評価結果が得られたときの媒介パラメータの値を、そのターゲットドメインに対して使用する媒介パラメータの値と決定する。そして、媒介パラメータ調整部57は、決定された値の媒介パラメータを含むターゲットモデルを生成し、そのパラメータであるターゲットモデルパラメータ26をパラメータ保存部58に保存するとともに、外部に出力する。媒介パラメータ調整部57は、本発明の決定部の一例である。
 (モデル調整処理)
 次に、モデル調整装置50により実行されるモデル調整処理について説明する。図7は、モデル調整処理のフローチャートである。この処理は、図5に示すプロセッサ51が、予め用意されたプログラムを実行することにより実現される。
 まず、モデル調整装置50は、学習済モデルパラメータ23、媒介パラメータ関連性情報24、及び、ターゲットドメインの評価用データ25を取得する(ステップS21)。次に、モデル調整装置50は、媒介パラメータ反映部54により、媒介パラメータを反映したターゲットモデルを生成する(ステップS22)。
 次に、モデル調整装置50は、性能評価部55により、媒介パラメータを変化させつつ評価用データを用いた性能評価を行う(ステップS23)。次に、媒介パラメータ調整部57は、性能評価の結果が最良となる媒介パラメータの値を、そのターゲットドメインに対する媒介パラメータの値として決定する(ステップS24)。そして、モデル調整装置50は、決定された媒介パラメータの値を含むターゲットモデルパラメータを出力する(ステップS25)。そして、処理は終了する。
 [実施例]
 次に、モデル生成装置10によるモデル生成処理の実施例について説明する。
 (第1実施例)
 第1実施例は、媒介パラメータ関連性情報を、複数のソースドメインの学習済モデルパラメータの差分を用いて表現するものである。図8は、モデル生成処理の第1実施例に係る媒介パラメータ関連性情報を模式的に示す。図8は、媒介パラメータにより規定されるモデル空間を模式的に示している。
 第1実施例では、複数のソースドメインのうちから1つの基本ドメインが決定される。基本ドメインは、複数のソースドメインのうち、基準となるドメインであるので、そのソースドメインの持つ特徴が極端でないものが好ましい。また、基本ドメインは、最もデータセットの質が良いものが好ましい。具体例としては、基本ドメインは、複数のソースドメインのうち、最もデータ数の多いもの、最もデータの劣化が少ないもの、最もノイズの少ないものなどとすることが好ましい。
 図8の例において、3つのソースドメイン0~2が存在し、基本ドメインをソースドメイン0とし、ソースドメイン0の学習済モデルパラメータを「w」とする。同様に、ソースドメイン1の学習済モデルパラメータを「w」とし、ソースドメイン2の学習済モデルパラメータを「w」とする。これらの学習済モデルパラメータw~wは、いずれもモデル生成装置10のモデルパラメータ学習部15により生成されるものである。また、モデル生成装置10が生成する学習モデル、即ち、媒介パラメータを含むモデルパラメータにより表現されるモデルを「w」で示すものとする。
 第1実施例では、モデル生成装置10が生成する学習モデルwを、基本ドメインの学習済モデルパラメータと、他のソースドメインの学習済モデルパラメータとの差分ベクトルの線形結合として表現する。具体的に、学習モデルwは以下の式により与えられる。
   w=w+a(w-w)+b(w-w)      (1)
 ここで、「a」、「b」は媒介パラメータである。
 このように、第1実施例では、基本ドメインに対する各ソースドメインの差分ベクトルで規定される空間を考え、媒介パラメータa、bを各差分ベクトル(w-w)、(w-w)に乗算する係数として規定する。これにより、学習モデルwは、図8に示すように、2つの媒介パラメータa、bにより規定されるモデル空間内に示される。
 モデル調整装置50によるモデル調整処理においては、媒介パラメータ調整部57は、(ソースドメイン数-1)次元(本例では2次元)のモデル空間内で媒介パラメータの値を探索すればよい。なお、学習モデルwを含むモデル空間を規定するためにソースドメインは2つ以上必要であるが、ソースドメイン数が多すぎると、モデル調整処理において媒介パラメータ調整部57が行う探索処理が膨大となる。よって、ソースドメイン数が多い場合には、モデル空間の次元を抑えるためにソースドメイン数を削減してもよい。例えば、複数のソースドメインから、有用と思われるいくつかのソースドメインを選択したり、パラメータ変動の主要な変化方向などの基準を用いていくつかのソースドメインを選択したりすることができる。
 モデル生成処理において、モデル生成装置10のモデルパラメータ学習部15は、ソースドメイン0の学習済モデルパラメータwを初期値として、ソースドメイン1の学習済モデルパラメータw及びソースドメイン2の学習済モデルパラメータwを学習する。そして、モデルパラメータ学習部15は、各モデルパラメータw~wを学習済モデルパラメータ23として出力する。関連性情報生成部16は、上記の式(1)、又は、媒介パラメータa、bが各差分ベクトル(w-w)、(w-w)に乗算する係数であることを示す情報を、媒介パラメータ関連性情報24として出力する。このとき出力される媒介パラメータ関連性情報として、調整に用いる目的に適したものを獲得するために、モデルパラメータ学習部15は、他のドメインでの学習済モデルパラメータとの差分を抑える制約を使ってもよい。
 (第2実施例)
 第2実施例は、媒介パラメータを、学習モデルを構成するニューラルネットワークに入力される変数として規定するものである。図9は、第2実施例による学習モデルの構成例を示す。この例では、ソースドメインの違いに対応する変数をドメイン情報dとし、これをニューラルネットワークの入力変数とする。即ち、ニューラルネットワークの入力層には、入力xに加えて、ドメイン情報dが入力変数として入力される。ドメイン情報dは、各ソースドメインにおいて相違する条件、例えば、画像データのスケール比、色温度、カメラの画角度などを用いることができる。
 例えば、画像のスケール比がそれぞれ「1」、「2」、「5」である3つのソースドメインがあると仮定する。この場合、モデル生成処理においては、それぞれのスケール比の値がドメイン情報dとして入力され、モデル生成装置10は各ソースドメインの学習用データを用いた学習を行う。これにより、ドメイン情報dを媒介パラメータとする学習モデルが生成される。
 この場合、モデル生成装置10のモデルパラメータ学習部15は、ニューラルネットワークのパラメータセット及びドメイン情報dを学習済モデルパラメータ23として出力する。また、関連性情報生成部16は、ニューラルネットワークにおけるドメイン情報dの入力位置、例えば、入力層、隠れ層の何層目、などの情報を媒介パラメータ関連性情報24として出力する。
 一方、モデル調整処理においては、モデル調整装置50は、媒介パラメータとしてのドメイン情報d、即ち、画像のスケール比を変更しつつ、ターゲットドメインの評価用データを用いてターゲットモデルの性能評価を行う。そして、モデル調整装置50は、最良の性能が得られたときの媒介パラメータの値、即ち、画像のスケール比を採用してターゲットモデルを決定する。例えば、ターゲットドメインにおける画像のスケール比が未知であるが、評価用データを用いて行った性能評価により、画像のスケールを「3」としたときに最良の性能が得られた場合、ターゲットモデルにおける媒介パラメータの値は「3」と決定される。
 なお、ターゲットドメインにおけるドメイン情報d(上記の例では画像のスケール比)が既知である場合には、媒介パラメータとしてその値を用いればよい。例えば、上記の例でターゲットドメインにおける画像のスケール比が「2」であるとわかっている場合、即ち、ターゲットドメインにおけるドメイン情報dがいずれかのソースドメインのドメイン情報dと一致した場合、モデル調整処理において媒介パラメータを変更しつつ探索する処理を省略することができる。この場合、モデル調整装置50は、媒介パラメータ反映部54が生成したターゲットモデルにおいて、媒介パラメータの値を「2」に決定すればよい。
 図10(A)及び10(B)は、第2実施例による学習モデルの他の例を示す。図9の例では、ドメイン情報dがニューラルネットワークの入力層に入力されている。その代わりに、図10(A)及び10(B)に示すように、ドメイン情報dをニューラルネットワークの隠れ層に入力してもよい。例えば、図10(A)に示すように、ドメイン情報dを隠れ層の1箇所に入力しても良い。また、図10(B)に示すように、ドメイン情報dをニューラルネットワークの複数の箇所に入力しても良い。
 [実施形態による効果]
 上記のように、本実施形態によれば、モデル調整装置50は、評価用データセットを用いて性能評価を行い、適切な媒介パラメータを決定することができる。よって、ターゲットドメインにおける大量のデータを学習用データとして用意する必要が無く、ターゲットドメインにおいて得られるデータ量が少なくても、ドメイン適応が可能となる。
 認識モデルを使用する業界などによっては、ターゲットドメインのデータの秘匿性が高く、企業などからデータの提供を受けられない場合がある。このような場合でも、本実施形態によれば、ソースドメインの学習用データを用いてモデル生成処理を行ってその結果を該企業に提供すればよい。企業側では、社内で秘匿されているターゲットドメインのデータを用いて上記のモデル調整処理を行い、ターゲットモデルを生成することができる。なお、ソースドメインの学習用データをシミュレーションで生成する場合には、企業側での環境において使用されそうな条件を予測し、それに対応するソースドメインにおける学習用データを生成すれば、企業側におけるモデル調整を容易にすることができる。
 また、本実施形態では、モデル調整処理において媒介パラメータを調整することにより、モデルをターゲットドメインに適応させることができる。よって、ターゲットドメインのデータが少なかったり、秘匿されていたりする場合に限らず、生成したモデルのデプロイ時においても、ターゲットドメインで得られた少量のデータを用いてモデルを調整することが可能となる。
 <第2実施形態>
 次に、本発明の第2実施形態について説明する。図11(A)は、本発明の第2実施形態に係るモデル生成装置60の機能構成を示す。なお、モデル生成装置60のハードウェア構成は、図2に示すモデル生成装置10と同様である。図11(A)に示すように、モデル生成装置60は、学習部61と、関連性情報生成部62と、を備える。学習部61は、複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習する。関連性情報生成部62は、複数のソースドメインのモデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する。モデルの調整処理では、媒介パラメータを、ターゲットドメインの評価用データを用いて調整することにより、ターゲットドメインに適応したモデルを得ることができる。
 図11(B)は、第2実施形態に係るモデル調整装置の機能構成を示す。なお、モデル調整装置70のハードウェア構成は、図5に示すモデル調整装置50と同様である。図11(B)に示すように、モデル調整装置70は、ターゲットモデルパラメータ生成部71と、決定部72とを備える。ターゲットモデルパラメータ生成部71は、複数のソースドメイン毎の学習済モデルパラメータ、及び、複数のソースドメインの学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を取得する。そして、ターゲットモデルパラメータ生成部71は、複数のソースドメイン毎の学習済モデルパラメータ、及び、媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成する。決定部72は、ターゲットドメインの評価用データを用いて、ターゲットモデルパラメータに含まれる媒介パラメータを決定する。これにより、ターゲットドメインに適応したターゲットモデルを得ることができる。
 <変形例>
 上記の実施形態では、モデル生成装置とモデル調整装置とを別個の装置として構成しているが、両者の機能を合わせ持つ単一のモデル生成装置を構成しても良い。また、上記の実施形態では、モデルによる処理の対象を画像データとしているが、これは一例に過ぎず、他の各種のデータを対象とすることができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習する学習部と、
 前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する関連性情報生成部と、
 を備えるモデル生成装置。
 (付記2)
 前記学習部は、前記複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に学習済モデルパラメータを生成し、
 前記関連性情報生成部は、前記ソースドメイン毎の学習済モデルパラメータを用いて、前記媒介パラメータと前記ソースドメイン毎の学習済モデルパラメータとの関連性を示す媒介パラメータ関連性情報を生成する付記1に記載のモデル生成装置。
 (付記3)
 前記媒介パラメータ関連性情報は、前記ソースドメイン毎の学習済モデルパラメータ間の差分ベクトルの線形結合により示され、
 前記媒介パラメータは、前記差分ベクトルに乗算される係数である付記1又は2に記載のモデル生成装置。
 (付記4)
 前記差分ベクトルは、前記複数のソースドメインのうちの1つの基本ドメインの学習済モデルパラメータと、他のソースドメインの学習済モデルパラメータとの差分を示す付記3に記載のモデル生成装置。
 (付記5)
 前記基本ドメインは、前記複数のソースドメインのうち、最も学習用データ数が多いソースドメインである付記4に記載のモデル生成装置。
 (付記6)
 前記モデルは、ニューラルネットワークであり、
 前記媒介パラメータは、前記ニューラルネットワークの入力層、又は、隠れ層の少なくとも1か所に入力される変数である付記1又は2に記載のモデル生成装置。
 (付記7)
 前記ソースドメイン毎の学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報を出力する出力部を備える付記2に記載のモデル生成装置。
 (付記8)
 前記複数のソースドメイン毎の学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成部と、
 前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定部と、
 を備える付記2に記載のモデル生成装置。
 (付記9)
 複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成部と、
 前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定部と、
 を備えるモデル調整装置。
 (付記10)
 前記決定部は、前記媒介パラメータの値を変化させて前記評価用データを用いた性能評価を行い、前記性能評価の結果が最も良いときの媒介パラメータの値を前記ターゲットモデルパラメータに含まれる媒介パラメータの値と決定する付記9に記載のモデル調整装置。
 (付記11)
 複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習し、
 前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成するモデル生成方法。
 (付記12)
 複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成し、
 前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定するモデル調整方法。
 (付記13)
 複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習し、
 前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する処理をコンピュータに実行させるプログラムを記録した記録媒体。
 (付記14)
 複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成し、
 前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する処理をコンピュータに実行させるプログラムを記録した記録媒体。
 以上、実施形態及び実施例を参照して本発明を説明したが、本発明は上記実施形態及び実施例に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 10、60 モデル生成装置
 11、51 プロセッサ
 12、52 メモリ
 15 モデルパラメータ学習部
 16 関連性情報生成部
 50、70 モデル調整装置
 54 媒介パラメータ反映部
 55 性能評価部
 57 媒介パラメータ調整部

Claims (14)

  1.  複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習する学習部と、
     前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する関連性情報生成部と、
     を備えるモデル生成装置。
  2.  前記学習部は、前記複数のソースドメインにおける学習用データを用いて、前記ソースドメイン毎に学習済モデルパラメータを生成し、
     前記関連性情報生成部は、前記ソースドメイン毎の学習済モデルパラメータを用いて、前記媒介パラメータと前記ソースドメイン毎の学習済モデルパラメータとの関連性を示す媒介パラメータ関連性情報を生成する請求項1に記載のモデル生成装置。
  3.  前記媒介パラメータ関連性情報は、前記ソースドメイン毎の学習済モデルパラメータ間の差分ベクトルの線形結合により示され、
     前記媒介パラメータは、前記差分ベクトルに乗算される係数である請求項1又は2に記載のモデル生成装置。
  4.  前記差分ベクトルは、前記複数のソースドメインのうちの1つの基本ドメインの学習済モデルパラメータと、他のソースドメインの学習済モデルパラメータとの差分を示す請求項3に記載のモデル生成装置。
  5.  前記基本ドメインは、前記複数のソースドメインのうち、最も学習用データ数が多いソースドメインである請求項4に記載のモデル生成置。
  6.  前記モデルは、ニューラルネットワークであり、
     前記媒介パラメータは、前記ニューラルネットワークの入力層、又は、隠れ層の少なくとも1か所に入力される変数である請求項1又は2に記載のモデル生成装置。
  7.  前記ソースドメイン毎の学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報を出力する出力部を備える請求項2に記載のモデル生成装置。
  8.  前記複数のソースドメイン毎の学習済モデルパラメータ、及び、前記媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成部と、
     前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定部と、
     を備える請求項2に記載のモデル生成装置。
  9.  複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成するターゲットモデルパラメータ生成部と、
     前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する決定部と、
     を備えるモデル調整装置。
  10.  前記決定部は、前記媒介パラメータの値を変化させて前記評価用データを用いた性能評価を行い、前記性能評価の結果が最も良いときの媒介パラメータの値を前記ターゲットモデルパラメータに含まれる媒介パラメータの値と決定する請求項9に記載のモデル調整装置。
  11.  複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習し、
     前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成するモデル生成方法。
  12.  複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成し、
     前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定するモデル調整方法。
  13.  複数のソースドメインにおける学習用データを用いて、使用するモデルに対応するモデルパラメータを学習し、
     前記モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報を生成する処理をコンピュータに実行させるプログラムを記録した記録媒体。
  14.  複数のソースドメイン毎の学習済モデルパラメータ、及び、前記学習済モデルパラメータと媒介パラメータとの関連性を示す媒介パラメータ関連性情報に基づいて、ターゲットドメインに対応し、前記媒介パラメータを含むモデルパラメータであるターゲットモデルパラメータを生成し、
     前記ターゲットドメインの評価用データを用いて、前記ターゲットモデルパラメータに含まれる媒介パラメータを決定する処理をコンピュータに実行させるプログラムを記録した記録媒体。
PCT/JP2019/013974 2019-03-29 2019-03-29 モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体 WO2020202244A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2019/013974 WO2020202244A1 (ja) 2019-03-29 2019-03-29 モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体
PCT/JP2019/025113 WO2020202591A1 (ja) 2019-03-29 2019-06-25 モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体
US17/598,422 US20220180195A1 (en) 2019-03-29 2019-06-25 Model generation device, model adjustment device, model generation method, model adjustment method, and recording medium
JP2021511083A JP7251613B2 (ja) 2019-03-29 2019-06-25 モデル生成装置、モデル生成方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/013974 WO2020202244A1 (ja) 2019-03-29 2019-03-29 モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2020202244A1 true WO2020202244A1 (ja) 2020-10-08

Family

ID=72666609

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2019/013974 WO2020202244A1 (ja) 2019-03-29 2019-03-29 モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体
PCT/JP2019/025113 WO2020202591A1 (ja) 2019-03-29 2019-06-25 モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/025113 WO2020202591A1 (ja) 2019-03-29 2019-06-25 モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体

Country Status (3)

Country Link
US (1) US20220180195A1 (ja)
JP (1) JP7251613B2 (ja)
WO (2) WO2020202244A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053419A1 (ja) * 2021-09-30 2023-04-06 日本電信電話株式会社 処理装置及び処理方法
WO2023189737A1 (ja) * 2022-03-28 2023-10-05 富士フイルム株式会社 情報処理方法、情報処理装置及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081404A (ja) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081404A (ja) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MORIYA, T. ET AL.: "Progressive Neural Network- based Knowledge Transfer in Acoustic Models", PROCEEDINGS OF 2018 ASIA-PACIFIC SIGNAL AND INFORMATION PROCESSING ASSOCIATION ANNUAL SUMMIT AND CONFERENCE (APSIPA-ASC 2018, 15 November 2018 (2018-11-15), pages 998 - 1002, XP033525913, ISBN: 978-988-14768-5-2, DOI: 10.23919/APSIPA.2018.8659556 *
MORIYA, T. ET AL.: "Transfer learning using progressive neural networks for acoustic models", PROCEEDINGS OF 2018 SPRING MEETING OF THE ACOUSTICAL SOCIETY OF JAPAN, 13 March 2018 (2018-03-13), pages 13 - 14, ISSN: 1880-7658 *
TANEL ALUMÄE: "Multi-domain Neural Network Language Model", PROCEEDINGS OF THE 14TH ANNUAL CONFERENCE OF THE INTERNATIONAL SPEECH COMMUNICATION ASSOCIATION (INTERSPEECH 2013), 29 August 2013 (2013-08-29), pages 2182 - 2186, XP055746119, ISSN: 2308-457X, Retrieved from the Internet <URL:https://www.isca-speech.org/archive/archive_papers/interspeech_2013/il3_2182.pdf> [retrieved on 20190605] *

Also Published As

Publication number Publication date
JP7251613B2 (ja) 2023-04-04
JPWO2020202591A1 (ja) 2020-10-08
WO2020202591A1 (ja) 2020-10-08
US20220180195A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
JP4710931B2 (ja) 学習装置、学習方法、およびプログラム
US10924849B2 (en) Sound source separation device and method
WO2020202244A1 (ja) モデル生成装置、モデル調整装置、モデル生成方法、モデル調整方法、及び、記録媒体
CN110265054B (zh) 语音信号处理方法、装置、计算机可读存储介质和计算机设备
US20050119982A1 (en) Information processing apparatus and method
WO2019146189A1 (ja) ニューラルネットワークのランク最適化装置および最適化方法
Luo et al. Performance evaluation of selective fixed-filter active noise control based on different convolutional neural networks
WO2021064856A1 (ja) ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置
JP6935868B2 (ja) 画像認識装置、画像認識方法、およびプログラム
Liu et al. A reduced Gaussian kernel least-mean-square algorithm for nonlinear adaptive signal processing
Beeson et al. Balancing policy constraint and ensemble size in uncertainty-based offline reinforcement learning
Oszust Image quality assessment with lasso regression and pairwise score differences
JP6567478B2 (ja) 音源強調学習装置、音源強調装置、音源強調学習方法、プログラム、信号処理学習装置
JP7487556B2 (ja) モデル生成プログラム、モデル生成装置、及びモデル生成方法
WO2020071213A1 (ja) 音響モデル学習装置、音声合成装置、及びプログラム
JP5867669B2 (ja) 色処理装置および色処理プログラム
WO2023152895A1 (ja) 波形信号生成システム、波形信号生成方法及びプログラム
US7324980B2 (en) Information processing apparatus and method
JP7438544B2 (ja) ニューラルネットワーク処理装置、コンピュータプログラム、ニューラルネットワーク製造方法、ニューラルネットワークデータの製造方法、ニューラルネットワーク利用装置、及びニューラルネットワーク小規模化方法
Wu et al. DRGS: Low-Precision Full Quantization of Deep Neural Network with Dynamic Rounding and Gradient Scaling for Object Detection
Vanhatalo et al. Neural Network-Based Virtual Analog Modeling
Haubner et al. Online acoustic system identification exploiting Kalman filtering and an adaptive impulse response subspace model
WO2021106961A1 (ja) 画像生成装置
JP5583181B2 (ja) 縦続接続型伝達系パラメータ推定方法、縦続接続型伝達系パラメータ推定装置、プログラム
WO2023026314A1 (ja) ニューラルネットワーク制御器、及びニューラルネットワーク制御器の学習方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19923607

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19923607

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP