WO2020065806A1 - 処理装置、処理方法、およびプログラム - Google Patents

処理装置、処理方法、およびプログラム Download PDF

Info

Publication number
WO2020065806A1
WO2020065806A1 PCT/JP2018/035849 JP2018035849W WO2020065806A1 WO 2020065806 A1 WO2020065806 A1 WO 2020065806A1 JP 2018035849 W JP2018035849 W JP 2018035849W WO 2020065806 A1 WO2020065806 A1 WO 2020065806A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
prediction
prediction formula
sensors
processing method
Prior art date
Application number
PCT/JP2018/035849
Other languages
English (en)
French (fr)
Inventor
江藤 力
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2020547701A priority Critical patent/JP7063389B2/ja
Priority to PCT/JP2018/035849 priority patent/WO2020065806A1/ja
Priority to US17/279,315 priority patent/US20220036223A1/en
Publication of WO2020065806A1 publication Critical patent/WO2020065806A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0004Gaseous mixtures, e.g. polluted air
    • G01N33/0009General constructional details of gas analysers, e.g. portable test equipment
    • G01N33/0027General constructional details of gas analysers, e.g. portable test equipment concerning the detector
    • G01N33/0036Specially adapted to detect a particular component
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N5/00Analysing materials by weighing, e.g. weighing small particles separated from a gas or liquid
    • G01N5/02Analysing materials by weighing, e.g. weighing small particles separated from a gas or liquid by absorbing or adsorbing components of a material and determining change of weight of the adsorbent, e.g. determining moisture content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to a processing device, a processing method, and a program.
  • Patent Document 1 discloses an odor sensor provided with a plurality of sensor elements. Specifically, it is disclosed that a plurality of sensor elements are provided with a substance adsorption film having different characteristics, and each sensor element can take a configuration that exhibits a specific reaction to a molecule to be acted on. I have.
  • Patent Document 1 does not disclose how to select a combination of sensor elements according to the purpose of detection.
  • An object of the present invention is to provide a technique for deriving a combination of sensors suitable for a desired purpose.
  • the first processing device of the present invention comprises: By performing machine learning using a plurality of feature amounts based on outputs from a set of a plurality of types of sensors and correct answer data as input, an expression using the plurality of feature amounts as variables is used to predict a odor component.
  • Prediction formula generation means for generating a prediction formula for performing, Extracting means for extracting one or more sensors from the set, based on a plurality of weights for the plurality of feature amounts in the prediction formula, Output means for outputting at least one of the sensor extracted by the extraction means and the sensor not extracted, in an identifiable state,
  • the extraction unit extracts the sensor that is an output source of the feature amount weighted by the weight that satisfies or does not satisfy a predetermined condition among the plurality of weights in the prediction formula.
  • the second processing device of the present invention comprises: By performing machine learning using a plurality of feature amounts based on outputs from a set of a plurality of types of sensors and correct answer data as input, an expression using the plurality of feature amounts as variables is used to predict a odor component.
  • Prediction formula generation means for generating a prediction formula for performing, An output unit that outputs, as information indicating the prediction formula, a plurality of weights for the plurality of feature values in the prediction formula in association with the feature values.
  • the first processing method of the present invention is as follows. By performing machine learning using a plurality of feature amounts based on outputs from a set of a plurality of types of sensors and correct answer data as input, an expression using the plurality of feature amounts as variables is used to predict a odor component.
  • a prediction formula generation step of generating a prediction formula to be performed An extraction step of extracting one or more of the sensors from the set based on a plurality of weights for the plurality of feature amounts in the prediction formula, An output step of outputting at least one of the sensor extracted in the extraction step and the sensor not extracted, in an identifiable state, In the extracting step, the sensor that is an output source of the feature amount weighted by the weight that satisfies or does not satisfy a predetermined condition among the plurality of weights in the prediction formula is extracted.
  • the second processing method of the present invention includes: By performing machine learning using a plurality of feature amounts based on outputs from a set of a plurality of types of sensors and correct answer data as input, an expression using the plurality of feature amounts as variables is used to predict a odor component.
  • the program of the present invention The computer is caused to execute each step of the processing method of the present invention.
  • FIG. 2 is a diagram illustrating a configuration of a processing apparatus according to the first embodiment. It is a figure which illustrates a sensor. It is a figure which illustrates time series data. It is a figure which illustrates sensor output data from a set of a plurality of types of sensors. 4 is a flowchart illustrating a processing method according to the first embodiment.
  • FIG. 2 is a diagram illustrating a computer for realizing a processing device. It is a figure which illustrates the composition of the processing device concerning a 2nd embodiment.
  • 9 is a flowchart illustrating a processing method according to a second embodiment. It is a figure which illustrates the prediction model used for the machine learning performed by the prediction formula generation means which concerns on 3rd Embodiment. It is a figure which illustrates the composition of the processing device concerning a 4th embodiment.
  • 13 is a flowchart illustrating a processing method according to a fourth embodiment.
  • each component of each device is not a configuration of a hardware unit but a block of a functional unit, unless otherwise specified.
  • Each component of each device is composed mainly of a CPU of an arbitrary computer, a memory, a program for realizing the components of this drawing loaded in the memory, a storage medium such as a hard disk for storing the program, and a network connection interface. It is realized by any combination of software and software. There are various modifications in the method and apparatus for realizing the method.
  • FIG. 1 is a diagram illustrating a configuration of a processing apparatus 20 according to the first embodiment.
  • the processing device 20 includes a prediction formula generation unit 210 and an output unit 250.
  • the prediction formula generation means 210 is a formula using a plurality of feature amounts as variables by performing machine learning using a plurality of feature amounts based on outputs from a set of a plurality of types of sensors and correct answer data as inputs. , A prediction formula for predicting the odor component is generated.
  • the output unit 250 outputs, as information indicating the prediction equation, a plurality of weights for a plurality of feature quantities in the prediction equation, in association with the respective feature quantities. This will be described in detail below.
  • FIG. 2 is a diagram illustrating the sensor 10.
  • the sensor 10 has a receptor to which a molecule is attached, and a detection value changes according to attachment and detachment of the molecule at the receptor.
  • the gas sensed by the sensor 10 is referred to as a target gas.
  • the time-series data of the detection values output from the sensor 10 is referred to as time-series data 14.
  • the time-series data 14 is also described as Y
  • the detected value at the time t is also described as y (t).
  • Y is a vector in which y (t) is enumerated.
  • the senor 10 is a membrane-type surface stress sensor (MSS).
  • MSS membrane-type surface stress sensor
  • the MSS has, as a receptor, a functional film to which a molecule is attached, and the stress generated in a support member of the functional film is changed by attachment and detachment of the molecule to and from the functional film.
  • the MSS outputs a detection value based on the change in the stress.
  • Various materials such as organic, inorganic, and bio-based materials can be used for the MSS functional film.
  • the target molecule to which the sensor 10 responds and the response characteristics depend on the functional film. Therefore, by combining a plurality of types of sensors 10 having different functional films from each other, it becomes possible to analyze a complicated odor composed of a mixed gas containing various components.
  • the sensor 10 is not limited to the MSS, and changes in physical quantities related to the viscoelasticity and dynamic characteristics (mass, moment of inertia, etc.) of the members of the sensor 10 that occur in response to attachment and detachment of molecules to and from the receptor. Any type of sensor may be used as long as it outputs a detection value based on the above, and various types of sensors such as a cantilever type, a film type, an optical type, a piezo, and a vibration response can be adopted. Also in these sensors 10, a plurality of types of sensors 10 having different target molecules to which the sensor 10 responds and at least one of the response characteristics can be combined.
  • the types of the sensors 10 are many.
  • the number of sensors 10 that can be actually used in the detection device is limited. Therefore, it is necessary to select which type of sensor 10 should be used in combination to perform the target detection.
  • the prediction formula generation unit 210 performs prediction regarding an odor component by performing machine learning using a plurality of feature amounts based on outputs from a set of a plurality of types of sensors 10 and correct data as inputs. Generate a prediction equation for.
  • the prediction expression is an expression using a plurality of feature amounts as variables, and the weight for each feature amount in the prediction expression corresponds to the magnitude of the contribution of the feature amount to the prediction result. Therefore, based on the information indicating the prediction formula, it is possible to determine the sensor 10 that has a large contribution to the purpose and the sensor 10 that has a small contribution.
  • the feature amount and the prediction formula will be described in detail below.
  • the feature amount is a value obtained based on the output of the sensor 10. However, one or more feature amounts are obtained for one sensor 10, and each feature amount depends only on the output of one sensor 10.
  • the time-series data 14 is time-series data in which the detection values output by the sensor 10 are arranged in ascending order of the time output from the sensor 10.
  • the time-series data 14 may be obtained by subjecting the time-series data of the detection value obtained from the sensor 10 to predetermined preprocessing.
  • pre-processing for example, filtering for removing a noise component from the time-series data can be employed.
  • FIG. 3 is a diagram illustrating the time-series data 14.
  • the time-series data 14 is obtained by exposing the sensor 10 to a target gas.
  • the time-series data 14 may be obtained by an operation of exposing the sensor 10 to the gas to be measured and an operation of removing the gas to be measured from the sensor 10.
  • data of the period P1 is obtained by exposing the sensor 10 to the target gas
  • data of the period P2 is obtained by an operation of removing the gas to be measured from the sensor 10.
  • the operation of removing the gas to be measured from the sensor 10 includes, for example, an operation of exposing the sensor 10 to a purge gas.
  • the operation of exposing the sensor 10 to the gas to be measured and the operation of removing the gas to be measured from the sensor 10 may be repeated to obtain a plurality of time-series data 14.
  • FIG. 4 is a diagram illustrating sensor output data 16 from a set 100 of a plurality of types of sensors 10.
  • a set 100 of the sensors 10 includes a first sensor 10a, a second sensor 10b, a third sensor 10c, and a fourth sensor 10d.
  • the set 100 is modularized, and measurement is performed on the same target gas in the same detection environment.
  • the set 100 of sensors 10 comprises a plurality of sensors 10 arbitrarily selected from a large number of available sensors 10.
  • the sensor output data 16 is data obtained by combining the time-series data 14 obtained from each of the plurality of types of sensors 10.
  • the sensor output data 16 is obtained by sequentially arranging the time series data 14 of the first sensor 10a, the second sensor 10b, the third sensor 10c, and the fourth sensor 10d.
  • the feature amount vector X is a vector having a plurality of feature amounts as elements.
  • xj may be a numerical value or a vector. If x j is a vector, x j is a vector whose elements a plurality of feature quantity based on the output of the same sensor 10.
  • the feature amount xj is, for example, the time-series data 14 of the sensor 10, data obtained by differentiating the time-series data 14, or a set ⁇ ⁇ of contribution values described later.
  • the prediction formula generation unit 210 can acquire the time-series data 14 or the sensor output data 16 and calculate a feature amount based on the acquired data. However, instead of acquiring the time-series data 14 or the sensor output data 16, the prediction formula generation unit 210 may acquire a feature amount derived outside the processing device 20.
  • W is a vector and b is a constant.
  • Each element of the weight W is a coefficient for each element of the feature amount vector X.
  • the obtained z indicates the prediction result.
  • the prediction formula may be used for discrimination or may be used for regression prediction. For example, in the prediction formula used to determine the presence or absence of a certain odor component, if z is equal to or greater than a predetermined criterion, it is determined that the gas to be measured contains the odor component to be detected and is smaller than the criterion. In this case, it can be determined that the gas to be measured does not contain the odor component to be detected.
  • the regression prediction include prediction of manufacturing quality based on the smell of a product such as a beverage, and prediction of a body state by measuring breath.
  • time-series data 14 the sensor output data 16, the feature amounts, and the prediction formulas are examples, and the time-series data 14, the sensor output data 16, the feature amounts, and the forms of the prediction formulas according to the present embodiment. Is not limited to the above.
  • a set ⁇ ⁇ of contribution values which is an example of a feature value, will be described below.
  • the sensing by the sensor 10 is modeled as follows. (1) The sensor 10 is exposed to a target gas containing K kinds of molecules. (2) The concentration of each molecule k in the target gas is constant ⁇ k . (3) The sensor 10 can adsorb a total of N molecules. (4) The number of molecules k attached to the sensor 10 at time t is n k (t).
  • the change over time of the number n k (t) of molecules k attached to the sensor 10 can be formulated as follows.
  • the first and second terms on the right side of the equation (1) are the increase amount (the number of molecules k newly attached to the sensor 10) and the decrease amount (the molecule k detached from the sensor 10) per unit time. Number). Further, ⁇ k and ⁇ k are a rate constant representing the rate at which the molecule k adheres to the sensor 10 and a rate constant representing the rate at which the molecule k separates from the sensor 10, respectively.
  • the concentration ⁇ k is constant
  • the number n k (t) of the numerator k at the time t can be formulated from the above equation (1) as follows.
  • n k (t) is expressed as follows.
  • the detection value of the sensor 10 is determined by the stress applied to the sensor 10 by molecules contained in the target gas. Then, it is considered that the stress acting on the sensor 10 by a plurality of molecules can be represented by a linear sum of the stress acting on each molecule. However, it is considered that the stress generated by the molecule differs depending on the type of the molecule. That is, it can be said that the contribution of the molecule to the detection value of the sensor 10 differs depending on the type of the molecule.
  • the detection value y (t) of the sensor 10 can be formulated as follows.
  • both ⁇ k and k k represent the contribution of the numerator k to the detection value of the sensor 10. Note that “rising” corresponds to the above-described period P1, and “falling” corresponds to the above-described period P2.
  • the time-series data 14 obtained from the sensor 10 sensing the target gas can be decomposed as in the above equation (4), the types of molecules contained in the target gas and each type of molecule are contained in the target gas.
  • the set of feature constants ⁇ may be predetermined or may be generated by the processing device 20.
  • i i is a contribution value representing the contribution of the characteristic constant ⁇ i to the detection value of the sensor 10.
  • a contribution value ⁇ i representing the contribution of each feature constant ⁇ i to the time series data 14 is calculated.
  • the ⁇ set of contribution value xi] i can be a feature quantity representing the feature of the target gas.
  • the feature quantity of the target gas does not necessarily have to be represented as a vector.
  • equation (5) can be expressed as follows.
  • the contribution of the molecule to the detection value of the sensor 10 is considered to be different depending on the type of the molecule. Therefore, the set ⁇ ⁇ of the contribution values described above depends on the type of the molecule contained in the target gas and the mixing ratio thereof. Are likely to be different. Therefore, the set ⁇ ⁇ of contribution values can be used as information that can distinguish a gas in which a plurality of types of molecules are mixed, that is, as a feature amount of the gas.
  • Using the ⁇ set of contribution values ⁇ as the feature of the target gas has other advantages besides the advantage of being able to handle gases containing multiple types of molecules.
  • the degree of similarity between gases can be easily grasped. For example, if the feature amount of the target gas is represented by a vector, the degree of similarity between the gases can be easily grasped based on the distance between the feature vectors.
  • Using the ⁇ set of contribution values ⁇ as the feature quantity has the advantage that it is possible to make the time constant change and the change in the mixture ratio robust against the change in the mixture ratio.
  • the “robustness” here is a property that “when the measurement environment or the measurement target slightly changes, the obtained feature amount also slightly changes”.
  • the characteristic amount will also gradually change. This property can be seen from the fact that in equation (4), the contribution value ⁇ k is proportional to ⁇ k representing the gas concentration, so that a small change in the concentration appears as a small change in the contribution value.
  • FIG. 5 is a flowchart illustrating a processing method according to the first embodiment.
  • the processing method according to the present embodiment includes a prediction formula generation step S210 and an output step S250.
  • the prediction formula generation step S210 machine learning is performed using a plurality of feature amounts based on the output from the set 100 of the plurality of types of sensors 10 and the correct answer data as input, thereby using a plurality of feature amounts as variables. Then, a prediction formula for performing prediction regarding the odor component is generated.
  • the output step S250 as information indicating the prediction formula, a plurality of weights for a plurality of feature values in the prediction formula are output in association with the respective feature values.
  • the processing method according to the present embodiment is realized by the processing device 20. This will be described in detail below.
  • the prediction formula generation unit 210 acquires the time-series data 14, the sensor output data 16, or the feature amount vector X.
  • the prediction formula generation means 210 may acquire the time series data 14, the sensor output data 16, or the feature quantity vector X from a storage device accessible from the prediction formula generation means 210, or may obtain the time series data 14, the sensor output data 16, It may be obtained, or may be obtained from the sensor 10.
  • the feature quantity vector X may be obtained by in-situ measurement, or may be prepared in advance and stored in a storage device. Further, the prediction formula generation means 210 acquires correct data for the feature amount vector X.
  • the correct answer data may be input to the processing device 20 by the user, or may be stored in advance in a storage device accessible from the prediction formula generation unit 210 in association with a feature amount vector (that is, a plurality of feature amounts).
  • the prediction formula generation unit 210 generates a prediction formula by performing machine learning using a plurality of feature amounts and correct data as inputs. Specifically, the prediction formula generation means 210 derives the weight W and the constant b.
  • the plurality of feature amounts are, for example, the feature amount vector X described above.
  • the plurality of feature amounts are obtained from the result of measuring a known target gas with the set 100 of the sensors 10.
  • the correct answer data is information indicating a prediction result to be obtained by a prediction formula for the feature amount vector. That is, the correct answer data is information corresponding to the measured known target gas.
  • the prediction formula generation means 210 can improve the accuracy of the prediction formula by performing machine learning using a plurality of learning data sets including a plurality of feature amounts and correct answer data.
  • the operation of exposing the sensor 10 to the gas to be measured and the operation of removing the gas to be measured from the sensor 10 are repeatedly performed. Obtained by:
  • the prediction formula generation means 210 ends the learning when, for example, a predetermined number of learning iterations (the number of learning data sets) is satisfied.
  • the detection environment by the set 100 of the sensors 10 is the same. It is preferable that this detection environment is close to the detection environment when actually using the sensor 10 and the generated prediction formula.
  • the feature amount used for machine learning may be obtained by simulating the response of the sensor 10 to the target gas.
  • a plurality of learning data sets can be generated using results obtained under simulation conditions with different detection environments. However, when a plurality of mutually different simulation results are obtained for the same detection environment, a plurality of learning data sets may be generated using results obtained under the same simulation conditions.
  • the output unit 250 outputs information indicating the generated prediction formula to the prediction formula generation unit 210.
  • the output unit 250 outputs a plurality of weights and constants b as information indicating the prediction formula, in association with the feature amounts. For example, each value of the weight is displayed on the display device in a state in which the value corresponding to the characteristic amount of the sensor 10 in the set 100 of the sensors 10 is known. Then, by checking the weight for each feature amount, the user can grasp the contribution of each sensor 10 to the prediction result. Then, the user can replace, for example, the sensor 10 that has a low contribution to the prediction result among the sensors 10 with another type of sensor 10. When there are a plurality of feature amounts and weights for each sensor 10, the user can regard, for example, the sensor 10 in which most of the plurality of weights is zero as the sensor 10 having low contribution to the prediction result.
  • the user of the processing device 20 uses the processing device 20 to select the sensors 10 to be included in the sensor module.
  • the upper limit of the number of sensors 10 included in the set 100 of sensors 10 is determined by the number of sensors 10 that can be mounted on the sensor module.
  • the user replaces the sensor 10 having a low contribution to the prediction result with another available sensor 10 based on the output of the processing device 20, and operates the processing device 20 again in the same manner. Then, the replacement of the sensor 10 and the operation of the processing device 20 are repeatedly performed until all the sensors 10 mounted on the sensor module are in a state of sufficiently contributing to the prediction result. By doing so, a combination of sensors 10 that can achieve a desired purpose with a limited number of sensors 10 can be obtained.
  • the user can make a prediction regarding the odor component by using the finally adopted combination of the sensors 10 and the prediction formula generated for the combination. Specifically, in the prediction regarding the odor component, a feature amount is calculated based on the outputs from the plurality of sensors 10, and the feature amount is applied to the prediction formula. Then, a prediction result is obtained based on the value calculated by the prediction formula.
  • the output unit 250 may output information indicating the prediction formula to an external device, or may store the information in a storage device accessible from the output unit 250.
  • Each functional component of the processing device 20 may be implemented by hardware (eg, a hard-wired electronic circuit or the like) that implements each functional component, or a combination of hardware and software (eg, electronic Circuit and a program for controlling the circuit).
  • hardware eg, a hard-wired electronic circuit or the like
  • software eg, electronic Circuit and a program for controlling the circuit.
  • FIG. 6 is a diagram illustrating a computer 1000 for realizing the processing device 20.
  • the computer 1000 is an arbitrary computer.
  • the computer 1000 is a stationary computer such as a personal computer (PC) or a server machine.
  • the computer 1000 is a portable computer such as a smartphone or a tablet terminal.
  • the computer 1000 may be a dedicated computer designed to realize the processing device 20, or may be a general-purpose computer.
  • the computer 1000 has a bus 1020, a processor 1040, a memory 1060, a storage device 1080, an input / output interface 1100, and a network interface 1120.
  • the bus 1020 is a data transmission path through which the processor 1040, the memory 1060, the storage device 1080, the input / output interface 1100, and the network interface 1120 mutually transmit and receive data.
  • a method for connecting the processors 1040 and the like to each other is not limited to a bus connection.
  • the processor 1040 is various processors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field-Programmable Gate Array).
  • the memory 1060 is a main storage device realized using a RAM (Random Access Memory) or the like.
  • the storage device 1080 is an auxiliary storage device realized using a hard disk, an SSD (Solid State Drive), a memory card, or a ROM (Read Only Memory).
  • the input / output interface 1100 is an interface for connecting the computer 1000 and an input / output device.
  • an input device such as a keyboard and an output device such as a display device are connected to the input / output interface 1100.
  • the sensor 10 is connected to the input / output interface 1100.
  • the sensor 10 does not necessarily need to be directly connected to the computer 1000.
  • the sensor 10 may store the time-series data 14 in a storage device shared with the computer 1000.
  • the network interface 1120 is an interface for connecting the computer 1000 to a communication network.
  • the communication network is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network).
  • the method by which the network interface 1120 connects to the communication network may be a wireless connection or a wired connection.
  • the storage device 1080 stores a program module that implements each functional component of the processing device 20.
  • the processor 1040 realizes a function corresponding to each program module by reading out each of these program modules into the memory 1060 and executing them.
  • the processing device 20 According to the processing device 20 according to the present embodiment, it is possible to grasp the degree of contribution of each sensor 10 to the prediction result based on the information indicating the prediction formula. Thus, a suitable sensor combination can be derived for a desired purpose.
  • FIG. 7 is a diagram illustrating a configuration of a processing device 20 according to the second embodiment.
  • the processing device 20 according to the present embodiment is the same as the processing device 20 according to the first embodiment except for the points described below.
  • the processing device 20 further includes an extraction unit 220.
  • the extracting unit 220 extracts one or more sensors 10 from the set 100 based on a plurality of weights for a plurality of feature amounts in the prediction formula. More specifically, the extraction unit 220 extracts the sensor 10 that is the output source of the feature amount weighted by the weight that satisfies or does not satisfy the predetermined condition among the plurality of weights in the prediction formula.
  • the output unit 250 outputs at least one of the sensor 10 extracted by the extraction unit 220 and the sensor 10 not extracted in an identifiable state. Note that in the present embodiment, the output unit 250 does not necessarily need to output information indicating the prediction formula. This will be described in detail below.
  • FIG. 8 is a flowchart illustrating a processing method according to the second embodiment.
  • the processing method according to the present embodiment further includes an extraction step S220.
  • the output step S250 at least one of the sensor 10 extracted in the extraction step S220 and the sensor 10 not extracted is output in an identifiable state. Except for this, the processing method is the same as the processing method according to the first embodiment.
  • the extraction step S220 one or more sensors 10 are extracted from the set 100 based on a plurality of weights for a plurality of feature amounts in the prediction formula.
  • the sensor 10 that is the output source of the feature amount that is weighted by a weight that satisfies or does not satisfy a predetermined condition among a plurality of weights is extracted. .
  • This processing method is realized by the processing device 20 according to the present embodiment.
  • the operation of the processing device 20 will be described in detail below.
  • the prediction formula generation step S210 is the same as the prediction formula generation step S210 according to the first embodiment.
  • the processing of the extraction step S220 is performed after the prediction expression generation step S210.
  • the extraction unit 220 extracts the sensor 10 having a high contribution to the prediction result in the prediction formula, based on the weight in the prediction formula and a predetermined condition regarding the weight. Specifically, the extraction unit 220 acquires information indicating the prediction formula from the prediction formula generation unit 210. Then, the magnitude of the weight for the characteristic amount of each sensor 10 indicated in the information indicating the prediction formula is calculated.
  • w j may be a numerical value or a vector.
  • each element of w j is a weight for each feature amount that is an element of x j .
  • the magnitude of the weight is, for example, the norm of w j .
  • the magnitude of the weight is the absolute value of w j .
  • the extraction means 220 further determines whether or not the magnitude of the calculated weight satisfies a predetermined condition.
  • the information indicating the condition is stored in a storage device accessible from the extracting unit 220 in advance. For example, when the condition indicates a condition for the sensor 10 having a high degree of contribution to the prediction result, such as “the magnitude of the weight is equal to or greater than the reference value”, the extracting unit 220 determines the sensor 10 corresponding to the weight satisfying this condition. Extract. On the other hand, if the condition indicates a condition of the sensor 10 that makes a small contribution to the prediction result, such as “the magnitude of the weight is equal to or less than the reference value”, the extracting unit 220 extracts the sensor 10 corresponding to the weight that does not satisfy the condition. I do. Then, the extracting unit 220 generates combination information indicating the combination of the extracted sensors 10. Information indicating a prediction formula is associated with the generated combination information.
  • the extracting means 220 may extract the sensor 10 based on the weight for the feature based on only part of the data in the period P1 and the period P2. Specifically, in each of the period P1 and the period P2, the sensor 10 may be extracted based on the weight for the feature amount based on the data from the beginning of the period to after a predetermined time.
  • the output unit 250 outputs at least one of the sensor 10 having a high contribution to the prediction result or the sensor 10 having a low contribution to the prediction result based on the extraction result of the sensor 10.
  • the output of the sensor 10 by the output unit 250 is an output of a symbol or the like indicating the sensor 10.
  • the output unit 250 may further output information indicating a prediction formula.
  • a display indicating at least one of the sensor 10 having a high contribution to the prediction result or the sensor 10 having a low contribution to the prediction result is displayed on a display device provided in the processing device 20.
  • the output unit 250 may output information indicating at least one of the sensor 10 having a high contribution to the prediction result or the sensor 10 having a low contribution to the prediction result to an external device. This information may be stored in a storage device accessible from the means 250.
  • the user can search for the combination of the sensors 10 to be adopted in the same manner as in the first embodiment, based on the output of the output unit 250.
  • the processing device 20 can also be realized by the computer 1000 as shown in FIG.
  • the storage device 1080 further stores a program module that implements the extracting unit 220 of the processing device 20.
  • the processing device 20 it is possible to grasp the sensor 10 whose contribution to the prediction result is low or high based on the extraction result of the extraction unit 220. As a result, in order to obtain a desired sensor, a combination of suitable sensors can be grasped more clearly.
  • FIG. 9 is a diagram illustrating a prediction model used for machine learning performed by the prediction formula generation unit 210 according to the third embodiment.
  • the processing device 20 according to the present embodiment is the same as the processing device 20 according to the second embodiment except for the points described below.
  • the prediction formula generation unit 210 generates a prediction formula using a model including a branch based on the detection environment of the sensor 10. Further, the output unit 250 outputs a condition of the detection environment suitable for the prediction formula, that is, a condition of the detection environment based on the branch condition, in association with information indicating the prediction formula.
  • the output of the sensor 10 can vary depending not only on the component of the target gas but also on its detection environment, that is, measurement conditions. Therefore, a preferable combination of the sensors 10 may be different for each detection environment.
  • the prediction formula generation unit 210 generates a prediction formula using a model including a branch based on the detection environment, so that a preferable combination of the sensors 10 can be derived in association with the detection environment.
  • the detection environment is not particularly limited, for example, temperature, humidity, atmospheric pressure, type of impurity gas, type of purge gas, sampling period of odor component, distance between target and sensor 10, at least one of objects existing around sensor 10 Including any.
  • the temperature, the humidity, and the atmospheric pressure are the temperature, the humidity, and the atmospheric pressure around the sensor 10, respectively, specifically, the temperature, the humidity, and the atmospheric pressure of the atmosphere surrounding the sensory part of the sensor 10.
  • the type of the contaminant gas is the type of gas supplied to the sensor 10 together with the target odor component in the operation of exposing the sensor 10 to the target gas.
  • examples of the type of impurity gas include an inert gas such as nitrogen, and air.
  • the type of the purge gas is a gas supplied to the sensor 10 in the operation of removing the gas to be measured from the sensor 10.
  • examples of the purge gas include an inert gas such as nitrogen, and air.
  • the sampling cycle of the odor component is a repetition cycle when the operation of exposing the sensor 10 to the gas to be measured and the operation of removing the gas to be measured from the sensor 10 are repeatedly performed.
  • the distance between the target object and the sensor 10 is the distance between the target object and the sensor 10 when the sensor 10 is placed around a specific target object to perform detection.
  • the object existing around the sensor 10 is the type of the target when the detection is performed by arranging the target 10 around the specific target.
  • Models used for machine learning have a hierarchical structure that includes a plurality of nodes.
  • a branch formula is located at one or more intermediate nodes as a branch condition, and a prediction formula is located at the lowest anode.
  • condition A, condition B1 and condition B2 are branch conditions, and equations 1 to 4 are prediction equations, respectively.
  • the specific configuration of the model such as the number of intermediate nodes and the number of anodes is not particularly limited.
  • the machine learning performed by the prediction formula generation means 210 is, for example, heterogeneous mixed learning further inputting the detection environment of the sensor 10.
  • the detection environment is associated with a feature amount that is an input of machine learning, and is a detection environment when the time-series data 14 that is the basis of the feature amount is obtained.
  • a specific model including a branch condition is generated together with a prediction formula.
  • the prediction formula generation means 210 performs machine learning using a plurality of learning data sets obtained in a plurality of detection environments as inputs in the prediction formula generation step S210.
  • each learning data set includes a plurality of feature amounts obtained by the set 100 of the sensors 10 and the correct answer data. Then, one or more prediction formulas are generated as a result of the machine learning.
  • a condition of the detection environment as a premise is linked to each prediction formula.
  • Each prediction formula is particularly effective in an environment that satisfies the condition of the detection environment associated with the prediction formula.
  • the conditions of the detection environment are based on branch conditions in a model generated simultaneously with the prediction formula. More specifically, the conditions of the detection environment are determined in the generated model by the branch conditions that pass from the start to the prediction formula of the anode and the determination results. For example, in the example of this drawing, when the condition A is “temperature> T 1 ” and the condition B 2 is “humidity> H 1 ”, the condition of the detection environment associated with the expression 3 is “the temperature is T 1 or less. There, and humidity is higher than H 1 ".
  • the extraction step 220 is performed by the extraction means 220.
  • the processing device 20 can receive, for example, an input from a user, and the extracting unit 220 acquires information indicating a use environment input by the user.
  • the information indicating the usage environment may be predetermined and stored in a storage device accessible from the extraction unit 220.
  • the information indicating the use environment is, for example, at least one of temperature, humidity, atmospheric pressure, type of impurity gas, type of purge gas, sampling period of odor component, distance between target object and sensor 10, object existing around sensor 10. It is.
  • the extraction unit 220 selects a prediction expression associated with the condition of the detection environment that the use environment satisfies from the plurality of prediction expressions generated by the prediction expression generation unit 210. Then, the extracting unit 220 extracts the sensor 10 from the selected prediction equation in the same manner as described in the second embodiment, and generates combination information. Information indicating the condition of the detection environment is further associated with the combination information.
  • the output unit 250 performs the same processing as the processing in the output step S250 described in the second embodiment. However, the output unit 250 may further output the condition of the detection environment associated with the prediction formula.
  • the extracting unit 220 may select a plurality of prediction formulas and generate combination information for each prediction formula.
  • the output unit 250 may output a plurality of combinations. However, the output unit 250 outputs information or the like indicating a prediction formula in an identifiable state for each combination.
  • a specific model including a branch condition used in machine learning may be set by a user instead of being generated by machine learning.
  • the machine learning need not be heterogeneous learning.
  • a branching condition can be repeatedly updated together with a prediction formula during repetition of learning, but a model obtained at a stage during learning may be fixed and used in subsequent learning.
  • the processing device 20 according to the present embodiment may not include the extraction unit 220, like the processing device 20 according to the first embodiment.
  • the output unit 250 outputs information indicating one or more prediction expressions generated by the prediction expression generation unit 210.
  • the extracting unit 220 generates combination information for all the prediction expressions generated by the prediction expression generation unit 210, and the output unit 250 generates the sensor 10, the information indicating the prediction expression, and The condition of the detection environment may be output.
  • the user can comprehensively view the output information and determine a preferable combination of the sensors 10 in all the conditions of the plurality of detection environments. For example, the user can exclude sensors 10 that are not included in any of the combinations from candidates for the sensors 10 to be used. Alternatively, only the sensors 10 included in all the combinations can be left as candidates. In addition, the sensor 10 that is included only in a combination in which the condition of the associated detection environment is an extreme condition that is hardly assumed in practical use can be excluded from the candidates.
  • the prediction formula generation means 210 when the prediction formula generation means 210 generates a prediction formula using a model including a branch based on the detection environment, a preferable combination of the sensors 10 can be derived in association with the detection environment.
  • FIG. 10 is a diagram illustrating a configuration of a processing device 20 according to the fourth embodiment.
  • FIG. 11 is a flowchart illustrating a processing method according to the fourth embodiment.
  • the processing device 20 according to the present embodiment is the same as the processing device 20 according to at least one of the second and third embodiments except for the points described below.
  • the processing device 20 further includes a prediction accuracy calculation unit 230 that calculates the prediction accuracy of the prediction expression, and an evaluation unit 240 that evaluates a combination of the sensors 10.
  • the processing method further includes a prediction accuracy calculation step S230 and an evaluation step S240.
  • the processing device 20 according to the present embodiment may not include at least one of the prediction accuracy calculation unit 230 and the evaluation unit 240. Further, the processing method according to the present embodiment may not include at least one of the prediction accuracy calculation step S230 and the evaluation step S240.
  • the same processing as the prediction formula generation step S210 according to at least one of the first to third embodiments is performed.
  • the extraction step S220 of the present embodiment the same processing as the extraction step S220 according to at least one of the second and third embodiments is performed.
  • the processing of the prediction accuracy calculation step S230 is performed by the prediction accuracy calculation means 230 following the extraction step S220.
  • the timing at which the processing of the prediction accuracy calculation step S230 is performed is not particularly limited as long as it is after the prediction expression generation step S210 and before the evaluation step S240 described later.
  • the timing at which the processing of the prediction accuracy calculation step S230 is performed may be after the prediction expression generation step S210 and before the output step S250.
  • the prediction accuracy calculation means 230 calculates the prediction accuracy of each prediction expression.
  • a data set similar to the learning data set is used as the evaluation data set. That is, the evaluation data set includes a plurality of feature amounts and correct answer data.
  • the plurality of learning data sets and the plurality of evaluation data sets do not include exactly the same data sets.
  • a part of a plurality of different data sets generated outside or inside the processing device 20 may be used as a plurality of learning data sets, and the rest may be used as a plurality of evaluation data sets.
  • Prediction accuracy is the regression accuracy for prediction based on regression, for example, least squares error or mean squared error (RMSE).
  • the prediction accuracy is the determination accuracy for prediction based on the determination, and is, for example, a precision, a recall, an F value, a correct answer rate, or ROC_AUC.
  • the prediction accuracy calculation unit 230 can obtain or generate a plurality of evaluation data sets in the same manner as the prediction expression generation unit 210 obtains or generates a learning data set.
  • the prediction accuracy calculation means 230 obtains a prediction result by inputting the feature amount included in the evaluation data set into a prediction expression whose accuracy is to be evaluated. Then, it is determined whether or not the obtained prediction result matches the correct answer data included in the evaluation data set. Then, the prediction accuracy calculation means 230 performs the same processing for a plurality of evaluation data sets, and calculates the probability that the prediction result matches the correct answer data as the prediction accuracy of the prediction formula.
  • the calculated prediction accuracy is associated with the prediction formula.
  • the plurality of evaluation data sets may be based on measurement results in mutually different detection environments.
  • the evaluation data set is a detection environment close to the detection environment in which the learning data set was obtained.
  • the data is obtained from the environment.
  • the evaluation formula obtained in an environment that satisfies the condition of the detection environment associated with the prediction formula is used. Only the data set is used for calculating the prediction accuracy.
  • the evaluation unit 240 evaluates the combination of the sensors 10 based on, for example, at least one of the prediction accuracy of a prediction formula used when the combination is adopted and the cost when the combination is adopted. In particular, it is preferable that the evaluation unit 240 evaluates the combination of the sensors 10 based at least on the cost when adopting the combination of the sensors 10 indicated in the combination information.
  • Cost includes initial cost and running cost, for example.
  • Examples of the initial cost include a manufacturing cost and a procurement cost of the sensor 10.
  • the running costs include management costs, replacement costs caused by deterioration of the sensor 10, and human labor in handling.
  • a parameter indicating the cost of each sensor 10 is stored in advance in a storage device accessible by the evaluation unit 240, and the evaluation unit 240 acquires a parameter indicating the cost of the sensor 10 included in the combination from the storage device. Then, the parameters indicating the costs for all the sensors 10 included in the combination are added up to obtain a total value.
  • the evaluation unit 240 acquires the prediction accuracy of the prediction formula associated with the combination information from the prediction accuracy calculation unit 230.
  • Evaluation means 240 further evaluates the combination using an evaluation function.
  • the evaluation function is a function that calculates an evaluation value based on one or more factors. Specifically, the evaluation function is represented by a linear sum of evaluation parameters indicating the evaluation result of each factor. For example, the evaluation parameter with the cost as the factor is the total value calculated as described above, and the evaluation parameter with the accuracy as the factor is the prediction accuracy acquired from the prediction accuracy calculation unit 230.
  • each evaluation parameter is multiplied by a coefficient to balance the weight for each factor with respect to the evaluation result or to determine the directionality of the evaluation. The coefficient is determined for each type of evaluation parameter.
  • Evaluation means 240 calculates an evaluation value as an evaluation result by applying the sum of parameters indicating cost and prediction accuracy to the evaluation function.
  • the evaluation result obtained by the evaluation means 240 increases as the sum of the costs decreases, and increases as the prediction accuracy improves.
  • Information indicating the evaluation function is stored in a storage device accessible by the evaluation unit 240 in advance. The calculated evaluation value is associated with the combination information.
  • the evaluation means 240 may further evaluate the combination of the sensors 10 based on the number of the sensors 10 included in the combination. For example, when the number of sensors 10 included in the combination is a factor, for example, the number of sensors 10 can be an evaluation parameter in an evaluation function. Note that the evaluation result obtained by the evaluation unit 240 increases as the number of sensors 10 included in the combination decreases.
  • the evaluation unit 240 further evaluates the combination of the sensors 10 based on the conditions of the detection environment associated with the combination information. You may. For example, when the size of the conditions of the detection environment is a factor, for example, the width of the range of the temperature, humidity, pressure, cycle, distance, and the like indicated as the conditions of the detection environment, and the number of options of the gas and the object, It can be an evaluation parameter in an evaluation function. When the practicality of the condition of the detection environment is a factor, the distance between the center value of the range of the temperature, humidity, atmospheric pressure, cycle, distance, etc. indicated as the condition of the detection environment and a predetermined standard value is determined.
  • the evaluation result obtained by the evaluation means 240 increases as the condition of the detection environment increases, and increases as the practicability of the condition of the detection environment increases.
  • the output unit 250 further outputs the evaluation result calculated by the evaluation unit 240 in association with the combination of the sensors 10.
  • the user can compare a plurality of combinations of the sensors 10 with each other using the evaluation result. For example, when the processing by the processing device 20 is repeated while changing the configuration of the set 100, the result of each set 100 is compared with the evaluation result, and the best combination of the sensors 10 can be derived. Further, when a plurality of pieces of combination information are generated based on one set 100 as in the third embodiment, they can be compared with each other based on the evaluation result. Note that the output unit 250 may output the prediction accuracy of the prediction formula in addition to or instead of the evaluation result.
  • a case will be described in which, for example, a combination of the preferable sensors 10 is determined in all of the conditions of a plurality of detection environments by comprehensively viewing the output information.
  • the sensors 10 in the set 100 are rearranged such that the evaluation values for a plurality of pieces of combination information generated for the set 100 all exceed a predetermined threshold value and the average value of the evaluation values increases. .
  • a combination of the sensors 10 suitable for the purpose is obtained as a set 100.
  • Such rearrangement of the set 100 can be manually performed by the user.
  • the set 100 may be virtually rearranged by the simulation device.
  • the comparison of the evaluation result may be further performed on the combination based on the plurality of sets 100.
  • the prediction expression generation unit 210 performs machine learning for each of the plurality of sets 100.
  • the extracting unit 220 generates combination information for each of the plurality of sets 100.
  • the evaluation means 240 evaluates each of the plurality of combinations indicated by the generated plurality of combination information.
  • the output unit 250 outputs a combination having the highest (highest) evaluation result by the evaluation unit 240 among the plurality of combinations.
  • the output unit 250 may output a plurality of combinations in a state where the combination with the best evaluation result can be identified.
  • the processing device 20 can also be realized by the computer 1000 as shown in FIG.
  • the storage device 1080 further stores a program module that implements the prediction accuracy calculation unit 230 and the evaluation unit 240 of the processing device 20.
  • the prediction accuracy of the prediction formula is calculated by the prediction accuracy calculation unit 230 or the evaluation is performed by the evaluation unit 240, so that the effectiveness of the plural combinations of the sensors 10 can be compared with each other.
  • Prediction formula generation means for generating a prediction formula for performing, Extracting means for extracting one or more sensors from the set, based on a plurality of weights for the plurality of feature amounts in the prediction formula, Output means for outputting at least one of the sensor extracted by the extraction means and the sensor not extracted, in an identifiable state,
  • a processor configured to extract the sensor that is an output source of the feature amount weighted by the weight that satisfies or does not satisfy a predetermined condition among the plurality of weights in the prediction formula. . 1-2.
  • Prediction formula generation means for generating a prediction formula for performing,
  • a processing apparatus comprising: output means for outputting, as information indicating the prediction formula, a plurality of weights for the plurality of feature values in the prediction formula in association with the feature values. 1-3. 1-2.
  • Extraction means for extracting one or more sensors from the set based on a plurality of weights for the plurality of feature amounts in the prediction formula
  • a processor configured to extract the sensor that is an output source of the feature amount weighted by the weight that satisfies or does not satisfy a predetermined condition among the plurality of weights in the prediction formula. . 1-4. 1-1. Or 1-3.
  • the extracting means generates combination information indicating a combination of the extracted sensors, A processing apparatus further comprising an evaluation unit that evaluates the combination based at least on a cost when the combination is adopted. 1-5. 1-4.
  • the prediction formula generating means performs the machine learning for each of the plurality of sets,
  • the extraction means generates the combination information for each of the plurality of sets,
  • the evaluation means evaluates each of the plurality of combinations indicated by the generated plurality of combination information, A processing device that outputs the combination having the best evaluation result of the evaluation means among the plurality of combinations. 1-6. 1-1. From 1-5.
  • the prediction formula generation means generates the prediction formula using a model including a branch based on the detection environment of the sensor,
  • the processing device wherein the output unit further outputs a condition of the detection environment suitable for the prediction expression, the condition of the detection environment based on the branch condition, in association with information indicating the prediction expression. 1-7. 1-6.
  • the machine learning is a heterogeneous mixture learning further inputting a detection environment of the sensor associated with the feature amount, The processing device wherein the condition of the branch is generated by the heterogeneous learning. 1-8. 1-6. Or 1-7.
  • the detection environment is at least one of temperature, humidity, atmospheric pressure, type of impurity gas, type of purge gas, sampling cycle of the odor component, distance between the target object and the sensor, and objects present around the sensor.
  • a processing device further comprising prediction accuracy calculation means for calculating the prediction accuracy of the prediction expression. 2-1.
  • a prediction formula generation step of generating a prediction formula to be performed An extraction step of extracting one or more of the sensors from the set based on a plurality of weights for the plurality of feature amounts in the prediction formula, An output step of outputting at least one of the sensor extracted in the extraction step and the sensor not extracted, in an identifiable state,
  • the extracting step in the prediction formula, a processing method of extracting the sensor as an output source of the feature amount weighted with the weight that satisfies or does not satisfy a predetermined condition among the plurality of weights .
  • an expression using the plurality of feature amounts as variables is used to predict a odor component.
  • An extraction step of extracting one or more sensors from the set based on a plurality of weights for the plurality of feature amounts in the prediction formula further comprising: In the extracting step, in the prediction formula, a processing method of extracting the sensor as an output source of the feature amount weighted by the weight that satisfies or does not satisfy a predetermined condition among the plurality of weights . 2-4. 2-1. Or 2-3. In the processing method described in In the extracting step, generating combination information indicating a combination of the extracted sensors, A processing method further comprising an evaluation step of evaluating the combination based at least on a cost when the combination is adopted. 2-5. 2-4.
  • the machine learning is performed for each of the plurality of sets
  • the combination information is generated for each of the plurality of sets
  • the evaluating step each of the plurality of combinations indicated by the generated plurality of combination information is evaluated
  • the output step a processing method for further outputting the combination having the best evaluation result in the evaluation step among the plurality of combinations. 2-6. 2-1. To 2-5.
  • the prediction formula generation step the prediction formula is generated using a model including a branch based on the detection environment of the sensor,
  • the machine learning is a heterogeneous mixture learning further inputting a detection environment of the sensor associated with the feature amount, The processing method wherein the condition of the branch is generated by the heterogeneous mixture learning. 2-8. 2-6. Or 2-7.
  • the detection environment is at least one of temperature, humidity, atmospheric pressure, type of impurity gas, type of purge gas, sampling cycle of the odor component, distance between the target object and the sensor, and objects present around the sensor.
  • processing methods 2-9. 2-1. To 2-8.
  • a processing method further comprising a prediction accuracy calculating step of calculating a prediction accuracy of the prediction expression. 3-1. 2-1. To 2-9.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Medicinal Chemistry (AREA)
  • Food Science & Technology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Investigating Or Analyzing Materials By The Use Of Fluid Adsorption Or Reactions (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Investigating Or Analyzing Materials By The Use Of Electric Means (AREA)

Abstract

処理装置(20)は、予測式生成手段(210)および出力手段(250)を備える。予測式生成手段(210)は、複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する。出力手段(250)は、予測式を示す情報として、複数の重みを、それぞれ特徴量に関連づけて出力する。

Description

処理装置、処理方法、およびプログラム
 本発明は処理装置、処理方法、およびプログラムに関する。
 ガスをセンサで測定することにより、ガスに関する情報を得る技術が開発されている。
 特許文献1は、複数のセンサ素子を設けた匂いセンサを開示している。具体的には、複数のセンサ素子にはそれぞれ異なる特性を有する物質吸着膜が設けられており、各センサ素子は作用させようとする分子に特異的な反応を示す構成をとれることが開示されている。
国際公開第2017/085939号
 しかし、特許文献1には、検出の目的に応じてセンサ素子の組み合わせをどのように選定すればよいかについて開示されていない。
 本発明は、上記の課題に鑑みてなされたものである。本発明の目的は、所望の目的のために、適したセンサの組み合わせを導出する技術を提供することにある。
 本発明の第1の処理装置は、
 複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成手段と、
 前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出手段と、
 前記抽出手段で抽出された前記センサおよび抽出されなかった前記センサの少なくとも一方を、識別可能な状態で出力する出力手段とを備え、
 前記抽出手段は、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する。
 本発明の第2の処理装置は、
 複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成手段と、
 前記予測式を示す情報として、前記予測式における前記複数の特徴量に対する複数の重みを、それぞれ前記特徴量に関連づけて出力する出力手段とを備える。
 本発明の第1の処理方法は、
 複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成ステップと、
 前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出ステップと、
 前記抽出ステップで抽出された前記センサおよび抽出されなかった前記センサの少なくとも一方を、識別可能な状態で出力する出力ステップとを含み、
 前記抽出ステップでは、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する。
 本発明の第2の処理方法は、
 複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成ステップと、
 前記予測式を示す情報として、前記予測式における前記複数の特徴量に対する複数の重みを、それぞれ前記特徴量に関連づけて出力する出力ステップとを含む。
 本発明のプログラムは、
 本発明の処理方法の各ステップをコンピュータに実行させる。
 本発明によれば、所望の目的のために、適したセンサの組み合わせを導出する技術を提供できる。
 上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
第1の実施形態に係る処理装置の構成を例示する図である。 センサを例示する図である。 時系列データを例示する図である。 複数種類のセンサの集合からのセンサ出力データを例示する図である。 第1の実施形態に係る処理方法を例示するフローチャートである。 処理装置を実現するための計算機を例示する図である。 第2の実施形態に係る処理装置の構成を例示する図である。 第2の実施形態に係る処理方法を例示するフローチャートである。 第3の実施形態に係る予測式生成手段で行われる機械学習に用いられる予測モデルを例示する図である。 第4の実施形態に係る処理装置の構成を例示する図である。 第4の実施形態に係る処理方法を例示するフローチャートである。
 以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
 なお、以下に示す説明において、特に説明する場合を除き、各装置の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。各装置の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶メディア、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置には様々な変形例がある。
(第1の実施形態)
 図1は、第1の実施形態に係る処理装置20の構成を例示する図である。本実施形態に係る処理装置20は、予測式生成手段210および出力手段250を備える。予測式生成手段210は、複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する。出力手段250は、予測式を示す情報として、予測式における複数の特徴量に対する複数の重みを、それぞれ特徴量に関連づけて出力する。以下に詳しく説明する。
 図2は、センサ10を例示する図である。センサ10は、分子が付着する受容体を有し、その受容体における分子の付着と離脱に応じて検出値が変化するセンサである。なお、センサ10によってセンシングされているガスを、対象ガスと呼ぶ。また、センサ10から出力される検出値の時系列データを、時系列データ14と呼ぶ。ここで、必要に応じ、時系列データ14をYとも表記し、時刻tの検出値をy(t)とも表記する。Yは、y(t)が列挙されたベクトルとなる。
 例えばセンサ10は、膜型表面応力センサ(Membrane-type Surface stress Sensor; MSS)である。MSSは、受容体として、分子が付着する官能膜を有しており、その官能膜に対する分子の付着と離脱によってその官能膜の支持部材に生じる応力が変化する。MSSは、この応力の変化に基づく検出値を出力する。
 MSSの官能膜には有機系、無機系、およびバイオ系のように様々な材料を用いることができる。センサ10の応答する対象分子および、応答特性は官能膜に依存する。したがって、互いに異なる官能膜を有する複数種類のセンサ10を組み合わせることにより、様々な成分を含む混合ガスからなる複雑なにおいを分析可能となる。
 なお、センサ10は、MSSには限定されず、受容体に対する分子の付着と離脱に応じて生じる、センサ10の部材の粘弾性や動力学特性(質量や慣性モーメントなど)に関連する物理量の変化に基づいて検出値を出力するものであればよく、カンチレバー式、膜型、光学式、ピエゾ、振動応答などの様々なタイプのセンサを採用することができる。これらのセンサ10においても、センサ10が応答する対象分子および、応答特性の少なくとも一方が互いに異なる複数種類のセンサ10を組み合わせることができる。
 ここで、センサ10の種類は多数にのぼる。一方で、実際に検出装置において用いることができるセンサ10の数には限りがある。そこで、目的の検出を行うためにどの種類のセンサ10を組み合わせて用いるのがよいかを選定する必要がある。
 本実施形態において予測式生成手段210は、複数種類のセンサ10の集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、におい成分に関する予測を行うための予測式を生成する。予測式は複数の特徴量を変数とする式であり、予測式において各特徴量に対する重みは、その特徴量が予測結果に及ぼす寄与の大きさに対応する。したがって、予測式を示す情報に基づき、目的に対して寄与が大きなセンサ10と寄与が小さなセンサ10とを判別することができる。
 特徴量および予測式について以下に詳しく説明する。特徴量はセンサ10の出力に基づいて得られる値である。ただし、一つのセンサ10に対しては一つ以上の特徴量が得られ、各特徴量は、一つのセンサ10の出力にのみ依存する。
 時系列データ14は、センサ10が出力した検出値を、センサ10から出力された時刻が早い順に並べた時系列のデータである。ただし、時系列データ14は、センサ10から得られた検出値の時系列データに対して、所定の前処理が加えられたものであってもよい。前処理としては、例えば、時系列のデータからノイズ成分を除去するフィルタリングなどを採用することができる。
 図3は、時系列データ14を例示する図である。時系列データ14は、センサ10を対象ガスに曝すことで得られる。ただし、時系列データ14は、センサ10を測定対象のガスに曝す操作と、センサ10から測定対象のガスを取り除く操作とで得ても良い。本図の例において、センサ10を対象ガスに曝すことで期間P1のデータが得られ、センサ10から測定対象のガスを取り除く操作により期間P2のデータが得られる。なお、センサ10から測定対象のガスを取り除く操作はたとえばセンサ10をパージガスに曝す操作が挙げられる。また、センサ10による対象ガスの測定においては、センサ10を測定対象のガスに曝す操作と、センサ10から測定対象のガスを取り除く操作を繰り返し行い、複数の時系列データ14を得ても良い。
 図4は、複数種類のセンサ10の集合100からのセンサ出力データ16を例示する図である。本図の例において、センサ10の集合100は、第1センサ10a、第2センサ10b、第3センサ10c、および第4センサ10dからなる。たとえば集合100はモジュール化されており、同じ対象ガスに対して同じ検出環境で測定が行われる。センサ10の集合100は、使用可能な多数のセンサ10から任意に選択された複数のセンサ10からなる。センサ出力データ16は、複数種類のセンサ10のそれぞれから得られた時系列データ14を結合したデータである。本図の例において、センサ出力データ16は、第1センサ10a、第2センサ10b、第3センサ10c、および第4センサ10dの時系列データ14を順に並べたものである。
 センサ出力データ16からは、複数の特徴量が算出できる。ここで、特徴量ベクトルXを、複数の特徴量を要素とするベクトルであるとする。特徴量ベクトルXには、100に含まれる複数種類の10の出力に基づく複数の特徴量x(j=1,2,...,J)が含まれる。なお、xは数値であっても良いしベクトルであってもよい。xがベクトルである場合、xは同一のセンサ10の出力に基づく複数の特徴量を要素とするベクトルである。特徴量xは、たとえば、センサ10の時系列データ14、時系列データ14を微分したデータ、または、後述する寄与値の集合Ξである。予測式生成手段210は時系列データ14またはセンサ出力データ16を取得し、取得したデータに基づいて特徴量を算出することができる。ただし、予測式生成手段210は時系列データ14またはセンサ出力データ16を取得する代わりに、処理装置20の外部で導出された特徴量を取得しても良い。
 予測式は特徴量の線形和であり、z=WX+bで表される。ここで、Wはベクトルであり、bは定数である。そして、重みWの各要素は、特徴量ベクトルXの各要素に対する係数である。そして、得られるzが予測結果を示す。予測式は判別に用いられても良いし、回帰予測に用いられても良い。たとえばあるにおい成分の有無の判別に用いられる予測式では、zが予め定められた基準以上である場合、測定対象のガスに検出対象のにおい成分が含まれていると判断し、基準未満である場合、測定対象のガスに検出対象のにおい成分が含まれていないと判断することができる。回帰予測の例としては、飲料等の製品のにおいに基づく製造品質の予測や呼気の測定による体内状態の予測等が挙げられる。
 なお、上記した時系列データ14、センサ出力データ16、特徴量、および予測式の形態は例であり、本実施形態に係る時系列データ14、センサ出力データ16、特徴量、および予測式の形態は上記に限定されない。
 特徴量の一例である寄与値の集合Ξについて以下に説明する。ここで、説明のため、センサ10によるセンシングを以下のようにモデル化する。
(1)センサ10は、K種類の分子を含む対象ガスに曝されている。
(2)対象ガスにおける各分子kの濃度は一定のρである。
(3)センサ10には、合計N個の分子が吸着可能である。
(4)時刻tにおいてセンサ10に付着している分子kの数はn(t)個である。
 センサ10に付着している分子kの数n(t)の時間変化は、以下のように定式化できる。
Figure JPOXMLDOC01-appb-M000001
 式(1)の右辺の第1項と第2項はそれぞれ、単位時間当たりの分子kの増加量(新たにセンサ10に付着する分子kの数)と減少量(センサ10から離脱する分子kの数)を表している。また、αとβはそれぞれ、分子kがセンサ10に付着する速度を表す速度定数と、分子kがセンサ10から離脱する速度を表す速度定数である。
 ここで、濃度ρが一定であるため、上記式(1)から、時刻tにおける分子kの数n(t)は、以下のように定式化できる。
Figure JPOXMLDOC01-appb-M000002
 また、時刻t(初期状態)でセンサ10に分子が付着していないと仮定すれば、n(t)は以下のように表される。
Figure JPOXMLDOC01-appb-M000003
 センサ10の検出値は、対象ガスに含まれる分子によってセンサ10に働く応力によって定まる。そして、複数の分子によってセンサ10に働く応力は、個々の分子に働く応力の線形和で表すことができると考えられる。ただし、分子によって生じる応力は、分子の種類によって異なると考えられる。すなわち、センサ10の検出値に対する分子の寄与は、その分子の種類によって異なると言える。
 そこで、センサ10の検出値y(t)は、以下のように定式化できる。
Figure JPOXMLDOC01-appb-M000004
 ここで、γとξはいずれも、センサ10の検出値に対する分子kの寄与を表す。なお、「立ち上がり」は上記した期間P1に相当し、「立ち下がり」は上記した期間P2に相当する。
 ここで、対象ガスをセンシングしたセンサ10から得た時系列データ14を上述の式(4)のように分解できれば、対象ガスに含まれる分子の種類や、各種類の分子が対象ガスに含まれる割合を把握することができる。すなわち、式(4)に示す分解によって、対象ガスの特徴を表すデータ(すなわち、対象ガスの特徴量)が得られる。
 そこでセンサ10によって出力された時系列データ14は、特徴定数の集合Θ={θ,θ,...,θ}を用いて、以下の式(5)に示すように分解される。なお、特徴定数の集合Θは、予め定められていてもよいし、処理装置20によって生成されてもよい。
Figure JPOXMLDOC01-appb-M000005
 ここで、ξは、センサ10の検出値に対する特徴定数θの寄与を表す寄与値である。
 このような分解により、時系列データ14に対する各特徴定数θの寄与を表す寄与値ξが算出される。寄与値ξの集合Ξを、対象ガスの特徴を表す特徴量とすることができる。寄与値ξの集合は、例えば、ξを列挙した特徴ベクトルΞ=(ξ,ξ,...,ξ)で表される。ただし、対象ガスの特徴量は、必ずベクトルとして表現しなければならないわけではない。
 ここで、特徴定数θとしては、前述した速度定数βや、速度定数の逆数である時定数τを採用することができる。θとしてβとτを使う場合それぞれについて、式(5)は、以下のように表すことができる。
Figure JPOXMLDOC01-appb-M000006
 前述したように、センサ10の検出値に対する分子の寄与は、その分子の種類によって異なると考えられるため、上述した寄与値の集合Ξは、対象ガスに含まれる分子の種類やその混合比率に応じて異なるものになると考えられる。よって、寄与値の集合Ξは、複数種類の分子が混合されているガスを互いに区別することができる情報、すなわちガスの特徴量として利用することができる。
 寄与値の集合Ξを対象ガスの特徴量として利用することには、複数種類の分子を含むガスを扱えるという利点以外の利点もある。まず、ガス同士の類似度合いを容易に把握することができるという利点がある。例えば、対象ガスの特徴量をベクトルで表現すれば、ガス同士の類似度合いを特徴ベクトル間の距離に基づいて容易に把握することができる。
 また、寄与値の集合Ξを特徴量とすることには、混合比変化に対して時定数変化や混合比変化についてロバストにすることができるという利点がある。ここでいう「ロバスト性」とは、「測定環境や測定対象が少しだけ変化したとき、得られる特徴量も少しだけ変化する」という性質である。
 混合比変化についてロバストであれば、例えば、2種類のガスを混合させた混合ガスについて、ガスの混合比を徐々に変化させていくと、特徴量も徐々に変化していくことになる。この性質は、式(4)において、寄与値ξがガスの濃度を表すρに比例しているため、濃度の小さな変化が寄与値の小さな変化として現れるということからわかる。
 図5は、第1の実施形態に係る処理方法を例示するフローチャートである。本実施形態に係る処理方法は、予測式生成ステップS210および出力ステップS250を含む。予測式生成ステップS210では、複数種類のセンサ10の集合100からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式が生成される。出力ステップS250では、予測式を示す情報として、予測式における複数の特徴量に対する複数の重みが、それぞれ特徴量に関連づけて出力される。本実施形態に係る処理方法は、処理装置20により実現される。以下に詳しく説明する。
 予測式生成手段210は、時系列データ14、センサ出力データ16、または特徴量ベクトルXを取得する。予測式生成手段210は時系列データ14、センサ出力データ16、または特徴量ベクトルXを、予測式生成手段210からアクセス可能な記憶装置から取得しても良いし、処理装置20の外部の装置から取得しても良いし、センサ10から取得しても良い。特徴量ベクトルXは、その場の測定により得られても良いし、予め準備されて記憶装置に保持されていても良い。また、予測式生成手段210はその特徴量ベクトルXに対する正解データを取得する。正解データはユーザにより処理装置20に入力されても良いし、予測式生成手段210からアクセス可能な記憶装置に予め特徴量ベクトル(すなわち複数の特徴量)と関連づけられて記憶されていても良い。
 そして予測式生成手段210は、予測式生成ステップS210において、複数の特徴量と正解データとを入力とした機械学習を行うことで予測式を生成する。具体的には、予測式生成手段210は重みWおよび定数bを導出する。複数の特徴量はたとえば上記した特徴量ベクトルXである。複数の特徴量は既知の対象ガスをセンサ10の集合100で測定した結果により得られる。そして正解データは、その特徴量ベクトルに対し予測式で得られるべき予測結果を示す情報である。すなわち、正解データは測定した既知の対象ガスに対応する情報である。
 ここで、予測式生成手段210は、複数の特徴量と正解データとを含む学習用データセットを複数用いて機械学習を行うことで、予測式の精度を高めることができる。このような複数の学習用データセットは、上記した様に、センサ10による対象ガスの測定において、センサ10を測定対象のガスに曝す操作と、センサ10から測定対象のガスを取り除く操作を繰り返し行うことで得られる。予測式生成手段210はたとえば、予め定められた学習の反復回数(学習用データセット数)を満たした場合に学習を終了する。なお、複数の学習用データセットにおいて、センサ10の集合100による検出環境は同じであることが好ましい。また、この検出環境は実際にセンサ10および生成された予測式を用いる際の検出環境に近いことが好ましい。
 なお、機械学習に用いる特徴量は対象ガスに対するセンサ10の応答をシミュレーションして得られたものであってもよい。なお、複数の学習用データセットは互いに検出環境が異なるシミュレーション条件で得られた結果を用いて生成されうる。ただし、同一の検出環境に対し互いに異なる複数のシミュレーション結果が得られる場合には、複数の学習用データセットは互いに同一のシミュレーション条件で得られた結果を用いて生成されてもよい。
 次いで、本実施形態に係る出力手段250は出力ステップS250において、予測式生成手段210に生成された予測式を示す情報を出力する。具体的には出力手段250は、予測式を示す情報として、複数の重みおよび定数bを、それぞれ特徴量に関連づけて出力する。たとえば重みの各値がセンサ10の集合100のうち、どのセンサ10の特徴量に対応する値かが分かる状態で表示装置に表示される。そして、各特徴量に対する重みを確認することで、ユーザは予測結果に対する各センサ10の寄与度を把握することができる。そして、ユーザはたとえばセンサ10のうち予測結果への寄与が低いセンサ10を他の種類のセンサ10に取り替えることができる。なお、各センサ10に対し複数の特徴量および重みが存在する場合、ユーザはたとえば複数の重みのほとんどがゼロであるセンサ10を予測結果への寄与が低いセンサ10であるとみなすことができる。
 処理装置20のユーザは、たとえば、特定の目的で、複数のセンサ10を含むセンサモジュールを作製しようとする場合、センサモジュールに含めるセンサ10の選定に処理装置20を用いる。センサ10の集合100に含まれるセンサ10の数の上限は、センサモジュールに搭載可能なセンサ10の数により定められる。たとえばユーザは処理装置20の出力に基づき予測結果への寄与が低いセンサ10を他の使用可能な種類のセンサ10に取り替え、再度処理装置20を同様に動作させる。そして、センサモジュールに搭載された全てのセンサ10が予測結果へ充分寄与する状態になるまで、センサ10の取り替えと処理装置20の動作を繰り返し行う。そうすることで、限られた数のセンサ10で所望の目的を果たすことができるセンサ10の組み合わせを求めることができる。
 さらに、ユーザは、最終的に採用したセンサ10の組み合わせと、その組み合わせに対して生成された予測式を用いて、におい成分に関する予測を行うことができる。具体的には、におい成分に関する予測において、複数のセンサ10からの出力に基づき特徴量が算出され、その特徴量が予測式に適用される。そして、予測式による算出値に基づき予測結果が得られる。
 なお、出力手段250は外部の装置に対して予測式を示す情報を出力しても良いし、出力手段250からアクセス可能な記憶装置にこの情報を記憶させても良い。
 処理装置20の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、処理装置20の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
 図6は、処理装置20を実現するための計算機1000を例示する図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)やサーバマシンなどの据え置き型の計算機である。その他にも例えば、計算機1000は、スマートフォンやタブレット端末などの可搬型の計算機である。計算機1000は、処理装置20を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
 計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。
 プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又は ROM(Read Only Memory)などを用いて実現される補助記憶装置である。
 入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。その他にも例えば、入出力インタフェース1100には、センサ10が接続される。ただし、センサ10は必ずしも計算機1000と直接接続されている必要はない。例えばセンサ10は、計算機1000と共有している記憶装置に時系列データ14を記憶させてもよい。
 ネットワークインタフェース1120は、計算機1000を通信網に接続するためのインタフェースである。この通信網は、例えば LAN(Local Area Network)や WAN(Wide Area Network)である。ネットワークインタフェース1120が通信網に接続する方法は、無線接続であってもよいし、有線接続であってもよい。
 ストレージデバイス1080は、処理装置20の各機能構成部を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
 次に、本実施形態の作用および効果について説明する。本実施形態に係る処理装置20によれば、予測式を示す情報に基づいて、各センサ10の予測結果への寄与度を把握することができる。ひいては、所望の目的のために、適したセンサの組み合わせを導出することができる。
(第2の実施形態)
 図7は、第2の実施形態に係る処理装置20の構成を例示する図である。本実施形態に係る処理装置20は、以下に説明する点を除いて第1の実施形態に係る処理装置20と同じである。
 本実施形態に係る処理装置20は、抽出手段220をさらに備える。抽出手段220は、予測式における複数の特徴量に対する複数の重みに基づいて、集合100から一以上のセンサ10を抽出する。具体的には抽出手段220は、予測式において、複数の重みのうち予め定められた条件を満たす、または満たさない重みで重みづけられた特徴量の、出力元であるセンサ10を抽出する。
 また、本実施形態において出力手段250は、抽出手段220で抽出されたセンサ10および抽出されなかったセンサ10の少なくとも一方を、識別可能な状態で出力する。なお、本実施形態において出力手段250は必ずしも予測式を示す情報を出力する必要は無い。以下に詳しく説明する。
 図8は、第2の実施形態に係る処理方法を例示するフローチャートである。本実施形態に係る処理方法は、抽出ステップS220をさらに含み、出力ステップS250では抽出ステップS220で抽出されたセンサ10および抽出されなかったセンサ10の少なくとも一方を、識別可能な状態で出力する点を除いて第1の実施形態に係る処理方法と同じである。抽出ステップS220では、予測式における複数の特徴量に対する複数の重みに基づいて、集合100から一以上のセンサ10が抽出される。具体的には、抽出ステップS220では、予測式において、複数の重みのうち予め定められた条件を満たす、または満たさない重みで重みづけられた特徴量の、出力元であるセンサ10が抽出される。
 本処理方法は、本実施形態に係る処理装置20により実現される。処理装置20の動作について以下に詳しく説明する。
 本実施形態において、予測式生成ステップS210は第1の実施形態に係る予測式生成ステップS210と同様である。本実施形態では、予測式生成ステップS210に次いで抽出ステップS220の処理が行われる。
 抽出ステップS220において抽出手段220は、予測式における重みと、重みに関する予め定められた条件とに基づいて、その予測式において予測結果への寄与度が高いセンサ10を抽出する。具体的には、抽出手段220は、予測式生成手段210から予測式を示す情報を取得する。そして、予測式を示す情報に示された各センサ10の特徴量に対する重みの大きさを算出する。
 ここで、予測式z=WX+bにおけるWXを、集合100に含まれる各センサ10の時系列データ14に基づく特徴量x、および特徴量xに対する重みwを用いて、w+w+・・・wと書き換えることができる。なお、wはそれぞれ数値であっても良いしベクトルであってもよい。wがベクトルである場合、wの各要素は、xの要素である各特徴量に対する重みである。そして、重みの大きさは、たとえばwのノルムである。一方、wが数値である場合、重みの大きさはwの絶対値である。
 抽出手段220はさらに、算出した重みの大きさが予め定められた条件を満たすか否かを判定する。条件を示す情報は抽出手段220からアクセス可能な記憶装置に予め記憶されている。たとえば、条件が「重みの大きさが基準値以上である」等、予測結果への寄与度が高いセンサ10についての条件を示す場合、抽出手段220はこの条件を満たす重みに対応するセンサ10を抽出する。一方、条件が「重みの大きさが基準値以下である」等、予測結果への寄与が低いセンサ10の条件を示す場合、抽出手段220はこの条件を満たさない重みに対応するセンサ10を抽出する。そして抽出手段220は、抽出されたセンサ10からなる組み合わせを示す組み合わせ情報を生成する。生成された組み合わせ情報には、予測式を示す情報が関連づけられる。
 なお、図3に示したような時系列データ14において、センサ10に対し吸着および離脱する分子に関する情報は、期間P1および期間P2のそれぞれの冒頭で大きく出力が変動する部分に強く反映されると考えられる。したがって、このような冒頭部分のデータに基づく特徴量の重みが大きくなると予測される。そして仮に、期間P1および期間P2のうち定常部分のデータに基づく特徴量の重みが大きい場合、その結果はノイズ等の影響を受けているとも考えられる。これらのことから、抽出手段220は、期間P1および期間P2の一部のデータのみに基づく特徴量に対する重みに基づいて、センサ10を抽出しても良い。具体的には、期間P1および期間P2のそれぞれにおいて、期間のはじめから予め定められた時間後までの間のデータに基づく特徴量に対する重みに基づいて、センサ10を抽出しても良い。
 次いで、出力ステップS250において出力手段250は、センサ10の抽出結果に基づき、予測結果への寄与度が高いセンサ10、または予測結果への寄与度が低いセンサ10の少なくともいずれかを出力する。なお、出力手段250によるセンサ10の出力とは、センサ10を示す記号等の出力である。なお、出力手段250が、予測結果への寄与度が高いセンサ10、および予測結果への寄与度が低いセンサ10の両方を出力する場合、それらは互いに識別可能な状態で出力される。また、出力手段250はさらに予測式を示す情報を出力しても良い。
 具体的には予測結果への寄与度が高いセンサ10、または予測結果への寄与度が低いセンサ10の少なくともいずれかを示す表示が、処理装置20に設けられた表示装置に表示される。また、出力手段250は外部の装置に対して予測結果への寄与度が高いセンサ10、または予測結果への寄与度が低いセンサ10の少なくともいずれかを示す情報を出力しても良いし、出力手段250からアクセス可能な記憶装置にこの情報を記憶させても良い。
 本実施形態においても、ユーザは出力手段250の出力に基づいて、第1の実施形態と同様に採用するセンサ10の組み合わせを探索することができる。
 本実施形態に係る処理装置20も、図6に示したような計算機1000により実現可能である。本実施形態において、ストレージデバイス1080は、処理装置20の抽出手段220を実現するプログラムモジュールをさらに記憶している。
 次に、本実施形態の作用および効果について説明する。本実施形態においては第1の実施形態と同様の作用および効果が得られる。くわえて、本実施形態に係る処理装置20によれば、抽出手段220の抽出結果に基づいて、予測結果への寄与度が低い、または高いセンサ10を把握することができる。ひいては、所望の目的のセンサを得るために、適したセンサの組み合わせをより明瞭に把握することができる。
(第3の実施形態)
 図9は、第3の実施形態に係る予測式生成手段210で行われる機械学習に用いられる予測モデルを例示する図である。本実施形態に係る処理装置20は、以下に説明する点を除いて第2の実施形態に係る処理装置20と同じである。
 本実施形態に係る処理装置20では、予測式生成手段210は、センサ10の検出環境に基づいた分岐を含むモデルを用いて予測式を生成する。また、出力手段250は、予測式に適した検出環境の条件であって、分岐の条件に基づく検出環境の条件を、予測式を示す情報に関連づけて出力する。
 センサ10の出力は、対象ガスの成分のみならず、その検出環境、すなわち測定条件により変化しうる。したがって、好ましいセンサ10の組み合わせは検出環境毎に異なる可能性がある。本実施形態では、予測式生成手段210が検出環境に基づいた分岐を含むモデルを用いて予測式を生成することにより、好ましいセンサ10の組み合わせを検出環境に対応付けて導き出すことができる。
 検出環境は特に限定されないが、たとえば温度、湿度、気圧、夾雑ガスの種類、パージガスの種類、におい成分のサンプリング周期、対象物とセンサ10との距離、センサ10の周囲に存在する物体のうち少なくともいずれかを含む。温度、湿度、および気圧はそれぞれセンサ10の周囲の温度、湿度、および気圧、具体的にはセンサ10の官能部を取り巻く雰囲気の温度、湿度、および気圧である。夾雑ガスの種類は、センサ10を対象ガスに曝す操作において、対象のにおい成分と共にセンサ10に供給されるガスの種類である。具体的には夾雑ガスの種類としては、窒素等の不活性ガス、および空気等が挙げられる。パージガスの種類はセンサ10から測定対象のガスを取り除く操作においてセンサ10に供給されるガスである。具体的にはパージガスとしては、窒素等の不活性ガス、および空気等が挙げられる。におい成分のサンプリング周期は、センサ10を測定対象のガスに曝す操作と、センサ10から測定対象のガスを取り除く操作を繰り返し行う場合の繰り返し周期である。対象物とセンサ10との距離は、特定の対象物の周囲にセンサ10を配置して検出を行う場合の、対象物とセンサ10との距離である。センサ10の周囲に存在する物体は、特定の対象物の周囲に10を配置して検出を行う場合の、対象物の種類である。
 機械学習に用いられるモデルは、具体的には複数のノードを含んだ階層構造を有する。そして一以上の中間ノードには分岐の条件として分岐式が位置し、最下層のアノードには予測式が位置する。本図において条件A、条件B1および条件B2は分岐の条件であり、式1から式4はそれぞれ予測式である。なお、中間ノードの数やアノードの数等、モデルの具体的な構成は特に限定されない。
 本実施形態において予測式生成手段210が行う機械学習はたとえば、センサ10の検出環境をさらに入力とした異種混合学習である。ここで、検出環境は、機械学習の入力である特徴量に関連づけられており、その特徴量の元となった時系列データ14が得られた際の検出環境である。異種混合学習によれば、分岐の条件を含む具体的なモデルが予測式と共に生成される。
 本実施形態において予測式生成手段210は予測式生成ステップS210において複数の検出環境で得られた複数の学習用データセットを入力とした機械学習を行う。上記した通り、各学習用データセットはセンサ10の集合100で得られた複数の特徴量と正解データとからなる。そして、機械学習の結果として、一以上の予測式が生成される。
 ここで、各予測式には前提となる検出環境の条件が紐づけられる。各予測式は、その予測式に関連づけられた検出環境の条件を満たす環境下で特に有効である。検出環境の条件は予測式と同時に生成されるモデルにおける分岐条件に基づく。詳しくは、検出環境の条件は生成されたモデルにおいて、スタートからアノードの予測式に至るまでに通る分岐条件とその判定結果で定められる。たとえば本図の例において、条件Aが「温度>T」であり、条件B2が「湿度>H」である場合、式3に関連づけられる検出環境の条件は、「温度がT以下であり、かつ湿度がHより高い」である。
 次いで、抽出手段220により抽出ステップS220が行われる。本実施形態に係る抽出ステップS220では、ユーザにより設定された特定の使用環境で好適に使用可能なセンサ10の組み合わせが抽出される。処理装置20はたとえばユーザからの入力を受け付け可能であり、抽出手段220はユーザにより入力された使用環境を示す情報を取得する。ただし、使用環境を示す情報は予め定められ、抽出手段220からアクセス可能な記憶装置に保持されていても良い。使用環境を示す情報はたとえば、温度、湿度、気圧、夾雑ガスの種類、パージガスの種類、におい成分のサンプリング周期、対象物とセンサ10との距離、センサ10の周囲に存在する物体のうち一以上である。
 そして、抽出手段220は、予測式生成手段210が生成した複数の予測式の中から、使用環境が満たす検出環境の条件に対応づけられた予測式を選択する。その上で抽出手段220は、選択した予測式に対し、第2の実施形態で説明したのと同様にセンサ10を抽出し、組み合わせ情報を生成する。組み合わせ情報には検出環境の条件を示す情報がさらに関連づけられる。
 また、出力手段250は出力ステップS250において、第2の実施形態で説明した出力ステップS250の処理と同様の処理を行う。ただし、出力手段250は、予測式に関連づけられた検出環境の条件をさらに出力しても良い。
 なお、使用環境が、複数の予測式についての検出環境の条件を満たす場合、抽出手段220は複数の予測式を選択し、各予測式に対して組み合わせ情報を生成しても良い。また、出力手段250は、複数の組み合わせの出力を行っても良い。ただし、出力手段250は、組み合わせ毎に識別可能な状態で予測式を示す情報等を出力する。
 なお、機械学習で用いる分岐の条件を含む具体的なモデルは、機械学習により生成される代わりに、ユーザにより設定されても良い。この場合、機械学習は異種混合学習でなくても良い。
 また、異種混合学習では、学習の繰り返しの中で、予測式と共に分岐条件が繰り返し更新されうるが、学習の途中の段階で得られたモデルを、以降の学習で固定して用いても良い。
 また、本実施形態に係る処理装置20は第1の実施形態に係る処理装置20と同様に、抽出手段220を備えていなくても良い。その場合、出力手段250は予測式生成手段210で生成された一以上の予測式を示す情報を出力する。
 また、抽出手段220は予測式生成手段210で生成された全ての予測式に対し組み合わせ情報を生成し、出力手段250が生成された全ての組み合わせ情報について、センサ10、予測式を示す情報、および検出環境の条件を出力しても良い。その場合、ユーザは出力された情報を総合的に見て、複数の検出環境の条件の全体において好ましいセンサ10の組み合わせを判断することができる。たとえば、ユーザはいずれの組み合わせにも含まれないセンサ10を、使用するセンサ10の候補から除外することができる。または、全ての組み合わせに含まれるセンサ10のみを候補として残すことができる。また、関連づけられた検出環境の条件が、実用上想定しにくい極端な条件であるような組み合わせにのみ含まれるセンサ10を、候補から除外することができる。
 次に、本実施形態の作用および効果について説明する。本実施形態においては第1の実施形態と同様の作用および効果が得られる。くわえて、予測式生成手段210が検出環境に基づいた分岐を含むモデルを用いて予測式を生成することにより、好ましいセンサ10の組み合わせを検出環境に対応付けて導き出すことができる。
(第4の実施形態)
 図10は、第4の実施形態に係る処理装置20の構成を例示する図である。また、図11は、第4の実施形態に係る処理方法を例示するフローチャートである。本実施形態に係る処理装置20は、以下に説明する点を除いて第2および第3の実施形態の少なくともいずれかに係る処理装置20と同じである。
 図10の例において処理装置20は、予測式の予測精度を算出する予測精度算出手段230、およびセンサ10の組み合わせを評価する評価手段240をさらに備える。また、図11の例において処理方法は、予測精度算出ステップS230および評価ステップS240をさらに含む。ただし、本実施形態に係る処理装置20は、予測精度算出手段230および評価手段240の少なくとも一方を備えていなくても良い。また、本実施形態に係る処理方法は、予測精度算出ステップS230および評価ステップS240の少なくとも一方を含まなくても良い。
 本実施形態の予測式生成ステップS210では、第1から第3の実施形態の少なくともいずれかに係る予測式生成ステップS210と同様の処理が行われる。次いで、本実施形態の抽出ステップS220では、第2および第3の実施形態の少なくともいずれかに係る抽出ステップS220と同様の処理が行われる。
 本実施形態に係る処理装置20では、抽出ステップS220に次いで、予測精度算出手段230により予測精度算出ステップS230の処理が行われる。なお、予測精度算出ステップS230の処理が行われるタイミングは予測式生成ステップS210の後かつ、後述する評価ステップS240の前である限り、特に限定されない。なお、処理装置20が評価手段240を備えない場合には、予測精度算出ステップS230の処理が行われるタイミングは予測式生成ステップS210の後かつ、出力ステップS250の前であればよい。
 予測精度算出ステップS230では、予測精度算出手段230が各予測式の予測精度を算出する。予測精度の算出には、学習用データセットと同様のデータセットが評価用データセットとして用いられる。すなわち、評価用データセットは複数の特徴量と正解データとを含む。
 ただし、複数の学習用データセットと複数の評価用データセットには、互いに全く同じデータセットは含まれない。たとえば処理装置20の外部または内部で生成された、互いに異なる複数のデータセットのうちの一部を複数の学習用データセットとして用い、残りを複数の評価用データセットとして用いることができる。
 予測精度は回帰に基づく予測については回帰精度であり、たとえば最小二乗誤差または平均平方二乗誤差(RMSE)である。また、予測精度は判別に基づく予測については判別精度であり、たとえば適合率、再現率、F値、正答率、またはROC_AUCである。
 予測精度算出手段230が予測精度を算出する方法の一例について詳しく説明する。予測式生成手段210が学習用データセットを取得または生成するのと同様の方法で、予測精度算出手段230は複数の評価用データセットを取得または生成することができる。予測精度算出手段230は評価用データセットに含まれる特徴量を、精度を評価しようとする予測式に入力することで、予測結果を得る。そして、得られた予測結果と、評価用データセットに含まれる正解データとが一致するか否かを判定する。そして、予測精度算出手段230は複数の評価用データセットについて同様の処理を行い、予測結果と正解データとが一致する確率を、その予測式の予測精度として算出する。算出された予測精度は、その予測式に関連づけられる。
 複数の評価用データセットは、互いに異なる検出環境での測定結果に基づくものであっても良い。ただし、第1または第2の実施形態のように、一つの集合100に対して一つの予測式が生成される場合、評価用データセットは、学習用データセットが得られた検出環境に近い検出環境で得られたデータであることが好ましい。第3の実施形態のように一つの集合100に対して複数の予測式が生成される場合、各予測式について、その予測式に関連づけられた検出環境の条件を満たす環境で得られた評価用データセットのみが予測精度の算出に用いられる。
 次いで、評価ステップS240の処理が評価手段240により行われる。評価手段240は、センサ10の組み合わせを、たとえばその組み合わせを採用する場合に用いる予測式の予測精度と、その組み合わせを採用する場合のコストとの少なくとも一方に基づいて評価する。なかでも評価手段240は、組み合わせ情報に示されたセンサ10の組み合わせを採用する場合のコストに少なくとも基づいて、センサ10の組み合わせを評価することが好ましい。
 コストにはたとえば初期コストおよびランニングコストが含まれる。初期コストとしては、センサ10の製造コストや調達コスト等が挙げられる。また、ランニングコストとしては、管理コスト、センサ10の劣化等に起因する交換コスト、扱いにおける人的手間等が挙げられる。
 評価手段240によりアクセス可能な記憶装置には、予め各センサ10のコストを示すパラメータが保持されており、評価手段240は、組み合わせに含まれるセンサ10のコストを示すパラメータを記憶装置から取得する。そして、組み合わせに含まれる全てのセンサ10についてのコストを示すパラメータを合算し、合算値を得る。
 また、評価手段240は予測精度算出手段230から、その組み合わせ情報に関連づけられた予測式の予測精度を取得する。
 評価手段240はさらに評価関数を用いて組み合わせを評価する。評価関数は一以上の要因に基づき評価値を算出する関数である。具体的には評価関数は、各要因における評価結果を示す評価パラメータの線形和で表される。たとえば要因をコストとした評価パラメータは、上記の様に算出された合算値であり、要因を精度とした評価パラメータは予測精度算出手段230から取得した予測精度である。また、評価関数では、各評価パラメータに対して係数が掛けられ、評価結果に対する要因ごとの重みのバランスがとられたり、評価の方向性が定められたりしている。係数は、評価パラメータの種類毎に定められている。
 評価手段240は評価関数にコストを示すパラメータの合算値および予測精度を適用することにより、評価結果として評価値を算出する。なお、評価手段240により得られる評価結果は、コストに関する合算値は小さいほど高くなり、予測精度が良いほど高くなる。評価関数を示す情報は評価手段240によりアクセス可能な記憶装置に予め保持されている。算出された評価値は、組み合わせ情報に関連づけられる。
 評価手段240は、さらに組み合わせに含まれるセンサ10の数に基づき、センサ10の組み合わせを評価しても良い。たとえば、組み合わせに含まれるセンサ10の数を要因とする場合、たとえば、センサ10の数が、評価関数における評価パラメータとなり得る。なお、評価手段240により得られる評価結果は、組み合わせに含まれるセンサ10の数が少ないほど高くなる。
 第3の実施形態のように一つの集合100に対して複数の予測式が生成される場合、評価手段240は、さらに組み合わせ情報に関連づけられた検出環境の条件に基づき、センサ10の組み合わせを評価しても良い。たとえば、検出環境の条件の広さを要因とする場合、たとえば、検出環境の条件として示された温度、湿度、気圧、周期、距離等の範囲の幅や、ガスや物体の選択肢の数が、評価関数における評価パラメータとなり得る。また、検出環境の条件の実用性を要因とする場合、検出環境の条件として示された温度、湿度、気圧、周期、距離等の範囲の中心値と、予め定められた標準値との距離が評価関数における評価パラメータとなり得る。すなわち、この距離が小さいほど実用性が高いといえる。なお、評価手段240により得られる評価結果は、検出環境の条件が広いほど高くなり、検出環境の条件の実用性が高いほど高くなる。
 出力ステップS250において出力手段250は、さらに評価手段240で算出された評価結果をセンサ10の組み合わせに関連づけて出力する。ユーザはセンサ10の複数の組み合わせを、評価結果を用いて互いに比較することができる。たとえば、集合100の構成を変えながら処理装置20による処理を繰り返す場合、各集合100による結果を評価結果により比較し、最も優れるセンサ10の組み合わせを導出することができる。また、第3の実施形態のように、一つの集合100に基づき複数の組み合わせ情報が生成される場合に、評価結果によりそれらを互いに比較することができる。なお、出力手段250は評価結果に加えて、または、評価結果に代えて、予測式の予測精度を出力しても良い。
 さらに、第3の実施形態で説明した様に、たとえば出力された情報を総合的に見て、複数の検出環境の条件の全体において好ましいセンサ10の組み合わせを判断しようとする場合について説明する。この場合たとえば、集合100に対して生成される複数の組み合わせ情報に対する評価値が、全て予め定められた閾値を超え、かつ、評価値の平均値が大きくなるように、集合100のセンサ10を組み替える。そうすることで、目的に適したセンサ10の組み合わせが集合100として得られる。このような集合100の組み替えは、ユーザが手作業で行うことができる。ただし、学習データセットおよび評価データセットがシミュレーションにより得られる場合には、集合100の組み替えはシミュレーション装置により仮想的に行われても良い。
 また、本実施形態に係る処理装置20では、複数の集合100に基づく組み合わせに対し、さらに評価結果の比較が行われても良い。たとえば予測式生成手段210は、複数の集合100のそれぞれについて機械学習を行う。また抽出手段220は、複数の集合100のそれぞれに対し組み合わせ情報を生成する。そして評価手段240は、生成された複数の組み合わせ情報が示す複数の組み合わせをそれぞれ評価する。出力手段250は、複数の組み合わせのうち評価手段240による評価結果が最も優れる(高い)組み合わせを出力する。なお、出力手段250は複数の組み合わせを、評価結果が最も優れる組み合わせが識別可能な状態で出力しても良い。
 本実施形態に係る処理装置20も、図6に示したような計算機1000により実現可能である。本実施形態において、ストレージデバイス1080は、処理装置20の予測精度算出手段230および評価手段240をそれぞれ実現するプログラムモジュールをさらに記憶している。
 次に、本実施形態の作用および効果について説明する。本実施形態においては第1の実施形態と同様の作用および効果が得られる。くわえて、予測精度算出手段230で予測式の予測精度が算出されたり、評価手段240による評価が行われたりすることで、センサ10の複数の組み合わせの有効性を互いに比較することができる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。たとえば、上述の説明で用いたシーケンス図やフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
 以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
1-1. 複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成手段と、
 前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出手段と、
 前記抽出手段で抽出された前記センサおよび抽出されなかった前記センサの少なくとも一方を、識別可能な状態で出力する出力手段とを備え、
 前記抽出手段は、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する処理装置。
1-2. 複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成手段と、
 前記予測式を示す情報として、前記予測式における前記複数の特徴量に対する複数の重みを、それぞれ前記特徴量に関連づけて出力する出力手段とを備える処理装置。
1-3. 1-2.に記載の処理装置において、
 前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出手段をさらに備え、
 前記抽出手段は、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する処理装置。
1-4. 1-1.または1-3.に記載の処理装置において、
 前記抽出手段は、抽出された前記センサからなる組み合わせを示す組み合わせ情報を生成し、
 前記組み合わせを採用する場合のコストに少なくとも基づいて、前記組み合わせを評価する評価手段をさらに備える処理装置。
1-5. 1-4.に記載の処理装置において、
 前記予測式生成手段は、複数の前記集合のそれぞれについて前記機械学習を行い、
 前記抽出手段は、前記複数の集合のそれぞれに対し前記組み合わせ情報を生成し、
 前記評価手段は、生成された前記複数の組み合わせ情報が示す前記複数の組み合わせをそれぞれ評価し、
 前記出力手段は、前記複数の組み合わせのうち前記評価手段による評価結果が最も優れる前記組み合わせを出力する処理装置。
1-6. 1-1.から1-5.のいずれか一つに記載の処理装置において、
 前記予測式生成手段は、前記センサの検出環境に基づいた分岐を含むモデルを用いて前記予測式を生成し、
 前記出力手段は、前記予測式に適した前記検出環境の条件であって、前記分岐の条件に基づく前記検出環境の条件を、前記予測式を示す情報に関連づけてさらに出力する処理装置。
1-7. 1-6.に記載の処理装置において、
 前記機械学習は、前記特徴量に関連づけられた前記センサの検出環境をさらに入力とした異種混合学習であり、
 前記分岐の条件は、前記異種混合学習により生成される処理装置。
1-8. 1-6.または1-7.に記載の処理装置において、
 前記検出環境は、温度、湿度、気圧、夾雑ガスの種類、パージガスの種類、前記におい成分のサンプリング周期、対象物と前記センサとの距離、前記センサの周囲に存在する物体のうち少なくともいずれかを含む処理装置。
1-9. 1-1.から1-8.のいずれか一つに記載の処理装置において、
 前記予測式の予測精度を算出する予測精度算出手段をさらに備える処理装置。
2-1. 複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成ステップと、
 前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出ステップと、
 前記抽出ステップで抽出された前記センサおよび抽出されなかった前記センサの少なくとも一方を、識別可能な状態で出力する出力ステップとを含み、
 前記抽出ステップでは、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する処理方法。
2-2. 複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成ステップと、
 前記予測式を示す情報として、前記予測式における前記複数の特徴量に対する複数の重みを、それぞれ前記特徴量に関連づけて出力する出力ステップとを含む処理方法。
2-3. 2-2.に記載の処理方法において、
 前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出ステップをさらに含み、
 前記抽出ステップでは、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する処理方法。
2-4. 2-1.または2-3.に記載の処理方法において、
 前記抽出ステップでは、抽出された前記センサからなる組み合わせを示す組み合わせ情報を生成し、
 前記組み合わせを採用する場合のコストに少なくとも基づいて、前記組み合わせを評価する評価ステップをさらに含む処理方法。
2-5. 2-4.に記載の処理方法において、
 前記予測式生成ステップでは、複数の前記集合のそれぞれについて前記機械学習を行い、
 前記抽出ステップでは、前記複数の集合のそれぞれに対し前記組み合わせ情報を生成し、
 前記評価ステップでは、生成された前記複数の組み合わせ情報が示す前記複数の組み合わせをそれぞれ評価し、
 前記出力ステップでは、前記複数の組み合わせのうち前記評価ステップにおける評価結果が最も優れる前記組み合わせをさらに出力する処理方法。
2-6. 2-1.から2-5.のいずれか一つに記載の処理方法において、
 前記予測式生成ステップでは、前記センサの検出環境に基づいた分岐を含むモデルを用いて前記予測式を生成し、
 前記出力ステップでは、前記予測式に適した前記検出環境の条件であって、前記分岐の条件に基づく前記検出環境の条件を、前記予測式を示す情報に関連づけてさらに出力する処理方法。
2-7. 2-6.に記載の処理方法において、
 前記機械学習は、前記特徴量に関連づけられた前記センサの検出環境をさらに入力とした異種混合学習であり、
 前記分岐の条件は、前記異種混合学習により生成される処理方法。
2-8. 2-6.または2-7.に記載の処理方法において、
 前記検出環境は、温度、湿度、気圧、夾雑ガスの種類、パージガスの種類、前記におい成分のサンプリング周期、対象物と前記センサとの距離、前記センサの周囲に存在する物体のうち少なくともいずれかを含む処理方法。
2-9. 2-1.から2-8.のいずれか一つに記載の処理方法において、
 前記予測式の予測精度を算出する予測精度算出ステップをさらに備える処理方法。
3-1. 2-1.から2-9.のいずれか一つに記載の処理方法の各ステップをコンピュータに実行させるプログラム。

Claims (19)

  1.  複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成手段と、
     前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出手段と、
     前記抽出手段で抽出された前記センサおよび抽出されなかった前記センサの少なくとも一方を、識別可能な状態で出力する出力手段とを備え、
     前記抽出手段は、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する処理装置。
  2.  複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成手段と、
     前記予測式を示す情報として、前記予測式における前記複数の特徴量に対する複数の重みを、それぞれ前記特徴量に関連づけて出力する出力手段とを備える処理装置。
  3.  請求項2に記載の処理装置において、
     前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出手段をさらに備え、
     前記抽出手段は、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する処理装置。
  4.  請求項1または3に記載の処理装置において、
     前記抽出手段は、抽出された前記センサからなる組み合わせを示す組み合わせ情報を生成し、
     前記組み合わせを採用する場合のコストに少なくとも基づいて、前記組み合わせを評価する評価手段をさらに備える処理装置。
  5.  請求項4に記載の処理装置において、
     前記予測式生成手段は、複数の前記集合のそれぞれについて前記機械学習を行い、
     前記抽出手段は、前記複数の集合のそれぞれに対し前記組み合わせ情報を生成し、
     前記評価手段は、生成された前記複数の組み合わせ情報が示す前記複数の組み合わせをそれぞれ評価し、
     前記出力手段は、前記複数の組み合わせのうち前記評価手段による評価結果が最も優れる前記組み合わせを出力する処理装置。
  6.  請求項1から5のいずれか一項に記載の処理装置において、
     前記予測式生成手段は、前記センサの検出環境に基づいた分岐を含むモデルを用いて前記予測式を生成し、
     前記出力手段は、前記予測式に適した前記検出環境の条件であって、前記分岐の条件に基づく前記検出環境の条件を、前記予測式を示す情報に関連づけてさらに出力する処理装置。
  7.  請求項6に記載の処理装置において、
     前記機械学習は、前記特徴量に関連づけられた前記センサの検出環境をさらに入力とした異種混合学習であり、
     前記分岐の条件は、前記異種混合学習により生成される処理装置。
  8.  請求項6または7に記載の処理装置において、
     前記検出環境は、温度、湿度、気圧、夾雑ガスの種類、パージガスの種類、前記におい成分のサンプリング周期、対象物と前記センサとの距離、前記センサの周囲に存在する物体のうち少なくともいずれかを含む処理装置。
  9.  請求項1から8のいずれか一項に記載の処理装置において、
     前記予測式の予測精度を算出する予測精度算出手段をさらに備える処理装置。
  10.  複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成ステップと、
     前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出ステップと、
     前記抽出ステップで抽出された前記センサおよび抽出されなかった前記センサの少なくとも一方を、識別可能な状態で出力する出力ステップとを含み、
     前記抽出ステップでは、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する処理方法。
  11.  複数種類のセンサの集合からの出力に基づいた複数の特徴量と正解データとを入力とした機械学習を行うことにより、前記複数の特徴量を変数とする式であって、におい成分に関する予測を行うための予測式を生成する予測式生成ステップと、
     前記予測式を示す情報として、前記予測式における前記複数の特徴量に対する複数の重みを、それぞれ前記特徴量に関連づけて出力する出力ステップとを含む処理方法。
  12.  請求項11に記載の処理方法において、
     前記予測式における前記複数の特徴量に対する複数の重みに基づいて、前記集合から一以上の前記センサを抽出する抽出ステップをさらに含み、
     前記抽出ステップでは、前記予測式において、前記複数の重みのうち予め定められた条件を満たす、または満たさない前記重みで重みづけられた前記特徴量の、出力元である前記センサを抽出する処理方法。
  13.  請求項10または12に記載の処理方法において、
     前記抽出ステップでは、抽出された前記センサからなる組み合わせを示す組み合わせ情報を生成し、
     前記組み合わせを採用する場合のコストに少なくとも基づいて、前記組み合わせを評価する評価ステップをさらに含む処理方法。
  14.  請求項13に記載の処理方法において、
     前記予測式生成ステップでは、複数の前記集合のそれぞれについて前記機械学習を行い、
     前記抽出ステップでは、前記複数の集合のそれぞれに対し前記組み合わせ情報を生成し、
     前記評価ステップでは、生成された前記複数の組み合わせ情報が示す前記複数の組み合わせをそれぞれ評価し、
     前記出力ステップでは、前記複数の組み合わせのうち前記評価ステップにおける評価結果が最も優れる前記組み合わせをさらに出力する処理方法。
  15.  請求項10から14のいずれか一項に記載の処理方法において、
     前記予測式生成ステップでは、前記センサの検出環境に基づいた分岐を含むモデルを用いて前記予測式を生成し、
     前記出力ステップでは、前記予測式に適した前記検出環境の条件であって、前記分岐の条件に基づく前記検出環境の条件を、前記予測式を示す情報に関連づけてさらに出力する処理方法。
  16.  請求項15に記載の処理方法において、
     前記機械学習は、前記特徴量に関連づけられた前記センサの検出環境をさらに入力とした異種混合学習であり、
     前記分岐の条件は、前記異種混合学習により生成される処理方法。
  17.  請求項15または16に記載の処理方法において、
     前記検出環境は、温度、湿度、気圧、夾雑ガスの種類、パージガスの種類、前記におい成分のサンプリング周期、対象物と前記センサとの距離、前記センサの周囲に存在する物体のうち少なくともいずれかを含む処理方法。
  18.  請求項10から17のいずれか一項に記載の処理方法において、
     前記予測式の予測精度を算出する予測精度算出ステップをさらに備える処理方法。
  19.  請求項10から18のいずれか一項に記載の処理方法の各ステップをコンピュータに実行させるプログラム。
PCT/JP2018/035849 2018-09-27 2018-09-27 処理装置、処理方法、およびプログラム WO2020065806A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020547701A JP7063389B2 (ja) 2018-09-27 2018-09-27 処理装置、処理方法、およびプログラム
PCT/JP2018/035849 WO2020065806A1 (ja) 2018-09-27 2018-09-27 処理装置、処理方法、およびプログラム
US17/279,315 US20220036223A1 (en) 2018-09-27 2018-09-27 Processing apparatus, processing method, and non-transitory storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/035849 WO2020065806A1 (ja) 2018-09-27 2018-09-27 処理装置、処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2020065806A1 true WO2020065806A1 (ja) 2020-04-02

Family

ID=69949756

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/035849 WO2020065806A1 (ja) 2018-09-27 2018-09-27 処理装置、処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US20220036223A1 (ja)
JP (1) JP7063389B2 (ja)
WO (1) WO2020065806A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210311009A1 (en) * 2018-07-31 2021-10-07 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
JP2022550531A (ja) * 2019-10-02 2022-12-02 エックス デベロップメント エルエルシー 嗅覚センサシステム及び方法
US11879634B2 (en) 2019-05-27 2024-01-23 Mitsubishi Electric Corporation Illumination device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI762853B (zh) * 2020-01-06 2022-05-01 宏碁股份有限公司 利用自動化機制挑選影響力指標的方法及電子裝置
US11657300B2 (en) * 2020-02-26 2023-05-23 Samsung Electronics Co., Ltd. Systems and methods for predicting storage device failure using machine learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018150798A1 (ja) * 2017-02-17 2018-08-23 日本電気株式会社 モデル推定システム、方法およびプログラム
JP2018132325A (ja) * 2017-02-13 2018-08-23 国立研究開発法人物質・材料研究機構 ニオイ測定による西洋梨の熟成度の非破壊検査方法および装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018132325A (ja) * 2017-02-13 2018-08-23 国立研究開発法人物質・材料研究機構 ニオイ測定による西洋梨の熟成度の非破壊検査方法および装置
WO2018150798A1 (ja) * 2017-02-17 2018-08-23 日本電気株式会社 モデル推定システム、方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210311009A1 (en) * 2018-07-31 2021-10-07 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
US11879634B2 (en) 2019-05-27 2024-01-23 Mitsubishi Electric Corporation Illumination device
JP2022550531A (ja) * 2019-10-02 2022-12-02 エックス デベロップメント エルエルシー 嗅覚センサシステム及び方法

Also Published As

Publication number Publication date
JPWO2020065806A1 (ja) 2021-09-09
US20220036223A1 (en) 2022-02-03
JP7063389B2 (ja) 2022-05-09

Similar Documents

Publication Publication Date Title
WO2020065806A1 (ja) 処理装置、処理方法、およびプログラム
Egeghy et al. Computational exposure science: an emerging discipline to support 21st-century risk assessment
Thuiller et al. BIOMOD–a platform for ensemble forecasting of species distributions
Pleil et al. Human biomarker interpretation: the importance of intra-class correlation coefficients (ICC) and their calculations based on mixed models, ANOVA, and variance estimates
JP6679086B2 (ja) 学習装置、予測装置、学習方法、予測方法、およびプログラム
KR20210119479A (ko) 기계 학습을 사용하여 분자의 후각 특성을 예측하기 위한 시스템 및 방법
EP3716160A1 (en) Learning parameters of a probabilistic model comprising gaussian processes
Debastiani et al. Evolutionary models and phylogenetic signal assessment via Mantel test
Burie et al. Switching from a mechanistic model to a continuous model to study at different scales the effect of vine growth on the dynamic of a powdery mildew epidemic
CN111210071B (zh) 业务对象预测方法、装置、设备及可读存储介质
Sansó et al. Statistical calibration of climate system properties
CN111737586A (zh) 信息推荐方法、装置、设备及计算机可读存储介质
Kim et al. Locally most powerful Bayesian test for out-of-distribution detection using deep generative models
CN114207729A (zh) 材料特性预测系统以及材料特性预测方法
Wheeler Bayesian additive adaptive basis tensor product models for modeling high dimensional surfaces: an application to high-throughput toxicity testing
WO2020255305A1 (ja) 予測モデル再学習装置、予測モデル再学習方法及びプログラム記録媒体
WO2020065807A1 (ja) 情報処理装置、処理装置、情報処理方法、処理方法、決定方法、およびプログラム
CN110489800B (zh) 一种基于矩阵正则化的结构动荷载稀疏识别方法
WO2020026327A1 (ja) 情報処理装置、制御方法、及びプログラム
US11789001B2 (en) Information processing apparatus, sensor operation optimization method, and program
JP7127697B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2015088118A (ja) データ解析装置、方法、及びプログラム
WO2020026328A1 (ja) 情報処理装置、制御方法、及びプログラム
Wang et al. Nonparametric interval estimators for the coefficient of variation
JP7074194B2 (ja) 情報処理装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18935803

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020547701

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18935803

Country of ref document: EP

Kind code of ref document: A1