WO2023053324A1 - 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
WO2023053324A1
WO2023053324A1 PCT/JP2021/036092 JP2021036092W WO2023053324A1 WO 2023053324 A1 WO2023053324 A1 WO 2023053324A1 JP 2021036092 W JP2021036092 W JP 2021036092W WO 2023053324 A1 WO2023053324 A1 WO 2023053324A1
Authority
WO
WIPO (PCT)
Prior art keywords
modal
modals
types
type
information processing
Prior art date
Application number
PCT/JP2021/036092
Other languages
English (en)
French (fr)
Inventor
祐亮 赤松
祥史 大西
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/036092 priority Critical patent/WO2023053324A1/ja
Publication of WO2023053324A1 publication Critical patent/WO2023053324A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • This disclosure relates to technical fields of information processing devices, biological information estimation devices, information processing methods, and recording media.
  • Patent Document 1 describes an example of a device that detects heart rate and respiratory rate from face images.
  • Patent Document 2 describes an example of a system for determining a subject's stress coping style based on facial images and a plurality of average blood pressure, heart rate, cardiac output, and total peripheral resistance.
  • Patent Literature 3 describes an example of a function of re-learning an algorithm based on obtained new learning data.
  • Patent Document 4 describes a method for automatically re-learning a speech recognition system.
  • JP 2012-239661 A Japanese Patent Application Laid-Open No. 2021-037287 WO2021/075288 Japanese translation of PCT publication No. 2003-524805
  • An object of this disclosure is to provide an information processing device, a biological information estimation device, an information processing method, and a recording medium that aim to improve the techniques described in prior art documents.
  • One aspect of an information processing apparatus acquires a first modal set that includes at least a first type of modal among a plurality of types of modals and does not include a second type of modal among the plurality of types of modals. and a modal generation model that outputs at least one of the plurality of types of modals when at least one of the plurality of types of modals is input, and includes the plurality of types of modals.
  • output means for outputting at least the second type of modal by inputting the first modal set to a modal generation model generated by machine learning using two modal sets; and the first modal modal generation means for generating a third modal set including the set and the second type of modals output by the modal generation model;
  • One aspect of the biometric information estimation device includes at least image acquisition means for acquiring a face image of a subject, and a first modal among a plurality of types of modals, and a second modal among the plurality of types of modals.
  • the plurality of types of modals By performing machine learning using a third modal set that includes a first modal set that does not include the type of modal and the second type of modal output by the modal generation model, the plurality of types of modals the modal estimation model for outputting, as an output modal, a fourth type of modal different from the third type of the plurality of types of modals when a third type of modal among the plurality of types of modals is input as an input modal; biometric information estimating means for outputting biometric information of a subject as the output modal, wherein the modal generation model generates one of the plurality of types of modals when at least one of the plurality of types of modals is input; It was generated by machine learning using
  • One aspect of the information processing method acquires a first modal set that includes at least a first type of modal among a plurality of types of modals and does not include a second type of modal among the plurality of types of modals. and a modal generation model that outputs at least one of the plurality of types of modals when at least one of the plurality of types of modals is input, and a second modal including the plurality of types of modals
  • a modal generation model that outputs at least one of the plurality of types of modals when at least one of the plurality of types of modals is input, and a second modal including the plurality of types of modals
  • a computer stores a first modal set that includes at least a first type of modal among a plurality of types of modals and does not include a second type of modal among the plurality of types of modals. and a modal generation model that outputs at least one of the plurality of types of modals when at least one of the plurality of types of modals is input, and includes the plurality of types of modals
  • a computer program is recorded for executing an information processing method for generating a third modal set including the second type of modals output by the generative model.
  • FIG. 1 is a block diagram showing the configuration of an information processing apparatus according to the first embodiment.
  • FIG. 2 is a block diagram showing the configuration of an information processing apparatus according to the second embodiment.
  • FIG. 3 shows an example of the data structure of a data group used in the second embodiment.
  • FIG. 4 is a flowchart showing the flow of modal set generation operations performed by the information processing apparatus according to the second embodiment.
  • FIG. 5 is a block diagram showing the configuration of the modal generator 212 included in the information processing apparatus according to the third embodiment.
  • FIG. 6 is a block diagram showing the configuration of an information processing apparatus according to the fourth embodiment.
  • FIG. 7 is a flowchart showing the flow of modal estimation model generation operation performed by the information processing apparatus according to the fourth embodiment.
  • FIG. 8 is a block diagram showing the configuration of an online diagnostic support system including a diagnostic support device according to the fifth embodiment.
  • FIG. 9 is a block diagram showing the configuration of a biological information estimating unit included in the diagnostic support apparatus according to the fifth embodiment.
  • FIG. 10 is a diagram showing the flow of the online diagnosis support operation performed by the online diagnosis support system including the diagnosis support device according to the fifth embodiment.
  • FIG. 1 is a block diagram showing the configuration of the information processing device 1 according to the first embodiment. As shown in FIG. 1 , the information processing device 1 includes an acquisition unit 11 and a modal generation unit 12 .
  • modal may refer to biometric information.
  • a modal set may refer to data containing one or more types of modals, for example, regarding an individual.
  • modal data including all three types of modal A, modal B, and modal C is called a full modal set.
  • the data including modal A, modal B, and modal C are called a partial modal set.
  • the partial modal set includes data including modal A and modal B, data including modal A and modal C, data including modal B and modal C, data including modal A, data including modal B, and data including modal C. It can be anything.
  • the acquisition unit 11 acquires the partial modal set IMS as the first modal set.
  • the partial modal set IMS includes at least the first type of modal 1M among the multiple types of modals, but does not include the second type of modal 2M among the multiple types of modals.
  • the modal output unit 13 outputs at least a second type of modal by inputting the partial modal set IMS to the modal generation model.
  • the modal generator 12 generates a generated total modal set GMS as a third modal set including the partial modal set IMS and the second type of modals output by the modal generative model.
  • the generated total modal set GMS is a total modal set including all kinds of modals.
  • the modal generation model outputs at least one of multiple types of modals when at least one of multiple types of modals is input.
  • a modal generation model is a model generated by machine learning using a full modal set MMS as a second modal set including all types of modals. (1-2) Technical effect of information processing device 1
  • the information processing apparatus 1 outputs at least the modals of the second type, that is, the modals not included in the partial modal set IMS.
  • the modal generation unit 12 can generate a full modal set including a plurality of types of modals.
  • the information processing apparatus 1 according to the first embodiment can relatively easily acquire a complete modal set including a large number of multiple types of modals.
  • the entire modal set, which includes a large number of multiple types of modals can be used for machine learning of a model that achieves highly accurate estimation, and can contribute to the realization of highly accurate modal estimation.
  • FIG. 2 is a block diagram showing the configuration of the information processing device 2 according to the second embodiment.
  • the same reference numerals are assigned to the components that have already been described, and detailed description thereof will be omitted.
  • the information processing device 2 includes an arithmetic device 21 and a storage device 22 . Furthermore, the information processing device 2 may include a communication device 23 , an input device 24 and an output device 25 . However, the information processing device 2 does not have to include at least one of the communication device 23 , the input device 24 and the output device 25 . Arithmetic device 21 , storage device 22 , communication device 23 , input device 24 and output device 25 may be connected via data bus 26 .
  • the computing device 21 includes, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field Programmable Gate Array). Arithmetic device 21 reads a computer program. For example, arithmetic device 21 may read a computer program stored in storage device 22 . For example, the computing device 21 reads a computer program stored in a computer-readable and non-temporary recording medium by a recording medium reading device (not shown) provided in the information processing device 2 (for example, an input device 24 to be described later). can be read using The computing device 21 may acquire (that is, download) a computer program from a device (not shown) arranged outside the information processing device 2 via the communication device 23 (or other communication device). may be read).
  • a recording medium reading device not shown
  • the computing device 21 may acquire (that is, download) a computer program from a device (not shown) arranged outside the information processing device 2 via the communication device 23 (or other communication device). may be read).
  • Arithmetic device 21 executes the read computer program. As a result, logical functional blocks for executing the operations to be performed by the information processing device 2 are realized in the arithmetic device 21 .
  • the arithmetic unit 21 can function as a controller for realizing logical functional blocks for executing operations (in other words, processing) that the information processing apparatus 2 should perform.
  • FIG. 2 shows an example of logical functional blocks implemented within the arithmetic device 21 for executing modal generation operations.
  • the arithmetic unit 21 includes an acquisition unit 211 as a specific example of "acquisition means”, a modal generation unit 212 as a specific example of "modal generation means”, and an "output means".
  • a modal output unit 213, which is a specific example of (1), and a first model generation unit 214, which is a specific example of "first model generation means", are realized.
  • the first model generation unit 214 generates the modal generation model GM by performing machine learning using the full modal set MMS as the second modal set.
  • the arithmetic device 21 does not have to include the first model generation unit 214 .
  • the storage device 22 can store desired data.
  • the storage device 22 may temporarily store computer programs executed by the arithmetic device 21 .
  • the storage device 22 may temporarily store data temporarily used by the arithmetic device 21 while the arithmetic device 21 is executing a computer program.
  • the storage device 22 may store data that the information processing device 2 saves for a long period of time.
  • the storage device 22 may include at least one of RAM (Random Access Memory), ROM (Read Only Memory), hard disk device, magneto-optical disk device, SSD (Solid State Drive), and disk array device. good. That is, the storage device 22 may include non-transitory recording media.
  • the storage device 22 may store a full modal set MMS, a partial modal set IMS, a generative full modal set GMS, and a modal generative model GM. Details of the full modal set MMS and the partial modal set IMS will be described later with reference to FIG. However, the storage device 22 may not store the full modal set MMS, partial modal set IMS, generated full modal set GMS, and modal generative model GM.
  • the full modal set MMS is a modal set including all types of modals.
  • the communication device 23 can communicate with devices external to the information processing device 2 via a communication network (not shown).
  • the input device 24 is a device that receives input of information to the information processing device 2 from outside the information processing device 2 .
  • the input device 24 may include an operation device (for example, at least one of a keyboard, a mouse, and a touch panel) that can be operated by an operator of the information processing device 2 .
  • the input device 24 may include a reading device capable of reading information recorded as data on a recording medium that can be externally attached to the information processing device 2 .
  • the output device 25 is a device that outputs information to the outside of the information processing device 2 .
  • the output device 25 may output information as an image.
  • the output device 25 may include a display device (so-called display) capable of displaying an image showing information to be output.
  • the output device 25 may output information as voice. That is, the output device 25 may include an audio device capable of outputting audio (so-called speaker).
  • the output device 25 may output information on paper. That is, the output device 25 may include a printing device (so-called printer) capable of printing desired information on paper.
  • a partial modal set lacking some types of modals is easier than collecting a full modal set including all types of modals.
  • a whole modal set including three types of modals, face image, heart rate, and oxygen saturation, for a certain individual can be counted as one sample. to all modal sets containing 10,000 or more samples.
  • multiple types of modals may include, for example, facial images, heart rate, and oxygen saturation.
  • FIG. 3 shows an example of the data structure of the data group used in the second embodiment.
  • FIG. 3A shows the data structure of the learning data group used by the first model generation unit 214 for machine learning of the modal generation model GM.
  • the learning data group may include, for example, 2,000 all modal set MMSs.
  • the full modal set MMS may include facial images, heart rate, and oxygen saturation.
  • each modal included in the total modal set MMS may be data obtained by actual measurement.
  • FIG. 3B shows the data structure of the first input data group that the modal output unit 213 inputs to the modal generative model GM.
  • the first input data group may include, for example, 4,000 first partial modal sets IMS#1.
  • the partial modal set IMS includes at least the first type of modal 1M among the multiple types of modals, but does not include the second type of modal 2M among the multiple types of modals.
  • the first kind of modals 1M in the first partial modal set IMS#1 may be facial images and heart rate
  • the first partial modal set IMS#1 may be facial images and May include heart rate.
  • a second type of modal 2M may also be oxygen saturation. Since facial images and heart rate are often acquired simultaneously, it is relatively easy to acquire a large partial modal set of facial image and heart rate combinations.
  • FIG. 3C shows the data structure of the second input data group that the modal output unit 213 inputs to the modal generative model GM.
  • the second input data group may include, for example, 4,000 items of the second partial modal set IMS#2.
  • the first type modal 1M in the second partial modal set IMS#2 may be heart rate, oxygen saturation
  • the second partial modal set IMS#2 may be heart rate, oxygen May contain saturation.
  • the second type of modal 2M may be a face image.
  • Heart rate and oxygen saturation data have a smaller data capacity than face images.
  • each modal included in the partial modal set IMS may be data obtained by actual measurement.
  • the modal generation unit 212 can input the first input data group and the second input data group to the modal generation model GM to generate a data group including 8,000 generated all modal sets GMS.
  • the generated total modal set GMS is a modal set including a plurality of types of modals including the partial modal set IMS and the second type of modal 2M output by the modal generative model GM. Therefore, the data structure of the generated total modal set GMS is similar to the data structure shown in FIG. 3(A). That is, in the case of the above example, the total modal set MMS of 2,000 cases and the generated total modal set GMS of 8,000 cases are combined, and the learning data including the total modal set including 10,000 plural types of modals Flocks can be collected. (2-2) Modal set generation operation performed by information processing device 2
  • FIG. 4 is a flow chart showing the flow of the modal set generation operation performed by the information processing device 2 according to the second embodiment.
  • the acquisition unit 211 acquires all modal set MMS (step S21).
  • the total modal set MMS may include facial images, heart rate, and oxygen saturation, and may be 2,000, for example.
  • the first model generation unit 214 generates a modal generation model GM by performing machine learning using the all modal set MMS acquired in step S21 (step S22).
  • the modal generation model GM is a model that can output at least one of multiple types of modals when at least one of multiple types of modals is input.
  • the full modal set MMS used to generate the modal generative model GM as described above includes facial images, heart rate, and oxygen saturation
  • the first model generator 214 by machine learning, A modal generation model GM that can output at least one of the face image, heart rate, and oxygen saturation when at least one of the face image, heart rate, and oxygen saturation is input may be generated.
  • the first model generation unit 214 generates the error between the face image output by the modal generation model GM and the face images included in the total modal set MMS, the heart rate output by the modal generation model GM, and the total modal set MMS.
  • the modal generative model GM may be generated by adjusting the parameters of the modal generative model GM so as to be small (preferably minimized).
  • the acquisition unit 211 acquires the partial modal set IMS (step S23).
  • the partial modal set IMS includes, for example, 4,000 partial modal sets IMS#1 including face images and heart rate, and a second partial modal set IMS #1 including heart rate and oxygen saturation.
  • the set IMS#2 may contain, for example, 4000 records.
  • the modal output unit 213 inputs the partial modal set IMS to the modal generative model GM (step S24).
  • the modal output unit 213 causes the modal generative model GM to output at least the second type of modal 2M (step S25).
  • the modal generation model GM may output the oxygen saturation for the input of the partial modal set IMS#1, and may output information indicating a face image for the input of the partial modal set IMS#2. good.
  • the modal generation unit 212 generates, for example, 8,000 generation total modal sets GMS including the partial modal set IMS and the second type of modal 2M output by the modal generation model GM (step S26).
  • the modal generation model GM is not only the oxygen saturation as the second type modal 2M, but also at least one of the face image and the heart rate. may output one.
  • at least one of the face image and the heart rate has two types: modals input to the modal generation model GM and modals output from the modal generation model GM.
  • the modal generator 212 generates the generated total modal set GMS including the partial modal set IMS and the second type of modal 2M. and modals of the kind that were included in the partial modal set IMS and were not output by the modal generative model GM.
  • the first type of modal 1M is a face image and heart rate
  • the second type of modal 2M is oxygen saturation
  • the modal generation model GM outputs the face image and oxygen saturation
  • modal generation The unit 212 stores the face image and oxygen saturation output by the modal generative model GM, and the heart rate included in the partial modal set IMS (included in the partial modal set IMS and not output by the modal generative model GM).
  • a generated total modal set GMS may be generated that includes modals of the type heart rate).
  • the modal generation unit 212 obtains a composite face image by combining the face image included in the partial modal set IMS and the face image output by the modal generation model GM, and obtains the composite face image and the face image included in the partial modal set IMS.
  • a generated total modal set GMS may be generated that includes the heart rate from the modal generative model GM and the oxygen saturation output from the modal generative model GM. As a result, the number of generative total modal sets GMS that can be generated using the modal generative model GM increases.
  • the modals included in the partial modal set IMS may be reliable data obtained by actual measurement, and the modal generation unit 212 uses the modals included in the partial modal set IMS to generate the generated full modal set GMS. It can be considered preferable to generate On the other hand, the modal output from the modal generation model GM may have noise removed, etc., and the modal generation unit 212 generates using the second type of modal 2M output from the modal generation model GM. It can be considered preferable to generate the full modal set GMS.
  • the first generated full modal set GMS using the modals included in the partial modal set IMS is output from the modal generative model GM
  • Three types of generated total modal set GMS may be generated: a second generated total modal set GMS using the combined modal, and a third generated total modal set GMS using a composite modal combining the two.
  • the modal generation model GM when the facial image IA and the heart rate IB are input as the partial modal set IMS, the modal generation model GM generates the oxygen saturation OC as the second type of modal 2M and the facial image Consider the case where OA and heart rate OB are output.
  • a modal obtained by synthesizing the facial image IA and the facial image OA is called a facial image CA
  • a modal obtained by synthesizing the heart rate IB and the heart rate OB is referred to as a heart rate CB.
  • the modal generation unit 212 generates a generated total modal set GMS1 including the facial image IA, the heart rate IB, and the oxygen saturation OC, and a generated total modal set GMS1 including the facial image IA, the heart rate OB, and the oxygen saturation OC.
  • generated total modal set GMS2 including facial image OA, heart rate IB and oxygen saturation OC
  • generated total modal set GMS4 including facial image OA, heart rate OB and oxygen saturation OC, facial image CA , heart rate CB, and oxygen saturation OC
  • generated full modal set GMS5 including face image CA, heart rate IB, and oxygen saturation OC, face image CA, heart rate OB, and a generated full modal set GMS7 including the oxygen saturation OC
  • a generated full modal set GMS8 including the face image IA, the heart rate CB, and the oxygen saturation OC, the face image OA, the heart rate CB, and the oxygen saturation OC
  • Nine types of generated total modal sets GMS can be generated, including a generated total modal set GMS9.
  • a face image and a heart rate are input to the modal generative model GM, and at least the oxygen saturation is output.
  • a face image has been described, but the modal inputs and outputs to the modal generation model GM are not limited to these two types.
  • a face image and oxygen saturation may be input to the modal generative model GM and at least the heart rate may be output, or a face image may be input to the modal generative model GM and at least the heart rate and the oxygen saturation may be output.
  • a heart rate may be input to the modal generative model GM, and at least a facial image and oxygen saturation may be output.
  • an oxygen saturation may be input to the modal generative model GM, and at least a facial image and Heart rate may be output.
  • the information processing apparatus 2 performs machine learning using a relatively small amount of all modal sets MMS, thereby estimating modals other than the input modal with a certain degree of accuracy and outputting a modal generation model. can be generated. Then, the information processing apparatus 2 in the second embodiment can acquire modals of a type not included in the partial modal set IMS by using the modal generation model.
  • the information processing device 2 in the second embodiment uses the acquired modal , it is possible to generate a large amount of generation total modal sets GMS in which a plurality of types of modals are available. For example, suppose we wanted a full modal set with three types of modals: face image, heart rate, and oxygen saturation. Collect a large amount of partial modal sets, such as a partial modal set containing heart rate and oxygen saturation, a partial modal set containing facial images and heart rate, etc., even if it is difficult to collect a large amount of all modal sets. is possible.
  • the information processing apparatus 2 acquires modals of a type not included in the partial modal set using the modal generation model, and extracts the three types of modals of face image, heart rate, and oxygen saturation. It is possible to generate a large number of all modal sets with This entire modal set, which includes a large number of multiple types of modals, can be used for machine learning of a model that achieves highly accurate estimation, and thus can contribute to the realization of highly accurate modal estimation.
  • the information processing apparatus 2 can generate and obtain an increased number of types of modals D by using the generated modal generation model GM.
  • a full modal set with D) can be collected relatively easily. Therefore, the information processing apparatus 2 according to the second embodiment can relatively easily collect a large number of all modal sets even when the number of modal types increases. And since the large amount of all modal sets can be used for machine learning of models that achieve highly accurate estimation, it can contribute to the realization of highly accurate modal estimation of various types of modals. . (3) Third embodiment
  • the information processing device in the third embodiment may have the same configuration as the information processing device 2 in the second embodiment described above.
  • the information processing apparatus according to the third embodiment differs from the information processing apparatus 2 according to the second embodiment in the information that the modal output unit 213 inputs to the modal generative model GM.
  • Other features of the information processing device may be the same as other features of the information processing device 2 .
  • FIG. 5A is a block diagram showing the configuration of the modal generation unit 212.
  • the modal generation unit 212 may include at least an input value generation unit 312 and a modal generation model GM.
  • the input value generator 312 may generate an input value for at least one of the multiple types of modals when at least one of the multiple types of modals is input.
  • the input of at least one of the multiple types of modals to the modal generative model GM may be an input of at least one input value of the multiple types of modals.
  • the input value may be, for example, a modal feature quantity.
  • the input value generation unit 312 may be any mechanism capable of extracting modal feature amounts, such as a mechanism utilizing a neural network.
  • the modal generative model GM may include at least an encoder section GME and a decoder section GMD.
  • the encoder unit GME may compress the input value of at least one of the multiple types of modals when at least one of the multiple types of modals is input.
  • the decoder unit GMD may expand the compressed input value to generate at least one of multiple types of modals.
  • the modal output unit 213 in the third embodiment creates an environment label EL indicating an acquisition environment when the partial modal set IMS and the first type modal 1M included in the partial modal set IMS are acquired in the modal generation model GM. may cause the modal generative model GM to output the second type of modal 2M.
  • the modal generator 212 generates a generated total modal set GMS including the partial modal set IMS and the second type of modal 2M output by the modal generative model GM.
  • the modal output unit 213 may input the environment label EL to at least one of the encoder unit GME and the decoder unit GMD. That is, as shown in FIG. 5B, the modal output unit 213 may input the environment label EL to the decoder unit GMD. Also, as shown in FIG. 5C, the modal output unit 213 may input the environment label EL to both the encoder unit GME and the decoder unit GMD. Also, as shown in FIG. 5D, the modal output unit 213 may input the environment label EL to the encoder unit GME.
  • the environment label EL is preferably information that provides information that contributes to estimation accuracy.
  • Examples of the environment label EL include information that is known at the time of modal acquisition, such as information that is fixed to the device that acquires the modal, information about the subject, and the like. For example, information such as characteristics of the camera that captured the face image, lighting conditions, sex, age, skin color, and type of operation (face direction, etc.) at the time of modal acquisition can be given. (3-2) Technical effect of information processing device 3
  • the information processing apparatus 3 in the third embodiment since the information processing apparatus 3 in the third embodiment explicitly inputs environment information indicating the acquisition environment when the input modal is acquired along with the partial modal set IMS, the modal generation model GM is based on the environment information is not input, the second type of modal 2M can be estimated with high accuracy. Therefore, the information processing device 3 in the third embodiment can generate a more realistic generated total modal set GMS including the second type of modals 2M that are estimated with high accuracy.
  • the modal output unit 213 inputs environment information to at least one of the encoder unit GME and the decoder unit GMD, it is possible to control the estimation accuracy of the output second type modal 2M. Then, the information processing device 3 in the third embodiment can control the authenticity of the generated total modal set GMS.
  • the modal output unit 213 inputs environmental information to the encoder unit, there is a possibility that the influence of the environmental information that contributes to the estimation accuracy will be reduced due to compression processing by the encoder unit. Therefore, it can be expected that the modal output unit 213 inputs the environment information to the decoder unit so that the influence of the environment information that contributes to the estimation accuracy can be avoided from being reduced.
  • a more realistic generative full modal set GMS can be utilized for machine learning of a model that achieves highly accurate estimation, and can contribute to the realization of highly accurate modal estimation.
  • FIG. 6 is a block diagram showing the configuration of the information processing device 4 according to the fourth embodiment.
  • the same reference numerals are assigned to the components that have already been described, and detailed description thereof will be omitted.
  • the information processing device 4 according to the fourth embodiment has an arithmetic device compared with the information processing device 2 according to the second embodiment (or compared with the information processing device according to the third embodiment). 21 is provided with a second model generation unit 414 . Other features of the information processing device 4 may be the same as other features of the information processing device 2 (or the information processing device in the third embodiment).
  • the second model generation unit 414 performs machine learning using the generated all modal set GMS, and when one of the plurality of types of modals, the third type of modal 3M, is input as an input modal, It is possible to generate a modal estimation model EM that outputs a fourth type of modal 4M different from one type of multiple types of modals as an output modal.
  • the storage device 22 may store the generated modal estimation model EM.
  • the modal estimation model EM generated in the fourth embodiment may be, for example, a learning model that outputs heart rate and oxygen saturation when a face image is input. (4-2) Modal estimation model EM generation operation performed by information processing device 4
  • FIG. 7 is a flow chart showing the flow of the modal estimation model EM generation operation performed by the information processing device 4 in the fourth embodiment.
  • the acquisition unit 211 acquires the learning data group (step S41).
  • the learning data group is a full modal set including multiple types of modals, and may include a full modal set MMS and a generated full modal set GMS.
  • the second model generation unit 414 generates a modal estimation model EM by performing machine learning using the learning data group acquired in step S41 (step S42).
  • the first model generation unit 214 and the second model generation unit 414 are described as separate configurations, and the modal generation model GM and the modal estimation model EM are described as separate models.
  • the first model generation unit 214 and the second model generation unit 414 may have the same configuration, and the modal generation model GM and the modal estimation model EM may be the same model. That is, the control mechanism (the first model generation unit 214 and the second model generation unit 414) performs machine learning using the full modal set MMS to create learning models (the modal generation model GM and the modal estimation model EM). ) and perform machine learning using the generated full modal set GMS to re-learn the learning model to complete a learning model capable of highly accurate estimation.
  • modals that can be estimated include, for example, respiratory rate, stress level, blood pressure, cardiac output, total peripheral resistance, pulse, electrocardiogram, body temperature, body water status, and alcohol concentration. , lactate level, blood sugar level, muscle activity, gaze movement, brain activity, and level of consciousness.
  • modals other than heart rate and oxygen saturation can be estimated, such as respiratory rate, stress level, blood pressure, cardiac output, total peripheral resistance, pulse, electrocardiogram, body temperature, body water status, alcohol concentration, lactic acid values, blood sugar levels, muscle activity, gaze movement, brain activity, consciousness level, and the like.
  • the subjects for whom the modal set used for machine learning was collected had higher modal estimation accuracy than the subjects for whom the modal set used for machine learning was not collected (hereinafter referred to as "new subjects"). can be expected to rise. Therefore, when estimating the modal of a new subject, the modal set of the new subject may be collected in advance and the modal estimation model EM may be re-learned. Furthermore, the modal estimation model EM may be retrained after generating a modal set complete with modals using a modal set lacking some types of modals of the relevant new subject. As a result, it is possible to obtain a model capable of estimating the modal of the new subject with higher accuracy. (4-3) Technical effect of information processing device 4
  • the model generated by machine learning can be expected to be able to accurately estimate modals even when there are changes in the environment, such as the movement of the subject and changes in the shooting environment.
  • machine learning using a large amount of learning data can generate a model capable of realizing higher-precision estimation than machine learning using a small amount of learning data.
  • FIG. 8 is a block diagram showing the configuration of an online diagnosis support system 500 according to the fifth embodiment.
  • the online diagnosis support system 500 includes a diagnosis support device 50 and a plurality of terminal devices 60#1, 60#2, . ) and
  • the diagnosis support device 50 may be, for example, a device used by a doctor for diagnosis.
  • the terminal device 60 may be, for example, a device used by a patient in a remote location.
  • the terminal device 60 may be equipped with an image generation device 61 that generates a face image by capturing an image of the subject. (5-2) Configuration of diagnosis support device 50
  • the diagnosis support device 50 includes an arithmetic device 51 and a storage device 52. Furthermore, the diagnosis support device 50 may include a communication device 53 , an input device 54 and an output device 55 . However, the diagnosis support device 50 does not have to include at least one of the communication device 53 , the input device 54 and the output device 55 . Arithmetic device 51 , storage device 52 , communication device 53 , input device 54 and output device 55 may be connected via data bus 56 .
  • the computing device 51 includes, for example, at least one of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field Programmable Gate Array). Arithmetic device 51 reads a computer program. For example, arithmetic device 51 may read a computer program stored in storage device 52 . For example, the computing device 51 reads a computer program stored in a computer-readable and non-temporary recording medium by a recording medium reading device (not shown) provided in the diagnosis support device 50 (for example, an input device 54 described later). can be read using The computing device 51 may acquire (that is, download) a computer program from a device (not shown) arranged outside the diagnosis support device 50 via the communication device 53 (or other communication device). may be read).
  • a recording medium reading device not shown
  • the computing device 51 may acquire (that is, download) a computer program from a device (not shown) arranged outside the diagnosis support device 50 via the communication device 53 (or other communication device). may be read).
  • Arithmetic device 51 executes the read computer program. As a result, logical functional blocks for executing the operations that should be performed by the diagnosis support device 50 are realized in the arithmetic device 51 .
  • the arithmetic device 51 can function as a controller for realizing logical functional blocks for executing the operations (in other words, processing) that the diagnosis support device 50 should perform.
  • FIG. 8 shows an example of logical functional blocks implemented within the arithmetic device 51 to execute the biometric information estimation operation.
  • the computing device 51 includes an image acquisition unit 515 as a specific example of the “image acquisition means” and a biological information estimation unit 516 as a specific example of the “biological information estimation means”.
  • image acquisition unit 515 as a specific example of the “image acquisition means”
  • biological information estimation unit 516 as a specific example of the “biological information estimation means”.
  • the biological information estimation unit 516 may include at least the input value generation unit 312 and the modal estimation model EM.
  • the input value generation unit 312 may generate the input value of the face image when the face image is input as the input modal.
  • the input value generation unit 312 inputs the face image input value to the modal estimation model EM, and the biological information estimation unit 516 can cause the modal estimation model EM to output the subject's biological information as an output modal.
  • the storage device 52 can store desired data.
  • the storage device 52 may temporarily store computer programs executed by the arithmetic device 51 .
  • the storage device 52 may temporarily store data temporarily used by the arithmetic device 51 while the arithmetic device 51 is executing a computer program.
  • the storage device 52 may store data that the diagnosis support device 50 saves over a long period of time.
  • the storage device 52 may include at least one of RAM (Random Access Memory), ROM (Read Only Memory), hard disk device, magneto-optical disk device, SSD (Solid State Drive), and disk array device. good. That is, the storage device 52 may include non-temporary recording media.
  • the storage device 52 may store the modal estimation model EM. However, the storage device 52 may not store the modal estimation model EM.
  • the communication device 53 can communicate with devices external to the diagnosis support device 50 via a communication network (not shown).
  • the diagnosis support device 50 may be connected to the terminal device 60 via the communication device 53 .
  • the input device 54 is a device that accepts input of information to the diagnosis support device 50 from the outside of the diagnosis support device 50 .
  • the input device 54 may include an operating device (for example, at least one of a keyboard, a mouse, and a touch panel) that can be operated by the operator of the diagnosis support device 50 .
  • the input device 54 may include a reading device capable of reading information recorded as data on a recording medium that can be externally attached to the diagnosis support device 50 .
  • the output device 55 is a device that outputs information to the outside of the diagnosis support device 50 .
  • the output device 55 may output information as an image.
  • the output device 55 may include a display device (so-called display) capable of displaying an image showing information to be output.
  • the output device 55 may output information as audio.
  • the output device 55 may include an audio device capable of outputting audio (so-called speaker).
  • the output device 55 may output information on paper. That is, the output device 55 may include a printing device (so-called printer) capable of printing desired information on paper. (5-2) Online diagnosis support operation performed by online diagnosis support system 500
  • FIG. 10 is a flow chart showing the flow of the online diagnosis support operation performed by the online diagnosis support system 500 according to the fifth embodiment.
  • the image generation device 61 acquires the face image of the patient as the subject (step S51), and the terminal device 60 transmits the face image to the diagnosis support device 50.
  • the image acquisition unit 515 acquires the face image of the subject from the terminal device 60 via the communication line (step S53).
  • the biological information estimation unit 516 inputs the face image to the modal estimation model EM as the third type of modal 3M, thereby causing the modal estimation model EM to estimate the subject's biological information as the third type of modal 4M (step S54).
  • the modal estimation model EM for example, a model generated by the information processing device 4 in the fourth embodiment may be used.
  • the biological information may include information on at least one of heart rate and oxygen saturation.
  • the output device 55 notifies the user of the diagnosis support device 50 of the estimated biological information (step S55).
  • the diagnosis support apparatus 50 in the fifth embodiment can estimate biological information from a face image, for example, a doctor can obtain a plurality of parameters such as heart rate and oxygen saturation simply by acquiring a face image transmitted by a patient. Biological information can be provided. Therefore, the diagnosis support device 50 according to the fifth embodiment can support a doctor to make an appropriate diagnosis even when the patient is in a remote location. Further, according to the online diagnosis system 500 including the diagnosis support device 50 to which the fifth embodiment is applied, even when the patient is in a remote location, it is possible to assist the doctor in making an appropriate diagnosis. It can meet the demand of online diagnosis.
  • the biological information estimation device can also be applied to mechanisms other than medical purposes such as online diagnostic systems.
  • a dedicated application for estimating biometric information may be installed in a terminal device such as a smartphone carried by a subject.
  • This dedicated app supports a series of operations: taking facial images, sending facial images to the cloud as a biometric information estimation device, receiving biometric information from the cloud such as heart rate and oxygen saturation, and presenting biometric information.
  • This dedicated application may be made available through the Internet.
  • the biological information estimation device may be installed in a mobile terminal such as a smart phone carried by the subject.
  • the mobile terminal may include at least a camera, a biological information estimation device, and a display.
  • the subject captures his/her own facial image with a camera, and then the biometric information estimation device obtains the facial image, estimates at least one of the subject's heart rate and oxygen saturation, and turns on the display. At least one of the subject's own heart rate and oxygen saturation may be presented to the subject via the device.
  • the biometric information estimation device acquires a face image has been described. There may be.
  • the biometric information estimating device can also use the subject's voice data, heart rate, blood pressure, cardiac output, total peripheral resistance, pulse, oxygen saturation, respiratory rate, electrocardiogram, body temperature, and body moisture status. , alcohol concentration, lactic acid level, blood sugar level, amount of muscle activity, gaze movement, brain activity, consciousness level, and stress level.
  • the terminal device can be equipped with a detection device such as an optical sensor or a biopotential sensor corresponding to the biometric information to be acquired.
  • the biological information estimating device can measure heart rate, blood pressure, cardiac output, total peripheral resistance, pulse, oxygen saturation, respiratory rate, electrocardiogram, body temperature, body water status, alcohol concentration, lactic acid level, blood sugar level, muscle It may be configured to be able to estimate biometric information such as the amount of activity of a person, the movement of the line of sight, the activity of the brain, the level of consciousness, and the level of stress. (6) Supplementary note
  • acquisition means for acquiring a first modal set that includes at least a first type of modal among a plurality of types of modals and does not include a second type of modal among the plurality of types of modals; a modal generation model that outputs at least one of the plurality of types of modals when at least one of the plurality of types of modals is input, and a second modal set including the plurality of types of modals; output means for outputting at least the second type of modal by inputting the first modal set to the modal generation model generated by machine learning; and modal generation means for generating a third modal set including the first modal set and the second type of modals output by the modal generation model.
  • the information processing apparatus according to appendix 1, further comprising first model generation means for generating the modal generation model by performing machine learning using the second modal set.
  • the output means outputs the second type modal to the modal generation model by inputting environment information indicating an acquisition environment when the first type modal is acquired to the modal generation model.
  • the information processing device according to appendix 1 or 2.
  • the modal generation model includes an encoder unit that compresses a feature quantity of at least one of the plurality of types of modals when at least one of the plurality of types of modals is input, and an encoder unit that compresses the compressed feature quantity.
  • the information processing apparatus according to any one of appendices 1 to 5, wherein the multiple types of modals are multiple types of biological information including information on at least one of a face image, heart rate, and oxygen saturation.
  • an image acquiring means for acquiring a face image of a subject;
  • a first modal set that includes at least a first type of modal among a plurality of types of modals and does not include a second type of modal among the plurality of types of modals, and the second modal set output by the modal generation model
  • biometric information estimation means for outputting the subject's biometric information as the output modal to a modal estimation model that outputs a modal of the fourth type, which is different from the third type, as the output modal;
  • the modal generation model outputs at least one of the plurality of the plurality of types of modals are multiple types of biological information including information on at least one of a face image, heart rate, and oxygen saturation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)

Abstract

情報処理装置1は、複数種類のモーダルのうちの第1の種類のモーダル1Mを少なくとも含み、複数種類のモーダルのうちの第2の種類のモーダル2Mを含まない部分モーダルセットIMSを取得する取得部11と、複数種類のモーダルのうちの少なくとも一つが入力された場合に複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルGMであって且つ複数種類のモーダルを含む全モーダルセットMMSを用いた機械学習によって生成されたモーダル生成モデルGMに、部分モーダルセットIGMを入力することで、少なくとも第2の種類のモーダル2Mを出力させるモーダル出力部13と、部分モーダルセットIMSとモーダル生成モデルGMが出力した第2の種類のモーダル2Mとを含む生成全モーダルセットGMSを生成するモーダル生成部12とを備える。

Description

情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体
 この開示は、情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体の技術分野に関する。
 顔画像から、心拍数、呼吸数を検出する装置の一例が特許文献1に記載されている。また、顔画像と平均血圧、心拍数、心拍出量、及び全抹消抵抗のうちの複数とに基づいて、被験者のストレス対処様式を判定するシステムの一例が特許文献2に記載されている。また、得られた新たな学習データに基づき、アルゴリズムを再学習させる機能の一例が特許文献3に記載されている。また、音声認識システムを自動的に再学習させる方法が特許文献4に記載されている。
特開2012-239661号公報 特開2021-037287号公報 国際公開第2021/075288号 特表2003-524805号公報
 この開示は、先行技術文献に記載された技術の改良を目的とする情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体を提供することを課題とする。
 情報処理装置の一の態様は、複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得する取得手段と、前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させる出力手段と、前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成するモーダル生成手段とを備える。
 生体情報推定装置の一の態様は、対象者の顔画像を取得する画像取得手段と、複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットとモーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを用いた機械学習を行うことで、前記複数種類のモーダルのうちの第3の種類のモーダルが入力モーダルとして入力された場合に前記複数種類のモーダルのうちの前記第3の種類とは異なる第4の種類のモーダルを出力モーダルとして出力するモーダル推定モデルに前記対象者の生体情報を前記出力モーダルとして出力させる生体情報推定手段とを備え、前記モーダル生成モデルは、前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力し、且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成された。
 情報処理方法の一の態様は、複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得し、前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させ、前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成する。
 記録媒体の一の態様は、コンピュータに、複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得し、前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させ、前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成する情報処理方法を実行させるためのコンピュータプログラムが記録されている。
図1は、第1実施形態における情報処理装置の構成を示すブロック図である。 図2は、第2実施形態における情報処理装置の構成を示すブロック図である。 図3は、第2実施形態において用いられるデータ群のデータ構造の例を示す。 図4は、第2実施形態における情報処理装置が行うモーダルセット生成動作の流れを示すフローチャートである。 図5は、第3実施形態における情報処理装置が備えるモーダル生成部212の構成を示すブロック図である。 図6は、第4実施形態における情報処理装置の構成を示すブロック図である。 図7は、第4実施形態における情報処理装置が行うモーダル推定モデル生成動作の流れを示すフローチャートである。 図8は、第5実施形態における診断支援装置を含むオンライン診断支援システムの構成を示すブロック図である。 図9は、第5実施形態における診断支援装置が備える生体情報推定部の構成を示すブロック図である。 図10は、第5実施形態における診断支援装置を含むオンライン診断支援システムが行うオンライン診断支援動作の流れを示す図である。
 以下、図面を参照しながら、情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体の実施形態について説明する。
 (1)第1実施形態
 はじめに、情報処理装置、情報処理方法、及び、記録媒体の第1実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第1実施形態が適用された情報処理装置1を用いて、情報処理装置、情報処理方法、及び記録媒体の第1実施形態について説明する。
 (1-1)情報処理装置1の構成
 図1は、第1実施形態における情報処理装置1の構成を示すブロック図である。図1に示すように、情報処理装置1は、取得部11と、モーダル生成部12とを備えている。
 まず、モーダルとは、生体情報を指していてもよい。また、モーダルセットとは、例えばある個体に関する1種類以上のモーダルを含んだデータを指していてもよい。例えば、ある個体に関するモーダルA、モーダルB、及びモーダルCの3種類のモーダルが揃ったデータが必要であったとする。この場合、第1実施形態では、モーダルA、モーダルB、及びモーダルCの3種類全てが揃ったデータを全モーダルセットと呼ぶ。他方で、モーダルA、モーダルB、及びモーダルCの一部が揃ったデータを部分モーダルセットと呼ぶ。部分モーダルセットは、モーダルA及びモーダルBを含むデータ、モーダルA及びモーダルCを含むデータ、モーダルB及びモーダルCを含むデータ、モーダルAを含むデータ、モーダルBを含むデータ、モーダルCを含むデータの何れかであってよい。
 取得部11は、第1のモーダルセットとしての部分モーダルセットIMSを取得する。部分モーダルセットIMSは、複数種類のモーダルのうちの第1の種類のモーダル1Mを少なくとも含む一方で複数種類のモーダルのうちの第2の種類のモーダル2Mを含まない。
 モーダル出力部13は、モーダル生成モデルに、部分モーダルセットIMSを入力することで、少なくとも第2の種類のモーダルを出力させる。
 モーダル生成部12は、部分モーダルセットIMSとモーダル生成モデルが出力した第2の種類のモーダルとを含む第3のモーダルセットとしての生成全モーダルセットGMSを生成する。生成全モーダルセットGMSは、全ての種類のモーダルが揃った全モーダルセットである。
 モーダル生成モデルは、複数種類のモーダルのうちの少なくとも一つが入力された場合に複数種類のモーダルのうちの少なくとも一つを出力する。また、モーダル生成モデルは、全種類のモーダルが揃った第2のモーダルセットとしての全モダールセットMMSを用いた機械学習によって生成されたモデルである。
 (1-2)情報処理装置1の技術的効果
 第1実施形態における情報処理装置1は、モーダル生成モデルが少なくとも第2の種類のモーダル、すなわち、部分モーダルセットIMSが含まないモーダルを出力する。これにより、モーダル生成部12は、複数種類のモーダルが揃った全モーダルセットを生成することができる。つまり、比較的収集が容易な、一部の種類のモーダルを含まない部分モーダルセットを活用して、比較的収集が困難な、複数種類のモーダルが揃った全モーダルセットを生成することができる。したがって、第1実施形態における情報処理装置1は、大量の複数種類のモーダルが揃った全モーダルセットを比較的容易に取得することができる。その大量の複数種類のモーダルが揃った全モーダルセットは、高精度の推定を実現するモデルの機械学習に活用されることができるので、高精度なモーダルの推定の実現に寄与することができる。
 (2)第2実施形態
 続いて、情報処理装置、情報処理方法、及び記録媒体の第2実施形態について説明する。以下では、情報処理装置、情報処理方法、及び記録媒体の第2実施形態が適用された情報処理装置2を用いて、情報処理装置、情報処理方法、及び記録媒体の第2実施形態について説明する。
 (2-1)情報処理装置2の構成
 初めに、図2を参照しながら、第2実施形態における情報処理装置2の構成について説明する。図2は、第2実施形態における情報処理装置2の構成を示すブロック図である。尚、以下の説明では、既に説明済みの構成要素については、同一の参照符号を付することで、その詳細な説明を省略する。
 図2に示すように、情報処理装置2は、演算装置21と、記憶装置22とを備えている。更に、情報処理装置2は、通信装置23と、入力装置24と、出力装置25とを備えていてもよい。但し、情報処理装置2は、通信装置23、入力装置24及び出力装置25のうちの少なくとも一つを備えていなくてもよい。演算装置21と、記憶装置22と、通信装置23と、入力装置24と、出力装置25とは、データバス26を介して接続されていてもよい。
 演算装置21は、例えば、CPU(Central Processing Unit)、GPU(Graphics Proecssing Unit)及びFPGA(Field Programmable Gate Array)のうちの少なくとも一つを含む。演算装置21は、コンピュータプログラムを読み込む。例えば、演算装置21は、記憶装置22が記憶しているコンピュータプログラムを読み込んでもよい。例えば、演算装置21は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶しているコンピュータプログラムを、情報処理装置2が備える図示しない記録媒体読み取り装置(例えば、後述する入力装置24)を用いて読み込んでもよい。演算装置21は、通信装置23(或いは、その他の通信装置)を介して、情報処理装置2の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。演算装置21は、読み込んだコンピュータプログラムを実行する。その結果、演算装置21内には、情報処理装置2が行うべき動作を実行するための論理的な機能ブロックが実現される。つまり、演算装置21は、情報処理装置2が行うべき動作(言い換えれば、処理)を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
 図2には、モーダル生成動作を実行するために演算装置21内に実現される論理的な機能ブロックの一例が示されている。図2に示すように、演算装置21内には、「取得手段」の一具体例である取得部211と、「モーダル生成手段」の一具体例であるモーダル生成部212と、「出力手段」の一具体例であるモーダル出力部213と、「第1モデル生成手段」の一具体例である第1モデル生成部214とが実現される。第1モデル生成部214は、第2のモーダルセットとしての全モーダルセットMMSを用いた機械学習を行うことでモーダル生成モデルGMを生成する。
 尚、取得部211、モーダル生成部212、モーダル出力部213、及び第1モデル生成部214の夫々の動作の詳細については、図4を参照しながら後に詳述する。但し、演算装置21は、第1モデル生成部214を備えていなくてもよい。
 記憶装置22は、所望のデータを記憶可能である。例えば、記憶装置22は、演算装置21が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置22は、演算装置21がコンピュータプログラムを実行している場合に演算装置21が一時的に使用するデータを一時的に記憶してもよい。記憶装置22は、情報処理装置2が長期的に保存するデータを記憶してもよい。尚、記憶装置22は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。つまり、記憶装置22は、一時的でない記録媒体を含んでいてもよい。
 記憶装置22は、全モーダルセットMMS、部分モーダルセットIMS、生成全モーダルセットGMS、及びモーダル生成モデルGMを記憶していてもよい。尚、全モーダルセットMMS及び部分モーダルセットIMSの詳細については、図3を参照しながら後に詳述する。但し、記憶装置22が、全モーダルセットMMS、部分モーダルセットIMS、生成全モーダルセットGMS、及びモーダル生成モデルGMを記憶していなくてもよい。ここで、全モーダルセットMMSとは、全種類のモーダルが揃ったモーダルセットである。
 通信装置23は、不図示の通信ネットワークを介して、情報処理装置2の外部の装置と通信可能である。
 入力装置24は、情報処理装置2の外部からの情報処理装置2に対する情報の入力を受け付ける装置である。例えば、入力装置24は、情報処理装置2のオペレータが操作可能な操作装置(例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つ)を含んでいてもよい。例えば、入力装置24は情報処理装置2に対して外付け可能な記録媒体にデータとして記録されている情報を読み取り可能な読取装置を含んでいてもよい。
 出力装置25は、情報処理装置2の外部に対して情報を出力する装置である。例えば、出力装置25は、情報を画像として出力してもよい。つまり、出力装置25は、出力したい情報を示す画像を表示可能な表示装置(いわゆる、ディスプレイ)を含んでいてもよい。例えば、出力装置25は、情報を音声として出力してもよい。つまり、出力装置25は、音声を出力可能な音声装置(いわゆる、スピーカ)を含んでいてもよい。例えば、出力装置25は、紙面に情報を出力してもよい。つまり、出力装置25は、紙面に所望の情報を印刷可能な印刷装置(いわゆる、プリンタ)を含んでいてもよい。
 機械学習によって生成されたモデルにより、モーダルを高精度に推定することの需要は大きい。高精度の推定を実現するモデルを機械学習によって生成するには、大量の学習データを含む学習データ群が必要である。学習データとしては、必要とされる複数種類のモーダル(例えば、顔画像、心拍数、酸素飽和度の3種類)が揃った全モーダルセットが用いられることが好ましい。しかしながら、必要とされる複数種類のモーダル(例えば、顔画像、心拍数、酸素飽和度の3種類)が揃った全モーダルセットを大量に含む学習データ群を収集することは一般に困難である。また、推定の対象となるモーダルの種類が増えるにつれ、揃えるモーダルの種類も増えるので、学習データの収集のコストは増大する。一方で、一部の種類のモーダルが欠けた部分モーダルセットの収集は、全ての種類のモーダルを含む全モーダルセットの収集と比較して容易である。尚、例えば、ある個体に関する顔画像、心拍数、酸素飽和度の3種類のモーダルが揃った全モーダルセットを1件のサンプルと数えることができ、大量の全モーダルセットとは、例えば数千件から1万件以上のサンプル数を含む全モーダルセット群を指してもよい。
 第2実施形態において、複数種類のモーダルは、例えば、顔画像、心拍数、及び酸素飽和度を含んでいてもよい。図3の各々は、第2実施形態において用いられるデータ群のデータ構造の例を示す。
 図3(A)は、第1モデル生成部214がモーダル生成モデルGMの機械学習に用いる学習データ群のデータ構造を示す。学習データ群は、全モーダルセットMMSを例えば2千件含んでいてよい。第2実施形態において、全モーダルセットMMSは、顔画像、心拍数、及び酸素飽和度を含んでいてよい。尚、第2実施形態において、全モーダルセットMMSに含まれる各モーダルは、実測により得られたデータであってよい。
 図3(B)は、モーダル出力部213がモーダル生成モデルGMに入力する第1の入力データ群のデータ構造を示す。第1の入力データ群は、第1の部分モーダルセットIMS#1を例えば4千件含んでいてよい。部分モーダルセットIMSは、複数種類のモーダルのうちの第1の種類のモーダル1Mを少なくとも含む一方で複数種類のモーダルのうちの第2の種類のモーダル2Mを含まない。第2実施形態において、第1の部分モーダルセットIMS#1における第1の種類のモーダル1Mは、顔画像、及び心拍数であってよく、第1の部分モーダルセットIMS#1は顔画像、及び心拍数を含んでいてよい。また、第2の種類のモーダル2Mは、酸素飽和度であってよい。顔画像、及び心拍数は、同時に取得される場合が多いので、顔画像、及び心拍数の組み合わせの大量の部分モーダルセットを取得することは比較的容易である。
 図3(C)は、モーダル出力部213がモーダル生成モデルGMに入力する第2の入力データ群のデータ構造を示す。第2の入力データ群は、第2の部分モーダルセットIMS#2を例えば4千件含んでいてよい。第2実施形態において、第2の部分モーダルセットIMS#2における第1の種類のモーダル1Mは、心拍数、酸素飽和度であってよく、第2の部分モーダルセットIMS#2は心拍数、酸素飽和度を含んでいてよい。また、第2の種類のモーダル2Mは、顔画像であってよい。顔画像と比較して、心拍数、及び酸素飽和度のデータはデータ容量が小さい。また、顔画像はプライバシーの観点から収集が困難であるのに対し、心拍数、及び酸素飽和度の収集は比較的容易である。したがって、心拍数、及び酸素飽和度の組み合わせの大量の部分モーダルセットを取得することは比較的容易である。
 尚、第2実施形態において、部分モーダルセットIMSに含まれる各モーダルは、実測により得られたデータであってよい。
 モーダル生成部212は、第1の入力データ群及び第2の入力データ群をモーダル生成モデルGMに入力し、8千件の生成全モーダルセットGMSを含むデータ群を生成することができる。生成全モーダルセットGMSは、部分モーダルセットIMSとモーダル生成モデルGMが出力した第2の種類のモーダル2Mとを含む、複数種類のモーダルが揃ったモーダルセットである。したがって、生成全モーダルセットGMSのデータ構造は、図3(A)が示すデータ構造と同様である。すなわち、上述の例の場合、2千件の全モーダルセットMMSと、8千件の生成全モーダルセットGMSとを合わせて、1万件の複数種類のモーダルが揃った全モーダルセットを含む学習データ群を収集することができる。
 (2-2)情報処理装置2が行うモーダルセット生成動作
 続いて、図4を参照しながら、第2実施形態における情報処理装置2が行うモーダルセット生成動作について説明する。図4は、第2実施形態における情報処理装置2が行うモーダルセット生成動作の流れを示すフローチャートである。
 図4に示すように、取得部211は、全モーダルセットMMSを取得する(ステップS21)。第2実施形態において、全モーダルセットMMSは、顔画像、心拍数、及び酸素飽和度を含んでいてもよく、例えば2千件であってよい。第1モデル生成部214は、ステップS21において取得された全モーダルセットMMSを用いて機械学習を行うことでモーダル生成モデルGMを生成する(ステップS22)。
 モーダル生成モデルGMは、複数種類のモーダルのうちの少なくとも一つが入力された場合に複数種類のモーダルのうちの少なくとも一つを出力することが可能なモデルである。上述したようにモーダル生成モデルGMを生成するために用いられる全モーダルセットMMSが顔画像、心拍数、及び酸素飽和度を含んでいる場合には、第1モデル生成部214は、機械学習によって、顔画像、心拍数、及び酸素飽和度の少なくとも一つが入力された場合に顔画像、心拍数、及び酸素飽和度のうちの少なくとも一つを出力可能なモーダル生成モデルGMを生成してもよい。具体的には、第1モデル生成部214は、モーダル生成モデルGMが出力する顔画像と全モーダルセットMMSに含まれる顔画像との誤差、モーダル生成モデルGMが出力する心拍数と全モーダルセットMMSに含まれる心拍数との誤差、及び、モーダル生成モデルGMが出力する酸素飽和度と全モーダルセットMMSに含まれる酸素飽和度との誤差のうちの少なくとも一つに基づいて設定される損失関数が小さくなる(好ましくは、最小になる)ように、モーダル生成モデルGMのパラメータを調整することで、モーダル生成モデルGMを生成してもよい。
 次に、取得部211は、部分モーダルセットIMSを取得する(ステップS23)。第2実施形態において、部分モーダルセットIMSは、顔画像、及び心拍数を含む第1の部分モーダルセットIMS#1を例えば4千件と、心拍数、及び酸素飽和度を含む第2の部分モーダルセットIMS#2を例えば4千件とを含んでいてもよい。モーダル出力部213は、モーダル生成モデルGMに、部分モーダルセットIMSを入力する(ステップS24)。モーダル出力部213は、モーダル生成モデルGMに少なくとも第2の種類のモーダル2Mを出力させる(ステップS25)。モーダル生成モデルGMは、部分モーダルセットIMS#1の入力に対しては、酸素飽和度を出力してよく、部分モーダルセットIMS#2の入力に対しては顔画像を示す情報を出力してもよい。モーダル生成部212は、部分モーダルセットIMSとモーダル生成モデルGMが出力した第2の種類のモーダル2Mとを含む生成全モーダルセットGMSを、例えば8千件生成する(ステップS26)。
 なお、モーダル生成モデルGMは、部分モーダルセットIMSとして、顔画像と心拍数が入力された場合に、第2の種類のモーダル2Mとしての酸素飽和度だけでなく、顔画像、心拍数の少なくとも1つを出力してもよい。この場合、顔画像、心拍数の少なくとも1つは、モーダル生成モデルGMに入力されたモーダルとモーダル生成モデルGMから出力されたモーダルの2種類が存在する。第2実施形態では、モーダル生成部212は、部分モーダルセットIMSと第2の種類のモーダル2Mを含む生成全モーダルセットGMSを生成する場合を説明したが、モーダル生成部212は、モーダル生成モデルGMから出力されたモーダルと、部分モーダルセットIMSに含まれておりモーダル生成モデルGMが出力しなかった種類のモーダルとを含む生成全モーダルセットGMSを生成してもよい。例えば、第1の種類のモーダル1Mが顔画像及び心拍数であり、第2の種類のモーダル2Mが酸素飽和度であり、モーダル生成モデルGMが顔画像と酸素飽和度を出力した場合、モーダル生成部212は、モーダル生成モデルGMが出力した顔画像と酸素飽和度と、部分モーダルセットIMSに含まれていた心拍数(部分モーダルセットIMSに含まれており、モーダル生成モデルGMが出力しなかった種類のモーダルである心拍数)とを含む生成全モーダルセットGMSを生成してもよい。また、モーダル生成部212は、部分モーダルセットIMSに含まれていた顔画像とモーダル生成モデルGMが出力した顔画像を合成した合成顔画像を求め、当該合成顔画像と部分モーダルセットIMSに含まれている心拍数と、モーダル生成モデルGMから出力された酸素飽和度とを含む生成全モーダルセットGMSを生成してもよい。その結果、モーダル生成モデルGMを用いて生成可能な生成全モーダルセットGMSの数が増加する。
 部分モーダルセットIMSに含まれているモーダルは実測により得られた確かなデータであってもよく、モーダル生成部212は、部分モーダルセットIMSに含まれているモーダルを用いて生成全モーダルセットGMSを生成することが好ましいと考えることができる。一方で、モーダル生成モデルGMから出力されたモーダルはノイズが除かれている可能性等があり、モーダル生成部212は、モーダル生成モデルGMから出力された第2の種類のモーダル2Mを用いて生成全モーダルセットGMSを生成することが好ましいと考えることができる。
 または、第2実施形態では、大量のモーダルセットを収集することを目的としているので、部分モーダルセットIMSに含まれているモーダルを用いた第1の生成全モーダルセットGMS、モーダル生成モデルGMから出力されたモーダルを用いた第2の生成全モーダルセットGMS、両者を合成した合成モーダルを用いた第3の生成全モーダルセットGMSの3種類の生成全モーダルセットGMSを生成してもよい。
 具体的に、例えば、部分モーダルセットIMSとして、顔画像IAと心拍数IBが入力された場合に、モーダル生成モデルGMが、第2の種類のモーダル2Mとしての酸素飽和度OC、並びに、顔画像OA、及び心拍数OBを出力した場合を考える。ここで、顔画像IAと顔画像OAを合成したモーダルを顔画像CA、心拍数IBと心拍数OBを合成したモーダルを心拍数CBと呼ぶ。この場合、モーダル生成部212は、顔画像IA、心拍数IB、及び酸素飽和度OCとを含む生成全モーダルセットGMS1、顔画像IA、心拍数OB、及び酸素飽和度OCとを含む生成全モーダルセットGMS2、顔画像OA、心拍数IB、及び酸素飽和度OCとを含む生成全モーダルセットGMS3、顔画像OA、心拍数OB、及び酸素飽和度OCとを含む生成全モーダルセットGMS4、顔画像CA、心拍数CB、及び酸素飽和度OCとを含む生成全モーダルセットGMS5、顔画像CA、心拍数IB、及び酸素飽和度OCとを含む生成全モーダルセットGMS6、顔画像CA、心拍数OB、及び酸素飽和度OCとを含む生成全モーダルセットGMS7、顔画像IA、心拍数CB、及び酸素飽和度OCとを含む生成全モーダルセットGMS8、顔画像OA、心拍数CB、及び酸素飽和度OCとを含む生成全モーダルセットGMS9の9種類の生成全モーダルセットGMSを生成することができる。
 なお、第2実施形態では、モーダル生成モデルGMに顔画像、及び心拍数が入力され、少なくとも酸素飽和度が出力される例、並びに、モーダル生成モデルGMに心拍数、及び酸素飽和度が入力され、少なくとも顔画像が出力される例を説明したが、モーダル生成モデルGMへのモーダルの入出力はこの2種類に限られない。例えば、モーダル生成モデルGMに顔画像、及び酸素飽和度が入力され、少なくとも心拍数が出力されてもよいし、モーダル生成モデルGMに顔画像が入力され、少なくとも心拍数、及び酸素飽和度が出力されてもよいし、モーダル生成モデルGMに心拍数が入力され、少なくとも顔画像、及び酸素飽和度が出力されてもよいし、モーダル生成モデルGMに酸素飽和度が入力され、少なくとも顔画像、及び心拍数が出力されてもよい。
 (2-3)情報処理装置2の技術的効果
 第2実施形態における情報処理装置2は、比較的少量の全モーダルセットMMSを用いた機械学習を行うことで、入力されたモーダル以外のモーダルを、ある程度の精度で推定し、出力するモーダル生成モデルを生成することができる。そして、第2実施形態における情報処理装置2は、モーダル生成モデルにより、部分モーダルセットIMSに含まれない種類のモーダルを取得することができる。つまり、大量の全モーダルセットMMSの収集が困難な場合であっても、大量の部分モーダルセットIMSの収集が可能な場合、第2実施形態における情報処理装置2は、この取得したモーダルを用いて、複数種類のモーダルが揃った生成全モーダルセットGMSを大量に生成することができる。
 例えば、顔画像、心拍数、及び酸素飽和度の3種類のモーダルが揃った全モーダルセットが必要であったとする。大量の全モーダルセットの収取が困難な場合であっても、心拍数及び酸素飽和度を含む部分モーダルセット、顔画像及び心拍数を含む部分モーダルセット等、部分モーダルセットを大量に収集することは可能な場合はある。このような場合、第2実施形態における情報処理装置2は、モーダル生成モデルにより、部分モーダルセットに含まれない種類のモーダルを取得し、顔画像、心拍数、及び酸素飽和度の3種類のモーダルが揃った全モーダルセットを大量に生成することができる。
 この大量の複数種類のモーダルが揃った全モーダルセットは、高精度の推定を実現するモデルの機械学習に活用されることができるので、高精度なモーダルの推定の実現に寄与することができる。
 また、推定したいモーダルの種類が増えると、学習データの収集はより困難になる場合が多い。例えば、3種類のモーダル(A,B,C)が揃った全モーダルセットの収集より、4種類のモーダル(A,B,C,D)が揃った全モーダルセットの収集の方が困難になる場合が多い。第2実施形態における情報処理装置2は、生成したモーダル生成モデルGMを用いることで、増えた種類のモーダルDを生成し、取得することができるので、4種類のモーダル(A,B,C,D)が揃った全モーダルセットを比較的容易に収集することができる。したがって、第2実施形態における情報処理装置2は、モーダルの種類が増えた場合にも、大量の全モーダルセットを比較的容易に収集することができる。そして、その大量の全モーダルセットは、高精度の推定を実現するモデルの機械学習に活用されることができるので、様々な種類のモーダルの高精度なモーダルの推定の実現に寄与することができる。
 (3)第3実施形態
 続いて、情報処理装置、情報処理方法、及び、記録媒体の第3実施形態について説明する。以下では、情報処理装置、情報処理方法、及び、記録媒体の第3実施形態が適用された情報処理装置を用いて、情報処理装置、情報処理方法、及び、記録媒体の第3実施形態について説明する。
 第3実施形態における情報処理装置は、上述した第2実施形態の情報処理装置2と同一の構成を有していてもよい。第3実施形態における情報処理装置は、第2実施形態における情報処理装置2と比較して、モーダル出力部213が、モーダル生成モデルGMに入力する情報が異なる。情報処理装置のその他の特徴は、情報処理装置2のその他の特徴と同一であってもよい。
 (3-1)モーダル生成部212の構成
 図5(A)は、モーダル生成部212の構成を示すブロック図である。モーダル生成部212は、入力値生成部312と、モーダル生成モデルGMとを少なくとも含んでいてもよい。入力値生成部312は、複数種類のモーダルのうちの少なくとも一つが入力された場合に、複数種類のモーダルのうちの少なくとも一つの入力値を生成してよい。モーダル生成モデルGMへの複数種類のモーダルのうちの少なくとも一つの入力とは、複数種類のモーダルのうちの少なくとも一つの入力値の入力であってよい。入力値は、例えば、モーダルの特徴量であってよい。この場合、入力値生成部312は、ニューラルネットワークを活用した機構等、モーダルの特徴量を抽出できる任意の機構であってよい。
 モーダル生成モデルGMは、エンコーダ部GMEとデコーダ部GMDとを少なくとも含んでいてよい。エンコーダ部GMEは、複数種類のモーダルのうちの少なくとも一つが入力された場合に、複数種類のモーダルのうちの少なくとも一つの入力値を圧縮してもよい。デコーダ部GMDは、圧縮された入力値を展開して複数種類のモーダルのうちの少なくとも一つを生成してもよい。
 第3実施形態におけるモーダル出力部213は、モーダル生成モデルGMに、部分モーダルセットIMSとともに、部分モーダルセットIMSに含まれる第1の種類のモーダル1Mが取得された場合の取得環境を示す環境ラベルELを入力することで、モーダル生成モデルGMに第2の種類のモーダル2Mを出力させてもよい。モーダル出力部213が環境ラベルELを入力することで、第1の種類のモーダル1Mの取得環境が、モーダル生成モデルGMによる第2の種類のモーダル2Mの推定に及ぼす悪影響を防ぐことができる。モーダル生成部212は、部分モーダルセットIMSとモーダル生成モデルGMが出力した第2の種類のモーダル2Mとを含む生成全モーダルセットGMSを生成する。
 モーダル出力部213は、エンコーダ部GME及びデコーダ部GMDの少なくとも一方に、環境ラベルELを入力してもよい。すなわち、図5(B)に示すように、モーダル出力部213は、デコーダ部GMDに、環境ラベルELを入力してもよい。また、図5(C)に示すように、モーダル出力部213は、エンコーダ部GME及びデコーダ部GMDの両方に、環境ラベルELを入力してもよい。また、図5(D)に示すように、モーダル出力部213は、エンコーダ部GMEに、環境ラベルELを入力してもよい。
 環境ラベルELは、推定精度に寄与する情報を与える情報であることが好ましい。環境ラベルELとしては、モーダルを取得する機器に固定的な情報、対象者の情報等、モーダル取得時にわかっている情報をあげることができる。例えば、顔画像を撮像したカメラの特性、照明条件、対象者の性別、年齢、肌の色、モーダル取得時の動作(顔の向き等)の種類等の情報をあげることができる。
 (3-2)情報処理装置3の技術的効果
 第3実施形態における情報処理装置3は、部分モーダルセットIMSとともに、明示的に、入力されたモーダルが取得された場合の取得環境を示す環境情報を入力するので、モーダル生成モデルGMは、環境情報が入力されなかった場合と比較して、精度よく第2の種類のモーダル2Mを推定することができる。したがって、第3実施形態における情報処理装置3は、精度よく推定された第2の種類のモーダル2Mを含む、より本物らしい生成全モーダルセットGMSを生成することができる。また、モーダル出力部213は、エンコーダ部GME及びデコーダ部GMDの少なくとも一方に、環境情報を入力するので、出力される第2の種類のモーダル2Mの推定精度を制御することができる。そして、第3実施形態における情報処理装置3は、生成される生成全モーダルセットGMSの本物らしさを制御することができる。モーダル出力部213がエンコーダ部に環境情報を入力すると、エンコーダ部による圧縮処理のために、推定精度に寄与する環境情報の影響が小さくなる可能性がある。そこで、モーダル出力部213がデコーダ部に環境情報を入力することで、推定精度に寄与する環境情報の影響が小さくなることを避けることができることが期待できる。より本物らしい生成全モーダルセットGMSは、高精度の推定を実現するモデルの機械学習に活用されることができ、高精度なモーダルの推定の実現に寄与することができる。
 (4)第4実施形態
 続いて、情報処理装置、情報処理方法、及び、記録媒体の第4実施形態について説明する。以下では、情報処理装置、情報処理方法、及び、記録媒体の第4実施形態が適用された情報処理装置4を用いて、情報処理装置、情報処理方法、及び、記録媒体の第4実施形態について説明する。
 (4-1)情報処理装置4の構成
 以下、図6を参照しながら、第4実施形態における情報処理装置4の構成について説明する。図6は、第4実施形態における情報処理装置4の構成を示すブロック図である。尚、以下の説明では、既に説明済みの構成要素については、同一の参照符号を付することで、その詳細な説明を省略する。
 図6に示すように、第4実施形態における情報処理装置4は、第2実施形態における情報処理装置2と比較して(或いは、第3実施形態における情報処理装置と比較して)、演算装置21が第2モデル生成部414を備える点で異なる。情報処理装置4のその他の特徴は、情報処理装置2(或いは、第3実施形態における情報処理装置)のその他の特徴と同一であってもよい。
 第2モデル生成部414は、生成全モーダルセットGMSを用いた機械学習を行うことで、複数種類のモーダルのうちの一の種類の第3の種類のモーダル3Mが入力モーダルとして入力された場合に複数種類のモーダルのうちの一の種類とは異なる第4の種類のモーダル4Mを出力モーダルとして出力するモーダル推定モデルEMを生成することができる。記憶装置22は、生成されたモーダル推定モデルEMを記憶してもよい。第4実施形態において生成されたモーダル推定モデルEMは、例えば、顔画像が入力された場合に心拍・酸素飽和度を出力する学習モデルであってよい。
 (4-2)情報処理装置4が行うモーダル推定モデルEM生成動作
 続いて、図7を参照しながら、第4実施形態における情報処理装置4が行うモーダル推定モデルEM生成動作について説明する。図7は、第4実施形態における情報処理装置4が行うモーダル推定モデルEM生成動作の流れを示すフローチャートである。
 図7に示すように、取得部211は、学習データ群を取得する(ステップS41)。学習データ群は、複数種類のモーダルが揃った全モーダルセットであり、全モーダルセットMMS及び生成全モーダルセットGMSを含んでいてよい。第2モデル生成部414は、ステップS41において取得された学習データ群を用いた機械学習を行うことでモーダル推定モデルEMを生成する(ステップS42)。
 尚、第4実施形態では、第1モデル生成部214と第2モデル生成部414とを別々の構成として説明し、モーダル生成モデルGMとモーダル推定モデルEMとを別々のモデルとして説明したが、第1モデル生成部214と第2モデル生成部414とは同一の構成であってよく、モーダル生成モデルGMとモーダル推定モデルEMとは同一のモデルであってもよい。すなわち、制御機構(第1モデル生成部214、第2モデル生成部414である)が、全モーダルセットMMSを用いた機械学習を行うことで学習モデル(モーダル生成モデルGM、モーダル推定モデルEMである)を生成し、生成全モーダルセットGMSを用いた機械学習を行うことで学習モデルを再学習させ、高精度の推定ができる学習モデルを完成してもよい。
 また、推定できるモーダルは、心拍数、酸素飽和度に加えて、例えば、呼吸数、ストレスレベル、血圧値、心拍出量、全抹消抵抗、脈拍、心電図、体温、身体の水分状態、アルコール濃度、乳酸値、血糖値、筋肉の活動量、視線の動き、脳の活動、及び意識レベル等を含んでいてもよい。さらに、推定できるモーダルは、心拍数、酸素飽和度以外の例えば、呼吸数、ストレスレベル、血圧値、心拍出量、全抹消抵抗、脈拍、心電図、体温、身体の水分状態、アルコール濃度、乳酸値、血糖値、筋肉の活動量、視線の動き、脳の活動、及び意識レベル等であってもよい。
 また、機械学習に用いたモーダルセットが収集された対象者の方が、機械学習に用いたモーダルセットが収集されていない対象者(以下「新規対象者」とよぶ)よりも、モーダルの推定精度が高くなることが期待できる。そこで、新規対象者のモーダルを推定する場合は、事前に該当新規対象者のモーダルセットを収集し、モーダル推定モデルEMを再学習してもよい。さらに、該当新規対象者の、一部の種類のモーダルが欠けたモーダルセットを用いて、モーダルが揃ったモーダルセットを生成した後に、モーダル推定モデルEMを再学習してもよい。これにより、より高精度に新規対象者のモーダルを推定することができるモデルを得ることができる。
 (4-3)情報処理装置4の技術的効果
 機械学習を行うことで生成されたモデルは、対象者の動きや撮影環境の変化等、特に環境の変化があった場合にも、精度よくモーダルを推定できることが期待できる。また、大量の学習データを用いた機械学習の方が、少量の学習データを用いた機械学習よりも、より高精度の推定が実現可能なモデルを生成できることが期待できる。
 第4実施形態における情報処理装置4は、大量の学習データを用いてモーダル生成モデルを生成するので、より高精度な推定ができるなモーダル推定モデルEMを得ることができ、高精度なモーダルの推定を実現できる。
 (5)第5実施形態
 続いて、生体情報推定装置の第5実施形態について説明する。以下では、生体情報推定装置の第5実施形態が適用された診断支援装置50を含むオンライン診断支援システム500を用いて、生体情報推定装置の第5実施形態について説明する。
 (5―1)オンライン診断支援システム500の構成
 初めに、図8を参照しながら、第5実施形態におけるオンライン診断支援システム500の構成について説明する。図8は、第5実施形態におけるオンライン診断支援システム500の構成を示すブロック図である。図8に示すように、オンライン診断支援システム500は、診断支援装置50と、複数の端末装置60#1,60#2,・・・,60#N(各々を区別しない場合は、単に「60」と呼ぶ)とを含んでいる。
 診断支援装置50は、例えば、医師が診断に際し用いる装置であってよい。また、端末装置60は、例えば、遠隔地に居る患者が用いる装置であってよい。端末装置60は、対象者を撮像することで顔画像を生成する画像生成装置61を搭載していてもよい。
 (5-2)診断支援装置50の構成
 図8に示すように、診断支援装置50は、演算装置51と、記憶装置52とを備えている。更に、診断支援装置50は、通信装置53と、入力装置54と、出力装置55とを備えていてもよい。但し、診断支援装置50は、通信装置53、入力装置54及び出力装置55のうちの少なくとも一つを備えていなくてもよい。演算装置51と、記憶装置52と、通信装置53と、入力装置54と、出力装置55とは、データバス56を介して接続されていてもよい。
 演算装置51は、例えば、CPU(Central Processing Unit)、GPU(Graphics Proecssing Unit)及びFPGA(Field Programmable Gate Array)のうちの少なくとも一つを含む。演算装置51は、コンピュータプログラムを読み込む。例えば、演算装置51は、記憶装置52が記憶しているコンピュータプログラムを読み込んでもよい。例えば、演算装置51は、コンピュータで読み取り可能であって且つ一時的でない記録媒体が記憶しているコンピュータプログラムを、診断支援装置50が備える図示しない記録媒体読み取り装置(例えば、後述する入力装置54)を用いて読み込んでもよい。演算装置51は、通信装置53(或いは、その他の通信装置)を介して、診断支援装置50の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。演算装置51は、読み込んだコンピュータプログラムを実行する。その結果、演算装置51内には、診断支援装置50が行うべき動作を実行するための論理的な機能ブロックが実現される。つまり、演算装置51は、診断支援装置50が行うべき動作(言い換えれば、処理)を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
 図8には、生体情報推定動作を実行するために演算装置51内に実現される論理的な機能ブロックの一例が示されている。図8に示すように、演算装置51内には、「画像取得手段」の一具体例である画像取得部515と、「生体情報推定手段」の一具体例である生体情報推定部516とが実現される。
 (5-3)モーダル推定モデルEMを用いた推定動作
 図9に示すように、生体情報推定部516は、入力値生成部312とモーダル推定モデルEMとを少なくとも含んでいてもよい。入力値生成部312は、入力モーダルとして顔画像が入力された場合に、顔画像の入力値を生成してよい。入力値生成部312は、モーダル推定モデルEMに顔画像の入力値を入力し、生体情報推定部516は、モーダル推定モデルEMに対象者の生体情報を出力モーダルとして出力させることができる。
 尚、画像取得部515、及び生体情報推定部516の夫々の動作の詳細については、図10を参照しながら後に詳述する。
 記憶装置52は、所望のデータを記憶可能である。例えば、記憶装置52は、演算装置51が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置52は、演算装置51がコンピュータプログラムを実行している場合に演算装置51が一時的に使用するデータを一時的に記憶してもよい。記憶装置52は、診断支援装置50が長期的に保存するデータを記憶してもよい。尚、記憶装置52は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。つまり、記憶装置52は、一時的でない記録媒体を含んでいてもよい。
 記憶装置52は、モーダル推定モデルEMを記憶していてもよい。但し、記憶装置52が、モーダル推定モデルEMを記憶していなくてもよい。
 通信装置53は、不図示の通信ネットワークを介して、診断支援装置50の外部の装置と通信可能である。診断支援装置50は、端末装置60と、通信装置53を介して接続していてもよい。
 入力装置54は、診断支援装置50の外部からの診断支援装置50に対する情報の入力を受け付ける装置である。例えば、入力装置54は、診断支援装置50のオペレータが操作可能な操作装置(例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つ)を含んでいてもよい。例えば、入力装置54は診断支援装置50に対して外付け可能な記録媒体にデータとして記録されている情報を読み取り可能な読取装置を含んでいてもよい。
 出力装置55は、診断支援装置50の外部に対して情報を出力する装置である。例えば、出力装置55は、情報を画像として出力してもよい。つまり、出力装置55は、出力したい情報を示す画像を表示可能な表示装置(いわゆる、ディスプレイ)を含んでいてもよい。例えば、出力装置55は、情報を音声として出力してもよい。つまり、出力装置55は、音声を出力可能な音声装置(いわゆる、スピーカ)を含んでいてもよい。例えば、出力装置55は、紙面に情報を出力してもよい。つまり、出力装置55は、紙面に所望の情報を印刷可能な印刷装置(いわゆる、プリンタ)を含んでいてもよい。
 (5-2)オンライン診断支援システム500が行うオンライン診断支援動作
 続いて、図10を参照しながら、第5実施形態におけるオンライン診断支援システム500が行うオンライン診断支援動作について説明する。図10は、第5実施形態におけるオンライン診断支援システム500が行うオンライン診断支援動作の流れを示すフローチャートである。
 図10に示すように、画像生成装置61は、対象者としての患者の顔画像を取得し(ステップS51)、端末装置60は、診断支援装置50に顔画像を送信する。
 続いて、画像取得部515は、通信回線を介して、端末装置60から、対象者の顔画像を取得する(ステップS53)。生体情報推定部516は、モーダル推定モデルEMに顔画像を第3の種類のモーダル3Mとして入力することで、モーダル推定モデルEMに対象者の生体情報を第3の種類のモーダル4Mとして推定させる(ステップS54)。モーダル推定モデルEMとして、例えば第4実施形態における情報処理装置4が生成したモデルを用いてもよい。また、生体情報は、心拍数及び酸素飽和度のうちの少なくとも一つに関する情報を含んでいてよい。
 続いて、例えば出力装置55は、診断支援装置50のユーザに、推定された生体情報を通知する(ステップS55)。
 (5-4)診断支援装置50の技術的効果
 例えば、感染症に罹患した患者は、医師からの適切な診断を受けるべきであるのに対し、患者が、医療施設に居る患者、医療従事者等と接触することは好ましくない、という事情がある。この事情から、医師からの適切な診断を受けるべき患者が医師を含む医療施設に居る者と直接会うことなく、自宅で診断を受けることができるオンライン診断の需要は高い。
 第5実施形態における診断支援装置50は、顔画像から生体情報を推定することができるので、例えば患者が送信した顔画像を取得するだけで、例えば医師は心拍数、酸素飽和度等の複数の生体情報の提供を受けることができる。したがって、第5実施形態における診断支援装置50は、患者が遠隔地に居る場合においても、医師が適切な診断ができように支援することができる。また、第5実施形態が適用された診断支援装置50を含むオンライン診断システム500によれば、患者が遠隔地に居る場合においても、医師が適切な診断ができように支援することができるので、オンライン診断の需要に応えることができる。
 なお、上記では、オンライン診断システムに、生体情報推定装置の第5実施形態を適用する例を説明したが、生体情報推定装置は、オンライン診断システム等の医療目的の機構以外にも適用することができる。例えば、病気に罹患しているか否かに関わらず、対象者が自身の身体状態を知りたいという要望がある。このような要望に応えるべく、例えば、対象者が携帯するスマートフォン等の端末装置に、生体情報を推定するための専用のアプリをインストールしてもよい。この専用のアプリは、顔画像の撮像、生体情報推定装置としてのクラウドへの顔画像の送信、クラウドから心拍数、酸素飽和度等の生体情報の受信、生体情報の提示の一連の動作をサポートすることができてよい。この専用のアプリは、インターネットを通じて取得できるようにしてもよい。また、例えば、生体情報推定装置は、対象者が携帯するスマートフォン等の携帯端末に搭載されていてもよい。この場合、携帯端末は、少なくとも、カメラ、生体情報推定装置、ディスプレイを備えていてよい。例えば、まず対象者は、カメラで自身の顔画像を撮像し、続いて生体情報推定装置は、顔画像を取得して、対象者の心拍数、酸素飽和度の少なくとも一方を推定し、ディスプレイを介して対象者に自身の心拍数、酸素飽和度の少なくとも一方を提示してもよい。
 また、第5実施形態では、生体情報推定装置が顔画像を取得する例を説明したが、取得する画像は、顔画像以外の身体の任意の箇所の皮膚画像であってよく、例えば指紋画像であってもよい。さらに生体情報推定装置は、皮膚画像以外の、対象者の音声データ、心拍数、血圧値、心拍出量、全抹消抵抗、脈拍、酸素飽和度、呼吸数、心電図、体温、身体の水分状態、アルコール濃度、乳酸値、血糖値、筋肉の活動量、視線の動き、脳の活動、意識レベル、及びストレスレベル等の生体情報を取得してもよい。この場合、端末装置は、取得する生体情報に応じた光学センサ、生体電位センサ等の検出装置を搭載することができる。また生体情報推定装置は、心拍数、血圧値、心拍出量、全抹消抵抗、脈拍、酸素飽和度、呼吸数、心電図、体温、身体の水分状態、アルコール濃度、乳酸値、血糖値、筋肉の活動量、視線の動き、脳の活動、意識レベル、及びストレスレベル等の生体情報を推定できるように構成されていてもよい。
 (6)付記
 以上説明した実施形態に関して、更に以下の付記を開示する。
 [付記1]
 複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得する取得手段と、
 前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させる出力手段と、
 前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成するモーダル生成手段と
 を備える情報処理装置。
 [付記2]
 前記第2のモーダルセットを用いた機械学習を行うことで前記モーダル生成モデルを生成する第1モデル生成手段を更に備える
 付記1に記載の情報処理装置。
 [付記3]
 前記出力手段は、前記モーダル生成モデルに、前記第1の種類のモーダルが取得された場合の取得環境を示す環境情報を入力することで、前記モーダル生成モデルに前記第2の種類のモーダルを出力させる
 付記1または2に記載の情報処理装置。
 [付記4]
 前記モーダル生成モデルは、前記複数種類のモーダルのうちの少なくとも一つが入力された場合に、前記複数種類のモーダルのうちの少なくとも一つの特徴量を圧縮するエンコーダ部と、圧縮された前記特徴量を展開して前記複数種類のモーダルのうちの少なくとも一つを生成するデコーダ部とを含み、
 前記出力手段は、前記エンコーダ部及び前記デコーダ部の少なくとも一方に、前記環境情報を入力する
 付記3に記載の情報処理装置。
 [付記5]
 前記第3のモーダルセットを用いた機械学習を行うことで、前記複数種類のモーダルのうちの第3の種類のモーダルが入力モーダルとして入力された場合に前記複数種類のモーダルのうちの前記第3の種類とは異なる第4の種類のモーダルを出力モーダルとして出力するモーダル推定モデルを生成する第2モデル生成手段を更に備える
 付記1から4のいずれか一項に記載の情報処理装置。
 [付記6]
 前記複数種類のモーダルは、顔画像、心拍数及び酸素飽和度のうちの少なくとも一つに関する情報を含む複数種類の生体情報である
 付記1から5のいずれか一項に記載の情報処理装置。
 [付記7]
 対象者の顔画像を取得する画像取得手段と、
 複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットとモーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを用いた機械学習を行うことで、前記複数種類のモーダルのうちの第3の種類のモーダルが入力モーダルとして入力された場合に前記複数種類のモーダルのうちの前記第3の種類とは異なる第4の種類のモーダルを出力モーダルとして出力するモーダル推定モデルに前記対象者の生体情報を前記出力モーダルとして出力させる生体情報推定手段と
 を備え、
 前記モーダル生成モデルは、前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力し、且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成された
 生体情報推定装置。
 [付記8]
 前記画像取得手段は、通信回線を介して、前記顔画像を生成する前記対象者を撮像することで前記顔画像を生成する画像生成装置から、前記顔画像を取得する
 付記7に記載の生体情報推定装置。
 [付記9]
 前記生体情報は、心拍数及び酸素飽和度のうちの少なくとも一つに関する情報を含む
 付記7又は8に記載の生体情報推定装置。
 [付記10]
 複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得し、
 前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させ、
 前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成する
 情報処理方法。
 [付記11]
 コンピュータに、
 複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得し、
 前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させ、
 前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成する
 情報処理方法を実行させるためのコンピュータプログラムが記録された記録媒体。
 上述の各実施形態の構成要件の少なくとも一部は、上述の各実施形態の構成要件の少なくとも他の一部と適宜組み合わせることができる。上述の各実施形態の構成要件のうちの一部が用いられなくてもよい。また、法令で許容される限りにおいて、上述のこの開示で引用した全ての文献(例えば、公開公報)の開示を援用してこの開示の記載の一部とする。
 この開示は、請求の範囲及び明細書全体から読み取るこのできる技術的思想に反しない範囲で適宜変更可能である。そのような変更を伴う情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体もまた、この開示の技術的思想に含まれる。
1、2、4 情報処理装置
11、211 取得部
12、212 モーダル生成部
13、213 モーダル出力部
IMS 部分モーダルセット
GMS 生成全モーダルセット
1M 第1の種類のモーダル
2M 第2の種類のモーダル
21、51 演算装置
214 第1モデル生成部
22、52 記憶装置
MMS 全モーダルセット
GM モーダル生成モデル
GME エンコーダ部
GMD デコーダ部
EL 環境ラベル
312 入力値生成部
414 第2モデル生成部
EM モーダル推定モデル
3M 第3の種類のモーダル
4M 第4の種類のモーダル
500 オンライン診断システム
50 診断支援装置
515 画像取得部
516 生体情報推定部
53 通信装置
61 画像生成装置

Claims (11)

  1.  複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得する取得手段と、
     前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させる出力手段と、
     前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成するモーダル生成手段と
     を備える情報処理装置。
  2.  前記第2のモーダルセットを用いた機械学習を行うことで前記モーダル生成モデルを生成する第1モデル生成手段を更に備える
     請求項1に記載の情報処理装置。
  3.  前記出力手段は、前記モーダル生成モデルに、前記第1の種類のモーダルが取得された場合の取得環境を示す環境情報を入力することで、前記モーダル生成モデルに前記第2の種類のモーダルを出力させる
     請求項1または2に記載の情報処理装置。
  4.  前記モーダル生成モデルは、前記複数種類のモーダルのうちの少なくとも一つが入力された場合に、前記複数種類のモーダルのうちの少なくとも一つの特徴量を圧縮するエンコーダ部と、圧縮された前記特徴量を展開して前記複数種類のモーダルのうちの少なくとも一つを生成するデコーダ部とを含み、
     前記出力手段は、前記エンコーダ部及び前記デコーダ部の少なくとも一方に、前記環境情報を入力する
     請求項3に記載の情報処理装置。
  5.  前記第3のモーダルセットを用いた機械学習を行うことで、前記複数種類のモーダルのうちの第3の種類のモーダルが入力モーダルとして入力された場合に前記複数種類のモーダルのうちの前記第3の種類とは異なる第4の種類のモーダルを出力モーダルとして出力するモーダル推定モデルを生成する第2モデル生成手段を更に備える
     請求項1から4のいずれか一項に記載の情報処理装置。
  6.  前記複数種類のモーダルは、顔画像、心拍数及び酸素飽和度のうちの少なくとも一つに関する情報を含む複数種類の生体情報である
     請求項1から5のいずれか一項に記載の情報処理装置。
  7.  対象者の顔画像を取得する画像取得手段と、
     複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットとモーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを用いた機械学習を行うことで、前記複数種類のモーダルのうちの第3の種類のモーダルが入力モーダルとして入力された場合に前記複数種類のモーダルのうちの前記第3の種類とは異なる第4の種類のモーダルを出力モーダルとして出力するモーダル推定モデルに前記対象者の生体情報を前記出力モーダルとして出力させる生体情報推定手段と
     を備え、
     前記モーダル生成モデルは、前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力し、且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成された
     生体情報推定装置。
  8.  前記画像取得手段は、通信回線を介して、前記顔画像を生成する前記対象者を撮像することで前記顔画像を生成する画像生成装置から、前記顔画像を取得する
     請求項7に記載の生体情報推定装置。
  9.  前記生体情報は、心拍数及び酸素飽和度のうちの少なくとも一つに関する情報を含む
     請求項7又は8に記載の生体情報推定装置。
  10.  複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得し、
     前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させ、
     前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成する
     情報処理方法。
  11.  コンピュータに、
     複数種類のモーダルのうちの第1の種類のモーダルを少なくとも含み、前記複数種類のモーダルのうちの第2の種類のモーダルを含まない第1のモーダルセットを取得し、
     前記複数種類のモーダルのうちの少なくとも一つが入力された場合に前記複数種類のモーダルのうちの少なくとも一つを出力するモーダル生成モデルであって且つ前記複数種類のモーダルを含む第2のモーダルセットを用いた機械学習によって生成されたモーダル生成モデルに、前記第1のモーダルセットを入力することで、少なくとも前記第2の種類のモーダルを出力させ、
     前記第1のモーダルセットと前記モーダル生成モデルが出力した前記第2の種類のモーダルとを含む第3のモーダルセットを生成する
     情報処理方法を実行させるためのコンピュータプログラムが記録された記録媒体。
PCT/JP2021/036092 2021-09-30 2021-09-30 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体 WO2023053324A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/036092 WO2023053324A1 (ja) 2021-09-30 2021-09-30 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/036092 WO2023053324A1 (ja) 2021-09-30 2021-09-30 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
WO2023053324A1 true WO2023053324A1 (ja) 2023-04-06

Family

ID=85781584

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/036092 WO2023053324A1 (ja) 2021-09-30 2021-09-30 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体

Country Status (1)

Country Link
WO (1) WO2023053324A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018152004A (ja) * 2017-03-15 2018-09-27 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2019056957A (ja) * 2017-09-19 2019-04-11 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018152004A (ja) * 2017-03-15 2018-09-27 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2019056957A (ja) * 2017-09-19 2019-04-11 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体

Similar Documents

Publication Publication Date Title
US11562222B2 (en) Systems and methods of identity analysis of electrocardiograms
CN108478209B (zh) 心电信息动态监护方法和动态监护系统
CN111728609B (zh) 脑电信号的分类方法、分类模型的训练方法、装置及介质
Dhar et al. Interference aware scheduling of sensors in IoT enabled health-care monitoring system
JP2023182756A (ja) 脳症/せん妄のスクリーニングおよびモニタリングのための装置、システムおよび方法
RU2657384C2 (ru) Способ и система неинвазивной скрининговой оценки физиологических параметров и патологий
EP4272645A1 (en) Method and apparatus for converting electrical biosignal data into numerical vectors, and method and apparatus for analyzing disease by using same
US20230105909A1 (en) Method and System For Generating An ECG Signal
CN111222464B (zh) 情感分析方法以及系统
CN115778403B (zh) 心电图分析方法、装置、电子设备和存储介质
WO2023053324A1 (ja) 情報処理装置、生体情報推定装置、情報処理方法、及び、記録媒体
JP6739841B2 (ja) 脳情報解析装置及び脳情報模倣演算装置
Islam et al. A motion detection algorithm for video-polysomnography to diagnose sleep disorder
Al Younis et al. Non-invasive technologies for heart failure, systolic and diastolic dysfunction modeling: A scoping review
JP7058383B2 (ja) 情動判定装置、情動判定方法、及びプログラム
Arif et al. IoT Cloud Platform Based on Asynchronous Processing for Reliable Multi-user Health Monitoring
WO2022215322A1 (ja) 情報処理システム
Naveen Kumar et al. A Real Time Human Emotion Recognition System Using Respiration Parameters and ECG
US12004859B2 (en) Contactless automated and remote polygraph test
JP7435965B2 (ja) 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム
WO2023229016A1 (ja) 医療連携システム、医療連携方法、及びプログラム
WO2022208581A1 (ja) 学習装置、判定装置、学習済みモデル生成方法及び記録媒体
WO2022065073A1 (ja) 生体情報解析システム、情報処理方法、及びプログラム
US20240032832A1 (en) Contactless automated and remote polygraph test
ROMAISSA Automated Heartbeat Classification and Cardiovascular Disease Detection Using Deep Learning

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21959366

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023550891

Country of ref document: JP