WO2022124189A1 - 生理関連情報出力装置、学習装置、学習情報の生産方法、および記録媒体 - Google Patents

生理関連情報出力装置、学習装置、学習情報の生産方法、および記録媒体 Download PDF

Info

Publication number
WO2022124189A1
WO2022124189A1 PCT/JP2021/044233 JP2021044233W WO2022124189A1 WO 2022124189 A1 WO2022124189 A1 WO 2022124189A1 JP 2021044233 W JP2021044233 W JP 2021044233W WO 2022124189 A1 WO2022124189 A1 WO 2022124189A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
learning
sound
unit
physiology
Prior art date
Application number
PCT/JP2021/044233
Other languages
English (en)
French (fr)
Inventor
典正 金川
ゆうか 久津見
満広 ゼイ田
Original Assignee
サントリーホールディングス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サントリーホールディングス株式会社 filed Critical サントリーホールディングス株式会社
Priority to KR1020237011491A priority Critical patent/KR20230116770A/ko
Priority to JP2022568232A priority patent/JPWO2022124189A1/ja
Priority to CN202180082367.0A priority patent/CN116568224A/zh
Priority to EP21903293.5A priority patent/EP4257059A1/en
Priority to US18/265,551 priority patent/US20240023942A1/en
Publication of WO2022124189A1 publication Critical patent/WO2022124189A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0012Ovulation-period determination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4824Touch or pain perception evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0012Ovulation-period determination
    • A61B2010/0029Ovulation-period determination based on time measurement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors

Definitions

  • the present invention relates to a physiology-related information output device or the like that acquires and outputs physiology-related information related to physiology.
  • Patent Document 1 there has been a technique for the purpose of suppressing a decrease in prediction accuracy and making it possible to predict a menstrual day even when the variation in the menstrual cycle is large (see Patent Document 1).
  • the physiology-related information output device of the first invention stores learning information configured by using two or more teacher data having sound information acquired from a user's abdominal sound and physiology-related information.
  • Learning information storage unit sound information acquisition unit that acquires sound information from the user's abdominal sound
  • prediction unit that applies learning information to the sound information acquired by the sound information acquisition unit and acquires physiology-related information.
  • physiologically related information can be obtained using the abdominal sound from the abdomen or around the abdomen.
  • the physiology-related information output device of the second invention is a physiology-related information output device in which the physiology-related information is the physiology-day-related information regarding the relationship with the day related to physiology with respect to the first invention.
  • the physiology-related information output device of the third invention is a physiology-related information output device in which the physiology-related information is pain information related to physiology pain with respect to the first invention.
  • physiology-related information output device of the fourth invention for any one of the first to third inventions, two or more teacher data are acquired from the abdomen of each day during the user's menstrual cycle. It is a physiology-related information output device composed of teacher data having sound information acquired from abdominal sounds and physiology-related information.
  • the physiology-related information output device of the fifth invention performs learning processing on two or more teacher data for any one of the first to fourth inventions by a machine learning algorithm, and is a learning device. It is further equipped with a learning unit that acquires learning information, and the prediction unit performs prediction processing by a machine learning algorithm using the sound information and learning information acquired by the sound information acquisition unit, and acquires physiology-related information. It is a physiological information output device.
  • the physiology-related information output device of the sixth aspect of the present invention outputs physiology-related information, wherein the sound information is two or more feature quantities of the user's abdominal sound for any one of the first to fifth inventions. It is a device.
  • the learning device of the seventh invention obtains teacher data from a sound information acquisition unit that acquires sound information from the user's abdominal sound, a learning reception unit that receives physiology-related information, and sound information and physiology-related information.
  • a learning device that can predict physiologically related information using abdominal sounds can be configured by machine learning algorithms.
  • physiology-related information can be predicted using the abdominal sound.
  • Block diagram of the information system A Block diagram of the same physiology-related information output device 2 A flowchart illustrating an operation example of the learning device 1. A flowchart illustrating the first example of the learning information configuration process. A flowchart illustrating a second example of the learning information configuration process. A flowchart illustrating an operation example of the same physiology-related information output device 2. A flowchart illustrating an example of the prediction process. A flowchart illustrating an operation example of the terminal device 3. Diagram showing the teacher data management table Figure showing the same output example Figure showing the same output example Figure showing the same output example Overview of the computer system Block diagram of the computer system
  • the sound information related to the abdominal sound of one user is applied to the learning information configured by using two or more teacher data having the sound information related to the abdominal sound of the user and the physiologically related information, and the physiological related information is applied.
  • a physiological information output device that acquires and outputs information will be described.
  • the abdominal sound is a sound emitted from the user's abdomen.
  • the abdominal sound may be considered to include a sound emitted from the periphery of the user's abdomen.
  • the abdominal sound may include, for example, an intestinal sound emitted from the intestine.
  • the abdominal sound may include a sound emitted by blood flow in the abdomen (for example, abdominal aortic sound) and a sound emitted from an organ such as the stomach.
  • the menstruation-related information is information related to menstruation, and the details will be described later.
  • the learning information is, for example, a learning device configured by the learning device, a correspondence table described later, and the like.
  • the learning device may be called a classifier, a model, or the like.
  • a learning device that performs learning processing by a machine learning algorithm from two or more teacher data having sound information related to the abdominal sound of the user and physiology-related information to form a learning device will be described. ..
  • an information system including a learning device, a physiology-related information output device, and one or more terminal devices will be described.
  • FIG. 1 is a conceptual diagram of the information system A in the present embodiment.
  • the information system A includes a learning device 1, a physiology-related information output device 2, and one or more terminal devices 3.
  • the learning device 1 is a device that constitutes a learning device by performing learning processing from two or more teacher data having sound information and physiology-related information by a machine learning algorithm.
  • the physiology-related information output device 2 is a device that acquires and outputs physiology-related information using abdominal sounds.
  • the learning device 1 and the physiology-related information output device 2 are so-called computers, for example, servers.
  • the learning device 1 and the physiology-related information output device 2 are, for example, a so-called cloud server, an ASP server, or the like, but the type thereof does not matter.
  • the learning device 1 and the physiology-related information output device 2 may be stand-alone devices.
  • the terminal device 3 is a terminal used by the user.
  • the user is a user who desires to acquire physiological-related information.
  • the terminal device 3 is a terminal for acquiring learning information.
  • the terminal device 3 is, for example, a so-called personal computer, a tablet terminal, a smartphone, or the like, and the type thereof does not matter.
  • FIG. 2 is a block diagram of the information system A in the present embodiment.
  • FIG. 3 is a block diagram of the physiology-related information output device 2. It was
  • the learning device 1 includes a teacher data storage unit 11, a sound collection unit 12, a sound information acquisition unit 13, a learning reception unit 14, a teacher data composition unit 15, a learning unit 16, and a storage unit 17.
  • the physiology-related information output device 2 includes a storage unit 21, a reception unit 22, a processing unit 23, and an output unit 24.
  • the storage unit 21 includes a learning information storage unit 211.
  • the processing unit 23 includes a sound information acquisition unit 231 and a prediction unit 232.
  • the terminal device 3 includes a terminal storage unit 31, a terminal reception unit 32, a terminal processing unit 33, a terminal transmission unit 34, a terminal reception unit 35, and a terminal output unit 36.
  • the teacher data has sound information and physiology-related information.
  • Sound information refers to information obtained based on abdominal sounds.
  • the sound information may be the recorded abdominal sound data itself, or may be data obtained by processing or editing the data.
  • the sound information is, for example, a spectrum image showing the result of analyzing the voice data (which may be processed) obtained by recording the abdominal sound by Fourier transform or fast Fourier transform in a predetermined mode. ..
  • the sound information may be, for example, voice data (which may be processed) itself, or may be data converted into another format.
  • the sound information may be, for example, a set of feature quantities acquired by performing A / D conversion of the abdominal sound and performing cepstrum analysis on the data after the A / D conversion. Further, the sound information may be, for example, a set of acquired features obtained by A / D converting the abdominal sound and performing LPC analysis on the data after the A / D conversion.
  • the sound information is two or more feature quantities of the sound acquired from the user's abdominal sound.
  • the sound collecting unit 12 collects abdominal sounds from one user's abdomen or around the abdomen.
  • the sound collecting unit 12 is, for example, a microphone.
  • the sound information acquisition unit 13 acquires sound information. Sound information is information obtained from the abdominal sound.
  • the sound information acquisition unit 13 acquires sound information used for prediction processing for acquiring physiologically related information, which will be described later, from the abdominal sound.
  • the sound information acquisition unit 13 may acquire sound information from the abdominal sound received from the terminal device 3, or may acquire sound information received from the terminal device 3. Further, the sound information acquisition unit 13 may acquire sound information from the abdominal sound acquired by the sound collection unit 12.
  • the sound information acquisition unit 13 acquires sound information by A / D converting the abdominal sound, for example.
  • the sound information acquisition unit 13 performs cepstrum analysis on the abdominal sound, for example, and acquires sound information which is a vector of multidimensional features.
  • the sound information acquisition unit 13 performs LPC analysis on the abdominal sound and acquires sound information which is a vector of multidimensional feature quantities.
  • the learning reception unit 14 receives menstruation-related information.
  • the learning reception unit 14 usually receives physiological-related information input by the user.
  • the learning reception unit 14 usually receives physiological-related information in association with the user identifier.
  • the user identifier is information that identifies the user.
  • the user identifier is, for example, an ID, an e-mail address, a telephone number, and a name.
  • the learning reception unit 14 may receive abdominal sounds and physiology-related information. In such a case, the learning device 1 does not need the sound collecting unit 12.
  • the learning reception unit 14 may receive teacher data having sound information and physiology-related information. In such a case, the learning device 1 does not need the sound collecting unit 12 and the sound information acquisition unit 13.
  • the teacher data received by the learning reception unit 14 the abdominal sound, the physiology-related information, and the like are associated with the user identifier.
  • Physiology-related information is information related to menstruation.
  • the menstrual-related information is, for example, menstrual-day-related information or pain information.
  • the menstrual day-related information is information related to the relationship with the day related to menstruation (for example, the start date of menstruation, the ovulation date, and the end date of menstruation).
  • the menstrual day-related information includes, for example, information indicating whether or not the menstrual period start date is near, information indicating whether or not the period corresponds to the menstrual period, day number information indicating the number of days until the menstrual period start date, and the number of days until the ovulation date. It is the number of days information and the menstrual period information indicating the length of the menstrual period.
  • the pain information is information about the next menstrual pain.
  • the pain information is, for example, information indicating whether the pain is weak or strong, a pain level (for example, a value of any one of 5 steps from 1 to 5 and a value of any one of 10 steps of 1 to 10). Etc.).
  • reception is usually reception from the terminal device 3, but reception from a microphone, reception of information input from an input device such as a keyboard, a mouse, or a touch panel, an optical disk, a magnetic disk, or a semiconductor memory. It may be a concept including acceptance of information read from a recording medium such as.
  • Any means of inputting physiological information may be used, such as a touch panel, keyboard, mouse, or menu screen.
  • the teacher data composition unit 15 configures teacher data from sound information and physiology-related information.
  • the teacher data configuration unit 15 configures teacher data, which is a vector having sound information and physiology-related information, for example.
  • the teacher data configuration unit 15 configures teacher data, which is a vector having one or more feature quantities, which are sound information, and physiology-related information as elements, for example. It is preferable that the teacher data corresponds to the user identifier.
  • the teacher data configuration unit 15 may acquire other physiology-related information by using one or more received physiology-related information. That is, the received physiology-related information and the physiology-related information accumulated in association with the sound information do not have to be the same information.
  • the teacher data configuration unit 15 acquires the menstruation-related information "menstruation period" by using, for example, the menstruation-related information indicating the "menstruation start date” and the menstruation-related information indicating the "menstruation end date”. That is, the teacher data configuration unit 15 acquires the day information indicating the day when the menstruation-related information indicating the "menstruation start date” is received. In addition, the teacher data configuration unit 15 acquires the day information indicating the day when the menstruation-related information indicating the "menstruation end date" is received. Then, the teacher data configuration unit 15 calculates the difference between the two day information and acquires the menstrual-related information "physiological period". The teacher data configuration unit 15 may acquire day information from a clock (not shown), or may acquire day information received from the terminal device 3. It doesn't matter how you get the day information.
  • the teacher data configuration unit 15 uses, for example, physiology-related information indicating "during a non-physiological period” and physiology-related information indicating "menstruation start date", and physiology-related information "days information indicating the number of days until the menstruation start date”. To get. That is, the teacher data configuration unit 15 acquires the day information indicating the day when the menstrual-related information indicating "during the non-menstrual period" is received. In addition, the teacher data configuration unit 15 acquires the day information indicating the date when the menstruation-related information indicating the "menstruation start date” is received. Then, the teacher data configuration unit 15 calculates the difference between the two day information and acquires the menstruation-related information "days information indicating the number of days until the start date of menstruation”.
  • the teacher data configuration unit 15 uses, for example, menstruation-related information indicating "menstruation start date” and menstruation-related information indicating “during a non-menstrual period”, and menstruation-related information "days information indicating the number of days until the ovulation day”. To get. That is, the teacher data configuration unit 15 acquires the day information indicating the day when the menstruation-related information indicating the "menstruation start date" is received. Further, the teacher data configuration unit 15 acquires information on the general number of days from the start date of menstruation to the day of ovulation from the storage unit 21.
  • the teacher data configuration unit 15 calculates the day information indicating the ovulation date by using the day information corresponding to the menstrual period start date and the information on the number of days until the ovulation date.
  • the teacher data configuration unit 15 acquires, for example, the day information of the day when the physiology-related information is received.
  • the teacher data component 15 calculates the difference between the day information indicating the ovulation date and the day information on the day when the physiology-related information is received, and the physiology-related information “the number of days until the ovulation day” which is the number of days of the difference. Acquire "indicated number of days information".
  • the teacher data configuration unit 15 stores the configured teacher data in the teacher data storage unit 11. It is preferable that the teacher data configuration unit 15 stores the configured teacher data in association with the user identifier. Further, it is preferable that the teacher data configuration unit 15 stores the configured teacher data in association with the day information.
  • the learning unit 16 acquires learning information using one or more teacher data.
  • the learning unit 16 acquires learning information for each user identifier, for example, using one or two or more teacher data paired with the user identifier.
  • the learning unit 16 acquires learning information using, for example, one or two or more teacher data for each type of menstruation-related information (for example, the number of days until the start of menstruation, the level of pain).
  • the learning unit 16 acquires learning information using, for example, one or two or more teacher data for each type of physiology-related information and user identifier.
  • the learning unit 16 performs learning processing on two or more teacher data by a machine learning algorithm, and acquires learning information which is a learning device.
  • the learning unit 16 performs machine learning learning processing on the teacher data configured by the teacher data configuration unit 15, and constitutes learning information which is a learning device.
  • Machine learning algorithms may include deep learning, decision trees, random forests, SVMs, SVRs, etc., but they do not matter. Further, for machine learning, various machine learning functions such as TensorFlow library, fastText, tinySVM, R language random forest module, and various existing libraries can be used.
  • the module may be referred to as a program, software, function, method or the like.
  • the two or more teacher data are composed of teacher data having sound information acquired from the abdominal sound of each day during the menstrual cycle of one user and menstrual-related information.
  • the learning unit 16 constitutes, for example, a correspondence table.
  • the correspondence table has two or more correspondence information.
  • Correspondence information may be said to be teacher data.
  • Correspondence information is information indicating the correspondence between sound information and physiology-related information.
  • the correspondence information is, for example, information indicating the correspondence between the sound information and one or more types of physiology-related information.
  • the correspondence information is, for example, information indicating the correspondence between the sound information and one or more physiology-related information and the other one or more physiology-related information.
  • the correspondence table may exist for each user identifier.
  • Correspondence tables may exist for each type of physiology-related information.
  • Correspondence tables may exist for each user identifier and for each type of physiology-related information.
  • the storage unit 17 stores the learning information acquired by the learning unit 16.
  • the storage unit 17 stores, for example, the learning device acquired by the learning unit 16.
  • the learning information of the storage unit 17 may be stored in a local recording medium or another device such as the physiology-related information output device 2.
  • the storage unit 17 stores the learning information acquired by the learning unit 16 in association with each user identifier for each user identifier, for example.
  • the storage unit 17 stores the learning information acquired by the learning unit 16 in association with the identifier of each type of physiology-related information for each type of physiology-related information.
  • the storage unit 17 stores the learning information acquired by the learning unit 16 in association with each user identifier and type identifier for each user identifier and each type of physiology-related information, for example.
  • the type identifiers are, for example, "whether or not the start date of menstruation is near”, “whether or not it corresponds to the menstrual period", “the number of days until the start date of menstruation”, “the number of days until the day of ovulation”, and "physiology”. The length of the period. "
  • the various types of information are stored in the storage unit 21 that constitutes the physiology-related information output device 2.
  • the various information is, for example, learning information.
  • the learning information storage unit 211 stores one or more learning information.
  • the learning information is, for example, the above-mentioned learning device or a correspondence table. It is preferable that the learning information is the information acquired by the learning device 1. It is preferable that the learning information of the learning information storage unit 211 corresponds to the user identifier. That is, it is preferable that different learning information is used for each user. However, learning information common to two or more users may be used.
  • the learning information corresponds to, for example, a user identifier and an identifier of a type of physiology-related information.
  • the reception unit 22 receives, for example, the abdominal sound of one user.
  • the reception unit 22 receives, for example, sound information acquired from the abdominal sound of one user.
  • the reception unit 22 receives, for example, abdominal sound or sound information in association with a user identifier.
  • the reception unit 22 receives, for example, an output instruction.
  • the output instruction is an instruction to output physiologically related information.
  • the output instruction has, for example, abdominal sound data.
  • the output instruction has, for example, sound information. It is preferable that the output instruction includes a user identifier.
  • the reception unit 22 receives, for example, abdominal sound or sound information or an output instruction from the terminal device 3.
  • the reception of information in the reception unit 22 is usually reception from the terminal device 3, but reception from a microphone, reception of information input from an input device such as a keyboard, mouse, or touch panel, optical disk or magnetic disk.
  • the concept may include acceptance of information read from a recording medium such as a semiconductor memory.
  • the processing unit 23 performs various processes.
  • the various processes are, for example, processes performed by the sound information acquisition unit 231 and the prediction unit 232.
  • the sound information acquisition unit 231 acquires sound information.
  • the sound information acquisition unit 231 may acquire sound information from the abdominal sound received by the reception unit 22, and the sound information acquisition unit 231 may acquire the sound information received by the reception unit 22.
  • the sound information acquisition unit 231 performs the same function as the sound information acquisition unit 13.
  • the sound information acquisition unit 231 may acquire the sound information received by the reception unit 22.
  • the prediction unit 232 applies learning information to the sound information acquired by the sound information acquisition unit 231 and acquires physiology-related information.
  • the prediction unit 232 acquires physiology-related information using the sound information acquired by the sound information acquisition unit 231 and the learning information of the learning information storage unit 211.
  • the prediction unit 232 gives the sound information acquired by the sound information acquisition unit 231 and the learning information of the learning information storage unit 211 to the machine learning prediction module, executes the module, and acquires physiology-related information.
  • the machine learning algorithm may include deep learning, decision tree, random forest, SVM, SVR, etc., but it does not matter whether the learning process or the prediction process is the same.
  • the prediction unit 232 acquires the learning information corresponding to the user identifier corresponding to the sound information acquired by the sound information acquisition unit 231 from the learning information storage unit 211, and uses the sound information acquired by the sound information acquisition unit 231 as the sound information. , Apply the learning information and acquire physiology-related information. That is, it is preferable that the prediction unit 232 acquires the physiology-related information by using different learning information depending on the user. However, the prediction unit 232 may acquire physiology-related information by using learning information common to two or more users or all users.
  • the prediction unit 232 acquires learning information corresponding to an identifier of the type of physiologically related information to be acquired from the learning information storage unit 211, and applies the learning information to the sound information acquired by the sound information acquisition unit 231. And acquire the relevant type of physiology-related information.
  • the prediction unit 232 acquires the identifier of the type of physiologically related information to be acquired and the learning information corresponding to the user identifier from the learning information storage unit 211, and adds the sound information acquired by the sound information acquisition unit 231 to the sound information.
  • the learning information is applied to acquire physiology-related information.
  • the prediction unit 232 performs prediction processing by a machine learning algorithm using, for example, sound information and a learning device, and acquires physiology-related information.
  • the prediction unit 232 selects the sound information that most closely resembles the sound information from the correspondence table, and acquires the physiologically related information that is paired with the selected sound information from the correspondence table.
  • the prediction unit 232 selects from the correspondence table two or more sound information that is close to the sound information acquired by the sound information acquisition unit 231 so as to satisfy a predetermined condition (for example, the similarity is equal to or higher than the threshold value).
  • a predetermined condition for example, the similarity is equal to or higher than the threshold value.
  • Two or more physiology-related information corresponding to each of the two or more selected sound information is acquired from the correspondence table, and one physiology-related information is acquired from the two or more physiology-related information.
  • the prediction unit 232 acquires, for example, representative values (for example, an average value, a median value, and a value selected by majority vote) of the two or more physiologically related information.
  • the output unit 24 outputs the physiology-related information acquired by the prediction unit 232.
  • the output is usually transmission to the terminal device 3, but display on a display, projection using a projector, printing by a printer, sound output, storage in an external recording medium, other processing devices, and the like.
  • the concept may include passing the processing result to another program or the like.
  • the various information is, for example, a user identifier.
  • the user identifier may be the ID of the terminal device 3 or the like.
  • the terminal reception unit 32 receives various information and instructions.
  • the various information and instructions are, for example, abdominal sounds, physiology-related information, and output instructions.
  • the input means for various information and instructions may be any, such as a microphone, a touch panel, a keyboard, a mouse, or a menu screen.
  • the terminal processing unit 33 performs various processes.
  • the various processes are, for example, A / D conversion of the abdominal sound received by the terminal reception unit 32 into data of the abdominal sound to be sent.
  • the various processes are, for example, a process of forming a data structure for transmitting instructions and information received by the terminal reception unit 32. Further, the various processes are, for example, a process of forming a data structure for outputting the information received by the terminal receiving unit 35.
  • the terminal transmission unit 34 transmits various information and instructions to the learning device 1 or the physiology-related information output device 2.
  • the various information and instructions are, for example, abdominal sounds, physiology-related information, and output instructions.
  • the terminal receiving unit 35 receives various information from the physiology-related information output device 2.
  • Various types of information are, for example, physiologically related information.
  • the terminal output unit 36 outputs various information. Various types of information are, for example, physiologically related information. It is preferable that the terminal output unit 36 outputs the physiology-related information for each type of physiology-related information.
  • the teacher data storage unit 11, the storage unit 21, the learning information storage unit 211, and the terminal storage unit 31 are preferably non-volatile recording media, but can also be realized by volatile recording media.
  • the process of storing information in the teacher data storage unit 11 or the like does not matter.
  • the information may be stored in the teacher data storage unit 11 or the like via the recording medium, and the information transmitted via the communication line or the like may be stored in the teacher data storage unit 11 or the like.
  • the information input via the input device may be stored in the teacher data storage unit 11 or the like.
  • the sound information acquisition unit 13, the teacher data configuration unit 15, the learning unit 16, the storage unit 17, the processing unit 23, the sound information acquisition unit 231 and the prediction unit 232, and the terminal processing unit 33 are usually realized from a processor, a memory, or the like. obtain.
  • the processing procedure of the sound information acquisition unit 13 and the like is usually realized by software, and the software is recorded in a recording medium such as ROM. However, it may be realized by hardware (dedicated circuit).
  • the processor is, for example, a CPU, an MPU, a GPU, or the like, and the type thereof does not matter.
  • the learning reception unit 14, the reception unit 22, and the terminal reception unit 35 are realized by, for example, wireless or wired communication means.
  • the output unit 24 and the terminal transmission unit 34 are realized by, for example, wireless or wired communication means.
  • the terminal reception unit 32 can be realized by a device driver for input means such as a microphone, a touch panel, or a keyboard, a menu screen control software, or the like.
  • the terminal output unit 36 may or may not include an output device such as a display or a speaker.
  • the terminal output unit 36 can be realized by the driver software of the output device, the driver software of the output device, the output device, or the like.
  • Step S401 The learning reception unit 14 determines whether or not the abdominal sound or the like has been received from the terminal device 3. If the abdominal sound or the like is received, the process goes to step S402, and if the abdominal sound or the like is not received, the process goes to step S403.
  • the abdominal sound and the like are, for example, abdominal sound and physiologically related information.
  • the abdominal sound and the like are, for example, an abdominal sound, physiology-related information, and a user identifier.
  • the learning reception unit 14 does not need to receive the abdominal sound and the physiology-related information together. It suffices if the abdominal sound and the physiology-related information are associated with each other.
  • the learning reception unit 14 may receive the teacher data.
  • the teacher data configuration unit 15 stores the received teacher data in the teacher data storage unit 11.
  • the learning reception unit 14 may receive the teacher data in association with the user identifier.
  • Step S402 The sound information acquisition unit 13 acquires sound information from the abdominal sound received in step S401. Then, the teacher data component unit 15 configures teacher data having the sound information and the received physiology-related information. Then, the teacher data configuration unit 15 stores the teacher data in the teacher data storage unit 11 in association with the user identifier. Return to step S401.
  • Step S403 The learning unit 16 determines whether or not it is the timing to configure the learning information. If it is the timing to configure the learning information, the process goes to step S404, and if it is not the timing to configure the learning information, the process returns to step S401.
  • the learning unit 16 may determine that it is the timing to configure the learning information according to the instruction from the terminal device 3. Further, the learning unit 16 may determine that it is the timing to configure the learning information when the teacher data equal to or larger than the threshold value exists in the teacher data storage unit 11. Further, the learning unit 16 may determine that it is the timing to configure the learning information corresponding to the one user identifier when the teacher data corresponding to the one user identifier exists in the threshold value or more. Further, the learning unit 16 determines that it is the timing to configure the learning information when the teacher data of the predetermined variation day exists in the teacher data storage unit 11 during the period of the menstrual cycle. Is also good.
  • the learning unit 16 when the day (any day in the cycle) of the plurality of teacher data corresponding to one user identifier satisfies the condition regarding the predetermined variation in the period of the menstrual cycle. In addition, it may be determined that it is the timing to configure the learning information.
  • the "predetermined variation" is a variation of days in the menstrual cycle. For example, the teacher data on different days from the start date of menstruation to the start date of the next menstruation is equal to or more than the threshold value (for example, 15 days or more). ) Or more than the threshold (eg, more than 18 days).
  • Step S404 The learning unit 16 substitutes 1 for the counter i.
  • Step S405 The learning unit 16 determines whether or not the i-th user identifier of the target constituting the learning information exists. If the i-th user identifier exists, the process goes to step S406, and if the i-th user identifier does not exist, the process returns to step S401.
  • Step S406 The learning unit 16 substitutes 1 for the counter j.
  • Step S407 The learning unit 16 determines whether or not the jth type of physiology-related information that constitutes the learning information exists. If the jth type of physiology-related information exists, the process goes to step S408, and if the jth type of physiology-related information does not exist, the process goes to step S412.
  • the learning unit 16 acquires one or more teacher data that is paired with the i-th user identifier and includes the j-th type of physiology-related information from the teacher data storage unit 11. do.
  • Step S409 The learning unit 16 configures learning information using one or more teacher data acquired in step S408. An example of such learning information configuration processing will be described with reference to the flowcharts of FIGS. 5 and 6.
  • Step S410 The storage unit 17 stores the learning information acquired in step S407 in association with the i-th user identifier and the j-th type type identifier.
  • the learning information may be stored in the learning device 1 or the learning information storage unit 211 of the physiology-related information output device 2.
  • Step S411 The learning unit 16 increments the counter j by 1. Return to step S407.
  • Step S412 The learning unit 16 increments the counter i by 1. Return to step S405.
  • learning information is configured for each user identifier. However, learning information common to two or more users may be configured.
  • the learning information when there is only one type of physiology-related information, the learning information does not correspond to the type identifier of the type of physiology-related information.
  • the processing is terminated by the power off or the interrupt of the processing termination.
  • the first example is a case where learning information, which is a learning device, is acquired by a learning process of machine learning.
  • Step S501 The learning unit 16 determines whether or not to configure learning information, which is a learning device that performs multi-value classification.
  • learning information which is a learning device that performs multi-value classification.
  • step S502 To configure a learner for multi-value classification, go to step S502, and to configure a learner for binary classification, go to step S504.
  • the multi-value classification or the binary classification may be determined in advance, or may be determined by the learning unit 16 according to the number of target teacher data. For example, the learning unit 16 determines "binary classification" when the number of teacher data to be learned is equal to or more than the threshold value or more than the threshold value, and "many" when the number of teacher data is less than or equal to the threshold value or less than the threshold value. Value classification "is determined.
  • Step S502 The learning unit 16 gives one or more teacher data acquired in step S408 to the learning module of machine learning, and executes the learning module.
  • Step S503 The learning unit 16 acquires a learning device that is the execution result of the module in step S502. Return to higher-level processing.
  • Step S504 The learning unit 16 substitutes 1 for the counter i.
  • Step S505 The learning unit 16 determines whether or not the i-th class exists. If the i-th class exists, the process goes to step S506, and if the i-th class does not exist, the process returns to higher processing.
  • the class is data of candidates for physiology-related information. The classes are, for example, "near the start date of menstruation" and "far from the start date of menstruation".
  • Step S506 The learning unit 16 acquires one or more teacher data (normal example) corresponding to the i-th class from the one or more teacher data acquired in step S408. Further, the learning unit 16 acquires one or more teacher data (negative example) that does not correspond to the i-th class from the one or more teacher data acquired in step S406.
  • Step S507 The learning unit 16 gives the teacher data of the positive example and the negative example acquired in step S506 to the learning module of machine learning, and executes the learning module.
  • Step S508 The learning unit 16 acquires a learning device that is the execution result of the module in step S507 in association with the class identifier of the i-th class.
  • Step S509 The learning unit 16 increments the counter i by 1. Return to step S505.
  • step S409 a second example of the learning information configuration process in step S409 will be described with reference to the flowchart of FIG.
  • the second example is the case of acquiring learning information which is a correspondence table.
  • Step S601 The learning unit 16 substitutes 1 for the counter i.
  • Step S602 The learning unit 16 determines whether or not the i-th class exists. If the i-th class exists, the process goes to step S603, and if the i-th class does not exist, the process goes to step S606.
  • the learning unit 16 acquires one or more teacher data corresponding to the i-th class. That is, the learning unit 16 acquires, for example, one or two or more sound information corresponding to the i-th class, and the representative value of the one or more sound information (for example, the average value, the median value, and the majority decision of each feature amount). Get the vector) whose elements are the result of. Next, the learning unit 16 acquires teacher data having the acquired representative value and the i-th class.
  • the learning unit 16 configures the i-th correspondence information by using one or more teacher data acquired in step S603.
  • the correspondence information is information in which sound information and physiology-related information (class data) are associated with each other.
  • Step S605 The learning unit 16 increments the counter i by 1. Return to step S602.
  • Step S606 The learning unit 16 constitutes a correspondence table having two or more correspondence information configured in step S604. Return to higher-level processing.
  • Step S701 The reception unit 22 determines whether or not an output instruction has been received from the terminal device 3. If the output instruction is received, the process goes to step S702, and if the output instruction is not received, the process returns to step S701.
  • the output instruction includes, for example, an abdominal sound and a user identifier.
  • the output instruction may include sound information and a user identifier.
  • Step S702 The sound information acquisition unit 231 acquires sound information from the abdominal sound of the output instruction received in step S701.
  • Step S703 The prediction unit 232 performs a prediction process of acquiring physiologically related information using the sound information acquired in step S702. An example of the prediction process will be described with reference to the flowchart of FIG.
  • Step S704 The output unit 24 transmits the physiology-related information acquired in step S703 to the terminal device 3. Return to step S701.
  • step S703 the first example of the prediction process in step S703 will be described with reference to the flowchart of FIG.
  • Step S801 The prediction unit 232 acquires the user identifier corresponding to the received abdominal sound.
  • Step S802 The prediction unit 232 substitutes 1 for the counter i.
  • Step S803 The prediction unit 232 determines whether or not the i-th class exists. If the i-th class exists, the process goes to step S804, and if the i-th class does not exist, the process goes to step S808.
  • Step S804 The prediction unit 232 acquires the user identifier acquired in step S801 and the learning device corresponding to the i-th class from the learning information storage unit 211.
  • Step S805 The prediction unit 232 gives the learning device acquired in step S805 and the sound information acquired in step S702 to the module that performs the prediction processing of machine learning, and executes the module.
  • Step S806 The prediction unit 232 acquires the prediction result and the score, which are the execution results of the module in step S805.
  • the prediction result here is information indicating whether or not it belongs to the i-th class.
  • Step S807 The prediction unit 232 increments the counter i by 1. Return to step S803.
  • Step S808 The prediction unit 232 acquires physiology-related information using the prediction result and the score acquired in step S806. Return to higher-level processing.
  • the prediction unit 232 is the result that the prediction result acquired in step S806 "belongs to the i-th class", and acquires the class identifier of the class having the highest score as physiology-related information.
  • menstruation-related information include, for example, information indicating whether or not the start date of menstruation is near, information indicating whether or not the period corresponds to the menstrual period, information on the number of days until the start date of menstruation, and the number of days until the day of ovulation.
  • Information indicating the number of days information indicating the length of the menstrual period, information indicating whether the next menstrual period is weak or strong, and information indicating the level of pain.
  • the second prediction process may be used. That is, the prediction unit 232 is a learning device corresponding to the user identifier corresponding to the received abdominal sound, and acquires a learning device capable of multi-value classification from the learning information storage unit 211. Next, the prediction unit 232 gives the learning device and the sound information acquired in step S702 to the module that performs the prediction processing of machine learning, executes the module, and acquires physiology-related information.
  • the third prediction process may be used. That is, the prediction unit 232 acquires the correspondence table corresponding to the user identifier corresponding to the received abdominal sound from the learning information storage unit 211. Next, the prediction unit 232 determines the sound information (for example, a vector) that most closely resembles the sound information (for example, a vector) acquired in step S702 from the correspondence table. Next, the prediction unit 232 acquires the physiologically related information paired with the most similar sound information from the correspondence table.
  • the sound information for example, a vector
  • the prediction unit 232 acquires the physiologically related information paired with the most similar sound information from the correspondence table.
  • the prediction unit 232 uses learning information common to two or more users (a learning device capable of multi-value classification, a learning device capable of binary classification for each class, or a correspondence table) for prediction processing. But it's okay.
  • Step S901 The terminal reception unit 32 determines whether or not the abdominal sound or the like has been received. If the abdominal sound or the like is received, the process goes to step S902, and if the abdominal sound or the like received in step S901 is not received, the process goes to step S904.
  • the abdominal sound and the like are, for example, abdominal sound and physiologically related information.
  • the terminal processing unit 33 configures information to be transmitted to the learning device 1 by using an abdominal sound or the like. That is, the terminal processing unit 33 acquires the user identifier from the terminal storage unit 31, for example.
  • the terminal processing unit 33 A / D-converts the abdominal sound collected by the microphone.
  • the terminal processing unit 33 is information having A / D converted abdominal sound data, physiology-related information, and a user identifier, and constitutes information to be transmitted.
  • Step S903 The terminal transmission unit 34 transmits the information configured in step S902 to the learning device 1.
  • Step S904 The terminal reception unit 32 determines whether or not an output instruction including an abdominal sound has been received. If the output instruction is accepted, the process goes to step S905, and if the output instruction is not accepted, the process returns to step S901.
  • the terminal processing unit 33 configures an output instruction to be transmitted. That is, the terminal processing unit 33 acquires the user identifier from the terminal storage unit 31, for example.
  • the terminal processing unit 33 A / D-converts the abdominal sound.
  • the terminal processing unit 33 constitutes an output instruction having A / D-converted abdominal sound data and a user identifier.
  • the terminal processing unit 33 may acquire sound information from the abdominal sound and configure an output instruction having the sound information and the user identifier.
  • Step S906 The terminal transmission unit 34 transmits the output instruction configured in step S905 to the physiology-related information output device 2.
  • Step S907 The terminal receiving unit 35 determines whether or not one or two or more types of physiologically related information have been received in response to the transmission of the output instruction in step S906. If the menstruation-related information is received, the process goes to step S908, and if the menstruation-related information is not received, the process returns to step S907.
  • Step S908 The terminal processing unit 33 configures the physiology-related information to be output by using the physiology-related information received in step S907.
  • the terminal output unit 36 outputs the physiologically related information. Return to step S901.
  • FIG. 1 The conceptual diagram of the information system A is FIG.
  • the teacher data storage unit 11 of the learning device 1 stores a teacher data management table having the structure shown in FIG.
  • the teacher data management table is a table that manages one or more records having "ID”, “user identifier”, “sound information”, “date and time information”, and "physiological information”.
  • the "physiological information” has a “physiological flag”, “days information”, “period information”, and "level”.
  • the "sound information” is a feature vector which is a set of two or more features acquired from the abdominal sound.
  • “Date and time information” is information on the date and time corresponding to the sound information.
  • the “date and time information” may be the date and time when the abdominal sound was acquired, the date and time when the learning device 1 received the abdominal sound or sound information, or the date and time when the terminal device 3 transmitted the abdominal sound or sound information. ..
  • “Date and time information” includes day information that identifies the day.
  • the "date and time information” may be day information.
  • the "menstrual flag” is information indicating whether or not it is during the menstrual period. Here, a value of “1” is taken if it is during the menstrual period, and a value of "0” is taken if it is not during the menstrual period.
  • Days information is information indicating the number of days until the next menstrual period start date.
  • Period information is information indicating the number of days of the menstrual period.
  • Days information is information indicating the period from the start to the end of the menstrual period if it is during the menstrual period, and is information indicating the period of the next menstruation if it is not during the menstrual period.
  • the "level” is information indicating the level of menstrual pain, and is a value input by the user.
  • the teacher data configuration unit 15 acquires "days information" as follows, for example. That is, the teacher data configuration unit 15 acquires the user identifier corresponding to the sound information acquired by the sound information acquisition unit 13.
  • the teacher data configuration unit 15 is teacher data paired with the user identifier, and has date and time information paired with teacher data (teacher data on the start date of physiology) including the physiology flag “1” and the number of days information “28”. Get the first day information. Further, the teacher data configuration unit 15 acquires the second day information (second day information ⁇ first day information) possessed by the date and time information corresponding to the sound information acquired by the sound information acquisition unit 13. Next, the teacher data configuration unit 15 acquires the difference between the first day information and the second day information as "days information". Here, the cycle of menstruation is 28 days.
  • the teacher data component unit 15 acquires "period information" as follows, for example. That is, the teacher data configuration unit 15 acquires the user identifier corresponding to the sound information acquired by the sound information acquisition unit 13. The teacher data configuration unit 15 acquires the first day information of the date and time information paired with the sound information of the physiological start date, which is the sound information paired with the user identifier. The teacher data configuration unit 15 is date and time information paired with the user identifier, date and time information indicating a day after the first day information, and date and time information indicating the day closest to the first day information. , Acquires the second day information possessed by the date and time information paired with the physiological flag "0".
  • Specific example 1 is an example for explaining the learning process by the learning device 1.
  • Specific Example 2 is an example for explaining the prediction processing of the physiology-related information by the physiology-related information output device 2.
  • the learning reception unit 14 receives the physiology-related information.
  • the terminal reception unit 32 of the terminal device 3 receives the abdominal sound.
  • the terminal processing unit 33 reads out the user identifier "U02" of the terminal storage unit 31.
  • the terminal processing unit 33 acquires the menstruation-related information " ⁇ menstruation day-related information> menstruation start date ⁇ pain information> 3".
  • the terminal processing unit 33 digitizes the abdominal sound.
  • the terminal processing unit 33 constitutes information having the physiologically related information, the abdominal sound, and the user identifier “U02”.
  • the terminal transmission unit 34 transmits the configured information to the learning device 1.
  • the learning reception unit 14 of the learning device 1 receives the physiology-related information, the abdominal sound, and the user identifier from the learning device 1.
  • the teacher data component unit 15 receives the received menstruation-related information " ⁇ menstruation day-related information> menstruation start date ⁇ pain information>3", the menstruation flag "1", the number of days information "28", and the level "3". To get.
  • the teacher data configuration unit 15 acquires the date and time information “9/10 8:15” from a clock (not shown). Further, the teacher data component unit 15 acquires various feature quantities from the abdominal sound and configures sound information (x 981 , x 982 , ..., X 98n ).
  • the teacher data composition unit 15 constitutes a record to be accumulated in the teacher data management table.
  • the learning unit 16 configures a learning device for each user and each physiology-related information as follows.
  • the learning unit 16 may or may not use other physiology-related information.
  • the learning unit 16 configures a learning device for outputting the physiology-related information "level”, among other physiology-related information (here, "physiological flag", "days information", "period information").
  • the learning process may be performed using the teacher data including one or more physiology-related information, or the learning process may be performed using the teacher data not including other physiology-related information.
  • the learning unit 16 acquires all teacher data consisting of sound information paired with the user identifier of the user and one physiology-related information (for example, "level”) from the teacher data management table for each user. do.
  • the learning unit 16 configures a learning device that performs learning processing by a machine learning algorithm (for example, random forest), inputs sound information, and outputs one physiologically related information (for example, "level”).
  • the storage unit 17 stores the learning device acquired by the learning unit 16 as a pair with the user identifier.
  • the learning unit 16 performs the same processing as above for each physiology-related information of other physiology-related information (“physiology flag”, “days information”, “period information”) for each user, and for each user, physiology-related information. Configure a learner for each piece of information.
  • the storage unit 17 stores the learning device acquired by the learning unit 16 as a pair with the user identifier.
  • the terminal reception unit 32 of the terminal device 3 receives the abdominal sound.
  • the terminal processing unit 33 reads out the user identifier "U02" of the terminal storage unit 31.
  • the terminal processing unit 33 digitizes the abdominal sound.
  • the terminal processing unit 33 constitutes an output instruction having the abdominal sound and the user identifier “U02”.
  • the terminal transmission unit 34 transmits the output instruction to the physiology-related information output device 2.
  • the reception unit 22 of the physiology-related information output device 2 receives the output instruction. Then, the sound information acquisition unit 231 acquires a feature amount vector which is sound information from the abdominal sound of the received output instruction.
  • the prediction unit 232 uses the acquired sound information to perform a prediction process for acquiring physiologically related information as follows.
  • the prediction unit 232 acquires the user identifier "U02" possessed by the output instruction. Next, the prediction unit 232 acquires the learning device corresponding to the user identifier "U02" and the "physiological flag” from the learning information storage unit 211. Next, the prediction unit 232 gives the learner and the feature quantity vector which is sound information to the machine learning module (for example, the module of the random forest), executes the module, and acquires the physiological flag "0". Yes.
  • the machine learning module for example, the module of the random forest
  • the prediction unit 232 acquires the learning device corresponding to the user identifier "U02" and the "days information" from the learning information storage unit 211. Next, the prediction unit 232 gives the learning device and the feature quantity vector which is sound information to the machine learning module (for example, the deep learning module), executes the module, and acquires the number of days information "3". Yes.
  • the machine learning module for example, the deep learning module
  • the prediction unit 232 acquires the learning device corresponding to the user identifier "U02" and the "period information" from the learning information storage unit 211. Next, the prediction unit 232 gives the learning device and the feature quantity vector which is sound information to the machine learning module (for example, the SVM module), executes the module, and outputs the period information "4.5". It is assumed that it was acquired.
  • the machine learning module for example, the SVM module
  • the prediction unit 232 acquires the learning device corresponding to the user identifiers "U02" and the "level” from the learning information storage unit 211. Next, the prediction unit 232 gave the learner and the feature quantity vector which is sound information to a machine learning module (for example, a module of a random forest), executed the module, and acquired level "3". , And.
  • a machine learning module for example, a module of a random forest
  • the prediction unit 232 configures the menstruation-related information to be transmitted by using the menstruation flag "0", the number of days information "3", the period information "4.5", and the level "3".
  • the output unit 24 transmits the configured physiology-related information to the terminal device 3.
  • the terminal receiving unit 35 of the terminal device 3 receives the physiology-related information in response to the transmission of the output instruction.
  • the terminal processing unit 33 configures the output physiological-related information using the received physiological-related information.
  • the terminal output unit 36 outputs the physiologically related information. An example of such an output is shown in FIG.
  • physiologically related information can be acquired using the abdominal sound.
  • the learning device 1 may use different machine learning algorithms depending on the type of physiology-related information when creating the learning device.
  • the learning device 1 uses, for example, a random forest module when configuring a learning device for outputting "physiological flags", and deep learning when configuring a learning device for outputting "days information”.
  • the SVR module may be used when the learning device for outputting the "period information" is configured by using the module.
  • the learning device 1 may be a stand-alone device.
  • the learning device 1 has a sound collecting unit that collects abdominal sounds from one user's abdomen or around the abdomen, a sound information acquiring unit that acquires sound information from the abdominal sounds, and a learning reception unit that receives physiological information.
  • a learning process of machine learning is performed on the teacher data component unit that constitutes teacher data from the sound information and the physiology-related information, and the teacher data configured by the teacher data component unit, and the learning device is used.
  • the physiology-related information output device 2 may be a stand-alone device.
  • the physiology-related information output device 2 in such a case is configured by using two or more teacher data having sound information acquired from the abdominal sound from one user's abdomen or the abdomen and physiology-related information. Sound information acquisition to acquire sound information used for prediction processing to acquire physiology-related information from the learning information storage unit in which the learning information is stored and the sound acquired from the abdomen or the abdomen of the one user.
  • a unit, a prediction unit that applies the learning information to the sound information acquired by the sound information acquisition unit to acquire the physiology-related information, and an output unit that outputs the physiology-related information acquired by the prediction unit are provided. It is a physiology-related information output device 2.
  • the physiology-related information output device 2 may be configured to include the learning device 1.
  • the processing in this embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded on a recording medium such as a CD-ROM and disseminated. It should be noted that this also applies to other embodiments herein.
  • the software that realizes the learning device 1 in this embodiment is the following program. That is, this program configures the computer as teacher data from a sound information acquisition unit that acquires sound information from the user's abdominal sound, a learning reception unit that accepts physiology-related information, and the sound information and the physiology-related information.
  • a learning unit that performs machine learning learning processing on the teacher data configuration unit configured by the teacher data configuration unit and the teacher data configuration unit to configure learning information that is a learning device, and a storage unit that accumulates the learning device. It is a program to function as a department.
  • the software that realizes the physiology-related information output device 2 is the following program. That is, this program accesses a learning information storage unit that stores learning information configured by using two or more teacher data having sound information acquired from the user's abdominal sound and physiology-related information.
  • Possible computers include a sound information acquisition unit that acquires sound information from the user's abdominal sound, and a prediction unit that applies the learning information to the sound information acquired by the sound information acquisition unit and acquires physiology-related information.
  • This is a program for functioning as an output unit for outputting the physiologically related information acquired by the prediction unit.
  • FIG. 14 shows the appearance of a computer that executes the program described in the present specification to realize the learning device 1, the physiology-related information output device 2, or the terminal device 3 of the various embodiments described above.
  • the above-described embodiment can be realized by computer hardware and a computer program executed on the computer hardware.
  • FIG. 14 is an overview view of the computer system 300
  • FIG. 15 is a block diagram of the system 300.
  • the computer system 300 includes a computer 301 including a CD-ROM drive, a keyboard 302, a mouse 303, a monitor 304, and a microphone 305.
  • the computer 301 in addition to the CD-ROM drive 3012, the computer 301 includes an MPU 3013, a bus 3014 connected to the CD-ROM drive 3012, the ROM 3015 for storing a program such as a boot-up program, and the MPU 3013. It includes a RAM 3016 that is connected and for temporarily storing instructions of an application program and providing a temporary storage space, and a hard disk 3017 for storing an application program, a system program, and data.
  • the computer 301 may further include a network card that provides a connection to the LAN.
  • the program for causing the computer system 300 to execute the functions of the learning device 1 and the like according to the above-described embodiment may be stored in the CD-ROM 3101, inserted into the CD-ROM drive 3012, and further transferred to the hard disk 3017.
  • the program may be transmitted to the computer 301 via a network (not shown) and stored in the hard disk 3017.
  • the program is loaded into RAM 3016 at run time.
  • the program may be loaded directly from the CD-ROM3101 or the network.
  • the program does not necessarily have to include an operating system (OS) or a third-party program that causes the computer 301 to execute the functions of the learning device 1 and the like according to the above-described embodiment.
  • the program need only include a part of the instruction that calls the appropriate function (module) in a controlled manner and obtains the desired result. It is well known how the computer system 300 works, and detailed description thereof will be omitted.
  • the processing performed by the hardware for example, the processing performed by the modem or the interface card in the transmission step (only performed by the hardware). Processing) is not included.
  • the number of computers that execute the above program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed. That is, the information processing device 5 may be a stand-alone device or may be composed of two or more devices.
  • the two or more communication means existing in one device may be physically realized by one medium.
  • each process may be realized by centralized processing by a single device, or may be realized by distributed processing by a plurality of devices.
  • the physiology-related information output device has the effect of being able to predict physiology-related information by using the abdominal sound from the abdomen or the abdomen, and is useful as a device for outputting physiology-related information. Is.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Acoustics & Sound (AREA)
  • Pain & Pain Management (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Hospice & Palliative Care (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】従来、腹部音を用いて、生理に関する生理関連情報を予測できなかった。 【解決手段】ユーザの腹部音から取得された音情報と生理に関連する生理関連情報とを有する2以上の教師データを用いて構成された学習情報が格納される学習情報格納部と、ユーザの腹部音からの音情報を取得する音情報取得部と、音情報取得部が取得した音情報に、学習情報を適用し、生理関連情報を取得する予測部と、予測部が取得した生理関連情報を出力する出力部とを具備する生理関連情報出力装置により、腹部からの腹部音を用いて、生理関連情報を予測できる。

Description

生理関連情報出力装置、学習装置、学習情報の生産方法、および記録媒体
 本発明は、生理に関連する生理関連情報を取得し、出力する、生理関連情報出力装置等に関するものである。
 従来、月経周期のばらつきが大きい場合であっても、予測精度の低下を抑制して生理日を予測可能とすることを目的とする技術があった(特許文献1参照)。
 また、おりものの状態に関する測定情報を取得し、当該測定情報を用いて、排卵日を予測する技術があった(特許文献2参照)。
特願2015-523319号公報 特開2014-64706号公報
 しかしながら、従来技術においては、腹部または腹部周辺からの腹部音を用いて、生理に関する生理関連情報を取得できなかった。
 本第一の発明の生理関連情報出力装置は、ユーザの腹部音から取得された音情報と生理に関連する生理関連情報とを有する2以上の教師データを用いて構成された学習情報が格納される学習情報格納部と、ユーザの腹部音からの音情報を取得する音情報取得部と、音情報取得部が取得した音情報に、学習情報を適用し、生理関連情報を取得する予測部と、予測部が取得した生理関連情報を出力する出力部とを具備する生理関連情報出力装置である。
 かかる構成により、腹部または腹部周辺からの腹部音を用いて、生理関連情報を取得できる。
 また、本第二の発明の生理関連情報出力装置は、第一の発明に対して、生理関連情報は、生理に関する日との関係に関する生理日関係情報である、生理関連情報出力装置である。
 かかる構成により、腹部音を用いて、生理に関する日との関係に関する生理関連情報を取得できる。
 また、本第三の発明の生理関連情報出力装置は、第一の発明に対して、生理関連情報は、生理の疼痛に関する疼痛情報である、生理関連情報出力装置である。
 かかる構成により、腹部音を用いて、生理の疼痛に関する疼痛情報を取得できる。
 また、本第四の発明の生理関連情報出力装置は、第一から第三いずれか1つの発明に対して、2以上の教師データは、ユーザの生理周期の間の各日の腹部から取得された腹部音から取得された音情報と生理関連情報とを有する教師データから構成される、生理関連情報出力装置である。
 かかる構成により、腹部音を用いて、生理関連情報を取得できる。
 また、本第五の発明の生理関連情報出力装置は、第一から第四いずれか1つの発明に対して、2以上の教師データに対して、機械学習のアルゴリズムにより学習処理を行い、学習器である学習情報を取得する学習部をさらに具備し、予測部は、音情報取得部が取得した音情報と学習情報とを用いて、機械学習のアルゴリズムにより予測処理を行い、生理関連情報を取得する、生理関連情報出力装置である。
 かかる構成により、腹部音を用いて、機械学習のアルゴリズムにより、生理関連情報を取得できる。
 また、本第六の発明の生理関連情報出力装置は、第一から第五いずれか1つの発明に対して、音情報は、ユーザの腹部音の2以上の特徴量である、生理関連情報出力装置である。
 かかる構成により、腹部または腹部周辺からの腹部音から音の特徴量を取得し、当該特徴量を用いて、生理関連情報を取得できる。
 また、本第七の発明の学習装置は、ユーザの腹部音からの音情報を取得する音情報取得部と、生理関連情報を受け付ける学習受付部と、音情報と生理関連情報とから教師データを構成する教師データ構成部と、教師データ構成部が構成した教師データに対して、機械学習の学習処理を行い、学習器である学習情報を構成する学習部と、学習器を蓄積する蓄積部とを具備する学習装置である。
 かかる構成により、腹部音を用いて、生理関連情報を予測できる学習器を、機械学習のアルゴリズムにより構成できる。
 本発明による生理関連情報出力装置によれば、腹部音を用いて、生理関連情報を予測できる。
実施の形態1における情報システムAの概念図 同情報システムAのブロック図 同生理関連情報出力装置2のブロック図 同学習装置1の動作例について説明するフローチャート 同学習情報構成処理の第一の例について説明するフローチャート 同学習情報構成処理の第二の例について説明するフローチャート 同生理関連情報出力装置2の動作例について説明するフローチャート 同予測処理の例について説明するフローチャート 同端末装置3の動作例について説明するフローチャート 同教師データ管理表を示す図 同出力例を示す図 同出力例を示す図 同出力例を示す図 同コンピュータシステムの概観図 同コンピュータシステムのブロック図
 以下、生理関連情報出力装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
 (実施の形態1)
 本実施の形態において、ユーザの腹部音に関する音情報と生理関連情報とを有する2以上の教師データを用いて構成された学習情報に、一のユーザの腹部音に関する音情報を適用し、生理関連情報を取得し、出力する生理関連情報出力装置について説明する。
 なお、腹部音とは、ユーザの腹部から発せられる音をいう。腹部音には、ユーザの腹部の周辺から発せられる音を含むと考えても良い。腹部音には、例えば、腸から発せられた腸音が含まれ得る。また、腹部音には、腹部の血流により発せられる音(例えば、腹部大動脈音)や、胃等の器官から発せられる音が含まれ得る。また、生理関連情報は、生理に関連する情報であり、詳細は後述する。さらに、学習情報は、例えば、学習装置が構成する学習器、後述する対応表等である。なお、学習器は、分類器、モデル等と言っても良い。
 また、本実施の形態において、ユーザの腹部音に関する音情報と生理関連情報とを有する2以上の教師データから、機械学習のアルゴリズムにより、学習処理を行い、学習器を構成する学習装置について説明する。
 さらに、本実施の形態において、学習装置、生理関連情報出力装置、および1以上の端末装置を備える情報システムについて説明する。
 図1は、本実施の形態における情報システムAの概念図である。情報システムAは、学習装置1、生理関連情報出力装置2、および1または2以上の端末装置3を備える。
 学習装置1は、音情報と生理関連情報とを有する2以上の教師データから、機械学習のアルゴリズムにより、学習処理を行い、学習器を構成する装置である。
 生理関連情報出力装置2は、腹部音を用いて、生理関連情報を取得し、出力する装置である。
 学習装置1、および生理関連情報出力装置2は、いわゆるコンピュータであり、例えば、サーバである。学習装置1、および生理関連情報出力装置2は、例えば、いわゆるクラウドサーバ、ASPサーバ等であるが、その種類は問わない。なお、学習装置1、および生理関連情報出力装置2は、スタンドアロンの装置でも良い。
 端末装置3は、ユーザが使用する端末である。ユーザは、生理関連情報の取得を希望するユーザである。端末装置3は、学習情報を取得するための端末である。端末装置3は、例えば、いわゆるパーソナルコンピュータ、タブレット端末、スマートフォン等であり、その種類は問わない。
 図2は、本実施の形態における情報システムAのブロック図である。図3は、生理関連情報出力装置2のブロック図である。 
 学習装置1は、教師データ格納部11、音収集部12、音情報取得部13、学習受付部14、教師データ構成部15、学習部16、および蓄積部17を備える。
 生理関連情報出力装置2は、格納部21、受付部22、処理部23、および出力部24を備える。格納部21は、学習情報格納部211を備える。処理部23は、音情報取得部231、および予測部232を備える。
 端末装置3は、端末格納部31、端末受付部32、端末処理部33、端末送信部34、端末受信部35、および端末出力部36を備える。
 学習装置1を構成する教師データ格納部11には、1または2以上の教師データが格納される。教師データは、音情報と生理関連情報とを有する。音情報とは、腹部音に基づいて得られた情報をいう。音情報とは、録音された腹部音のデータそのものであってもよいし、当該データを加工したり編集したりして得られたデータなどであってもよい。
 音情報は、例えば、腹部音を録音して得られた音声データ(加工されたものであってもよい)をフーリエ変換や高速フーリエ変換により解析した結果を所定の態様で表したスペクトラム画像である。なお、音情報は、例えば、音声データ(加工されたものであってもよい)そのものであってもよいし、その他の形式にデータ変換を行ったものであってもよい。音情報は、例えば、腹部音をA/D変換し、当該A/D変換後のデータに対して、ケプストラム分析を行い、取得された特徴量の集合でも良い。また、音情報は、例えば、腹部音をA/D変換し、当該A/D変換後のデータに対して、LPC分析を行い、取得された特徴量の集合でも良い。音情報は、ユーザの腹部音から取得された音の2以上の特徴量である。
 音収集部12は、一のユーザの腹部または腹部周辺からの腹部音を収集する。音収集部12は、例えば、マイクである。
 音情報取得部13は、音情報を取得する。音情報は、腹部音から取得される情報である。音情報取得部13は、腹部音から、後述する生理関連情報を取得する予測処理のために使用する音情報を取得する。なお、音情報取得部13は、端末装置3から受信された腹部音から音情報を取得しても良いし、端末装置3から受信された音情報を取得しても良い。
また、音情報取得部13は、音収集部12が取得した腹部音から音情報を取得しても良い。
 音情報取得部13は、例えば、腹部音をA/D変換し、音情報を取得する。音情報取得部13は、例えば、腹部音に対して、ケプストラム分析を行い、多次元の特徴量のベクトルである音情報を取得する。音情報取得部13は、例えば、腹部音に対して、LPC分析を行い、多次元の特徴量のベクトルである音情報を取得する。
 学習受付部14は、生理関連情報を受け付ける。学習受付部14は、通常、ユーザの入力である生理関連情報を受け付ける。学習受付部14は、通常、ユーザ識別子に対応付けて、生理関連情報を受け付ける。ユーザ識別子は、ユーザを識別する情報である。ユーザ識別子は、例えば、ID、メールアドレス、電話番号、氏名である。
 学習受付部14は、腹部音と生理関連情報とを受け付けても良い。かかる場合、学習装置1に、音収集部12は不要である。
 学習受付部14は、音情報と生理関連情報とを有する教師データを受け付けても良い。かかる場合、学習装置1に、音収集部12、および音情報取得部13は不要である。
 学習受付部14が受け付ける教師データ、または腹部音と生理関連情報等は、ユーザ識別子に対応付けられていることは好適である。
 生理関連情報とは、生理に関連する情報である。生理関連情報は、例えば、生理日関係情報、または疼痛情報である。生理日関係情報とは、生理に関する日(例えば、生理開始日、排卵日、生理終了日)との関係に関する情報である。生理日関係情報は、例えば、生理開始日が近いか否かを示す情報、生理期間に該当するか否かを示す情報、生理開始日までの日数を示す日数情報、排卵日までの日数を示す日数情報、生理期間の長さを示す生理期間情報である。疼痛情報とは、次回の生理の疼痛に関する情報である。疼痛情報は、例えば、疼痛が弱いか、強いかを示す情報、疼痛のレベル(例えば、1から5の5段階のうちのいずれかの値、1から10の10段階のうちのいずれかの値等)を示す情報である。
 また、ここでの受け付けとは、通常、端末装置3からの受信であるが、マイクからの受け付け、キーボードやマウスやタッチパネルなどの入力デバイスから入力された情報の受け付け、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念であっても良い。
 生理関連情報の入力手段は、タッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。
 教師データ構成部15は、音情報と生理関連情報とから教師データを構成する。教師データ構成部15は、例えば、音情報と生理関連情報とを有するベクトルである教師データを構成する。教師データ構成部15は、例えば、音情報である1以上の特徴量と生理関連情報とを要素とするベクトルである教師データを構成する。教師データは、ユーザ識別子に対応付いていることは好適である。
 教師データ構成部15は、受け付けられた1または2以上の生理関連情報を用いて、他の生理関連情報を取得しても良い。つまり、受け付けられた生理関連情報と、音情報に対応付けて蓄積される生理関連情報とは、同じ情報でなくても良い。
 教師データ構成部15は、例えば、「生理開始日」を示す生理関連情報と、「生理終了日」を示す生理関連情報とを用いて、生理関連情報「生理期間」を取得する。つまり、教師データ構成部15は、「生理開始日」を示す生理関連情報を受け付けた日を示す日情報を取得する。また、教師データ構成部15は、「生理終了日」を示す生理関連情報を受け付けた日を示す日情報を取得する。そして、教師データ構成部15は、2つの日情報の差を算出し、生理関連情報「生理期間」を取得する。なお、教師データ構成部15は、図示しない時計から日情報を取得しても良いし、端末装置3から受信された日情報を取得しても良い。日情報の取得方法は問わない。
 教師データ構成部15は、例えば、「非生理期間中」を示す生理関連情報と「生理開始日」を示す生理関連情報とを用いて、生理関連情報「生理開始日までの日数を示す日数情報」を取得する。つまり、教師データ構成部15は、「非生理期間中」を示す生理関連情報を受け付けた日を示す日情報を取得する。また、教師データ構成部15は、「生理開始日」を示す生理関連情報を受け付けた日を示す日情報を取得する。そして、教師データ構成部15は、2つの日情報の差を算出し、生理関連情報「生理開始日までの日数を示す日数情報」を取得する。
 教師データ構成部15は、例えば、「生理開始日」を示す生理関連情報と、「非生理期間中」を示す生理関連情報とを用いて、生理関連情報「排卵日までの日数を示す日数情報」を取得する。つまり、教師データ構成部15は、「生理開始日」を示す生理関連情報を受け付けた日を示す日情報を取得する。また、教師データ構成部15は、生理開始日から排卵日までの一般的な日数の情報を格納部21から取得する。次に、教師データ構成部15は、生理開始日に対応する日情報と排卵日までの日数の情報とを用いて、排卵日を示す日情報を算出する。次に、教師データ構成部15は、例えば、生理関連情報を受信した日の日情報を取得する。次に、教師データ構成部15は、排卵日を示す日情報と生理関連情報を受信した日の日情報との差を算出し、当該差の日数である生理関連情報「排卵日までの日数を示す日数情報」を取得する。
 なお、教師データ構成部15は、構成した教師データを教師データ格納部11に蓄積する。教師データ構成部15は、構成した教師データを、ユーザ識別子に対応付けて蓄積することは好適である。また、教師データ構成部15は、構成した教師データを、日情報に対応付けて蓄積することは好適である。
 学習部16は、1または2以上の教師データを用いて、学習情報を取得する。
 学習部16は、例えば、ユーザ識別子ごとに、当該ユーザ識別子と対になる1または2以上の教師データを用いて、学習情報を取得する。
 学習部16は、例えば、生理関連情報の種類(例えば、生理開始日までの日数、疼痛のレベル)ごとに、1または2以上の教師データを用いて、学習情報を取得する。
 学習部16は、例えば、生理関連情報の種類、およびユーザ識別子ごとに、1または2以上の教師データを用いて、学習情報を取得する。
 学習部16は、例えば、2以上の教師データに対して、機械学習のアルゴリズムにより学習処理を行い、学習器である学習情報を取得する。学習部16は、教師データ構成部15が構成した教師データに対して、機械学習の学習処理を行い、学習器である学習情報を構成する。
 機械学習のアルゴリズムとして、深層学習、決定木、ランダムフォレスト、SVM、SVR等があり得るが、問わない。また、機械学習には、例えば、TensorFlowのライブラリ、fastText、tinySVM、R言語のrandom forestのモジュール等の各種の機械学習の関数や、種々の既存のライブラリを用いることができる。なお、モジュールは、プログラム、ソフトウェア、関数、メソッド等と言っても良い。
 2以上の教師データは、一のユーザの生理周期の間の各日の腹部音から取得された音情報と生理関連情報とを有する教師データから構成されることは好適である。
 学習部16は、例えば、対応表を構成する。対応表は、2以上の対応情報を有する。対応情報は、教師データと言っても良い。対応情報は、音情報と生理関連情報との対応を示す情報である。対応情報は、例えば、音情報と、1または2種類以上の生理関連情報との対応を示す情報である。対応情報は、例えば、音情報および1以上の生理関連情報と、他の1以上の生理関連情報との対応を示す情報である。
 対応表は、ユーザ識別子ごとに存在しても良い。対応表は、生理関連情報の種類ごとに存在しても良い。対応表は、ユーザ識別子ごと、および生理関連情報の種類ごとに存在しても良い。
 蓄積部17は、学習部16が取得した学習情報を蓄積する。蓄積部17は、例えば、学習部16が取得した学習器を蓄積する。なお、蓄積部17の学習情報の蓄積先は、ローカルの記録媒体でも良いし、生理関連情報出力装置2等の他の装置でも良い。
 蓄積部17は、例えば、ユーザ識別子ごとに、各ユーザ識別子に対応付けて、学習部16が取得した学習情報を蓄積する。蓄積部17は、例えば、生理関連情報の種類ごとに、各生理関連情報の種類の識別子に対応付けて、学習部16が取得した学習情報を蓄積する。蓄積部17は、例えば、ユーザ識別子ごと、および生理関連情報の種類ごとに、各ユーザ識別子と種類の識別子に対応付けて、学習部16が取得した学習情報を蓄積する。なお、種類の識別子は、例えば、「生理開始日が近いか否か」、「生理期間に該当するか否か」、「生理開始日までの日数」、「排卵日までの日数」、「生理期間の長さ」である。
 生理関連情報出力装置2を構成する格納部21には、各種の情報が格納される。各種の情報は、例えば、学習情報である。
 学習情報格納部211は、1または2以上の学習情報が格納される。学習情報は、例えば、上述した学習器、または対応表である。学習情報は、学習装置1が取得した情報であることは好適である。学習情報格納部211の学習情報は、ユーザ識別子に対応付いていることは好適である。つまり、ユーザごとに、異なる学習情報が利用されることは好適である。ただし、2以上のユーザに共通の学習情報が利用されても良い。学習情報は、例えば、ユーザ識別子および生理関連情報の種類の識別子に対応付いている。
 受付部22は、例えば、一のユーザの腹部音を受け付ける。受付部22は、例えば、一のユーザの腹部音から取得された音情報を受け付ける。受付部22は、例えば、ユーザ識別子に対応付けて、腹部音または音情報を受け付ける。
 受付部22は、例えば、出力指示を受け付ける。出力指示とは、生理関連情報の出力の指示である。出力指示は、例えば、腹部音のデータを有する。出力指示は、例えば、音情報を有する。出力指示は、ユーザ識別子を含むことは好適である。
 受付部22は、例えば、端末装置3から腹部音または音情報または出力指示を受信する。
 受付部22の情報の受け付けとは、通常、通常、端末装置3からの受信であるが、マイクからの受け付け、キーボードやマウスやタッチパネルなどの入力デバイスから入力された情報の受け付け、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念であっても良い。
 処理部23は、各種の処理を行う。各種の処理とは、例えば、音情報取得部231、予測部232が行う処理である。
 音情報取得部231は、音情報を取得する。音情報取得部231は、受付部22が受け付けた腹部音から音情報を取得しても良いし、音情報取得部231は、受付部22が受け付けた音情報を取得しても良い。音情報取得部231は、音情報取得部13と同じ機能を果たす。音情報取得部231は、受付部22が受け付けた音情報を取得しても良い。
 予測部232は、音情報取得部231が取得した音情報に、学習情報を適用し、生理関連情報を取得する。
 予測部232は、音情報取得部231が取得した音情報と学習情報格納部211の学習情報とを用いて、生理関連情報を取得する。
 予測部232は、例えば、音情報取得部231が取得した音情報と学習情報格納部211の学習情報とを機械学習の予測モジュールに与え、当該モジュールを実行し、生理関連情報を取得する。なお、上述した通り、機械学習のアルゴリズムは、深層学習、決定木、ランダムフォレスト、SVM、SVR等があり得るが、問わないことは、学習処理も予測処理も同じである。
 予測部232は、例えば、音情報取得部231が取得した音情報に対応するユーザ識別子に対応付いている学習情報を学習情報格納部211から取得し、音情報取得部231が取得した音情報に、当該学習情報を適用し、生理関連情報を取得する。つまり、予測部232は、ユーザによって、異なる学習情報を使用して、生理関連情報を取得することは好適である。ただし、予測部232は、2以上のユーザまたは全ユーザに共通の学習情報を使用して、生理関連情報を取得しても良い。
 予測部232は、例えば、取得する生理関連情報の種類の識別子に対応付いている学習情報を学習情報格納部211から取得し、音情報取得部231が取得した音情報に、当該学習情報を適用し、当該種類の生理関連情報を取得する。
 予測部232は、例えば、取得する生理関連情報の種類の識別子と当該ユーザ識別子に対応付いている学習情報とを学習情報格納部211から取得し、音情報取得部231が取得した音情報に、当該学習情報を適用し、生理関連情報を取得する。
 予測部232は、例えば、音情報と学習器とを用いて、機械学習のアルゴリズムにより予測処理を行い、生理関連情報を取得する。
 予測部232は、例えば、音情報に最も近似する音情報を対応表から選択し、当該選択した音情報と対になる生理関連情報を対応表から取得する。
 予測部232は、例えば、音情報取得部231が取得した音情報と、予め決められた条件を満たすほど近似する(例えば、類似度が閾値以上)2以上の音情報を対応表から選択し、当該選択した2以上の各音情報に対応する2以上の生理関連情報を対応表から取得し、当該2以上の生理関連情報から一の生理関連情報を取得する。予測部232は、例えば、当該2以上の生理関連情報の代表値(例えば、平均値、中央値、多数決で選択された値)を取得する。
 出力部24は、予測部232が取得した生理関連情報を出力する。ここで、出力とは、通常、端末装置3への送信であるが、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、外記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念でも良い。
 端末装置3を構成する端末格納部31には、各種の情報が格納される。各種の情報は、例えば、ユーザ識別子である。ユーザ識別子は、端末装置3のID等でも良い。
 端末受付部32は、各種の情報や指示を受け付ける。各種の情報や指示とは、例えば、腹部音、生理関連情報、出力指示である。各種の情報や指示の入力手段は、マイクやタッチパネルやキーボードやマウスやメニュー画面によるもの等、何でも良い。
 端末処理部33は、各種の処理を行う。各種の処理は、例えば、端末受付部32が受け付けた腹部音をA/D変換し、送付する腹部音のデータにすることである。各種の処理は、例えば、端末受付部32が受け付けた指示や情報を送信するデータ構造にする処理である。また、各種の処理は、例えば、端末受信部35が受信した情報を出力するデータ構造にする処理である。
 端末送信部34は、各種の情報や指示を学習装置1または生理関連情報出力装置2に送信する。各種の情報や指示とは、例えば、腹部音、生理関連情報、出力指示である。
 端末受信部35は、各種の情報を生理関連情報出力装置2から受信する。各種の情報は、例えば、生理関連情報である。
 端末出力部36は、各種の情報を出力する。各種の情報は、例えば、生理関連情報である。端末出力部36は、生理関連情報の種類ごとに、生理関連情報を出力することは好適である。
 教師データ格納部11、格納部21、学習情報格納部211、および端末格納部31は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
 教師データ格納部11等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が教師データ格納部11等で記憶されるようになってもよく、通信回線等を介して送信された情報が教師データ格納部11等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が教師データ格納部11等で記憶されるようになってもよい。
 音情報取得部13、教師データ構成部15、学習部16、蓄積部17、処理部23、音情報取得部231、予測部232、および端末処理部33は、通常、プロセッサやメモリ等から実現され得る。音情報取得部13等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、プロセッサは、例えば、CPU、MPU、GPU等であり、その種類は問わない。
 学習受付部14、受付部22、および端末受信部35は、例えば、無線または有線の通信手段で実現される。
 出力部24、および端末送信部34は、例えば、無線または有線の通信手段で実現される。
 端末受付部32は、マイクやタッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
 端末出力部36は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。端末出力部36は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
 次に、情報システムAの動作例について説明する。まず、学習装置1の動作例について、図4のフローチャートを用いて説明する。
 (ステップS401)学習受付部14は、端末装置3から腹部音等を受信したか否かを判断する。腹部音等を受信した場合はステップS402に行き、腹部音等を受信しなかった場合はステップS403に行く。なお、腹部音等とは、例えば、腹部音と生理関連情報である。腹部音等とは、例えば、腹部音と生理関連情報とユーザ識別子である。なお、学習受付部14は、腹部音と生理関連情報とを一緒に受信する必要はない。腹部音と生理関連情報とが対応付けられれば良い。
 なお、ここで、学習受付部14は、教師データを受信しても良い。かかる場合、教師データ構成部15は、受信された教師データを教師データ格納部11に蓄積する。学習受付部14は、ユーザ識別子に対応付けて、教師データを受信しても良い。
 (ステップS402)音情報取得部13は、ステップS401で受信された腹部音から音情報を取得する。そして、教師データ構成部15は、当該音情報と受信された生理関連情報とを有する教師データを構成する。そして、教師データ構成部15は、ユーザ識別子に対応付けて、当該教師データを教師データ格納部11に蓄積する。ステップS401に戻る。
 (ステップS403)学習部16は、学習情報を構成するタイミングであるか否かを判断する。学習情報を構成するタイミングであればステップS404に行き、学習情報を構成するタイミングでなければステップS401に戻る。
 なお、学習部16は、端末装置3からの指示により、学習情報を構成するタイミングである、と判断しても良い。また、学習部16は、閾値以上の教師データが教師データ格納部11に存在する場合に、学習情報を構成するタイミングである、と判断しても良い。また、学習部16は、一のユーザ識別子に対応する教師データが閾値以上、存在する場合に、当該一のユーザ識別子に対応する学習情報を構成するタイミングである、と判断しても良い。また、学習部16は、生理周期の期間の中で、予め決められたばらつきの日の教師データが教師データ格納部11に存在する場合に、学習情報を構成するタイミングである、と判断しても良い。また、学習部16は、生理周期の期間の中で、一のユーザ識別子に対応する複数の教師データの日(周期の中のいずれかの日)が、予め決められたばらつきに関する条件を満たす場合に、学習情報を構成するタイミングである、と判断しても良い。なお、「予め決められたばらつき」とは、生理周期の中の日のばらつきであり、例えば、生理開始日から次の生理開始日までの異なる日の教師データが閾値以上(例えば、15日以上)または閾値より多く(例えば、18日より多い)存在することである。
 (ステップS404)学習部16は、カウンタiに1を代入する。
 (ステップS405)学習部16は、学習情報を構成する対象のi番目のユーザ識別子が存在するか否かを判断する。i番目のユーザ識別子が存在する場合はステップS406に行き、i番目のユーザ識別子が存在しない場合はステップS401に戻る。
 (ステップS406)学習部16は、カウンタjに1を代入する。
 (ステップS407)学習部16は、学習情報を構成する対象のj番目の種類の生理関連情報が存在するか否かを判断する。j番目の種類の生理関連情報が存在する場合はステップS408に行き、j番目の種類の生理関連情報が存在しない場合はステップS412に行く。
 (ステップS408)学習部16は、i番目のユーザ識別子と対になる1以上の教師データであり、j番目の種類の生理関連情報が含まれる1以上の教師データを教師データ格納部11から取得する。
 (ステップS409)学習部16は、ステップS408で取得した1以上の教師データを用いて、学習情報を構成する。かかる学習情報構成処理の例について、図5、図6のフローチャートを用いて説明する。
 (ステップS410)蓄積部17は、i番目のユーザ識別子とj番目の種類の種類識別子とに対応付けて、ステップS407で取得した学習情報を蓄積する。なお、学習情報の蓄積先は、学習装置1でも良いし、生理関連情報出力装置2の学習情報格納部211でも良い。
 (ステップS411)学習部16は、カウンタjを1、インクリメントする。ステップS407に戻る。
 (ステップS412)学習部16は、カウンタiを1、インクリメントする。ステップS405に戻る。
 なお、図4のフローチャートにおいて、ユーザ識別子ごとに学習情報を構成した。しかし、2以上のユーザに共通の学習情報を構成しても良い。
 また、図4のフローチャートにおいて、生理関連情報の種類が1種類しかない場合は、学習情報は、生理関連情報の種類の種類識別子に対応付かない。
 さらに、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 次に、ステップS409の学習情報構成処理の第一の例について、図5のフローチャートを用いて説明する。第一の例は、機械学習の学習処理により、学習器である学習情報を取得する場合である。
 (ステップS501)学習部16は、多値分類を行う学習器である学習情報を構成するか否かを判断する。多値分類を行う学習器を構成する場合はステップS502に行き、二値分類を行う学習器を構成する場合はステップS504に行く。なお、多値分類か二値分類かは、予め決められていても良いし、学習部16が、対象となる教師データの数に応じて決定しても良い。なお、例えば、学習部16は、学習処理を行う教師データの数が閾値以上または閾値より多い場合は「二値分類」と決定し、教師データの数が閾値以下または閾値より少ない場合は「多値分類」と決定する。
 (ステップS502)学習部16は、ステップS408で取得した1以上の教師データを、機械学習の学習モジュールに与え、当該学習モジュールを実行する。
 (ステップS503)学習部16は、ステップS502でのモジュールの実行結果である学習器を取得する。上位処理にリターンする。
 (ステップS504)学習部16は、カウンタiに1を代入する。
 (ステップS505)学習部16は、i番目のクラスが存在するか否かを判断する。i番目のクラスが存在する場合はステップS506に行き、i番目のクラスが存在しない場合は上位処理にリターンする。なお、クラスとは、生理関連情報の候補のデータである。クラスは、例えば、「生理開始日が近いこと」「生理開始日まで遠いこと」である。
 (ステップS506)学習部16は、ステップS408で取得した1以上の教師データの中から、i番目のクラスに対応する1以上の教師データ(正例)を取得する。また、学習部16は、ステップS406で取得した1以上の教師データの中から、i番目のクラスに対応しない1以上の教師データ(負例)を取得する。
 (ステップS507)学習部16は、ステップS506で取得した正例および負例の教師データを、機械学習の学習モジュールに与え、当該学習モジュールを実行する。
 (ステップS508)学習部16は、i番目のクラスのクラス識別子に対応付けて、ステップS507でのモジュールの実行結果である学習器を取得する。
 (ステップS509)学習部16は、カウンタiを1、インクリメントする。ステップS505に戻る。
 次に、ステップS409の学習情報構成処理の第二の例について、図6のフローチャートを用いて説明する。第二の例は、対応表である学習情報を取得する場合である。
 (ステップS601)学習部16は、カウンタiに1を代入する。
 (ステップS602)学習部16は、i番目のクラスが存在するか否かを判断する。i番目のクラスが存在する場合はステップS603に行き、i番目のクラスが存在しない場合はステップS606に行く。
 (ステップS603)学習部16は、i番目のクラスに対応する1以上の教師データを取得する。つまり、学習部16は、例えば、i番目のクラスに対応する1または2以上の音情報を取得し、当該1以上の音情報の代表値(例えば、各特徴量の平均値、中央値、多数決の結果などを要素とするベクトル)を取得する。次に、学習部16は、取得した代表値とi番目のクラスとを有する教師データを取得する。
 (ステップS604)学習部16は、ステップS603で取得した1以上の教師データを用いて、i番目の対応情報を構成する。なお、対応情報は、音情報と生理関連情報(クラスのデータ)とが対応付いた情報である。
 (ステップS605)学習部16は、カウンタiを1、インクリメントする。ステップS602に戻る。
 (ステップS606)学習部16は、ステップS604で構成した2以上の対応情報を有する対応表を構成する。上位処理にリターンする。
 次に、生理関連情報出力装置2の動作例について、図7のフローチャートを用いて説明する。
 (ステップS701)受付部22は、端末装置3から出力指示を受信したか否かを判断する。出力指示を受信した場合はステップS702に行き、出力指示を受信しなかった場合はステップS701に戻る。なお、出力指示は、例えば、腹部音とユーザ識別子を含む。出力指示は、音情報とユーザ識別子とを含んでも良い。
 (ステップS702)音情報取得部231は、ステップS701で受信された出力指示が有する腹部音から音情報を取得する。
 (ステップS703)予測部232は、ステップS702で取得された音情報を用いて、生理関連情報を取得する予測処理を行う。予測処理の例について、図8のフローチャートを用いて説明する。
 (ステップS704)出力部24は、ステップS703で取得された生理関連情報を、端末装置3に送信する。ステップS701に戻る。
 次に、ステップS703の予測処理の第一の例について、図8のフローチャートを用いて説明する。
 (ステップS801)予測部232は、受信された腹部音に対応するユーザ識別子を取得する。
 (ステップS802)予測部232は、カウンタiに1を代入する。
 (ステップS803)予測部232は、i番目のクラスが存在するか否かを判断する。i番目のクラスが存在する場合はステップS804に行き、i番目のクラスが存在しない場合はステップS808に行く。
 (ステップS804)予測部232は、ステップS801で取得したユーザ識別子、およびi番目のクラスに対応する学習器を学習情報格納部211から取得する。
 (ステップS805)予測部232は、ステップS805で取得した学習器と、ステップS702で取得された音情報とを、機械学習の予測処理を行うモジュールに与え、当該モジュールを実行する。
 (ステップS806)予測部232は、ステップS805におけるモジュールの実行結果である予測結果とスコアとを取得する。なお、ここでの予測結果は、i番目のクラスに属するか否かを示す情報である。
 (ステップS807)予測部232は、カウンタiを1、インクリメントする。ステップS803に戻る。
 (ステップS808)予測部232は、ステップS806で取得した予測結果とスコアとを用いて、生理関連情報を取得する。上位処理にリターンする。
 なお、予測部232は、例えば、ステップS806で取得した予測結果が「i番目のクラスに属する」との結果であり、スコアが最大のクラスのクラス識別子を、生理関連情報として取得する。
 なお、図8のフローチャートにおいて、生理関連情報の種類ごとに、予測処理を行っても良い。生理関連情報の種類とは、例えば、生理開始日が近いか否かを示す情報、生理期間に該当するか否かを示す情報、生理開始日までの日数を示す日数情報、排卵日までの日数を示す日数情報、生理期間の長さを示す生理期間情報、次回の生理の疼痛が弱いか、強いかを示す情報、疼痛のレベルを示す情報である、
 また、図8のフローチャートにおいて、第二の予測処理でも良い。つまり、予測部232は、受信された腹部音に対応するユーザ識別子に対応する学習器であり、多値分類が行える学習器を、学習情報格納部211から取得する。次に、予測部232は、当該学習器と、ステップS702で取得された音情報とを、機械学習の予測処理を行うモジュールに与え、当該モジュールを実行し、生理関連情報を取得する。
 また、図8のフローチャートにおいて、第三の予測処理でも良い。つまり、予測部232は、受信された腹部音に対応するユーザ識別子に対応する対応表を学習情報格納部211から取得する。次に、予測部232は、ステップS702で取得された音情報(例えば、ベクトル)に最も近似する音情報(例えば、ベクトル)を対応表から決定する。次に、予測部232は、当該最も近似する音情報と対になる生理関連情報を対応表から取得する。
 なお、図8のフローチャートにおいて、予測部232は、2以上のユーザに共通の学習情報(多値分類できる学習器、クラスごとの2値分類できる学習器、または対応表)を用いて、予測処理でも良い。
 次に、端末装置3の動作例について、図9のフローチャートを用いて説明する。
 (ステップS901)端末受付部32は、腹部音等を受け付けたか否かを判断する。腹部音等を受け付けた場合はステップS902に行き、ステップS901で受け付けられた腹部音等を受け付けなかった場合はステップS904に行く。なお、腹部音等とは、例えば、腹部音と生理関連情報である。
 (ステップS902)端末処理部33は、腹部音等を用いて、学習装置1に送信する情報を構成する。つまり、端末処理部33は、例えば、端末格納部31からユーザ識別子を取得する。端末処理部33は、マイクで集音された腹部音をA/D変換する。端末処理部33は、A/D変換された腹部音のデータと、生理関連情報と、ユーザ識別子とを有する情報であり、送信する情報を構成する。
 (ステップS903)端末送信部34は、ステップS902で構成された情報を学習装置1に送信する。
 (ステップS904)端末受付部32は、腹部音を含む出力指示を受け付けたか否かを判断する。出力指示を受け付けた場合はステップS905に行き、出力指示を受け付けなかった場合はステップS901に戻る。
 (ステップS905)端末処理部33は、送信する出力指示を構成する。つまり、端末処理部33は、例えば、端末格納部31からユーザ識別子を取得する。端末処理部33は、腹部音をA/D変換する。端末処理部33は、A/D変換された腹部音のデータと、ユーザ識別子とを有する出力指示を構成する。
 なお、ここで、端末処理部33は、腹部音から音情報を取得し、当該音情報とユーザ識別子とを有する出力指示を構成しても良い。
 (ステップS906)端末送信部34は、ステップS905で構成された出力指示を生理関連情報出力装置2に送信する。
 (ステップS907)端末受信部35は、ステップS906における出力指示の送信に応じて、1または2種類以上の生理関連情報を受信したか否かを判断する。生理関連情報を受信した場合はステップS908に行き、生理関連情報を受信しなかった場合はステップS907に戻る。
 (ステップS908)端末処理部33は、ステップS907で受信された生理関連情報を用いて、出力する生理関連情報を構成する。端末出力部36は、当該生理関連情報を出力する。ステップS901に戻る。
 なお、図9のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
 以下、本実施の形態における情報システムAの具体的な動作例について説明する。情報システムAの概念図は図1である。
 今、学習装置1の教師データ格納部11には、図10に示す構造を有する教師データ管理表が格納されている。教師データ管理表は、「ID」「ユーザ識別子」「音情報」「日時情報」「生理関連情報」を有する1または2以上のレコードを管理する表である。「生理関連情報」は、ここでは、「生理フラグ」「日数情報」「期間情報」「レベル」を有する。
 「音情報」は、ここでは、腹部音から取得された2以上の特徴量の集合である特徴量ベクトルである。「日時情報」は、音情報に対応する日時の情報である。「日時情報」は、腹部音が取得された日時でも良いし、学習装置1が腹部音または音情報を受信した日時でも良いし、端末装置3が腹部音または音情報を送信した日時等でも良い。「日時情報」は、日を特定する日情報を含む。なお、「日時情報」は、日情報でも良い。
 「生理フラグ」は、生理期間中であるか否かを示す情報である。ここでは、生理期間中であれば「1」、生理期間中でなければ「0」の値を採る。「日数情報」は、次の生理開始日までの日数を示す情報である。「期間情報」は、生理期間の日数を示す情報である。「日数情報」は、生理期間中であれば、その生理の開始から終了までの期間を示す情報であり、生理期間中でなければ、次の生理の期間を示す情報である。「レベル」は、生理の痛さのレベルを示す情報であり、ユーザが入力した値である。
 なお、教師データ構成部15は、例えば、以下のように、「日数情報」を取得する。つまり、教師データ構成部15は、音情報取得部13が取得した音情報に対応するユーザ識別子を取得する。教師データ構成部15は、当該ユーザ識別子と対になる教師データであり、生理フラグ「1」、日数情報「28」を含む教師データ(生理開始日の教師データ)と対になる日時情報が有する第一の日情報を取得する。また、教師データ構成部15は、音情報取得部13が取得した音情報に対応する日時情報が有する第二の日情報(第二の日情報<第一の日情報)を取得する。次に、教師データ構成部15は、第一の日情報と第二の日情報との差を「日数情報」として取得する。なお、ここでは、生理の周期を28日としている。
 また、教師データ構成部15は、例えば、以下のように、「期間情報」を取得する。つまり、教師データ構成部15は、音情報取得部13が取得した音情報に対応するユーザ識別子を取得する。教師データ構成部15は、当該ユーザ識別子と対になる音情報であり、生理開始日の音情報と対になる日時情報が有する第一の日情報を取得する。教師データ構成部15は、当該ユーザ識別子と対になる日時情報であり、第一の日情報より後の日を示す日時情報であり、第一の日情報に最も近い日を示す日時情報であり、生理フラグ「0」と対になる日時情報が有する第二の日情報を取得する。教師データ構成部15は、「期間情報=第二の日情報-第一の日情報」により、「期間情報」を算出する。そして、教師データ構成部15は、かかる「期間情報」を、当該ユーザ識別子と対になり、第一の日情報より前の日情報を有する日時情報と対になり、「期間情報」がNULLの属性値として、蓄積する。つまり、教師データ構成部15は、生理の期間を示す期間情報が確定した段階で、前の生理が終了した後から、今回の生理の開始日の前までの教師データが有する「期間情報」として、算出した「期間情報」を代入する。
 かかる状況において、2つの具体例について説明する。具体例1は、学習装置1による学習処理を説明する例である。具体例2は、生理関連情報出力装置2による生理関連情報の予測処理を説明する例である。
(具体例1)
 今、「U02」で識別されるユーザが、生理関連情報を学習させるために、端末装置3のアプリケーション(以下、適宜、「アプリ」という)を起動させた、とする。かかるアプリの出力例は、図11である。
 当該ユーザは、図11の画面に対して、生理日関連情報「生理開始日」を選択し、疼痛情報「3」を選択した、とする。すると、学習受付部14は、当該生理関連情報を受け付ける。
 また、ユーザは、図11の録音ボタン1101を押下し、端末装置3のマイク1102を、自分の腹部に近づけて、音情報を収集した、とする。すると、端末装置3の端末受付部32は、腹部音を受け付ける。
 次に、ユーザは、図11の送信ボタン1103を押下した、とする。すると、端末処理部33は、端末格納部31のユーザ識別子「U02」を読み出す。次に、端末処理部33は、生理関連情報「<生理日関連情報>生理開始日 <疼痛情報>3」を取得する。また、端末処理部33は、腹部音をデジタル化する。また、端末処理部33は、当該生理関連情報と当該腹部音とユーザ識別子「U02」とを有する情報を構成する。次に、端末送信部34は、当該構成された情報を学習装置1に送信する。
 次に、学習装置1の学習受付部14は、学習装置1から生理関連情報と腹部音とユーザ識別子とを受信する。
 次に、教師データ構成部15は、受信された生理関連情報「<生理日関連情報>生理開始日 <疼痛情報>3」から、生理フラグ「1」、日数情報「28」、レベル「3」を取得する。次に、教師データ構成部15は、図示しない時計から日時情報「9/10 8:15」を取得する。また、教師データ構成部15は、腹部音から各種の特徴量を取得し、音情報(x981,x982,・・・,x98n)を構成する。次に、教師データ構成部15は、教師データ管理表に蓄積するレコードを構成する。次に、教師データ構成部15は、当該レコードを教師データ管理表に蓄積する。かかるレコードは、図10の「ID=99」のレコードである。
 以上のような教師データの蓄積処理により、ユーザごとに、多数の教師データが蓄積された、とする。
 次に、学習部16は、以下のように、ユーザごと、および生理関連情報ごとに、学習器を構成する、とする。なお、生理関連情報ごとの学習器を構成する場合に、学習部16は、他の生理関連情報も用いても良いし、用いなくても良い。学習部16は、例えば、生理関連情報「レベル」を出力するための学習器を構成する場合に、他の生理関連情報(ここでは、「生理フラグ」「日数情報」「期間情報」)のうちの1以上の生理関連情報を含む教師データを用いて学習処理を行っても良いし、他の生理関連情報を含まない教師データを用いて学習処理を行っても良い。
 つまり、例えば、学習部16は、ユーザごと、当該ユーザのユーザ識別子と対になる音情報と一の生理関連情報(例えば、「レベル」)とからなるすべての教師データを教師データ管理表から取得する。次に、学習部16は、機械学習のアルゴリズム(例えば、ランダムフォレスト)による学習処理を行い、音情報を入力とし、一の生理関連情報(例えば、「レベル」)を出力とする学習器を構成する。次に、蓄積部17は、学習部16が取得した学習器を、ユーザ識別子と対にして、蓄積する。
 また、学習部16は、ユーザごとに、他の生理関連情報(「生理フラグ」「日数情報」「期間情報」)の各生理関連情報について、上記と同様の処理を行い、ユーザごと、生理関連情報ごとの学習器を構成する。次に、蓄積部17は、学習部16が取得した学習器を、ユーザ識別子と対にして、蓄積する。
 以上の処理により、各ユーザのユーザ識別子および生理関連情報の種類の識別子に対応付けられた、4つの学習器が蓄積された。
(具体例2)
 次に、「U02」で識別されるユーザが、次回の生理日までの日数、次回の生理期間、および次回の生理の疼痛のレベルを予測するために、以下のように、アプリを使用する、とする。
 つまり、ユーザが、生理関連情報の予測を行うために、端末装置3のアプリを起動させた、とする。かかるアプリの出力例は、図12である。
 次に、ユーザは、図12の録音ボタン1201を押下し、端末装置3のマイク1202を、自分の腹部に近づけて、音情報を収集した、とする。すると、端末装置3の端末受付部32は、腹部音を受け付ける。
 次に、ユーザは、図12の送信ボタン1203を押下した、とする。すると、端末処理部33は、端末格納部31のユーザ識別子「U02」を読み出す。次に、端末処理部33は、腹部音をデジタル化する。また、端末処理部33は、当該腹部音とユーザ識別子「U02」とを有する出力指示を構成する。次に、端末送信部34は、当該出力指示を生理関連情報出力装置2に送信する。
 次に、生理関連情報出力装置2の受付部22は、出力指示を受信する。そして、音情報取得部231は、受信された出力指示が有する腹部音から音情報である特徴量ベクトルを取得する。
 次に、予測部232は、取得された音情報を用いて、以下のように、生理関連情報を取得する予測処理を行う。
 つまり、予測部232は、出力指示が有するユーザ識別子「U02」を取得する。次に、予測部232は、ユーザ識別子「U02」と「生理フラグ」とに対応する学習器を学習情報格納部211から取得する。次に、予測部232は、当該学習器と音情報である特徴量ベクトルとを、機械学習のモジュール(例えば、ランダムフォレストのモジュール)に与え、当該モジュールを実行し、生理フラグ「0」を取得した、とする。
 また、予測部232は、ユーザ識別子「U02」と「日数情報」とに対応する学習器を学習情報格納部211から取得する。次に、予測部232は、当該学習器と音情報である特徴量ベクトルとを、機械学習のモジュール(例えば、深層学習のモジュール)に与え、当該モジュールを実行し、日数情報「3」を取得した、とする。
 また、予測部232は、ユーザ識別子「U02」と「期間情報」とに対応する学習器を学習情報格納部211から取得する。次に、予測部232は、当該学習器と音情報である特徴量ベクトルとを、機械学習のモジュール(例えば、SVMのモジュール)に与え、当該モジュールを実行し、期間情報「4.5」を取得した、とする。
 さらに、予測部232は、ユーザ識別子「U02」と「レベル」とに対応する学習器を学習情報格納部211から取得する。次に、予測部232は、当該学習器と音情報である特徴量ベクトルとを、機械学習のモジュール(例えば、ランダムフォレストのモジュール)に与え、当該モジュールを実行し、レベル「3」を取得した、とする。
 次に、予測部232は、生理フラグ「0」、日数情報「3」、期間情報「4.5」、およびレベル「3」を用いて、送信する生理関連情報を構成する。次に、出力部24は、構成された生理関連情報を、端末装置3に送信する。
 次に、端末装置3の端末受信部35は、出力指示の送信に応じて、生理関連情報を受信する。次に、端末処理部33は、受信された生理関連情報を用いて、出力する生理関連情報を構成する。端末出力部36は、当該生理関連情報を出力する。かかる出力例は、図13である。
 以上、本実施の形態によれば、腹部音を用いて、生理関連情報を取得できる。
 なお、本実施の形態において、学習装置1は、学習器を作成する場合に、生理関連情報の種類に応じて、異なる機械学習のアルゴリズムを用いても良い。学習装置1は、例えば、「生理フラグ」を出力するための学習器を構成する場合にランダムフォレストのモジュールを用いて、「日数情報」を出力するための学習器を構成する場合に深層学習のモジュールを用いて、「期間情報」を出力するための学習器を構成する場合にSVRのモジュールを用いる等しても良い。
 また、本実施の形態において、学習装置1はスタンドアロンの装置でも良い。かかる場合の学習装置1は、一のユーザの腹部または腹部周辺からの腹部音を収集する音収集部と、前記腹部音から音情報を取得する音情報取得部と、生理関連情報を受け付ける学習受付部と、前記音情報と前記生理関連情報とから教師データを構成する教師データ構成部と、前記教師データ構成部が構成した前記教師データに対して、機械学習の学習処理を行い、学習器である学習情報を構成する学習部と、前記学習器を蓄積する蓄積部とを具備する学習装置1である。
 また、本実施の形態において、生理関連情報出力装置2はスタンドアロンの装置でも良い。かかる場合の生理関連情報出力装置2は、一のユーザの腹部または腹部周辺からの腹部音から取得された音情報と生理に関連する生理関連情報とを有する2以上の教師データを用いて構成された学習情報が格納される学習情報格納部と、前記一のユーザの腹部または腹部周辺から取得された音から、生理関連情報を取得する予測処理のために使用する音情報を取得する音情報取得部と、前記音情報取得部が取得した音情報に、前記学習情報を適用し、生理関連情報を取得する予測部と、前記予測部が取得した生理関連情報を出力する出力部とを具備する生理関連情報出力装置2である。
 また、本実施の形態において、生理関連情報出力装置2は、学習装置1を含む構成でも良い。
 さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態における学習装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、ユーザの腹部音からの音情報を取得する音情報取得部と、生理関連情報を受け付ける学習受付部と、前記音情報と前記生理関連情報とから教師データを構成する教師データ構成部と、前記教師データ構成部が構成した前記教師データに対して、機械学習の学習処理を行い、学習器である学習情報を構成する学習部と、前記学習器を蓄積する蓄積部として機能させるためのプログラムである。
 また、生理関連情報出力装置2を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、ユーザの腹部音から取得された音情報と生理に関連する生理関連情報とを有する2以上の教師データを用いて構成された学習情報が格納される学習情報格納部にアクセス可能なコンピュータを、ユーザの腹部音からの音情報を取得する音情報取得部と、前記音情報取得部が取得した音情報に、前記学習情報を適用し、生理関連情報を取得する予測部と、前記予測部が取得した生理関連情報を出力する出力部として機能させるためのプログラムである。
 また、図14は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態の学習装置1、生理関連情報出力装置2、または端末装置3を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図14は、このコンピュータシステム300の概観図であり、図15は、システム300のブロック図である。
 図14において、コンピュータシステム300は、CD-ROMドライブを含むコンピュータ301と、キーボード302と、マウス303と、モニタ304と、マイク305とを含む。
 図15において、コンピュータ301は、CD-ROMドライブ3012に加えて、MPU3013と、CD-ROMドライブ3012等に接続されたバス3014と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3016と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3017とを含む。ここでは、図示しないが、コンピュータ301は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。
 コンピュータシステム300に、上述した実施の形態の学習装置1等の機能を実行させるプログラムは、CD-ROM3101に記憶されて、CD-ROMドライブ3012に挿入され、さらにハードディスク3017に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されても良い。プログラムは実行の際にRAM3016にロードされる。プログラムは、CD-ROM3101またはネットワークから直接、ロードされても良い。
 プログラムは、コンピュータ301に、上述した実施の形態の学習装置1等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム300がどのように動作するかは周知であり、詳細な説明は省略する。
 なお、上記プログラムにおいて、情報を送信するステップや、情報を受信するステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。
 また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。つまり、情報処理装置5は、スタンドアロンの装置であっても良く、2以上の装置から構成されても良い。
 また、上記各実施の形態において、一の装置に存在する2以上の通信手段は、物理的に一の媒体で実現されても良いことは言うまでもない。
 また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。
 本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
 以上のように、本発明にかかる生理関連情報出力装置は、腹部または腹部周辺からの腹部音を用いて、生理関連情報を予測できるという効果を有し、生理関連情報を出力する装置等として有用である。

Claims (10)

  1. ユーザの腹部音から取得された音情報と生理に関連する生理関連情報とを有する2以上の教師データを用いて構成された学習情報が格納される学習情報格納部と、
    ユーザの腹部音からの音情報を取得する音情報取得部と、
    前記音情報取得部が取得した音情報に、前記学習情報を適用し、生理関連情報を取得する予測部と、
    前記予測部が取得した生理関連情報を出力する出力部とを具備する生理関連情報出力装置。
  2. 前記生理関連情報は、生理に関する日との関係に関する生理日関係情報である、請求項1記載の生理関連情報出力装置。
  3. 前記生理関連情報は、生理の疼痛に関する疼痛情報である、請求項1記載の生理関連情報出力装置。
  4. 前記2以上の教師データは、
    前記ユーザの生理周期の間の各日の腹部から取得された腹部音から取得された前記音情報と前記生理関連情報とを有する教師データから構成される、請求項1記載の生理関連情報出力装置。
  5. 前記2以上の教師データに対して、機械学習のアルゴリズムにより学習処理を行い、学習器である学習情報を取得する学習部をさらに具備し、
    前記予測部は、
    前記音情報取得部が取得した音情報と前記学習情報とを用いて、機械学習のアルゴリズムにより予測処理を行い、生理関連情報を取得する、請求項1記載の生理関連情報出力装置。
  6. 前記音情報は、
    前記ユーザの腹部音の2以上の特徴量である、請求項1記載の生理関連情報出力装置。
  7. ユーザの腹部音からの音情報を取得する音情報取得部と、
    生理関連情報を受け付ける学習受付部と、
    前記音情報と前記生理関連情報とから教師データを構成する教師データ構成部と、
    前記教師データ構成部が構成した前記教師データに対して、機械学習の学習処理を行い、学習器である学習情報を構成する学習部と、
    前記学習器を蓄積する蓄積部とを具備する学習装置。
  8. 音情報取得部と、学習受付部と、教師データ構成部と、学習部と、蓄積部とにより実現される学習情報の生産方法であって、
    前記音情報取得部が、ユーザの腹部音からの音情報を取得する音情報取得ステップと、
    前記学習受付部が、生理関連情報を受け付ける学習受付ステップと、
    前記教師データ構成部が、前記音情報と前記生理関連情報とから教師データを構成する教師データ構成ステップと、
    前記学習部が、前記教師データ構成ステップで構成された前記教師データに対して、機械学習の学習処理を行い、学習器である学習情報を構成する学習ステップと、
    前記蓄積部が、前記学習器を蓄積する蓄積ステップとを具備する学習情報の生産方法。
  9. ユーザの腹部音から取得された音情報と生理に関連する生理関連情報とを有する2以上の教師データを用いて構成された学習情報が格納される学習情報格納部にアクセス可能なコンピュータを、
    ユーザの腹部音からの音情報を取得する音情報取得部と、
    前記音情報取得部が取得した音情報に、前記学習情報を適用し、生理関連情報を取得する予測部と、
    前記予測部が取得した生理関連情報を出力する出力部として機能させるためのプログラムを記録した記録媒体。
  10. コンピュータを、
    ユーザの腹部音からの音情報を取得する音情報取得部と、
    生理関連情報を受け付ける学習受付部と、
    前記音情報と前記生理関連情報とから教師データを構成する教師データ構成部と、
    前記教師データ構成部が構成した前記教師データに対して、機械学習の学習処理を行い、学習器である学習情報を構成する学習部と、
    前記学習器を蓄積する蓄積部として機能させるためのプログラムを記録した記録媒体。
PCT/JP2021/044233 2020-12-07 2021-12-02 生理関連情報出力装置、学習装置、学習情報の生産方法、および記録媒体 WO2022124189A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020237011491A KR20230116770A (ko) 2020-12-07 2021-12-02 생리 관련 정보 출력 장치, 학습 장치, 학습 정보의 생산 방법, 및 기록 매체
JP2022568232A JPWO2022124189A1 (ja) 2020-12-07 2021-12-02
CN202180082367.0A CN116568224A (zh) 2020-12-07 2021-12-02 月经关联信息输出装置、学习装置、学习信息的生成方法及存储介质
EP21903293.5A EP4257059A1 (en) 2020-12-07 2021-12-02 Menstruation-related information output device, learning device, method for producing learning information, and recording medium
US18/265,551 US20240023942A1 (en) 2020-12-07 2021-12-02 Menstruation-related information output apparatus, learning apparatus, learning information producing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-202489 2020-12-07
JP2020202489 2020-12-07

Publications (1)

Publication Number Publication Date
WO2022124189A1 true WO2022124189A1 (ja) 2022-06-16

Family

ID=81974423

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044233 WO2022124189A1 (ja) 2020-12-07 2021-12-02 生理関連情報出力装置、学習装置、学習情報の生産方法、および記録媒体

Country Status (7)

Country Link
US (1) US20240023942A1 (ja)
EP (1) EP4257059A1 (ja)
JP (1) JPWO2022124189A1 (ja)
KR (1) KR20230116770A (ja)
CN (1) CN116568224A (ja)
TW (1) TW202222261A (ja)
WO (1) WO2022124189A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014064706A (ja) 2012-09-25 2014-04-17 Terumo Corp 情報処理装置及び情報処理方法
JP2015523319A (ja) 2012-05-02 2015-08-13 ベドウキアン リサーチ, インコーポレイテッド 蚊の防除及び忌避
WO2019073900A1 (ja) * 2017-10-10 2019-04-18 国立大学法人徳島大学 機械学習装置、判定装置、機械学習方法、判定方法、学習用プログラム、判定用プログラムおよび記録媒体
WO2020105229A1 (ja) * 2018-11-19 2020-05-28 テルモ株式会社 診断支援システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015523319A (ja) 2012-05-02 2015-08-13 ベドウキアン リサーチ, インコーポレイテッド 蚊の防除及び忌避
JP2014064706A (ja) 2012-09-25 2014-04-17 Terumo Corp 情報処理装置及び情報処理方法
WO2019073900A1 (ja) * 2017-10-10 2019-04-18 国立大学法人徳島大学 機械学習装置、判定装置、機械学習方法、判定方法、学習用プログラム、判定用プログラムおよび記録媒体
WO2020105229A1 (ja) * 2018-11-19 2020-05-28 テルモ株式会社 診断支援システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "[Verification of too detailed menstrual application 7] Roughly manage the menstrual cycle with the ring display! I tried using the minimal design "Clue" with zero cuteness", IPHONEJOSHIBU, 2 October 2018 (2018-10-02), pages 1 - 19, XP055941439, Retrieved from the Internet <URL:https://www.iphonejoshibu.com/8906> [retrieved on 20220712] *
ANONYMOUS: "why? A whirling sound from the stomach | How to eliminate diarrhea, abdominal pain, and gas. What is the possibility of illness?", 10 March 2020 (2020-03-10), pages 1 - 7, XP055940669, Retrieved from the Internet <URL:https://web.archive.org/web/20200506051908/https://epark.jp/medicalook/stomach-growling/> [retrieved on 20220711] *
BUHR, SARAH: "Menstrual cycle predictor Clue raises $20M from Nokia Growth Partners and others", 5 December 2016 (2016-12-05), Japan, pages 1 - 4, XP009538180, Retrieved from the Internet <URL:https://web.archive.org/web/20161205002344/https://jp.techcrunch.com/2016/12/02/20161130period-tracking-app-clue-pulls-in-20-million-series-b-from-nokia-growth-partners/> [retrieved on 20220811] *

Also Published As

Publication number Publication date
KR20230116770A (ko) 2023-08-04
TW202222261A (zh) 2022-06-16
JPWO2022124189A1 (ja) 2022-06-16
US20240023942A1 (en) 2024-01-25
EP4257059A1 (en) 2023-10-11
CN116568224A (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
JP6355800B1 (ja) 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム
CN107097234A (zh) 机器人控制系统
Cortés et al. Ambulatory assessment of phonotraumatic vocal hyperfunction using glottal airflow measures estimated from neck-surface acceleration
KR102424085B1 (ko) 기계-보조 대화 시스템 및 의학적 상태 문의 장치 및 방법
KR102298330B1 (ko) 음성인식과 자연어 처리 알고리즘을 통해 의료 상담 요약문과 전자 의무 기록을 생성하는 시스템
WO2022121180A1 (zh) 模型的训练方法、装置、语音转换方法、设备及存储介质
Emerich et al. Emotions recognition by speechand facial expressions analysis
Ntalampiras A transfer learning framework for predicting the emotional content of generalized sound events
CN111387936B (zh) 一种睡眠阶段识别方法、装置及设备
JP2021117967A (ja) センサからの自動学習方法及びプログラム
Anders et al. Automatic classification of infant vocalization sequences with convolutional neural networks
CN113255763A (zh) 基于知识蒸馏的模型训练方法、装置、终端及存储介质
WO2008054162A1 (en) Method, apparatus, and system for diagnosing health status of mobile terminal users
WO2022124189A1 (ja) 生理関連情報出力装置、学習装置、学習情報の生産方法、および記録媒体
CN108415995B (zh) 搜索方法和装置
CN113051425A (zh) 音频表征提取模型的获取方法和音频推荐的方法
CN114341867A (zh) 翻译方法、装置、客户端、服务器和存储介质
JP2021111241A (ja) 情報処理装置、発症確率判定方法および発症確率判定プログラム
JP2020149072A (ja) 会話記録システム、会話記録方法、サーバ装置、及びプログラム
EP4339848A1 (en) Information processing device, information processing server, information processing method, and non-transitory computer readable storage medium
CN110827989B (zh) 一种基于关键因子对医学数据进行处理的控制方法
JP7495767B1 (ja) プログラム、特許情報処理装置、および特許情報処理方法
CN117238532B (zh) 智能随访方法及装置
US20240232721A1 (en) Information processing apparatus, information processing server, information processing method, and non-transitory computer-readable storage medium
EP4145386A1 (en) Information processing device and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21903293

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022568232

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18265551

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180082367.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021903293

Country of ref document: EP

Effective date: 20230707