WO2024096074A1 - 咀嚼動作解析方法 - Google Patents

咀嚼動作解析方法 Download PDF

Info

Publication number
WO2024096074A1
WO2024096074A1 PCT/JP2023/039485 JP2023039485W WO2024096074A1 WO 2024096074 A1 WO2024096074 A1 WO 2024096074A1 JP 2023039485 W JP2023039485 W JP 2023039485W WO 2024096074 A1 WO2024096074 A1 WO 2024096074A1
Authority
WO
WIPO (PCT)
Prior art keywords
chewing
movement
data
myoelectric potential
measurement
Prior art date
Application number
PCT/JP2023/039485
Other languages
English (en)
French (fr)
Inventor
隆之 久保田
篤 松尾
Original Assignee
株式会社明治
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社明治 filed Critical 株式会社明治
Publication of WO2024096074A1 publication Critical patent/WO2024096074A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Definitions

  • the present invention relates to a method for analyzing chewing movements.
  • Mastication is, for example, a series of processes in which a person breaks down food into small pieces and forms a paste-like bolus that can be swallowed.
  • the effects of mastication have been attracting attention in terms of their relationship with various elements of vital activities, such as efficient absorption of nutrients contained in the bolus, maintaining a good oral environment, effects on mental state and brain function, and prevention of disease.
  • Methods for evaluating chewing include, for example, measuring and evaluating the number of times chewing, the speed, and the bite force. With this method, for example, it is possible to compare the degree to which the chewing action is encouraged by changing the food to be chewed.
  • Chewing movements are not just chewing movements, but a variety of other movements. By evaluating these movements comprehensively, it is possible to grasp the actual details of chewing movements and to evaluate in detail chewing movements that change depending on the person's chewing ability and the physical properties of food.
  • one disclosure provides a chewing movement analysis method that can comprehensively evaluate chewing movements.
  • a chewing movement analysis method comprising: an acquisition step of measuring myoelectric potentials from muscles at multiple measurement points on the face of a target person when chewing and acquiring myoelectric potential data; a calculation step of calculating multiple feature amounts from unit data obtained by dividing the myoelectric potential data by unit time; and a determination step of determining from the feature amounts whether the target person was performing a tongue movement, a cheek movement, or an occlusal movement at the time the unit data was acquired.
  • a chewing motion analysis method according to any one of (1) to (4), in which a first unit of data partially overlaps with a second unit of data that is located immediately before the first unit of data.
  • a chewing motion analysis method according to any one of (1) to (5), wherein the determination step calculates the probability of each motion being performed in determining which motion is being performed.
  • a chewing movement analysis method according to any one of (1) to (6), in which the judgment process is performed by a trained model that has been trained using as teacher data the myoelectric potential data of the multiple measurement points when the tongue movement, the cheek movement, and the bite movement are performed.
  • the chewing motion analysis method according to any one of (1) to (7), wherein the teacher data includes myoelectric potential data of the plurality of measurement points when the subject is at rest and not chewing.
  • a chewing motion analysis method according to any one of (1) to (8), wherein the teacher data includes myoelectric potential data of the plurality of measurement points during swallowing when performing the swallowing motion.
  • the plurality of measurement points include a left side and a right side of the suprahyoid muscles.
  • the chewing movement analysis method according to any one of (1) to (11), wherein the plurality of measurement points include a left temporal muscle and a right temporal muscle.
  • the chewing movement analysis method according to any one of (1) to (12), wherein the plurality of measurement points include a left buccinator muscle and a right buccinator muscle.
  • a chewing motion analysis method according to any one of (1) to (13), comprising a food difference evaluation step of detecting differences in chewing motion due to differences in foods from the judgment results when the subject chews different foods.
  • One disclosure allows for a comprehensive evaluation of chewing movements.
  • FIG. 1 is a diagram showing an example of the configuration of a chewing motion analysis system 10.
  • FIG. 2 is a diagram showing an example of the configuration of the chewing motion analysis device 100.
  • FIG. 3 is a diagram showing an example of the software configuration of the chewing movement analysis system 10 and input/output data of each unit when judging a chewing movement.
  • FIG. 4 is a diagram showing an example of the software configuration of the chewing motion analysis system 10 and input/output data of each unit during model learning.
  • FIG. 5 is a diagram showing an example of myoelectric potential data at each measurement point.
  • FIG. 6 is a diagram illustrating an example of a process flowchart of the feature amount calculation process S100.
  • FIG. 7 is a diagram showing an example of myoelectric potential data and unit data.
  • FIG. 8 is a diagram showing an example of the calculated feature amount.
  • FIG. 9 is a diagram showing an example of a processing flowchart of the chewing movement analysis process S200.
  • FIG. 10 is a diagram showing an example of a chewing action to be determined.
  • FIG. 11 is a diagram showing an example of a chewing action determination result.
  • FIG. 12 is a diagram illustrating an example of a process flowchart of the model learning process S300.
  • FIG. 13 is a diagram showing examples of chewing movements depending on different chewing objects.
  • FIG. 14 is a diagram showing an example of changes in mastication behavior over time.
  • FIG. 15 is a diagram showing an example of a real-time display of the analysis of the chewing movement.
  • FIG. 16 is a diagram showing examples of chewing movements including swallowing depending on different chewed objects.
  • FIG. 17 is a diagram showing an example of changes in chewing movements, including swallowing, over the course of chewing time.
  • ⁇ Configuration Example of Chewing Motion Analysis System 10> 1 is a diagram showing an example of the configuration of a chewing motion analysis system 10.
  • the chewing motion analysis system 10 includes a chewing motion analysis device 100 and myoelectric potential measurement pads P1 to P3.
  • the chewing motion analysis system 10 is a system that measures myoelectric potential from the facial muscles of a subject 20 and determines and analyzes what kind of motion the subject 20 has performed during chewing based on the measured data.
  • the myoelectric potential measuring pads P1 to P3 are attached to the face of the subject 20 whose chewing movements are to be measured, and are pads that measure myoelectric potentials that indicate the amount of movement of the facial muscles of the subject 20.
  • the chewing motion analysis device 100 is a device, e.g., a computer, that acquires the measured myoelectric potential data and determines and analyzes what movements the subject 20 made while chewing based on the measured data.
  • the chewing motion analysis device 100 outputs the results of the movement determination as data or displays them on a screen.
  • ⁇ Configuration example of chewing motion analysis device 100> 2 is a diagram showing an example of the configuration of the chewing motion analysis device 100.
  • the chewing motion analysis device 100 has a CPU (Central Processing Unit) 110, a storage 120, a memory 130, a communication circuit 140, and a display 150.
  • CPU Central Processing Unit
  • Storage 120 is an auxiliary storage device such as a flash memory, HDD (Hard Disk Drive), or SSD (Solid State Drive) that stores programs and data.
  • Storage 120 stores a myoelectric potential measurement program 121, a feature amount calculation program 122, a chewing action identification model 123, and a model learning program 124.
  • the chewing action identification model 123 is, for example, AI (artificial intelligence), and can determine what action is being performed during chewing (chewing action) based on the features of the measured myoelectric potential data, and output the probability that each chewing action is being performed.
  • AI artificial intelligence
  • the chewing action identification model 123 uses a trained model.
  • the chewing action identification model 123 improves the accuracy of chewing action determination by inputting teacher data for learning.
  • the chewing action identification model 123 is a trained model that has completed a predetermined amount of learning (predetermined number of times) and has a predetermined or higher determination accuracy.
  • Memory 130 is an area into which programs stored in storage 120 are loaded. Memory 130 may also be used as an area in which programs store data.
  • the communication circuit 140 is a device that receives the signals detected by the myoelectric potential measurement pads P1 to P3 using the myoelectric potential data measurement unit 11 (a receiver included therein) and acquires the myoelectric potential data via a cable.
  • the display 150 is a screen that displays the results of the judgment and analysis of the operation, and is a display unit.
  • the display 150 may be, for example, an integrated type or may be an externally connected type.
  • the CPU 110 is a processor that loads the programs stored in the storage 120 into the memory 130, executes the loaded programs, configures each component, and realizes each process.
  • the CPU 110 executes the myoelectric potential measurement program 121 to construct a myoelectric potential data measurement unit and perform myoelectric potential data measurement processing.
  • the myoelectric potential data measurement processing is a process in which the myoelectric potential measurement pads P1 to P3 measure myoelectric potentials, transmit the myoelectric potential data, and acquire the myoelectric potential data.
  • the CPU 110 executes the feature calculation program 122 to construct a feature calculation section and perform feature calculation processing.
  • the feature calculation processing divides the input myoelectric potential data into judgment units (time units) and calculates the feature for each divided data segment.
  • the CPU 110 executes the chewing action identification model 123 to construct a chewing action identification section and perform chewing action identification processing.
  • the chewing action identification processing is a process that outputs a chewing action corresponding to the input feature amount.
  • the chewing action identification processing for example, calculates and outputs the probability that each chewing action is being performed.
  • the CPU 110 executes the model learning program 124 to construct a model learning section and perform model learning processing.
  • the model learning processing is processing to create teacher data to be input when training the chewing action identification model 123 (including trained and untrained).
  • the teacher data is composed of, for example, feature amounts of myoelectric potential data measuring intentional chewing actions, and the type of intentional action (correct answer data).
  • the model learning processing is processing to generate or edit teacher data, input it to the chewing action identification model 123, and train it.
  • the chewing motion analysis system 10 includes a myoelectric potential data measuring unit 11, a feature amount calculating unit 12, a chewing motion identifying unit 13, and a model learning unit 14.
  • a myoelectric potential data measuring unit 11 a feature amount calculating unit 12
  • a chewing motion identifying unit 13 a model learning unit 14.
  • the processing and input/output of each unit during the chewing motion determination for determining the chewing motion and during model learning for learning the chewing motion identification model 123 will be described.
  • FIG. 3 is a diagram showing an example of the software configuration of the chewing movement analysis system 10 and input/output data of each unit when judging a chewing movement.
  • the myoelectric potential data measuring unit 11 measures myoelectric potential data when the subject eats food (chewing food) (S10) and outputs the measured myoelectric potential data (S11).
  • the myoelectric potential data measuring unit 11 uses, for example, myoelectric potential measuring pads P1 to P3 to measure the myoelectric potential data for a predetermined period of time.
  • the feature calculation unit 12 receives the myoelectric potential data (S12) and outputs the feature (S13).
  • the feature calculation unit 12 divides the myoelectric potential data by time unit and calculates the feature for each divided unit data.
  • the feature calculation unit 12 may also calculate the feature taking into account unit data for multiple measurement locations. Furthermore, when calculating the feature of unit data for one measurement location, the feature calculation unit 12 may also take into account unit data for other times.
  • the chewing action identification unit 13 receives the feature amount (S14) and outputs the probability of the chewing action for each unit of data (probability indicating which chewing action was being performed at the time the unit of data was acquired) as a judgment result based on the feature amount (S15).
  • the model learning unit 14 is a processing unit that operates when learning the chewing action identification model 123, and does not operate when determining the chewing action.
  • FIG. 4 is a diagram showing an example of the software configuration of the chewing motion analysis system 10 and input/output data of each unit during model learning.
  • the myoelectric potential data measurement unit 11 measures myoelectric potential data during simulated movements for generating teacher data (S20) and outputs the measured myoelectric potential data (S21).
  • the simulated movements are, for example, movements extracted from actual eating movements such as chewing, movements using the tongue, and movements using the inner walls of the mouth of the cheeks. In this case, the myoelectric potential data measurement unit 11 measures myoelectric potential data during an actual meal.
  • the simulated movements may be movements that are intentionally performed by the subject, such as chewing movements that are to be learned, chewing movements for which the accuracy of the judgment is to be improved, or chewing movements that occur infrequently in normal chewing movements.
  • the feature calculation unit 12 receives the myoelectric potential data (for teacher data) (S22) and outputs the feature (for teacher data) (S23).
  • the model learning unit 14 receives the features (for teacher data) (S24), edits the feature data, generates correct answer data indicating what kind of chewing action was being performed by the simulated action, and outputs the edited feature data and correct answer data as teacher data (S25).
  • the chewing action identification unit 13 receives the training data (S26) and performs learning of the chewing action identification model 123.
  • the myoelectric potential data measurement process is a process of measuring myoelectric potentials from various muscles in the face of a subject, and is executed, for example, by the myoelectric potential data measurement unit 11.
  • the myoelectric potential measurement process is a process of, for example, attaching myoelectric potential measurement pads P1 to P3 to the face of the subject, having the subject chew, and measuring the myoelectric potential.
  • the facial muscles to be measured are, for example, the right masseter muscle (hereinafter, may be referred to as the right masseter muscle), the left masseter muscle (hereinafter, may be referred to as the left masseter muscle), and the area near the center of the suprahyoid muscles (hereinafter, may be referred to as the center of the suprahyoid muscles).
  • Figure 5 shows an example of myoelectric potential data at each measurement point.
  • Figure 5 shows three graphs, which from the top show the measured values for the right masseter muscle, the left masseter muscle, and the center of the suprahyoid muscles.
  • the vertical axis of the graphs shows the measured myoelectric potential, and the horizontal axis shows the measurement time.
  • a myoelectric potential of 0 indicates that the muscle is not active, and the larger the absolute value, the greater the amount of active muscle fibers.
  • the greater the vertical extension on the graph the greater the activity of the muscle fibers at that measurement point.
  • the feature amount calculation process S100 is a process for calculating feature amounts from myoelectric potential data, and is executed, for example, by the feature amount calculation unit 12.
  • Fig. 6 is a diagram showing an example of a processing flowchart of the feature amount calculation process S100.
  • the feature calculation unit 12 receives the myoelectric potential data (S100-1).
  • the feature calculation unit 12 extracts the myoelectric potential data in units of a predetermined time and creates unit data (S100-2).
  • Figure 7 shows an example of myoelectric potential data and unit data.
  • the upper graph in Figure 7 is a graph in which the measurement data of each part in Figure 5 is superimposed.
  • the feature calculation unit 12 extracts a predetermined time unit T1 from the EMG data and generates unit data D1. Next, the feature calculation unit 12 sets the time that is shifted by the shift amount T2 from the start time of the unit data D1 as the start time, extracts the predetermined time unit T1, and generates unit data D2. The feature calculation unit 12 shifts by the shift amount T2 and repeats extracting the EMG data of the predetermined time unit T1, generating up to unit data Dn (n is an integer).
  • the waveform of the myoelectric potential data can be used to determine the chewing movement without omission.
  • the feature calculation process S100 by partially overlapping the time of the unit data, it is possible to calculate a feature that takes into account the trend (tendency of change) of the waveform of the myoelectric potential data.
  • the feature calculation unit 12 generates unit data for each measurement location. In this case, the feature calculation unit 12 calculates the feature for each measurement location.
  • the feature calculation unit 12 may also generate the unit data from a waveform data group in which the unit data is compiled, and a synthetic wave in which the myoelectric potential data of multiple measurement locations is synthesized. In this case, the feature calculation unit 12 calculates the feature reflecting the measurement results of multiple measurement locations.
  • the feature calculation unit 12 may generate unit data for each measurement location, a waveform data group in which the unit data is compiled, or a synthetic wave. In this case, the feature calculation unit 12 calculates both the feature for each measurement location and the feature reflecting the measurement results of multiple measurement locations.
  • the chewing movement is determined from the feature taking into account both the individual tendency of the measurement location and the overall tendency of the facial muscles, and there are cases in which a more accurate determination can be made compared to a determination based on only individual features, only waveform data in which the unit data is compiled, or only synthetic features.
  • the feature calculation unit 12 calculates the feature for each unit data (S100-3) and ends the process.
  • Figure 8 shows examples of calculated feature quantities.
  • Calculated feature quantities include, for example, the root mean square, the average absolute value, the integral value, the number of zero crossings, the number of extreme values, the wavelength, the intermediate frequency, the average frequency, and the nth order coefficient of an autoregressive model (n is an integer between 1 and 6).
  • the root mean square is, for example, the square root of the arithmetic mean of the measured values squared.
  • the root mean square indicates, for example, a characteristic quantity related to the amplitude of the waveform of the measured data.
  • the absolute mean is, for example, the average of the absolute values of the measured values.
  • the absolute mean indicates, for example, a feature related to the amplitude of the waveform of the measured data.
  • the integral value is, for example, the area of the section calculated by multiplying the measurement value between unit data by the sampling time of the myoelectric potential and adding them all together.
  • the integral value indicates, for example, a feature quantity related to the amplitude of the waveform of the measurement data.
  • the number of zero crossings is, for example, the number of times that the measurement data changes from a non-zero value to 0 (consecutive zeros are counted as one).
  • the number of zero crossings indicates, for example, a characteristic quantity related to the frequency of the waveform of the measurement data.
  • the number of extreme values is, for example, the number of times that the measurement data reaches its highest point (peak) over a series of time.
  • the number of extreme values indicates, for example, a characteristic quantity related to the frequency of the waveform of the measurement data.
  • the wavelength is, for example, the wavelength of the waveform of the measurement data.
  • the wavelength indicates, for example, a characteristic quantity related to the frequency of the waveform of the measurement data.
  • the intermediate frequency is, for example, the frequency that divides the area in half in the power spectrum of the frequency obtained by performing a fast Fourier transform on the measurement data.
  • the intermediate frequency indicates, for example, a characteristic quantity related to the frequency of the waveform of the measurement data.
  • the average frequency is, for example, the average value of each frequency in the power spectrum of frequencies obtained by performing a fast Fourier transform on the measurement data.
  • the average frequency indicates, for example, a characteristic quantity related to the frequency of the waveform of the measurement data.
  • An autoregressive model is, for example, a model that regresses output at a certain time using output at a time prior to that time.
  • An autoregressive model indicates, for example, a feature quantity related to the trend of the waveform of the measurement data.
  • An autoregressive model is expressed, for example, by the following equation (1).
  • Xt a1Xt-1 + a2Xt-2 + ... + anXt-n ... Equation (1)
  • Xt is the output at time t
  • a n is a coefficient related to the output at time n, which is called an n-th order coefficient.
  • the feature calculation unit 12 calculates, for example, first to sixth order coefficients as feature amounts.
  • the feature calculation unit 12 calculates many feature amounts as described above and inputs them to the chewing motion identification unit 13, making it possible to analyze chewing motions with higher accuracy.
  • the chewing movement analysis process S200 is a process for calculating feature amounts from myoelectric potential data, and is executed, for example, by the chewing movement identification unit 13.
  • Fig. 9 is a diagram showing an example of a processing flowchart of the chewing movement analysis process S200.
  • the chewing action identification unit 13 receives the feature amount (S200-1).
  • the chewing action identification unit 13 analyzes the features using a chewing action analysis method based on the input features (S200-2).
  • the method for analyzing chewing movements is, for example, a method for estimating chewing movements using a decision tree constructed by learning the chewing movement identification model 123. The generation of the decision tree will be described in the model learning process.
  • the chewing action identification unit 13 uses a decision tree to branch each feature and calculates the action (or the probability of the action) that corresponds to the feature.
  • the chewing action identification unit 13 calculates the probability that each chewing action is being performed (S200-3) and ends the process.
  • FIG. 10 shows an example of a chewing action to be determined.
  • the chewing action identification unit 13 calculates the probability that each of the 15 actions is being performed, for example.
  • the movements to be judged are broadly divided into four categories.
  • the first is occlusal movements, which are movements that indicate, for example, how the teeth are moving up and down (biting).
  • An example of an occlusal movement is the movement of biting.
  • the second is cheek movements, which indicate, for example, how the cheeks are moving.
  • cheek movements include wiping molars with both cheeks, wiping molars with the right cheek, and wiping molars with the left cheek.
  • Tongue movements include, for example, moving up, down, forward, pulling back, right, left, wiping the right teeth (inner or biting surface), wiping the right teeth (outer), wiping the left teeth (inner or biting surface), and wiping the left teeth (outer).
  • the fourth is "other movements," which indicates, for example, a state in which nothing is moving. Examples of other movements include resting.
  • FIG. 11 shows an example of the chewing action determination result.
  • FIG. 11 shows the probability of chewing action being performed.
  • FIG. 11(A) is a diagram showing an example of a graph showing the probability of performing a chewing motion before smoothing.
  • the vertical axis represents the probability of performing a chewing motion
  • the horizontal axis represents time (unit data).
  • FIG. 11(B) is a diagram showing an example of a graph indicating the probability of performing a chewing action after smoothing. Smoothing is performed, for example, by generating moving average data of multiple (e.g., three) unit data, rather than one unit data.
  • FIG. 11(B) it can be seen that the change in the waveform indicating a high probability of performing a chewing action is smoother than in FIG. 11(A).
  • there are few sudden changes in action such as a sudden halt or start of a chewing action, and there is often a gradual transition from one action to another. Therefore, by using data smoothed in this way, the change in the calculated probability of a chewing action during a series of chewing actions becomes smoother, allowing for a more accurate estimation of the chewing action.
  • Model learning process S300 is a process for learning the chewing action identification model 123, and is executed by, for example, the model learning unit 14.
  • Fig. 12 is a diagram showing an example of a processing flowchart of the model learning process S300.
  • the model learning unit 14 for example, causes the myoelectric potential data measuring unit 11 to measure myoelectric potential data during the simulated movement (S300-1).
  • the model learning unit 14 causes the feature calculation unit 12 to execute a feature calculation process and output the features of the myoelectric potential data (S300-2).
  • model learning unit 14 combines the features with the correct answer data (data indicating what kind of chewing action was performed in the simulated action) to create training data (S300-3).
  • the model learning unit 14 inputs the teaching data into the chewing action identification model 123, causes the chewing action identification model 123 to perform learning (S300-4), and ends the process.
  • the chewing action identification model 123 recognizes the relationship (tendency) between the feature amount and the chewing action performed when the feature amount is displayed from the training data, and performs learning.
  • the chewing action identification model 123 learns the tendency of the relationship between the myoelectric potential data and chewing action from the features, as described above, and estimates the chewing action.
  • the chewing action identification model 123 In learning, the chewing action identification model 123 generates, for example, decision tree branches used when estimating chewing actions from features, and generates thresholds for the branches. For example, if the chewing action identification model 123 has already been learned, the accuracy of the estimation of chewing actions is improved by, for example, changing the branches (including adding and deleting) or changing (brushing up) the branch thresholds.
  • the chewing action identification model 123 may be something other than a decision tree, and may be, for example, a neural network or other AI.
  • the chewing action identification model 123 may be an AI that can learn the relationship between the myoelectric potential data measured at each part of the face and the chewing action as teacher data, and estimate the chewing action from the myoelectric potential data at each part of the face.
  • model learning process S300 for example, all 15 chewing movements are performed as simulated movements, and the myoelectric potential is measured.
  • the speed and rhythm of the movements may be changed to measure the myoelectric potential.
  • model learning process S300 in order to calculate the feature amount at the time of transition from one chewing action to a different chewing action, two or more chewing actions may be combined, the combined chewing actions may be performed in sequence, and the myoelectric potential may be measured. Furthermore, in the model learning process S300, for example, mathematical processing may be applied to the calculated feature amount, or a trend in the feature amount may be emphasized, to generate a new feature amount and use it as training data.
  • model learning process S300 may use actual measurement data to be judged as teacher data in addition to the simulated movements. In this case, it is necessary to separately record the relationship between chewing movements and time (which chewing movements were performed at what time) during the measurement.
  • measurement data from each measurement location when at rest may be used as training data. Even when the subject is not chewing, the subject is still engaged in small amounts of muscle activity, for example, by breathing or blinking. Therefore, by using measurement data at rest as training data, it is possible to prevent, for example, myoelectric potential data, which has a small amount of activity at rest, from being mistaken for chewing behavior. In addition, by using measurement data at rest as training data, it is possible, for example, to remove measurement data at rest as stationary noise data, improving the accuracy of determining chewing behavior.
  • Fig. 13 is a diagram showing examples of chewing movements according to different chewing objects. Fig. 13 shows the chewing movements and their ratios (percentages) for food A and food B. In Fig. 13, the chewing movements selected are those that were performed with the highest probability in the unit data.
  • food B induces more cheek movement during chewing than food A.
  • cheek movement also has the effect of stimulating the activity of facial muscles, food B could be advertised and sold as a "food that prevents sagging cheeks.”
  • food A causes more outward tongue movement than food B.
  • food A could be advertised and sold as a "food that increases saliva production.”
  • Fig. 14 is a diagram showing an example of changes in chewing behavior over time.
  • Fig. 14 shows the chewing behavior and its ratio (percentage) over time for a certain food.
  • the chewing behavior selected is the chewing behavior performed with the highest probability in the unit data.
  • the "beginning", "middle”, and "end” of the elapsed time are, for example, times obtained by dividing the entire time from the start of chewing food to just before swallowing the food into thirds. For example, if the entire time is 15 seconds, the "beginning", “middle", and “end” are each 5 seconds.
  • Figure 14 shows that when chewing a certain food, chewing motions occur most frequently in the middle stage, and chewing motions occur less frequently in the beginning and end stages.
  • ⁇ Display of chewing motion> 15 is a diagram showing an example of a real-time display of the chewing motion analysis. For example, FIG. 15 is displayed on the display 150 of the chewing motion analysis device 100.
  • the real-time display can, for example, analyze myoelectric potential data while measuring it during chewing movements and display the results.
  • the real-time display can, for example, show the data file name and other information (such as whose data it is, what food is being chewed, etc.).
  • the real-time display also displays, for example, a graph G1 showing the processing time (time elapsed from the start of chewing), number of chews (number of chews), and average pitch and variation (distribution, standard deviation, etc.).
  • the real-time display also shows the percentage of the 15 chewing actions that were performed.
  • the chewing action that was performed is determined to be the most likely chewing action at that timing.
  • the percentages are also displayed in graphs G2 and G3.
  • Graph G2 is, for example, a graph that shows each of the 15 chewing actions.
  • Graph G3 is, for example, a graph that shows the percentages of major categories.
  • the real-time display also displays, for example, the history of tongue movement.
  • the history is displayed in a simplified diagram G4 of the inside of the mouth. For example, the longer the tongue is present, the darker the color shown.
  • the real-time display also shows the muscle work for each channel (measurement location).
  • the muscle work is normalized, for example, by dividing it by the amplitude of the myoelectric potential data when maximum muscle strength is exerted, to show how much muscle strength is exerted during the measurement.
  • the muscle work is displayed, for example, in graph G5.
  • Graph G5 shows, for example, the muscle work for each measurement location over time.
  • the real-time display also displays an eating style diagnosis.
  • the eating style diagnosis is, for example, a comprehensive assessment of chewing habits (number of chews, frequency, rhythm, strength, etc.) and eating habits (proportion of tongue, cheek, and bite activity, bias in movement) and categorization.
  • graph G6 shows the proportion of each major category of chewing movements and the time course, and also displays the categorization results.
  • the content displayed in real time display may be displayed after the measurement data is acquired, rather than in real time.
  • the speed of the process of determining the chewing action may be improved.
  • the feature to be calculated may be appropriately selected and the calculation process may be reduced.
  • the calculation process for calculating the feature may be simplified by reducing the number of significant digits of the measured data of the myoelectric potential.
  • swallowing is added as one of the chewing actions to be determined.
  • “Swallowing” is, for example, the act of swallowing chewed food.
  • “swallowing” includes the act of swallowing not only the chewed food itself, but also the water discharged from the chewed food, a mixture of the chewed food and saliva, and the like.
  • swallowing is classified, for example, into the major category “other.”
  • swallowing may be classified, for example, into a new major category “throat movement” that indicates the movement of the throat.
  • FIG. 16 is a diagram showing examples of chewing movements, including swallowing, depending on the chewed material. Note that FIG. 16 is a diagram showing an example in which swallowing has been added to FIG. 13. In FIG. 16, differences from FIG. 13 are shown shaded, and the numerical values in FIG. 13 are shown in parentheses.
  • the value for "wiping molars with both cheeks" decreases for food A but remains the same for food B.
  • This is assumed to be a characteristic due to differences between the foods. For example, suppose food A is gummy candy and food B is gum. The gum itself is not swallowed, but gummy candy is. Therefore, when swallowing gummy candy, which is a relatively large solid object, it is assumed that the swallowing action is performed with greater force than when swallowing gum, which only contains liquid, and therefore it is necessary to move the muscles of both cheeks more.
  • Figure 17 is a diagram showing an example of changes in chewing movements, including swallowing, over the course of chewing time.
  • Figure 17 is a diagram showing an example in which swallowing has been added to Figure 14.
  • the areas that differ from Figure 14 are shown shaded, and the numerical values in Figure 14 are shown in parentheses.
  • the reason for the change in values is the same as assumed in Figure 16 above. Note that in Figure 17, “swallowing" in the middle is 0%, and as “swallowing" is not performed, there is no effect on the values of other chewing movements.
  • the data in Figures 16 and 17 are merely examples, and the actions for which the value changes (decreases) by adding “swallowing” are not limited to "wiping the right teeth (outside) with the tongue,” “wiping the left teeth (outside) with the tongue,” and “wiping the molars with both cheeks,” and may be other actions.
  • the actions for which the value changes (decreases) may differ depending on, for example, the subject, the target food, and the installation conditions of the measuring device (including the way the pads are attached), etc.
  • the training data In order to detect "swallowing,” the training data must also include “swallowing.”
  • the tester intentionally has the subject perform a chewing motion that includes “swallowing,” measures the EMG data during swallowing, and uses the EMG data itself and its features as training data to train a model.
  • the trained model can detect the "swallowing" motion from the EMG data.
  • the myoelectric potential data in actual operation may be used as teacher data.
  • a third embodiment will be described.
  • the measurement locations of myoelectric potential data are changed (added).
  • the measurement of myoelectric potential data was targeted at three locations on the face (the right masseter muscle, the left masseter muscle, and the center of the suprahyoid muscles).
  • the number of measurement locations is increased, thereby further improving the accuracy of the determination.
  • the measurement locations are classified into measurement groups, and the following description will include the priority of the measurements. Note that in the following description, the priority is expressed as "priority x (x is an integer)," indicating that the smaller the x, the higher the priority, and that the same x indicates the same priority.
  • First measurement group is the right masseter, the left masseter, and the center of the suprahyoid muscles.
  • the first measurement group is the most basic measurement location and has the first priority.
  • the pads are easy to attach and the measurements are highly accurate.
  • the first measurement group is free of hair or other interference at the measurement position, allowing stable measurements to be taken by people of all ages and genders.
  • the central suprahyoid muscle can detect differences in occlusal and cheek movements, as well as vertical and anterior-posterior tongue movements, swallowing movements, and side-to-side tongue movements.
  • the absolute value of the amplitude of the myoelectric potential data of the suprahyoid muscles is much smaller than the absolute value of the amplitude of the myoelectric potential data of the left and right masseter muscles. Therefore, for example, if chewing movements are detected only using the myoelectric potential data of muscles related to the tongue, such as the suprahyoid muscles, the accuracy of detecting chewing movements is low, and this may result in a decrease in the accuracy of the overall chewing evaluation.
  • the accuracy of detecting chewing movements, including chewing movements, is improved, and the accuracy of the overall chewing evaluation is also improved.
  • Second measurement group is the left and right of the suprahyoid muscles (left and right of the center of the suprahyoid muscles), and is given priority 2.
  • the second measurement group is easy to measure (easy to attach pads to). ).
  • tongue movement can be detected more accurately.
  • it is possible to create negative pressure in the oral cavity when sucking in the cheeks. It can detect tongue movement that accompanies the act of sucking, and it can detect the act of sucking in the cheek.
  • the priority of the second measurement group was set to priority 2.
  • the third measurement group is the left and right temporal muscles (left and right temporal muscles), which is the third priority group.
  • various chewing movements bitse movement, tongue movement, cheek movement
  • the activity of the temporalis muscle fixes the lower jaw, and the tongue can move up and down and left and right around the jaw.
  • By measuring the movement of the cheek it is possible to detect the movement of the cheek more accurately.
  • the action of wiping the teeth with the cheek requires opening the mandible and using the tongue to create negative pressure in the oral cavity, both of which require the temporalis muscle. This is because they are related.
  • the priority of the third measurement group was set to priority 3.
  • the fourth measurement group is the left and right buccinator muscles, which are ranked 4th in priority order. By measuring the fourth measurement group, the action of wiping the teeth with the cheeks can be detected more accurately. Moreover, by measuring the fourth measurement group, it is possible to detect the actions of holding a food bolus and supporting the left and right movement of the tongue.
  • the buccinator muscle for example, has relatively smaller muscle movement than the masseter muscle, and may interfere with the measurement position of the masseter muscle, making it impossible to obtain accurate myoelectric potentials in some cases. If accurate values cannot be obtained, the effects of missing or error data will be significant, and measurement accuracy may decrease. For this reason, the priority of the fourth measurement group was set to priority 4.
  • the tester determines the measurement locations according to the above-mentioned priority order.
  • the above priority order is merely an example.
  • the measurement locations may be determined, for example, according to the characteristics of the subject (age, sex, condition or area of the measurement location, etc.).
  • the measurement locations may also be determined according to the chewing behavior to be detected.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

対象人物が咀嚼するときの顔の複数の測定箇所の筋肉から筋電位を測定し、筋電位データを取得する取得工程と、前記筋電位データを単位時間で分割した単位データから複数の特徴量を算出する算出工程と、前記特徴量から、前記対象人物が、前記単位データ取得時の時間において、舌動作、頬動作、又は咬合動作の、いずれの動作を行っているかを判定する判定工程と、を有する。

Description

咀嚼動作解析方法
 本発明は、咀嚼動作解析方法に関する。
 近年、咀嚼に関する研究が注目されている。咀嚼とは、例えば、人が食品を細かく破砕し、嚥下可能なペースト状の食塊を形成する一連の過程である。咀嚼の効果としては、例えば、食塊に含まれる栄養素の効率的な吸収、口腔環境の良好な状態維持、精神状態や脳機能への影響、及び病気の予防など、生命活動における様々な要素との関連性について注目されている。
 咀嚼を評価する方法としては、例えば、噛む回数や速度、咬合力などを測定し、評価する方法がある。この方法では、例えば、咀嚼対象の食品を変更することで、食品の噛む動作を促す度合いを比較することができる。
 一方でこの方法では、噛む動作に限定した評価であり、十分な咀嚼機能評価を行うことはできない。咀嚼動作は、単に噛む動作だけではなく、様々な動作がある。これらの動作を総合的に評価することで、咀嚼動作の詳細な実体を把握でき、人の咀嚼能力や食品物性の違いによって変化する咀嚼動作を詳細に評価することができる。
 咀嚼の評価に関する技術は、以下に開示されている。
特開2012-232065号公報 国際公開第2019/022259号
 しかし、咀嚼動作を総合的に評価する方法は確立されていない。咀嚼動作の評価において、噛む以外の動作として、どのような動作を測定及び解析すれば、適切に咀嚼動作を評価できるのかがわかっていない。
 そこで、一開示は、咀嚼動作を総合的に評価することができる咀嚼動作解析方法を提供する。
 本発明は、例えば、以下を提供する。
 (1)対象人物が咀嚼するときの顔の複数の測定箇所の筋肉から筋電位を測定し、筋電位データを取得する取得工程と、前記筋電位データを単位時間で分割した単位データから複数の特徴量を算出する算出工程と、前記特徴量から、前記対象人物が、前記単位データの取得時において、舌動作、頬動作、又は咬合動作の、いずれの動作を行っているかを判定する判定工程と、を有する咀嚼動作解析方法。
 (2)前記複数の測定箇所は、右側の咬筋、左側の咬筋、及び舌骨上筋群の中央付近である(1)に記載の咀嚼動作解析方法。
 (3)前記判定工程は、前記舌動作の場合、舌を上、下、右、又は左方向へ動かしているか、舌を前へ出しているか、舌を引いた動作をしているか、右側又は左側の歯の内側又は外側を拭っているか、を判定し、前記頬動作の場合、左頬、右頬、又は両頬で臼歯を拭っているか、を判定する(1)又は(2)に記載の咀嚼動作解析方法。
 (4)前記特徴量は、前記測定箇所ごとの筋電位の波形、及び前記複数の測定箇所の筋電位をまとめた波形データ群、から算出する(1)~(3)のいずれか一項に記載の咀嚼動作解析方法。
 (5)第1の単位データは、前記第1の単位データの前の時間の第2の単位データと、一部データが重複する(1)~(4)のいずれか一項に記載の咀嚼動作解析方法。
 (6)前記判定工程は、前記いずれの動作を行っているかの判定において、各動作を行っている確率を算出する(1)~(5)のいずれか一項に記載の咀嚼動作解析方法。
 (7)前記判定工程は、前記舌動作、前記頬動作、及び前記咬合動作を行ったときの前記複数の測定箇所の筋電位データを教師データとして学習させた学習済みモデルによって実行される(1)~(6)のいずれか一項に記載の咀嚼動作解析方法。
 (8)前記教師データは、咀嚼を行っていない安静時における前記複数の測定箇所の筋電位データを含む(1)~(7)のいずれか一項に記載の咀嚼動作解析方法。
 (9)前記教師データは、飲み込む動作を行う嚥下時における前記複数の測定箇所の筋電位データを含む(1)~(8)のいずれか一項に記載の咀嚼動作解析方法。
 (10)前記判定工程は、前記安静時の動作及び前記嚥下時の動作を、前記舌動作、前記頬動作、及び前記咬合動作のいずれの動作でもないと判定する(1)~(9)のいずれか一項に記載の咀嚼動作解析方法。
 (11)前記複数の測定箇所は、舌骨上筋群の左側及び右側を含む(1)~(10)のいずれか一項に記載の咀嚼動作解析方法。
 (12)前記複数の測定箇所は、左側の側頭筋及び右側の側頭筋を含む(1)~(11)のいずれか一項に記載の咀嚼動作解析方法。 
 (13)前記複数の測定箇所は、左側の頬筋及び右側の頬筋を含む(1)~(12)のいずれか一項に記載の咀嚼動作解析方法。
 (14)前記対象人物が異なる食品を咀嚼したときの判定結果から、食品の差異による咀嚼における動作の差異を検出する食品差異評価工程を有する(1)~(13)のいずれか一項に記載の咀嚼動作解析方法。
 (15)時間経過に伴う咀嚼における動作の変化を検出する経過時間評価工程を有する(1)~(14)のいずれか一項に記載の咀嚼動作解析方法。
 一開示は、咀嚼動作を総合的に評価することができる。
図1は、咀嚼動作解析システム10の構成例を示す図である。 図2は、咀嚼動作解析装置100の構成例を表す図である。 図3は、咀嚼動作解析システム10のソフトウェア構成、及び咀嚼動作判定時の各部の入出力データの例を示す図である。 図4は、咀嚼動作解析システム10のソフトウェア構成、及びモデル学習時の各部の入出力データの例を示す図である。 図5は、各測定箇所の筋電位データの例を示す図である。 図6は、特徴量算出処理S100の処理フローチャートの例を示す図である。 図7は、筋電位データ及び単位データの例を示す図である。 図8は、算出した特徴量の例を示す図である。 図9は、咀嚼動作解析処理S200の処理フローチャートの例を示す図である。 図10は、判定する咀嚼動作の例を示す図である。 図11は、咀嚼動作判定結果の例を示す図である。 図12は、モデル学習処理S300の処理フローチャートの例を示す図である。 図13は、咀嚼物の違いによる咀嚼動作の例を示す図である。 図14は、咀嚼時間の経過による咀嚼動作の変化の例を示す図である。 図15は、咀嚼動作解析のリアルタイム表示の例を示す図である。 図16は、咀嚼物の違いによる、嚥下を含む咀嚼動作の例を示す図である。 図17は、咀嚼時間の経過による、嚥下を含む咀嚼動作の変化の例を示す図である。
 [第1の実施の形態]
 第1の実施の形態について説明する。
 <咀嚼動作解析システム10の構成例>
 図1は、咀嚼動作解析システム10の構成例を示す図である。咀嚼動作解析システム10は、咀嚼動作解析装置100及び筋電位測定パッドP1~P3を有する。咀嚼動作解析システム10は、測定対象者20の顔の筋肉から筋電位を測定し、測定したデータから、測定対象者20が咀嚼においてどのような動作を行っていたかを判定し、解析するシステムである。
 筋電位測定パッドP1~P3は、咀嚼動作の測定対象者20の顔に貼り付けられ、測定対象者20の顔の筋肉の動作量を示す筋電位を測定するパッドである。筋電位測定パッドP1~P3は、例えば、測定した筋電位を、ケーブルを介して咀嚼動作解析装置100に送信する。なお、筋電位測定パッドは、図1においては、3つであるが、測定箇所に応じて、設置する数を増やすことができる。
 咀嚼動作解析装置100は、測定した筋電位データを取得し、測定したデータに基づき、測定対象者20が咀嚼においてどのような動作を行っていたかを判定し、解析する装置であり、例えば、コンピュータである。咀嚼動作解析装置100は、動作を判定した結果を、データとして出力したり、画面上に表示したりする。
 <咀嚼動作解析装置100の構成例>
 図2は、咀嚼動作解析装置100の構成例を表す図である。咀嚼動作解析装置100は、CPU(Central Processing Unit)110、ストレージ120、メモリ130、通信回路140、及びディスプレイ150を有する。
 ストレージ120は、プログラムやデータを記憶する、フラッシュメモリ、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)などの補助記憶装置である。ストレージ120は、筋電位測定プログラム121、特徴量算出プログラム122、咀嚼動作識別モデル123、及びモデル学習プログラム124を記憶する。
 咀嚼動作識別モデル123は、例えば、AI(artificial intelligence)であり、測定した筋電位データの特徴量に基づき、咀嚼においてどのような動作が行われているか(咀嚼動作)を判定し、各咀嚼動作が行われている確率を出力することができる。咀嚼動作識別モデル123は、咀嚼動作の判定を行うとき、学習済みのモデルが使用される。咀嚼動作識別モデル123は、学習を行うための教師データを入力されることで、咀嚼動作の判定精度が向上する。以降の説明において、特にことわりのない限り、咀嚼動作識別モデル123は、所定量(所定回数)の学習が完了し、所定以上の判定精度を有する学習済みモデルである。
 メモリ130は、ストレージ120に記憶されているプログラムをロードする領域である。また、メモリ130は、プログラムがデータを記憶する領域としても使用されてもよい。
 通信回路140は、筋電位測定パッドP1~P3で検出した信号を筋電位データ測定部11(に含まれる受信器)で受け取り、ケーブルを介して筋電位データを取得する装置である。
ディスプレイ150は、動作の判定結果や解析結果を表示する画面であり、表示部である。ディスプレイ150は、例えば、一体型でもよいし、外部接続されるものであってもよい。
 CPU110は、ストレージ120に記憶されているプログラムを、メモリ130にロードし、ロードしたプログラムを実行し、各部を構築し、各処理を実現するプロセッサである。
 CPU110は、筋電位測定プログラム121を実行することで、筋電位データ測定部を構築し、筋電位データ測定処理を行う。筋電位データ測定処理は、筋電位測定パッドP1~P3に筋電位を測定させ、筋電位データを送信させ、筋電位データを取得する処理である。
 CPU110は、特徴量算出プログラム122を実行することで、特徴量算出部を構築し、特徴量算出処理を行う。特徴量算出処理は、入力された筋電位データを判定単位(時間単位)に分割し、分割した区分データごとの特徴量を算出する処理である。
 CPU110は、咀嚼動作識別モデル123を実行することで、咀嚼動作識別部を構築し、咀嚼動作識別処理を行う。咀嚼動作識別処理は、入力された特徴量に対応する咀嚼動作を出力する処理である。咀嚼動作識別処理は、例えば、各咀嚼動作が行われている確率を算出し、出力する。
 CPU110は、モデル学習プログラム124を実行することで、モデル学習部を構築し、モデル学習処理を行う。モデル学習処理は、咀嚼動作識別モデル123(学習済み、または未学習を含む)を学習させるときに入力する教師データを作成する処理である。教師データは、例えば、意図的に行った咀嚼動作を測定した筋電位データの特徴量、及び、意図的に行った動作の種別(正解データ)で構成される。モデル学習処理は、教師データを生成又は編集し、咀嚼動作識別モデル123に入力し、学習させる処理である。
 <咀嚼動作解析システム10のソフトウェア構成例>
 咀嚼動作解析システム10は、筋電位データ測定部11、特徴量算出部12、咀嚼動作識別部13、及びモデル学習部14を有する。以下、咀嚼動作の判定を行う咀嚼動作判定時、及び咀嚼動作識別モデル123の学習を行うモデル学習時の、それぞれにおける各部の処理及び入出力について説明する。
 <1.咀嚼動作判定時>
 図3は、咀嚼動作解析システム10のソフトウェア構成、及び咀嚼動作判定時の各部の入出力データの例を示す図である。
 筋電位データ測定部11は、判定対象者が行う実食(食品の咀嚼)において、筋電位データを測定し(S10)、測定した筋電位データを出力する(S11)。筋電位データ測定部11は、例えば、筋電位測定パッドP1~P3を使用し、筋電位データを所定時間測定する。
 特徴量算出部12は、筋電位データを入力され(S12)、特徴量を出力する(S13)。特徴量算出部12は、筋電位データを時間単位で分割し、分割した単位データごとに特徴量を算出する。また、特徴量算出部12は、複数の測定箇所の単位データを考慮し、特徴量を算出してもよい。さらに、特徴量算出部12は、1つの測定箇所の単位データの特徴量を算出するとき、他の時間の単位データを考慮してもよい。
 咀嚼動作識別部13は、特徴量を入力され(S14)、当該特徴量に基づき、単位データごとの咀嚼動作の確率(当該単位データの取得時間において、どの咀嚼動作を行っていたかを示す確率)を、判定結果として出力する(S15)。
 モデル学習部14は、咀嚼動作識別モデル123の学習時に動作する処理部であり、咀嚼動作判定時においては、特に動作しない。
 <2.モデル学習時>
 図4は、咀嚼動作解析システム10のソフトウェア構成、及びモデル学習時の各部の入出力データの例を示す図である。
 筋電位データ測定部11は、教師データ生成用の模擬動作において、筋電位データを測定し(S20)、測定した筋電位データを出力する(S21)。模擬動作は、例えば、実際の食事における噛む動作、舌を使う動作、頬の口腔内壁を使う動作などを、抽出した動作である。この場合、筋電位データ測定部11は、実際の食事において筋電位データの測定を行う。
 また、模擬動作は、学習させたい咀嚼動作、判定精度を向上させたい咀嚼動作、又は通常の咀嚼動作において発生頻度が低い咀嚼動作などを、意図的に被験者に行わせた動作であっても良い。
 特徴量算出部12は、筋電位データ(教師データ用)を入力され(S22)、特徴量(教師データ用)を出力する(S23)。
 モデル学習部14は、特徴量(教師データ用)を入力され(S24)、特徴量データの編集を行い、当該模擬動作によって行われていた咀嚼動作が何であるかを示す正解データを生成し、当該編集した特徴量データ及び正解データを教師データとして出力する(S25)。
 咀嚼動作識別部13は、教師データを入力され(S26)、咀嚼動作識別モデル123の学習を実行する。
 <咀嚼動作判定処理>
 咀嚼動作を判定する咀嚼動作判定処理の各処理について説明する。
 <1.筋電位データ測定処理>
 筋電位データ測定処理は、測定対象者の顔の各部筋肉から筋電位を測定する処理であり、例えば、筋電位データ測定部11により実行される。筋電位測定処理は、例えば、筋電位測定パッドP1~P3を測定対象者の顔に貼り付け、測定対象者に咀嚼を行わせ、筋電位を測定する処理である。
 測定対象となる顔の筋肉は、例えば、右側の咬筋(以降、右咬筋と呼ぶ場合がある)、左側の咬筋(以降、左咬筋と呼ぶ場合がある)、及び舌骨上筋群の中央付近(以降、舌骨上筋群中央と呼ぶ場合がある)である。
 図5は、各測定箇所の筋電位データの例を示す図である。図5は、3つのグラフを示し、上からそれぞれ、右咬筋、左咬筋、及び舌骨上筋群中央の測定値を示す。グラフは、縦軸が測定した筋電位、横軸が測定時間である。
 筋電位は、例えば、0であれば筋肉が活動していないことを示し、絶対値が大きくなるほど、活動する筋線維の量が多いことを示す。例えば、図5においては、グラフ上の縦方向に大きく伸びている時間ほど、当該測定箇所の筋線維が多く活動していることを示す。
 <2.特徴量算出処理>
 特徴量算出処理S100は、筋電位データから、特徴量を算出する処理であり、例えば、特徴量算出部12により実行される。図6は、特徴量算出処理S100の処理フローチャートの例を示す図である。
 特徴量算出部12は、筋電位データを入力される(S100-1)。
 特徴量算出部12は、筋電位データを、所定時間ごとの時間単位で切り出し、単位データを作成する(S100-2)。
 図7は、筋電位データ及び単位データの例を示す図である。図7の上のグラフは、図5のおける各部の測定データを重ねたグラフである。
 特徴量算出部12は、所定時間単位T1を筋電位データから切り出し、単位データD1を生成する。次に、特徴量算出部12は、単位データD1の先頭時間から、シフト量T2だけ後の時間を先頭時間とし、所定時間単位T1を切り出し、単位データD2を生成する。特徴量算出部12は、シフト量T2だけずらし、所定時間単位T1の筋電位データを切り出すことを繰り返し、単位データDn(nは整数)まで生成する。
 特徴量算出処理S100では、シフト量を設定し、単位データの時間を一部重複させることで、筋電位データの波形を漏れなく咀嚼動作の判定に使用することができる。また、特徴量算出処理S100では、単位データの時間を一部重複させることで、筋電位データの波形の傾向(変化傾向)を考慮した、特徴量を算出することができる。
 なお、特徴量算出部12は、単位データを測定箇所ごとに生成する。この場合、特徴量算出部12は、測定箇所ごとの特徴量を算出する。また、特徴量算出部12は、単位データをまとめた波形データ群、及び、複数の測定箇所の筋電位データを合成した合成波から生成してもよい。この場合、特徴量算出部12は、複数の測定箇所の測定結果を反映した特徴量を算出する。さらに、特徴量算出部12は、測定箇所ごと、単位データをまとめた波形データ群、及び合成波のいずれの単位データを生成してもよい。この場合、特徴量算出部12は、測定箇所ごとの特徴量、及び複数の測定箇所の測定結果を反映した特徴量の両方を算出することとなる。この場合、測定箇所の個別の傾向、及び顔の筋肉全体の傾向の両方を考慮した特徴量から、咀嚼動作が判定されることとなり、個別だけ、単位データをまとめた波形データだけ、あるいは合成だけの特徴量から判定する場合と比較し、より精度が高い判定ができる場合がある。
 図6に戻り、特徴量算出部12は、単位データごとに、特徴量を算出し(S100-3)、処理を終了する。
 図8は、算出した特徴量の例を示す図である。算出する特徴量は、例えば、二乗平均平方根、絶対値平均、積分値、ゼロ交差回数、極値数、波長、中間周波数、平均周波数、自己回帰モデルn次係数(nは1~6の整数)などがある。
 二乗平均平方根は、例えば、測定値を二乗した値の相加平均の平方根である。二乗平均平方根は、例えば、測定データの波形の振幅に関する特徴量を示す。
 絶対値平均は、例えば、測定値の絶対値の平均である。絶対値平均は、例えば、測定データの波形の振幅に関する特徴量を示す。
 積分値は、例えば、単位データ間の測定値に筋電位のサンプリング時間を乗し、それを全て足し合わせて算出した区間面積である。積分値は、例えば、測定データの波形の振幅に関する特徴量を示す。
 ゼロ交差回数は、例えば、測定データが0以外から0に変化する回数(0が連続した場合は1回とカウントする)である。ゼロ交差回数は、例えば、測定データの波形の周波数に関する特徴量を示す。
 極値数は、例えば、測定データが一連の時間において最も高くなる(山の頂点)回数である。極値数は、例えば、測定データの波形の周波数に関する特徴量を示す。
 波長は、例えば、測定データの波形の波長である。波長は、例えば、測定データの波形の周波数に関する特徴量を示す。
 中間周波数は、例えば、測定データを高速フーリエ変換して得られた周波数のパワースペクトルにおいて、面積を二分する周波数である。中間周波数は、例えば、測定データの波形の周波数に関する特徴量を示す。
 平均周波数は、例えば、測定データを高速フーリエ変換して得られた周波数のパワースペクトルにおいて、各周波数の平均値である。平均周波数は、例えば、測定データの波形の周波数に関する特徴量を示す。
 自己回帰モデルは、例えば、ある時間における出力を、それより前の時間における出力を使用して回帰するモデルである。自己回帰モデルは、例えば、測定データの波形の傾向に関する特徴量を示す。自己回帰モデルは、例えば、以下の式(1)で表される。
 X = at-1 + at-2 + ・・・ +at-n  ・・・式(1)
 Xは、時間tにおける出力であり、aは、時間nの出力に関する係数であり、n次係数と呼ぶ。特徴量算出部12は、例えば、1次から6次係数までを特徴量として算出する。
 咀嚼動作解析システム10では、特徴量算出部12が上述したような多くの特徴量を算出し、咀嚼動作識別部13に入力することで、より高精度な咀嚼動作の解析が可能となる。
 <3.咀嚼動作解析処理>
 咀嚼動作解析処理S200は、筋電位データから特徴量を算出する処理であり、例えば、咀嚼動作識別部13により実行される。図9は、咀嚼動作解析処理S200の処理フローチャートの例を示す図である。
 咀嚼動作識別部13は、特徴量を入力される(S200-1)。
 咀嚼動作識別部13は、入力した特徴量に基づき、咀嚼動作の分析方法を用いて、特徴量を分析する(S200-2)。
 咀嚼動作の分析方法について説明する。咀嚼動作の分析方法は、例えば、咀嚼動作識別モデル123の学習により構築された決定木を用いて、咀嚼動作を推定する分析方法である。決定木の生成については、モデル学習処理において説明する。
 咀嚼動作識別部13は、決定木を用いて、それぞれの特徴量を分岐させ、特徴量に対応する動作(あるいは動作の確率)を算出する。
 咀嚼動作識別部13は、各咀嚼動作を行っている確率を算出し(S200-3)、処理を終了する。
 図10は、判定する咀嚼動作の例を示す図である。咀嚼動作識別部13は、例えば、15の動作について、それぞれの動作を行っている確率を算出する。
 判定する動作は、大分類として4つに分類される。1つ目は、咬合動作であり、例えば、歯をどのように上下させているか(噛んでいるか)を示す動作である。咬合動作としては、例えば、噛む動作がある。
 2つ目は、頬動作であり、例えば、頬をどのように動かしているかを示す。頬動作としては、例えば、両頬で臼歯を拭う、右頬で臼歯を拭う、及び左頬で臼歯を拭うなどの動作がある。
 3つ目は、舌動作であり、例えば、舌をどのように動かしているかを示す。舌動作としては、例えば、上へ、下へ、前へ、引く、右へ、左へ、右側の歯(内側や咬合面)を拭う、右側の歯(外側)を拭う、左側の歯(内側や咬合面)を拭う、及び左側の歯(外側)を拭う、などの動作がある。
 4つ目は、その他動作であり、例えば、何も動かしていない状態を示す。その他動作としては、例えば、安静などの動作がある。
 図11は、咀嚼動作判定結果の例を示す図である。図11は、噛む動作を行っている確率を示す。
 図11(A)は、平滑化前の噛む動作を行っている確率を示すグラフの例を示す図である。グラフは、縦軸が噛む動作を行っている確率であり、横軸が時間(単位データ)である。
 図11(B)は、平滑化後の噛む動作を行っている確率を示すグラフの例を示す図である。平滑化は、例えば、1つの単位データではなく、複数(例えば3個)の単位データの移動平均データを生成することで行う。図11(B)は、噛む動作を行っている確率が高いことを示す波形の変化が、図11(A)と比べ、滑らかになっていることがわかる。実際の咀嚼は、例えば、噛む動作を急に停止したり、急に開始したりするなど、急激な動作の変化は少なく、ある動作から他の動作に徐々に移行することが多い。そこで、このように平滑化したデータを用いることで、一連の咀嚼を行っているときの、算出される咀嚼動作の確率の変化が滑らかになり、咀嚼動作をより正確に推定することができる。
 <4.モデル学習処理>
 モデル学習処理S300は、咀嚼動作識別モデル123を学習させる処理であり、例えば、モデル学習部14によって実行される。図12は、モデル学習処理S300の処理フローチャートの例を示す図である。
 モデル学習部14は、例えば、筋電位データ測定部11に、模擬動作における筋電位データを測定させる(S300-1)。
 次に、モデル学習部14は、例えば、特徴量算出部12に特徴量算出処理を実行させ、筋電位データの特徴量を出力させる(S300-2)。
 次に、モデル学習部14は、特徴量と正解データ(模擬動作にて行っていた咀嚼動作が何であるかを示すデータ)を合わせ、教師データを作製する(S300-3)。
 そして、モデル学習部14は、教師データを咀嚼動作識別モデル123に入力し、咀嚼動作識別モデル123に学習を実行させ(S300-4)、処理を終了する。
 咀嚼動作識別モデル123は、教師データから、特徴量と、その特徴量を示す時に行われた咀嚼動作との関係(傾向)を認識し、学習を行う。
 筋電位データと咀嚼動作には、それぞれ関係性が認められる。例えば、噛む動作は、左右咬筋の活動量が、舌骨上筋群の活動よりも極めて大きい場合が多い。一方、舌を上へ動かす動作や舌で右外を拭う動作などの舌を動かす動作は、舌骨上筋群の活動が、左右咬筋の活動よりも極めて大きい場合が多い。また、両頬で拭うような頬を使う動作は、上述した噛む動作や舌を動かす動作と比較して、左右咬筋と舌骨上筋群の活動差が少ない場合が多い。
 咀嚼動作識別モデル123は、例えば、上述したような筋電位データと咀嚼動作との関係の傾向を特徴量から学習し、咀嚼動作の推定を行う。
 咀嚼動作識別モデル123は、学習において、例えば、特徴量から咀嚼動作を推定するときに使用する決定木の分岐を生成したり、分岐における閾値を生成したりする。咀嚼動作識別モデル123は、例えば、すでに学習済みである場合、例えば、分岐の変更(追加、削除を含む)をしたり、分岐の閾値を変更(ブラッシュアップ)したりすることで、咀嚼動作の推定の精度を向上させる。
 また、咀嚼動作識別モデル123は、決定木以外でもよく、例えば、ニューラルネットワークや、その他のAIであってもよい。すなわち、咀嚼動作識別モデル123は、顔の各部を測定した筋電位データと咀嚼動作との関係を教師データとして学習し、顔の各部の筋電位データから咀嚼動作を推定できるAIであればよい。
 モデル学習処理S300において、例えば、15の咀嚼動作全てを模擬動作として行い、筋電位を測定する。また、模擬動作を行う際は、動作を行う速度やリズムを変えて、筋電位を測定しても良い。
 モデル学習処理S300において、ある咀嚼動作から異なる咀嚼動作への移行時の特徴量を算出するため、2つ以上の咀嚼動作を組み合わせ、組み合わせた咀嚼動作を順番に行い、筋電位を測定してもよい。さらに、モデル学習処理S300において、例えば、算出した特徴量に数学的処理を加えたり、あるいは特徴量における傾向を強調したりし、新たな特徴量を生成し、教師データとしてもよい。
 また、モデル学習処理S300は、模擬動作以外に、実際に判定する測定データを教師データとしてもよい。この場合、測定において、咀嚼動作と時間との関係(どの時間にどの咀嚼動作を行っていたか)を別途記録しておく必要がある。
 なお、教師データとして、安静時(咀嚼を行っていない)における各測定箇所の測定データを使用してもよい。対象者は、咀嚼を行っていないときでも、例えば、呼吸やまばたきなど、少量ではあるが筋肉を活動させている。そのため、安静時の測定データを教師データとして使用することで、例えば、安静時における活動量が小さい筋電位データを咀嚼動作と誤認識することを抑制できる。また、安静時の測定データを教師データとして使用することで、例えば、安静時の測定データを定常的なノイズデータとして除去でき、咀嚼動作の判定精度が向上する。
 <咀嚼動作の判定結果を用いた評価>
 咀嚼動作を判定した結果は、様々な評価に用いることができる。以下、評価について説明する。
 <1.咀嚼物の違いによる咀嚼動作の評価>
 図13は、咀嚼物の違いによる咀嚼動作の例を示す図である。図13は、食品Aと食品Bの、咀嚼動作及びその割合(パーセント)を示す。なお、図13において、咀嚼動作は、その単位データにおいて最も高い確率で行われた咀嚼動作を選択したものである。
 図13によると、食品Bは食品Aより、咀嚼において頬の動きが多い。例えば、頬を動かすことで表情筋の活動も促す効果があるとすると、食品Bは「頬のたるみを予防する食品」として広告、販売することが想定される。
 また、図13によると、食品Aは食品Bより、舌を歯の外側に動かす動きが多い。例えば、舌を外側に大きく動かすことで舌の活動量が増え、唾液の産生を促す効果があるとすると、食品Aは「唾液の産生量を増やす食品」と広告、販売することが想定される。
 このように、食品ごとの咀嚼動作の違いを検出し、評価することで、どの部位(舌、歯、頬など)の動きを促す食品かを認識でき、様々な効果を有する食品として広告、販売することができる。
 また、例えば、医療におけるリハビリなどにおいて、各部位の活動レベルを推定したり、特に最大出力値を高めたい筋肉や運動機能性を高めたい筋肉に応じた食品を、対象者に提案又は提供したりすることができる。
 このように、複数の食品の咀嚼動作の差異を比較することで、食品による特性を理解することができ、需要に応じた食品を提示することができる。
 <2.咀嚼時間の経過による咀嚼動作の変化の評価> 
 図14は、咀嚼時間の経過による咀嚼動作の変化の例を示す図である。図14は、ある食品の、経過時間による咀嚼動作及びその割合(パーセント)を示す。なお、図14において、咀嚼動作は、その単位データにおいて最も高い確率で行われた咀嚼動作を選択したものである。また、経過時間の「序盤」、「中盤」、及び「終盤」は、例えば、食品の咀嚼を開始してから、当該食品を飲み込む直前までの全体時間を三分割した時間である。例えば、全体時間が15秒である場合、「序盤」、「中盤」、及び「終盤」は、それぞれ5秒間となる。
 図14によると、ある食品の咀嚼時において、噛む動作は中盤が一番多くなり、序盤及び終盤には、噛む動作の出現頻度が少ない事例であることがわかる。
 また、図14によると、咀嚼を行った対象人物は、舌を右側へ動かす動きが時間経過とともに少なくなるが、舌を左側へ動かす動きは時間経過とともに多くなる。これにより、対象人物は、咀嚼動作において、口内の片側のみに咀嚼物を寄せて噛み続けるのではなく、咀嚼物を左右に移動させながら咀嚼動作を行っていたことが推察できる。
 このように、経過時間による咀嚼動作の違いを検出し、評価することで、人物による咀嚼動作の特徴を捉えることができる。また、さらに、食品の差異による咀嚼動作の違いとあわせて比較することで、食品による差異と、経過時間による差異との総合的な差異(例えば、食品Aは食品Bよりも、時間が経過しても舌の動きが活発であるなど)、さらには、食品の特性と対象人物の咀嚼動作との関係についても、検出することができる。
 <咀嚼動作の表示>
 図15は、咀嚼動作解析のリアルタイム表示の例を示す図である。図15は、例えば、咀嚼動作解析装置100のディスプレイ150に表示される。
 リアルタイム表示は、例えば、咀嚼動作において筋電位データを測定しながら解析を行い、その結果を表示することができる。リアルタイム表示は、例えば、データファイル名や他情報(誰のデータか、何の食品を咀嚼しているかなど)を表示する。
 また、リアルタイム表示は、例えば、処理時間(咀嚼開始からの経過時間)、咀嚼回数(噛んだ回数)、ピッチ平均やばらつき(分布、標準偏差など)のグラフG1を表示する。
 また、リアルタイム表示は、15の咀嚼動作を行った割合を示す。行った咀嚼動作は、そのタイミングにおいて最も確率の高い咀嚼動作を判定する。また、割合は、グラフG2及びグラフG3で表示する。グラフG2は、例えば、15の咀嚼動作それぞれを示すグラフである。グラフG3は、例えば、大分類の割合を示すグラフである。
 また、リアルタイム表示は、例えば、舌挙動の履歴を表示する。履歴は、口内の略図G4にて表示される。履歴は、例えば、舌が存在した時間が長いほど濃い色で表す。
 また、リアルタイム表示は、各ch(測定箇所)の筋仕事量を表示する。筋仕事量は、例えば、最大筋力発揮時の筋電位データの振幅等で割ることにより正規化を行い、測定中に筋力をどの程度発揮しているかなどを表示する。筋仕事量は、例えば、グラフG5にて表示される。グラフG5は、例えば、時間推移による測定箇所ごとの筋仕事量を示す。
 また、リアルタイム表示は、食べ方診断を表示する。食べ方診断は、例えば、噛み方(噛む回数、頻度、リズム、強さなど)の傾向と、食べ方(舌や頬や咬合の活動割合、動かし方の偏り)の傾向とを総合的に判定し、タイプ分けしたものである。例えば、咀嚼動作の大分類ごとの割合と時間経過をグラフG6で示し、タイプ分けした結果を併せて表示する。
 なお、リアルタイム表示による表示内容は、リアルタイムでなく、測定データ取得後に表示させてもよい。
 また、リアルタイム表示を実施するため、咀嚼動作の判定処理の速度を向上させてもよい。例えば、特徴量算出処理を高速化させるため、算出する特徴量を適正に選択し、計算工程を削減してもよい。また、筋電位の測定データの有効桁数を少なくすることで、特徴量算出時の計算工程を簡易化してもよい。
[第2の実施の形態]
 第2の実施の形態について説明する。第2の実施に形態では、判定対象の咀嚼動作の一つとして、「嚥下」を追加する。「嚥下」とは、例えば、咀嚼した食品を飲み込む行為である。また、「嚥下」とは、咀嚼した食品そのもの以外に、咀嚼した食品から排出された水分や、咀嚼した食品と唾液の混合物などを、飲み込む行為も含む。
 また、「嚥下」は、図10における分類において、例えば、大分類「その他」に分類される。また、「嚥下」は、図10における分類において、例えば、喉を動かす動作を示す新たな大分類「喉動作」に分類されてもよい。
 図16は、咀嚼物の違いによる、嚥下を含む咀嚼動作の例を示す図である。なお、図16は、図13に嚥下を追加した例を示す図である。図16において、図13との差異がある箇所を網掛けで示し、図13における数値を括弧内に示す。
 「嚥下」を咀嚼動作の判定に追加することで、食品A、Bとも、「舌で右側の歯(外側)を拭う」及び「舌で左側の歯(外側)を拭う」の値が減少している。これは、「嚥下」という動作が、「舌で右側の歯(外側)を拭う」及び「舌で左側の歯(外側)を拭う」と近い動作であるためであると想定される。
 「嚥下」を判定しない場合、「嚥下」は、「舌で右側の歯(外側)を拭う」及び「舌で左側の歯(外側)を拭う」として判定される。「嚥下」は、ものを飲み込む動作であるため、実際には「舌で右側の歯(外側)を拭う」及び「舌で左側の歯(外側)を拭う」ではない。そこで、「嚥下」を判定することで、咀嚼動作の判定精度があがり、「嚥下」時の動作をノイズデータとして除去することができる。これは、「安静」を判定することと同様の効果を奏する。
 また、「両頬で臼歯を拭う」の値が、食品Aにおいては減少しているが、食品Bにおいては同じである。これは、例えば、食品の差異による特性であると想定される。例えば、食品Aはグミであり、食品Bはガムであるとする。ガムそのものは飲み込まれることはないが、グミは飲み込まれる。そのため、ある程度大きな固形物であるグミを飲み込む際には、水分だけを飲み込むガムと比較し、強い力で飲み込む動作を行うため、両頬の筋肉をより動かすことが必要であったと想定される。
 また、咀嚼時間の経過においても、食品の差異と同様に値の変化が発生する。図17は、咀嚼時間の経過による、嚥下を含む咀嚼動作の変化の例を示す図である。なお、図17は、図14に嚥下を追加した例を示す図である。図17において、図14との差異がある箇所を網掛けで示し、図14における数値を括弧内に示す。値の変化の理由は、上述した図16における想定と同様である。なお、図17において、中盤の「嚥下」は0%であり、「嚥下」を行っていないため、他の咀嚼動作の値に影響はない。
 なお、図16及び図17のデータは、あくまでも一例であって、「嚥下」を追加することにより値が変化(減少)する動作が「舌で右側の歯(外側)を拭う」、「舌で左側の歯(外側)を拭う」、及び「両頬で臼歯を拭う」に限られないし、かつ他の動作であってもよい。値が変化(減少)する動作は、例えば、被験者、対象食品、測定機器の設置状況(パッドの貼り付け方なども含む)などにより差異が発生し得る。
 上述したように、「嚥下」を咀嚼動作に加え、「その他」に分類することで、食品を咀嚼する動作(咬合動作、舌動作、頬動作)の値の精度が向上し、食品評価の精度も向上する。
 なお、「嚥下」を検出するために、教師データにも「嚥下」を含む必要がある。試験者は、例えば、被験者に意図的に「嚥下」を含む咀嚼動作を行わせ、嚥下における筋電位データを測定し、筋電位データそのものや特徴量を教師データとし、モデル学習を行う。当該教師データでモデル学習を行うことで、学習済みモデルは、筋電位データから「嚥下」動作を検出することができる。
 また、試験者に意図的に行わせた動作でなくても、実運用上(例えば、被験者の咀嚼能力の評価における)の筋電位データの測定において被験者の行っている動作が明確である場合、当該実運用上の筋電位データを教師データとして用いてもよい。
[第3の実施の形態]
 第3の実施の形態について説明する。第3の実施の形態では、筋電位データの測定箇所を変更(追加)する。第1の実施の形態では、筋電位データの測定は、顔の3か所(右咬筋、左咬筋、及び舌骨上筋群中央が対象であった。第3の実施の形態では、測定箇所を増加させることで、さらに判定精度を向上させることができる。なお、できるだけ多くの測定箇所の筋電位データを測定することが、判定精度向上においては好ましいが、例えば、被験者に対する負担、測定のしやすさ、測定値の正確性などを考慮すると、必ずしも全ての測定箇所を測定できない場合がある。そこで、測定箇所を測定群として分類し、測定の優先順位などを含め、以下に説明する。なお、以下の説明において、優先順位は「優先順位x(xは整数)」と表現し、xが小さいほど優先順位は高く、xが同じであれば優先順位は同じであることを示すこととする。
 <1.第1測定群>
 第1測定群は、右咬筋、左咬筋、及び舌骨上筋群中央である。第1測定群は、最も基本となる測定箇所であり、優先順位1である。第1測定群は、測定がしやすく(パッドを貼り付けやすく)、測定値の精度も高い。また、第1測定群は、測定位置に髪の毛などの干渉がなく、老若男女問わず安定して測定できる。さらに、左右咬筋は、咬合動作や頬動作の違いも検出できる。また、舌骨上筋群中央は、舌の縦方向及び前後方向の動きや、嚥下の動きを検出でき、舌の左右の動きも検出できる。
 例えば、図5の示すように、舌骨上筋群の筋電位データの振幅の絶対値は、左右咬筋の筋電位データの振幅の絶対値と比較して、非常に小さい値となる。そのため、例えば、舌骨上筋群のような舌に関する筋肉の筋電位データだけで咀嚼動作の検出を行うと、噛む動作の検出精度が低いため、咀嚼評価全体の精度が低下する場合がある。そこで、第1測定群のように、舌に関する筋肉である舌骨上筋群と、左右咬筋の筋電位データを測定し、咀嚼動作の判定を行うことで、噛む動作を含む咀嚼動作の検出精度が向上し、咀嚼評価全体の精度も向上する。
 <2.第2測定群>
 第2測定群は、舌骨上筋群左右(舌骨上筋群中央よりも左側及び右側)であり、優先順位2である。第2測定群は、測定がしやすい(パッドを貼り付けやすい)。また、第2測定群を測定することで、舌の動きをより正確に検出できる。さらに、第2測定群を測定することで、頬を吸う動作を行う際の口腔内を陰圧にする動作に伴う舌の動きを検出でき、頬を吸う動作の検出ができる。
 一方、例えば、舌の動きは第1測定群の舌骨上筋群中央である程度の測定を行うことができる。そのため、第2測定群の優先順位は、優先順位2とした。
 <3.第3測定群>
 第3測定群は、左右側頭筋(左側及び右側の側頭筋)であり、優先順位3である。第3測定群を測定することで、各種咀嚼動作(咬合動作、舌動作、頬動作)の活動情報を補うことができる。これは、側頭筋が活動することで下顎が固定され、それを支点に舌を上下左右に動かすことができるからである。特に、第3測定群を測定することで、頬の動きをより正確に検出できる。頬で歯を拭う動作には、下顎の開きと舌を使った口腔内の陰圧操作が必要であり、そのいずれにも側頭筋が関連しているためである。
 一方、例えば、側頭筋は髪の毛でパッドが貼り付けづらい場合があるなど、測定が容易でない場合がある。そのため、第3測定群の優先順位は、優先順位3とした。
 <4.第4測定群>
 第4測定群は、左右頬筋(左側及び右側の頬筋)であり、優先順位4である。第4測定群を測定することで、頬で歯を拭う動作をより正確に検出することができる。また、第4測定群を測定することで、食塊を保持したり、舌の左右の動きをサポートしたりする動作を検出することができる。
 一方、頬筋は、例えば、咬筋よりも比較的筋肉の動きが小さいことや、咬筋の測定位置に干渉する場合があり、場合によって正確に筋電位を取得できないことがある。正確な値がとれないと、データの欠損や誤差による影響が大きくなり、測定精度が低下する場合がある。そのため、第4測定群の優先順位は、優先順位4とした。
 試験者は、測定箇所を、上述した優先順位に応じて決定する。しかし、上記優先順位は、あくまで一例である。測定箇所は、例えば、被験者の特徴(年齢、性別、測定位置の状態や面積など)に応じて決定されてもよい。また、測定箇所は、検出したい咀嚼動作に応じて決定されてもよい。
10   :咀嚼動作解析システム
11   :筋電位データ測定部
12   :特徴量算出部
13   :咀嚼動作識別部
14   :モデル学習部
20   :測定対象者
100  :咀嚼動作解析装置
110  :CPU
120  :ストレージ
121  :筋電位測定プログラム
122  :特徴量算出プログラム
123  :咀嚼動作識別モデル
124  :モデル学習プログラム
130  :メモリ
140  :無線通信回路
150  :ディスプレイ 

Claims (15)

  1.  対象人物が咀嚼するときの顔の複数の測定箇所の筋肉から筋電位を測定し、筋電位データを取得する取得工程と、前記筋電位データを単位時間で分割した単位データから複数の特徴量を算出する算出工程と、
     前記特徴量から、前記対象人物が、前記単位データの取得時において、舌動作、頬動作、又は咬合動作の、いずれの動作を行っているかを判定する判定工程と、
     を有する咀嚼動作解析方法。
  2.  前記複数の測定箇所は、右側の咬筋、左側の咬筋、及び舌骨上筋群の中央付近である
     請求項1記載の咀嚼動作解析方法。
  3.  前記判定工程は、さらに、
     前記舌動作の場合、舌を上、下、右、又は左方向へ動かしているか、舌を前へ出しているか、舌を引いた動作をしているか、右側又は左側の歯の内側又は外側を拭っているか、を判定し、
     前記頬動作の場合、左頬、右頬、又は両頬で臼歯を拭っているか、を判定する
     請求項1記載の咀嚼動作解析方法。
  4.  前記特徴量は、前記測定箇所ごとの筋電位の波形、及び前記複数の測定箇所の筋電位をまとめた波形データ群、から算出する
     請求項1記載の咀嚼動作解析方法。
  5.  第1の単位データは、前記第1の単位データの前の時間の第2の単位データと、一部データが重複する
     請求項1記載の咀嚼動作解析方法。
  6.  前記判定工程は、前記いずれの動作を行っているかの判定において、各動作を行っている確率を算出する
     請求項1記載の咀嚼動作解析方法。
  7.  前記判定工程は、前記舌動作、前記頬動作、及び前記咬合動作を行ったときの前記複数の測定箇所の筋電位データを教師データとして学習させた学習済みモデルによって実行される
     請求項1又は3記載の咀嚼動作解析方法。
  8.  前記教師データは、咀嚼を行っていない安静時における前記複数の測定箇所の筋電位データを含む
     請求項7記載の咀嚼動作解析方法。
  9.  前記教師データは、飲み込む動作を行う嚥下時における前記複数の測定箇所の筋電位データを含む
     請求項8記載の咀嚼動作解析方法。
  10.  前記判定工程は、前記安静時の動作及び前記嚥下時の動作を、前記舌動作、前記頬動作、及び前記咬合動作のいずれの動作でもないと判定する
     請求項9記載の咀嚼動作解析方法。
  11.  前記複数の測定箇所は、さらに、舌骨上筋群の左側及び右側を含む
     請求項2記載の咀嚼動作解析方法。
  12.  前記複数の測定箇所は、さらに、左側の側頭筋及び右側の側頭筋を含む
     請求項11記載の咀嚼動作解析方法。
  13.  前記複数の測定箇所は、さらに、左側の頬筋及び右側の頬筋を含む
     請求項12記載の咀嚼動作解析方法。
  14.  さらに、前記対象人物が異なる食品を咀嚼したときの判定結果から、食品の差異による咀嚼における動作の差異を検出する食品差異評価工程を有する
     請求項1記載の咀嚼動作解析方法。
  15.  さらに、時間経過に伴う咀嚼における動作の変化を検出する経過時間評価工程を有する
     請求項1記載の咀嚼動作解析方法。
PCT/JP2023/039485 2022-11-04 2023-11-01 咀嚼動作解析方法 WO2024096074A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022177386 2022-11-04
JP2022-177386 2022-11-04

Publications (1)

Publication Number Publication Date
WO2024096074A1 true WO2024096074A1 (ja) 2024-05-10

Family

ID=90930614

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/039485 WO2024096074A1 (ja) 2022-11-04 2023-11-01 咀嚼動作解析方法

Country Status (1)

Country Link
WO (1) WO2024096074A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232065A (ja) * 2011-05-09 2012-11-29 Iwate Univ 顎口腔運動状態の推定方法及び顎口腔運動状態の推定装置
JP2018000871A (ja) * 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
WO2019022259A1 (ja) * 2017-07-28 2019-01-31 株式会社メルティンMmi 筋電信号が由来する動作を認識するためのシステム、方法、およびプログラム
WO2019225243A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 摂食嚥下機能評価方法、プログラム、摂食嚥下機能評価装置および摂食嚥下機能評価システム
JP2020148692A (ja) * 2019-03-15 2020-09-17 雪印メグミルク株式会社 口中挙動の評価方法
CN111709282A (zh) * 2020-05-07 2020-09-25 中粮营养健康研究院有限公司 表征食物口腔加工的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232065A (ja) * 2011-05-09 2012-11-29 Iwate Univ 顎口腔運動状態の推定方法及び顎口腔運動状態の推定装置
JP2018000871A (ja) * 2016-07-08 2018-01-11 国立大学法人岩手大学 生体の動作識別システム及び生体の動作識別方法
WO2019022259A1 (ja) * 2017-07-28 2019-01-31 株式会社メルティンMmi 筋電信号が由来する動作を認識するためのシステム、方法、およびプログラム
WO2019225243A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 摂食嚥下機能評価方法、プログラム、摂食嚥下機能評価装置および摂食嚥下機能評価システム
JP2020148692A (ja) * 2019-03-15 2020-09-17 雪印メグミルク株式会社 口中挙動の評価方法
CN111709282A (zh) * 2020-05-07 2020-09-25 中粮营养健康研究院有限公司 表征食物口腔加工的方法

Similar Documents

Publication Publication Date Title
Brandão et al. Clinical and quantitative assessment of headgear compliance: a pilot study
US6893406B2 (en) Mastication monitoring device
WO2022085724A1 (ja) 口腔状態評価システム、口腔ケア推薦システム、及び口腔状態通知システム
JP2012139442A (ja) 食感の生理学的評価装置
WO2024096074A1 (ja) 咀嚼動作解析方法
Silvester et al. A dental revolution: The association between occlusion and chewing behaviour
JP2000166877A (ja) 生体リズム検査装置及び生体リズム検査方法
Indrasari et al. The influence of the number of functional tooth units (FTUs) on masticatory performance
Jack et al. Perceived texture: direct and indirect methods for use in product development
Pierson et al. Study of food textures by recording of chewing and swallowing movements
Lambert et al. Analysis of ambulatory blood pressure monitor data using a hierarchical model incorporating restricted cubic splines and heterogeneous within‐subject variances
Negishi et al. Relation of dietary preference to masticatory movement and masticatory exercises in Japanese children
JP2020148692A (ja) 口中挙動の評価方法
Mutsvari et al. Factors that influence data quality in caries experience detection: a multilevel modeling approach
Yashiro et al. Smoothness of chewing jaw movements in adults with mandibular prognathism
US20210212622A1 (en) Jaw function measurement apparatus
KR102031326B1 (ko) 저작기능 평가 시스템 및 방법
de Souza et al. Parental perception of malocclusion, its severity and aesthetic concerns in children with mixed dentition: A cross-sectional study
WO2021132269A1 (ja) 咀嚼支援システム
Cacaou et al. Patterns of coordinated lower facial muscle function and their importance in facial reanimation
EP4183335A1 (en) Oral care device with tooth mobility detection
Sugishita et al. Evaluation of subjective toughness feeling of the foods for efficient masticatory muscle activity in daily mastication for occlusal stability
Li et al. An Indirect Method of Brushing Force Detection with Five Force Sensors and RF Algorithm
CN113974581B (zh) 一种脉诊的动态切入特征的匹配方法及系统
WO2023058200A1 (ja) 疲労度算出装置、疲労度算出方法及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23885828

Country of ref document: EP

Kind code of ref document: A1