WO2020166554A1 - 体形データ取得システム、体形データ取得プログラム、及びコンピュータ読み取り可能な非一時的記憶媒体 - Google Patents

体形データ取得システム、体形データ取得プログラム、及びコンピュータ読み取り可能な非一時的記憶媒体 Download PDF

Info

Publication number
WO2020166554A1
WO2020166554A1 PCT/JP2020/005109 JP2020005109W WO2020166554A1 WO 2020166554 A1 WO2020166554 A1 WO 2020166554A1 JP 2020005109 W JP2020005109 W JP 2020005109W WO 2020166554 A1 WO2020166554 A1 WO 2020166554A1
Authority
WO
WIPO (PCT)
Prior art keywords
shape data
body shape
biometric information
unit
data acquisition
Prior art date
Application number
PCT/JP2020/005109
Other languages
English (en)
French (fr)
Inventor
湧斗 和智
笠原 靖弘
Original Assignee
株式会社タニタ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社タニタ filed Critical 株式会社タニタ
Priority to EP20756580.5A priority Critical patent/EP3925530A4/en
Priority to CN202080013923.4A priority patent/CN113423337A/zh
Publication of WO2020166554A1 publication Critical patent/WO2020166554A1/ja
Priority to US17/399,545 priority patent/US20210369140A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0537Measuring body composition by impedance, e.g. tissue hydration or fat content
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1075Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions by non-invasive methods, e.g. for determining thickness of tissue layer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4869Determining body composition
    • A61B5/4872Body fat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Definitions

  • the present disclosure relates to a body shape data acquisition system that acquires body shape data of a user, a body shape data acquisition program, and a computer-readable non-transitory recording medium that records the program.
  • the three-dimensional human body model that represents the body shape of an individual is effectively used in various areas such as healthcare, games, and apparel.
  • the body shape data for generating the human body model of the individual can be acquired by optically three-dimensionally scanning the human body.
  • Japanese Patent No. 5990820 JP5990820B
  • body composition such as fat free mass and fat mass of each part such as arm and leg from biological information (weight, bioelectrical impedance (BIA), etc.) obtained by measurement.
  • An apparatus is disclosed which calculates and determines the size of each part and the fat size of each part based on them to acquire body shape data.
  • the method of Japanese Patent No. 5990820 can transform a reference model such as a cylinder or an elliptic cone for each part such as an arm and a leg based on body composition such as length, fat mass, and lean mass.
  • a reference model such as a cylinder or an elliptic cone for each part such as an arm and a leg based on body composition such as length, fat mass, and lean mass.
  • the present disclosure aims to provide a body shape data acquisition system that can easily acquire body shape data.
  • a body shape data acquisition system is a biometric information acquisition unit that acquires biometric information of a user, a storage unit that stores a plurality of reference body shape data associated with biometric information, and the reference stored in the storage unit. From the body shape data, a selection unit that selects the reference body shape data corresponding to the biometric information acquired by the biometric information acquisition unit, and the body shape data of the user using the reference body shape data selected by the selection unit And a body shape data acquisition unit.
  • a plurality of reference body shape data associated with the biometric information is prepared, and the reference body shape data corresponding to the biometric information of the user is selected from among them to acquire the body shape data of the user.
  • Body shape data can be easily acquired without obtaining the size of each part of the body.
  • the body shape data acquisition unit may use the selected reference body shape data as it is as the user body shape data, or may make some correction or adjustment to the selected reference body shape data to use as the user body shape data.
  • the selection unit may select a plurality of the reference body shape data corresponding to the biometric information acquired by the biometric information acquisition unit, the body shape data acquisition unit, the selection unit It is also possible to generate combined body shape data by combining a plurality of selected reference body shape data and acquire the body shape data using the combined body shape data.
  • the body shape data acquisition unit may use the combined body shape data as it is as the user body shape data, or may make some correction or adjustment to the combined body shape data to form the user body shape data.
  • the selection unit may select one of the reference body shape data corresponding to the biometric information acquired by the biometric information acquisition unit, and the body shape data acquisition unit is the selection unit.
  • the selected one body shape data may be modified to obtain the body shape data.
  • the reference body shape data can be modified according to the body shape of the user to acquire the body shape model of the user.
  • the body shape data acquisition unit may use the corrected reference body shape data as the user body shape data as it is, or may further correct or adjust the corrected reference body shape data as the user body shape data.
  • the body shape data acquisition unit may correct the composite body shape data to acquire the body shape data.
  • the body shape data acquisition unit may use the corrected combined body shape data as the user's body shape data as it is, or may further modify or adjust the corrected combined body shape data as the user's body shape data.
  • the body shape data acquisition unit may make a correction in accordance with a correction instruction, and the storage unit may store the contents of the correction.
  • the body shape data acquisition unit may make an operation input, information indicating the user's body shape, or the contents of the correction stored in the storage unit as the correction instruction.
  • the correction is performed according to the correction content stored in the storage unit, the correction is performed according to the content of the correction performed in the past, so that it is not necessary to instruct the correction every time the body shape data is acquired.
  • the information indicating the body shape may be the size of the user's clothes.
  • the body shape data acquisition unit may correct the size and/or posture of the skeleton.
  • the size and posture of the skeleton which has a weak correlation with biological information, can be adjusted to obtain body shape data that is closer to the user's body.
  • the body shape data acquisition system may further include a display unit that displays a human body model based on the body shape data, the body shape data acquisition unit may make a correction according to a correction instruction by an operation input, and the display unit is The screen including the human body model reflecting the correction may be displayed while accepting the operation input.
  • the user can input an operation for a correction instruction while checking the human body model to which the correction is reflected on the screen.
  • the storage unit may be a database that stores the biological information and the reference body shape data in association with each other, and the selection unit may be one of the biological information stored in the database. From the above, the biometric information having a short Euclidean distance from the biometric information acquired by the biometric information acquisition unit may be specified, and the reference body shape data associated with the biometric information specified in the database may be selected.
  • the storage unit may be a database that stores the biological information and the reference body shape data in association with each other, and the selection unit processes the biological information by principal component analysis.
  • the biometric information acquired by the biometric information acquisition unit is used from among the biometric information stored in the storage unit by using a combined vector amount of a new eigenvector whose origin is the biometric information acquired by the biometric information acquisition unit. May be specified, and the reference body shape data associated with the specified biometric information in the database may be selected.
  • the storage unit may store a prediction algorithm learned as an output of the reference body shape data corresponding to the biometric information as an input
  • the selection unit is The output when the biometric information acquired by the biometric information acquisition unit is input to the prediction algorithm may be selected as the reference body shape data corresponding to the biometric information acquired by the biometric information acquisition unit.
  • the biological information is sex, age, height, weight, limb bioelectrical impedance, limbs bioelectrical impedance, limbs bioelectrical impedance, fat mass, lean body mass, fat thickness, muscle. It may be at least one quantity information.
  • the biometric information may include information obtained by measuring bioelectrical impedance.
  • body shape data in order to obtain body shape data, body shape data can be acquired from information such as gender, age, height, weight, bioelectrical impedance, and fat mass calculated from bioelectrical impedance, which is relatively easy to acquire.
  • a body shape data acquisition program stores a computer including a storage unit that stores a plurality of reference body shape data associated with biometric information, a biometric information acquisition unit that acquires biometric information of a user, and is stored in the storage unit. From the reference body shape data, a selection unit that selects the reference body shape data corresponding to the biometric information acquired by the biometric information acquisition unit, and the body shape data of the user using the reference body shape data selected by the selection unit To function as a body shape data acquisition unit.
  • a plurality of reference body shape data associated with the biometric information is prepared, and the reference body shape data corresponding to the biometric information of the user is selected from among them to obtain the body shape data of the user.
  • the body shape data can be easily acquired without obtaining the size of each part of the body.
  • FIG. 1 is a diagram showing a body shape data acquisition system according to an embodiment.
  • FIG. 2 is a diagram showing a usage mode of the measuring device according to the embodiment.
  • FIG. 3 is a block diagram showing the configuration of the body shape data acquisition system according to the embodiment.
  • FIG. 4 is a diagram showing an example of the database according to the embodiment.
  • FIG. 5 is a diagram showing an example of a human body model based on body shape data according to the embodiment.
  • FIG. 6 is a diagram for explaining calculation of the degree of similarity in the first selection method according to the embodiment.
  • FIG. 7 is a diagram for explaining calculation of the similarity according to the embodiment.
  • FIG. 8 is a diagram illustrating generation of composite body shape data according to the embodiment.
  • FIG. 9 is a diagram showing a correction screen for making a correction by a manual operation according to the embodiment.
  • FIG. 10 is a flowchart of the body shape data acquisition method according to the embodiment.
  • FIG. 11 is a flowchart of the body shape data acquisition method according to the embodiment.
  • the body shape data is data for representing the shape of the body.
  • the body shape data may be data representing the two-dimensional shape of the body, but in the present embodiment, the body shape data is data representing the three-dimensional shape of the body.
  • the data format may be any of wireframe, surface, solid, voxel, and polygon, and the file format may be any of JSON, STL, PLY, and the like. It may be in the form of.
  • the body shape data does not have to be data that expresses a two-dimensional or three-dimensional shape by itself, but may be a set of parameters that represent the size of each body part.
  • the human body model according to the parameter is obtained by applying the parameter to a predetermined human body model.
  • FIG. 1 is a diagram showing a body shape data acquisition system according to the embodiment.
  • FIG. 2 is a diagram showing a usage mode of the measuring device according to the embodiment.
  • body shape data acquisition system 50 includes measuring device 10 and information processing terminal (hereinafter referred to as “user terminal”) 20.
  • the measuring device 10 is a body composition meter and is capable of measuring body weight and body composition as biological information.
  • the measuring device 10 includes a main body 11 and a handle unit 12.
  • the body 11 and the handle unit 12 are electrically connected by a connection cord 13.
  • the handle unit 12 can be housed in the housing portion 14 provided in the main body 11.
  • the connection cord 13 is wound up by a winding mechanism (not shown) inside the body portion 11 and housed inside the body portion 11.
  • the main body 11 includes an energizing electrode 111R and a measuring electrode 112R on the right side of the upper surface, and an energizing electrode 111L and a measuring electrode 112L on the left side of the upper surface.
  • the handle unit 12 has a substantially rod-like shape, a handle body 15 is provided in the center thereof, and grips 16R and 16L are provided on both sides of the handle body 15.
  • the handle body 15 is provided with a display panel 17 and operation buttons 18A to 18D.
  • the grip 16R includes an energizing electrode 161R and a measuring electrode 162R
  • the grip 16L includes an energizing electrode 161L and a measuring electrode 162L.
  • the user measures the biological information by riding barefoot on the main body 11 and standing upright and holding the handle unit 12 with both hands with both arms extended forward.
  • the heel of the right foot is in contact with the energizing electrode 161R
  • the palm of the right hand is in contact with the measuring electrode 162R
  • the finger of the right hand is in contact with the energizing electrode 161L
  • the palm of the left hand is in contact with the electrode for measuring 161L.
  • the finger of the left hand contacts the electrode 162L.
  • the main body portion 11 is equipped with a load cell for measuring the weight therein, and as shown in FIG. 2, the weight of the user riding on the main body portion 11 can be measured.
  • the user terminal 20 is a portable terminal equipped with a computer capable of executing an application program, an internal storage such as a flash memory, a touch panel, various connectors, and the like.
  • the user terminal 20 also includes a wireless communication device for connecting to the Internet and a short-range communication device for connecting to other devices nearby.
  • the measuring device 10 includes a near field communication device for connecting to another device nearby. The measurement device 10 and the user terminal 20 can transmit and receive various information by short-range wireless communication by pairing with each other.
  • FIG. 3 is a block diagram showing the configuration of the body shape data acquisition system according to the embodiment.
  • the body shape data acquisition system 50 includes an input unit 51, a measurement unit 52, a selection unit 53, a storage unit 54, an acquisition unit 55, a correction instruction reception unit 56, and a display unit 57.
  • the measuring unit 52 is provided in the measuring device 10.
  • the configuration other than the measurement unit 52 may be provided in either the measurement device 10 or the user terminal 20, all the configurations are provided in the measurement device 10, and the measurement device 10 alone constitutes the body shape data acquisition system 50. May be.
  • the selection unit 53, the storage unit 54, the acquisition unit 55, and the correction instruction reception unit 56 are provided in another device that communicates with the measurement device 10 or the user terminal 20 via the Internet, and the other device and the measurement device.
  • a body shape data acquisition system 50 may be configured by 10 and the user terminal 20. In this case, the other device may be shared by a plurality of measuring devices 10 or user terminals 20.
  • the input unit 51 and the measuring unit 52 are provided in the measuring device 10, and other configurations are provided in the user terminal 20.
  • the user terminal 20 is a general-purpose computer, and the processor executes the application program operating on the operating system to cause the user terminal 20 to select the selection unit 53, the storage unit 54, and the acquisition unit 55. , And a correction instruction receiving unit 56.
  • the application program may be provided to the user terminal 20 by being downloaded from the communication network by the user terminal 20, or may be provided to the user terminal 20 via a non-transitory recording medium.
  • the input unit 51 receives an operation of turning on/off the power of the measuring apparatus 10, an operation of various settings, and an operation of inputting biometric information by the user. Specifically, the input unit 51 receives an input operation of biometric information such as age, sex, and height.
  • the measurement unit 52 measures biometric information such as a user's weight and bioelectrical impedance. In addition, the measurement unit 52 obtains biometric information such as the fat percentage of the whole body and body parts by applying biometric information such as the height, weight, and bioelectrical impedance of the user to a predetermined regression equation for calculation.
  • the biological information is input by the user through the input unit 51 (input biological information), measured by the measuring unit 52 (measured biological information), and calculated by the measuring unit 52. Some are calculated (calculated biometric information).
  • the measuring unit 52 includes a load cell for measuring the weight.
  • the load cell is composed of a strain-generating body made of a metal member that deforms according to a load, and a strain gauge attached to the strain-generating body.
  • the resistance value (output value) of the strain gauge changes according to its expansion and contraction.
  • the measuring unit 52 calculates the weight from the difference between the output value (zero point) of the load cell when no load is applied and the output value when a load is applied. Note that the configuration related to the weight measurement using the load cell may be the same as that of a general weight scale.
  • the measurement unit 52 further includes the above electrodes 111R, 111L, 112R, 112L, 161R, 161L, 162R, 162L, and a current control circuit for supplying a current to each energizing electrode 161R, 161L, 111R, 111L. There is.
  • the measurement of the bioelectrical impedance of the user's whole body and each body part in the measurement unit 52 is performed as follows, for example.
  • the bioelectrical impedance of the whole body is measured by supplying a current using the energizing electrode 161L and the energizing electrode 111L, and in the current path flowing through the left hand, the left arm, the chest, the abdomen, the left leg, and the left foot, the left hand.
  • the potential difference between the measurement electrode 162L in contact with the left leg and the measurement electrode 112L in contact with the left leg is measured.
  • the measurement of the bioelectrical impedance of the right leg is performed by supplying a current using the energizing electrode 161R and the energizing electrode 111R, and in the current path flowing through the right hand, the right arm, the chest, the abdomen, the right leg, and the right foot.
  • the potential difference between the measuring electrode 112L in contact with the left foot and the measuring electrode 112R in contact with the right foot is measured.
  • the bioelectrical impedance of the left leg is measured by supplying a current using the energizing electrode 161L and the energizing electrode 111L, in the current path that flows through the left hand, the left arm, the chest, the abdomen, the left leg, and the left foot.
  • the potential difference between the measuring electrode 112L in contact with the left foot and the measuring electrode 112R in contact with the right foot is measured.
  • the bioelectrical impedance of the right arm is measured by supplying a current using the energizing electrode 161R and the energizing electrode 111R, and in the current path flowing through the right hand, the right arm, the chest, the abdomen, the right leg, and the right foot, the left hand.
  • the potential difference between the measuring electrode 162L that is in contact with and the measuring electrode 162R that is in contact with the right hand is measured.
  • the bioelectrical impedance of the left arm is measured by supplying a current using the energizing electrode 161L and the energizing electrode 111L, and in the current path flowing through the left hand, the left arm, the chest, the abdomen, the left leg, and the left foot.
  • the potential difference between the measuring electrode 162L that is in contact with and the measuring electrode 162R that is in contact with the right hand is measured.
  • the measuring unit 52 causes a current to flow from each current-carrying electrode to a predetermined part of the user's body, measures the potential difference generated in this current path, and based on each value of such current and potential difference, the user
  • the bioelectrical impedance of the whole body or each body part is calculated.
  • the configuration related to the measurement of bioelectrical impedance may be the same as that of a general body composition meter.
  • the measurement unit 52 applies the input biometric information and the measured biometric information to a predetermined regression equation to perform calculation to obtain a fat percentage, a fat amount, a lean mass, a muscle amount, a visceral fat amount, a visceral fat level, Acquires calculated biometric information such as visceral fat area, subcutaneous fat amount, basal metabolic rate, bone amount, body water content, BMI (Body Mass Index), intracellular fluid volume, extracellular fluid volume.
  • the configuration related to the calculation of the calculated biometric information may be the same as that of a general body composition meter.
  • the calculated biometric information may be acquired by a machine learning model in which the input biometric information and the measured biometric information are input and the calculated biometric information is output.
  • the input unit 51 acquires biometric information by an operation input
  • the measurement unit 53 acquires biometric information by measurement or measurement and calculation. Function as a department.
  • the storage unit 54 has a database in which biometric information and reference body shape data (hereinafter referred to as “reference body shape data”) are associated with each other.
  • FIG. 4 is a diagram showing an example of the database according to the embodiment. In the example of FIG. 4, one record is configured by associating the biometric information of sex, age, height, weight, BMI, and fat percentage with the reference body shape data for each measurement number.
  • the biological information stored in the storage unit 54 may include gender, age, height, weight, BMI, and fat percentage itself, as well as a multiplier and a ratio thereof.
  • FIG. 5 is a diagram showing an example of a human body model based on body shape data according to the embodiment.
  • the body shape data is wireframe three-dimensional data.
  • the database stores a large number of combinations of biometric information and reference shape data.
  • a table in which measurement numbers are associated with biometric information and a table in which measurement numbers are associated with reference body shape data may be stored separately.
  • the selection unit 53 selects reference body shape data corresponding to the biometric information acquired by the input unit 51 and the measurement unit 52 from the reference body shape data stored in the storage unit 54.
  • the selection unit 53 inputs The sex, age, and height of the user, which are input to the unit 51, and the weight, BMI, and fat percentage of the user, which are measured by the measuring unit 54, are taken out and biometric information close to them is searched from the database.
  • the selection unit 53 calculates the corresponding multipliers and ratios. To do.
  • the acquisition unit 55 acquires the body shape data of the user using the reference body shape data selected by the selection unit 53.
  • two types of methods will be described as methods for selecting the reference body shape data in the selecting unit 53 and acquiring the body shape data in the acquiring unit 55.
  • the selection unit 53 selects one reference body shape data, and the acquisition unit 55 acquires the body shape data of the user using the reference body shape data. To do.
  • the selection unit 53 acquires the biometric information (hereinafter, “acquired information”) acquired by the input unit 51 and the measurement unit 52 from the biometric information (hereinafter, also referred to as “stored information”) stored in the storage unit 54. (Also referred to as ".”), and the reference body shape data associated with the stored information most similar to the acquired information is selected. Three examples will be described below as the selection method.
  • the selection unit 53 searches for stored information having a high degree of similarity with the acquired information.
  • the similarity is calculated by the difference between the acquired information and the stored information.
  • the degree of similarity is calculated based on the Euclidean distance between the acquired information and the stored information in the multidimensional coordinate space in which the variables are sex, age, height, weight, BMI, and fat percentage.
  • the following formula (1) is a formula for calculating the degree of similarity in the first selection method.
  • i is the number of the stored information
  • j is the number of the variable that constitutes the multidimensional space coordinates
  • S i is the similarity between the i-th stored information and the acquired information
  • v ij Is a vector of the j-th variable of the i-th storage information
  • v 0j is a vector of the j-th variable of the acquisition information.
  • FIG. 6 is a diagram illustrating calculation of the degree of similarity in the first selection method according to the embodiment.
  • a three-dimensional coordinate space using only height, weight, and fat percentage as variables is shown, but sex, age, height, weight, BMI, and fat percentage are shown.
  • the variable is used, the Euclidean distance in the 6-dimensional coordinate space is calculated.
  • a hollow circle (“ ⁇ ” in the figure) is acquired information
  • a small dot (“ ⁇ ” in the figure) is stored information
  • a solid circle (“ ⁇ ” in the figure) is The stored information is the closest (similar) to the acquired information.
  • variable difference When the similarity is calculated by the Euclidean distance, the variable difference may be weighted as shown in the following expression (2).
  • W j is the weight (importance) of the j-th variable.
  • the selecting unit 53 selects the reference body shape data associated with the stored information that is the closest to the acquired information, that is, the stored information that has the highest degree of similarity.
  • the selection unit 53 searches for stored information having a high degree of similarity with the acquired information.
  • the acquired information and the stored information are processed by the principal component analysis, and the degree of similarity is calculated from the combined vector amount of the new eigenvector having the acquired information as the origin.
  • the following formula (3) is a formula for calculating the degree of similarity in the second selection method.
  • j (pca) is the number of the principal component axis forming the multidimensional space coordinates
  • v ij (pca) is the eigenvector of the i-th stored information with respect to the acquired information.
  • FIG. 7 is a diagram for explaining the calculation of the similarity according to the embodiment.
  • the case where the principal component analysis is performed on the first to third principal components as variables is shown, but the number of principal components may be larger or smaller than three. Good.
  • hollow circles (“ ⁇ ” in the figure) are acquired information
  • small dots (“ ⁇ ” in the figure) are stored information
  • solid circles (“ ⁇ ” in the figure) are The stored information is the closest (similar) to the acquired information.
  • weights may be attached to a plurality of principal component analysis axes for combination.
  • W j (pca) is the weight (importance ) of the j-th (pca) principal component axis.
  • the selecting unit 53 selects the reference body shape data associated with the stored information that is the closest to the acquired information, that is, the stored information that has the highest degree of similarity.
  • the similarity is evaluated after processing the stored information and the acquired information by the principal component analysis.
  • the information processing method is not limited to the principal component analysis, and the dimension reduction of high-dimensional biometric information is performed. May be used, and for example, processing by singular value decomposition may be used.
  • the storage unit 54 stores a prediction algorithm that has been learned using biometric information as an input and reference body shape data corresponding to the biometric information as an output.
  • this prediction algorithm it is possible to employ a prediction algorithm learned by a hierarchical neural network of at least three layers or more, which is constructed by using biometric information as an input and the reference shape data or its feature amount as an output.
  • the prediction algorithm other machine learning models such as k-means, SVM (support vector machine), and random forest can be adopted in addition to the neural network.
  • the selecting unit 53 selects the output when the acquired information is input to the prediction algorithm as the reference body shape data corresponding to the acquired information.
  • the acquisition unit 55 acquires the body shape data of the user using the reference body shape data selected by the selection unit 53.
  • the acquisition unit 55 first uses the reference body shape data as it is as the body shape data of the user.
  • the acquisition unit 55 can also correct the reference body shape data to obtain the body shape data of the user. The correction will be described later.
  • the selecting unit 53 selects a plurality of reference body shape data, and the acquiring unit 55 uses the plurality of selected reference body shape data of the user. Get body data. Specifically, the selection unit 53 searches for a predetermined number of pieces of stored information that are closest to the acquired information by any of the above-described first to third selection methods, and selects a plurality of criteria associated with those pieces of stored information. Select body shape data. The acquisition unit 55 performs synthetic processing on the plurality of reference body shape data selected by the selection unit 53 to generate combined body shape data.
  • FIG. 8 is a diagram illustrating generation of composite body shape data according to the embodiment.
  • the selection unit 53 includes a storage information D 1 is closest to the obtained information D 0 for the first principal component axis, opposite the axis with the nearest stored information D 1 to obtain information D 0 as a reference The closest stored information D 2 in the direction is selected.
  • the acquisition unit 55 calculates the position information of each point of the point group that constitutes the body shape model indicated by the composite body shape data. Specifically, the acquisition unit 55 calculates the position information of each of the points described above, in which the variable includes the degree of similarity for each axis (variable) in the multidimensional coordinate space including a plurality of axes (variables).
  • the axis (variable) may be the principal component axis.
  • the arithmetic expression of the position information P kj that includes, as a variable, the similarity of the k-th point k of the point group constituting the body model represented by the composite body data on the j-th axis j in the multidimensional coordinate space including a plurality of axes is As shown in the following formula (5).
  • S c,j (1) , S c,j (2) ,..., S c,j (t) are t pieces selected by the selection unit 53 in order to calculate the similarity on the axis j. It is the degree of similarity on the axis j between each of the stored information and the acquired information.
  • G is a function having the degree of similarity as a variable
  • ⁇ kj is an interpolation rate on the axis j of the point k.
  • P 0,k (1, 2,..., T) is reference body shape data corresponding to any one of the t pieces of stored information selected for calculating the degree of similarity on the axis j.
  • P 0,k (1, 2,..., T) is a point group that constitutes each body shape model indicated by reference body shape data corresponding to a plurality of pieces of stored information among t pieces of stored information.
  • the average position information of each point corresponding to the point k of the body model represented by the composite body data may be used.
  • the acquisition unit 55 performs combined processing illustrated in FIG. 8 for each axis (variable) in a multidimensional coordinate space including a plurality of axes (variables) and combines them to generate combined body shape data.
  • the formula is as the following formula (6).
  • C j is the contribution rate of the j-th axis (variable) used for calculating the similarity to the generation of the composite body shape data.
  • the acquisition unit 55 may perform the combining process so that the intermediate point between the two selected pieces of stored information is the combined body shape data regardless of the position of the acquired information.
  • the reference body shape data is not defined by the three-dimensional shape data but is defined by a set of parameters representing the size of each part of the body
  • interpolation of those parameters is performed.
  • the synthetic body shape data may be generated by performing. Further, for example, in the case where the first principal component when the stored information is subjected to the principal component analysis represents the size of the waist, when the waists of the two closest reference body shape data are 63 cm and 65 cm, the one criterion is calculated.
  • the waist of the composite body shape data located in the middle of the body shape data may be 64 cm.
  • the acquisition unit 55 acquires one reference body shape data item selected by the selection unit 53, and in the second method, the plurality of reference body shape data selected by the selection unit 53.
  • the data is synthesized to obtain the synthetic body shape data.
  • the acquisition unit 55 has a function of correcting the reference body shape data and the combined body shape data. Hereinafter, a correction method using this correction function will be described.
  • the correction instruction receiving unit 56 receives a correction instruction by a user's manual operation on the correction screen displayed on the display unit 57.
  • the acquisition unit 55 corrects the reference body shape data and the combined body shape data according to the manual operation received by the correction instruction receiving unit 56.
  • the display unit 57 displays a correction screen including a human body model represented by the reference body shape data and the composite body shape data, and a table of sizes of the respective parts that can be corrected.
  • FIG. 9 is a diagram showing a correction screen for making a correction by a manual operation according to the embodiment.
  • the correction screen 571 includes a human body model M and a table T of sizes of respective parts that can be corrected.
  • Table T the current size is indicated by an indicator (bar graph) and a numerical value for each modifiable site.
  • sizes that are difficult to estimate from bioelectrical impedance for example, skeletal sizes such as height, neck length, shoulder width, and arm length, and sizes such as neck circumference, wrists, hip height, etc.
  • the size is correctable.
  • the posture such as the bending state of the back (back of the cat) may be corrected.
  • the user can change the size of the corresponding part by directly designating each part of the human body model M on the correction screen 571. For example, as shown in FIG. 9, when a touch operation of pinching out both shoulders of the human body model M is performed, the correction instruction receiving unit 56 receives the correction instruction by this operation, and the acquisition unit 55 determines the shoulder width according to the correction instruction.
  • the standard body shape data and the composite body shape data are modified so as to expand.
  • the display unit 57 displays the human body model M in which the shoulder width is widened according to the corrected reference body shape data and the combined body shape data.
  • the correction instruction receiving unit 56 receives the correction instruction by this operation, and the acquisition unit 55 follows the correction instruction. Correct the reference body shape data and the composite body shape data so that the leg length is shortened.
  • the display unit 57 displays the human body model M in which the lower leg length is shortened according to the corrected reference body shape data and composite body shape data. Further, when the human body model M displayed on the correction screen 571 is directly touch-operated to change the size of the corresponding part, the change is immediately reflected in the table T.
  • the display unit 57 expands or contracts the indicator.
  • the correction instruction receiving unit 56 receives the correction instruction by this operation, and the acquisition unit 55 corrects the reference body shape data and the composite body shape data so as to correct the corresponding part according to the correction instruction.
  • the expansion and contraction of the indicator is reflected in the numerical values in Table T.
  • the display unit 57 also reflects the correction of the reference body shape data and the composite body shape data on the human body model M.
  • the correction instruction receiving unit 56 receives the correction instruction by this operation, and the display unit 57 rewrites the numerical values in Table T.
  • the acquisition unit 55 corrects the reference body shape data and the combined body shape data so as to correct the corresponding part according to the correction instruction.
  • the display unit 57 further expands/contracts the indicator according to the rewritten numerical value, and displays the human body model M reflecting the correction of the reference body shape data and the composite body shape data.
  • the correction function of the acquisition unit 55 allows the user to correct the reference body shape data and the composite body shape data so as to match their body shape. Further, on the correction screen 571, the user can change the size of each body part by directly operating the human body model generated using the reference body shape data or the composite body shape data, and by expanding or contracting the indicator for each body part. The size of each part can be changed, and the size of each part can be changed by rewriting the numerical value for each part. In any case, the corrected human body model can be confirmed on the correction screen 571.
  • information indicating the body shape of the user for example, the size of each body part such as the neck, chest, waist, arms, and thighs, or the clothing worn by the user.
  • Correction can be instructed by specifying the size or body type of.
  • the size can be designated by 1 to 10 and the body type can be designated by YA body, A body, AB body, BE body, E body, and K body.
  • the size of the chest and waist can be specified by about 36 to 42
  • the height classification can be specified by Short (SHT), Regular (REG), and Long (LONG).
  • the chest size can be specified at about 42 to 56
  • the waist size can be specified at Frop8 to Drop0
  • the height classification can be specified at Corco (C), Regulate (R), and Lungo (L). ..
  • C Corco
  • R Regulate
  • L Lungo
  • the acquisition unit 55 modifies the numerical values such as the shoulder width and waist according to the size and body type.
  • the modification instruction receiving unit 56 receives the modification instruction and the acquisition unit 55 modifies the reference body shape data or the composite body shape data accordingly, the content of the modification is stored in the storage unit 54.
  • the content of the correction stored in the storage unit 54 is referred to when the body shape data is acquired next time or later according to the acquired information of the same user. That is, when the storage unit 54 stores the contents of past corrections for the same user, the correction instruction receiving unit 56 corrects the reference body shape data and the combined body shape data according to the contents of the corrections. Even in this case, the user can further make a correction by a manual operation using the correction screen.
  • a record in which the corrected reference body shape data or the synthesized body shape data is used as new reference body shape data is stored in the database of the storage unit 54 together with the biometric information of the user.
  • the database may be updated in this way.
  • the storage unit 54 is provided in another device other than the measuring device 10 and the user terminal 20 and is shared by a plurality of users, the corrections made by the plurality of users are stored in the database. It will be reflected and the database will be updated effectively.
  • the acquisition unit 55 uses the reference body shape data when one piece of the reference body shape data is selected by the selecting unit 53, and uses the reference body shape data when the plurality of reference body shape data is selected by the selecting unit 53.
  • the correction instruction receiving unit 56 receives a correction instruction using the combined body shape data after generating the combined body shape data by performing the combining process, the reference body shape data and the combined body shape data are further corrected. Then, the body shape data of the user is acquired.
  • the display unit 57 displays the human body model using the body shape data acquired by the acquisition unit 55.
  • the reference body shape data (and the combined body shape data obtained by combining the reference body shape data) is data represented by a wire frame, and the human body model displayed on the display unit 57 is obtained by converting the wire frame. It is a surface model.
  • the data format of the displayed human body model and the data format of the reference body shape data may be the same, and the display unit 57 uses the reference body shape data, the composite body shape data, or data obtained by modifying them as the human body model as it is. It may be displayed. Further, the body shape data acquisition system 50 may not have the display unit 57 and may only transmit the body shape data acquired by the acquisition unit 55 to another device.
  • the human body model When the human body model is displayed on the display unit 57, it can be rotated and can be enlarged or reduced. Further, the hands and feet of the human body model may be made movable by adding joint information to the body shape data.
  • FIG. 10 is a flowchart of the body shape data acquisition method according to the embodiment.
  • the flowchart of FIG. 10 shows an example in which the selection unit 53 selects one reference body shape data.
  • the input unit 51 accepts an operation input of input biometric information such as a user's sex, age, and height, and the measurement unit 52 measures measured biometric information such as weight and bioelectrical impedance, and calculates a living body such as a fat percentage.
  • various biological information is acquired and output to the selection unit 53 (step S101).
  • the selection unit 53 refers to the database of the storage unit 54, identifies one piece of stored information closest to the obtained information, selects one reference body shape data corresponding to the identified stored information, and obtains the obtained unit. It is output to 55 (step S102).
  • the correction instruction receiving unit 56 determines whether or not the contents of the correction made in the past are stored in the storage unit 54 (step S103), and if stored (YES in step S103), the acquisition unit 55. Corrects the reference body shape data by using the correction content as a correction instruction (step S104). If the correction content is not stored in the storage unit 54 (NO in step S103) and after the correction is performed according to the stored correction content, whether or not the correction instruction receiving unit 56 has received the correction instruction from the user. Is determined (step S105).
  • the correction instruction receiving unit 56 receives a correction instruction from the user (YES in step S105), the reference body shape data is corrected according to the correction instruction (step S106), and the content of the correction is stored in the storage unit 54. It is stored (step S107).
  • the acquisition unit 55 sets the reference body shape data (or the corrected reference body shape data when the correction is made).
  • the display unit 57 displays the human body model according to the body shape data (step S109).
  • FIG. 11 is a flowchart of the body shape data acquisition method according to the embodiment.
  • the flowchart of FIG. 11 shows an example in which the selection unit 53 selects a plurality of reference body shape data.
  • the input unit 51 receives an operation input of input biometric information such as a user's sex, age, and height, and the measurement unit 52 measures measured biometric information such as weight and bioelectrical impedance, and calculates a living body such as a fat percentage.
  • various biological information is acquired and output to the selection unit 53 (step S111).
  • the selection unit 53 refers to the database of the storage unit 54, identifies a plurality of (for example, three) biometric information items (stored information items) closest to the acquired information, and corresponds to each of the identified stored information items.
  • a plurality of reference body shape data are acquired and output to the acquisition unit 55 (step S112).
  • the acquisition unit 55 combines the plurality of reference body shape data selected by the selection unit 53 to generate combined body shape data (step S113).
  • the correction instruction unit 56 determines whether or not the contents of the correction made in the past are stored in the storage unit 54 (step S114), and if stored (YES in step S11134), the acquisition unit 55 is Then, the composite body shape data is corrected by using the correction content as a correction instruction (step S115).
  • the correction content is not stored in the storage unit 54 (NO in step S114) and after the correction content is corrected according to the stored correction content, whether or not the correction instruction receiving unit 56 receives the correction instruction from the user. Is determined (step S116).
  • the correction instruction receiving unit 56 receives a correction instruction from the user (YES in step S116), the composite body shape data is corrected according to the correction instruction (step S117), and the content of the correction is stored in the storage unit 54. It is stored (step S118).
  • the acquisition unit 55 causes the composite body shape data (or the modified composite body shape data if modified). According to the above, it is acquired as the body shape data of the user and is output to the display unit 57 (step S119).
  • the display unit 57 displays the human body model according to the body shape data (step S120).
  • a plurality of reference body shape data is prepared in advance, and when the user's biometric information is acquired, the reference body shape data corresponding to the biometric information is acquired. Since the body shape data of the user is acquired by selecting, the biometric information of the user may be acquired to the extent necessary to select the reference body shape data prepared in advance, and the body shape data of the user can be easily acquired. In the above-mentioned embodiment, since each of the plurality of reference body shape data in the database is associated with gender, age, height, weight, BMI, and fat percentage as biometric information, the biometric information of the user is It is enough to get the information of.
  • the storage unit 54 can be provided in the small-sized user terminal 20 having a limited capacity.
  • the biometric information of the user having a smaller amount of information than the biometric information stored in the database can be acquired, for example, when only the sex, age, height, and weight are obtained as the biometric information of the user. It is possible to search the database for biometric information close to the biometric information of the user, and it is possible to select reference body shape data corresponding to the biometric information of the user. Further, in the body shape data acquisition system 50, the measurement unit 52 is not essential, and the selection unit using the biometric information of the user input to the input unit 51 and/or the biometric information measured by another body composition meter. You may perform the process of the selection in 53.
  • the selection unit 53 identifies the attributes of the user such as height and occupation from the biometric information of the user input to the input unit 51, and selects the stored information associated with the biometric information belonging to the same attribute as the user. May be. As a result, the reference body shape data corresponding to the biometric information data belonging to the same attribute as the user is selected, so that it can be expected that stored information close to the body shape of the actual user is selected.
  • the bioelectrical impedance between limbs may be measured as in the above-described embodiment, and a device corresponding to the handle unit 12 may be used. Only the bioelectrical impedance between both hands may be measured, or only the bioelectrical impedance between both feet may be measured by a device corresponding to the main body 11. That is, according to the body shape data acquisition system 50 of the present embodiment, only the bioelectrical impedance between both hands or both feet can be obtained, and even if the bioelectrical impedance of the whole body cannot be obtained, such a living body The body shape data of the user can be acquired using the electrical impedance.
  • the human body model of the user can be understood at a glance only by the biometric information of the user obtained by the input unit 51 and the measurement unit 52.
  • the past human body model and the target human body model are superimposed and displayed on the display of the display unit 57, the change from the past and the difference to the target body shape can be visually grasped.
  • the body shape data in a format such as “.json”, “.blender”, “.stl”, “.ply”, etc., it is used as character asset data for contents such as games and VR, AR, MR.
  • characters such as games and VR, AR, MR.
  • the display unit 57 may display the movement of the character or the human body model according to the physical ability.
  • the storage unit 54 by storing the history of the body shape data of the user in the storage unit 54, it is possible to predict the future body shape by using the transition of the body shape data. It is also possible to set body shape data of athletes, models, and the like as the target body shape, and to grasp the degree of similarity between the body shape of the user and the target body shape and the similar system.
  • Measuring Device 11 Main Body 111R, 111L Energizing Electrode 112R, 112L Measuring Electrode 12 Handle Unit 13 Connection Cord 14 Housing 15 Handle Main Body 16R, 16L Grip 161R, 161L Energizing Electrode 162R, 162L Measuring Electrode 17 Display Panel 18A -18D Operation button 20
  • Information processing terminal user terminal 50 body shape data acquisition system 51 input unit 52 measurement unit 53 selection unit 54 storage unit 55 acquisition unit 56 correction instruction reception unit 57 display unit 571 correction screen

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Architecture (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本開示は、簡易に体形データを取得できる体形データ取得システムを提供する。体形データ取得システム(50)は、ユーザの生体情報を取得する入力部(51)及び測定部(52)と、生体情報に対応付けられた複数の基準体形データを記憶する記憶部(54)と、記憶部(54)に記憶された基準体形データから、入力部(51)及び測定部(52)が取得したユーザの生体情報に対応する基準体形データを選択する選択部(53)と、選択部(53)で選択した基準体形データを用いてユーザの体形データを取得する取得部(55)とを備えている。

Description

体形データ取得システム、体形データ取得プログラム、及びコンピュータ読み取り可能な非一時的記憶媒体 関連出願の相互参照
 本出願では、2019年2月12日に日本国に出願された特許出願番号2019-022352の利益を主張し、当該出願の内容は引用することによりここに組み込まれているものとする。
 本開示は、ユーザの体形データを取得する体形データ取得システム、体形データ取得プログラム、及び同プログラムを記録したコンピュータ読み取り可能な非一時的記録媒体に関する。
 個人の体形を表す3次元の人体モデルが、ヘルスケア、ゲーム、アパレル等の様々な領域で有効に利用されている。個人の人体モデルを生成するための体形データは、人体を光学的に3次元スキャンすることで取得できる。また、特許第5990820号公報(JP5990820B)には、測定によって得た生体情報(体重、生体電気インピーダンス(BIA)等)から腕、脚等の各部位の除脂肪量、脂肪量等の体組成を算出し、それらに基づいて各部位のサイズ及び各部位の脂肪のサイズ等を決定して体形データを取得する装置が開示されている。
 しかしながら、光学的に人体を3次元スキャンして体形データを取得する方法では、3次元スキャンをするために、人体にマークを付す(マーク付きのスーツを着てもよい)か、あるいはステレオカメラ等の特殊なカメラが必要となる。また、特許第5990820号公報の方法では、各部位のサイズ及び各部位の脂肪のサイズ等を算出するための複雑な演算ができる計測装置が必要となる。また、特許第5990820号公報の方法では、より正確な体形データを取得しようとした場合、より細かい部位ごとの演算が必要となり、時間を要する。
 また、特許第5990820号公報の方法は、腕、脚等の各部位について、円柱や楕円錘等の基準モデルを、長さ、脂肪量、除脂肪量等の体組成に基づいて変形することで体形データを取得するが、基準モデルが実際の体形と乖離することもあり、その場合には基準モデルに対する変化量が大きくなりすぎて、誤差が生じやすくなる。
 そこで、本開示は、簡易に体形データを取得できる体形データ取得システムを提供することを目的とする。
 一態様の体形データ取得システムは、ユーザの生体情報を取得する生体情報取得部と、生体情報に対応付けられた複数の基準体形データを記憶する記憶部と、前記記憶部に記憶された前記基準体形データから、前記生体情報取得部が取得した前記生体情報に対応する前記基準体形データを選択する選択部と、前記選択部で選択した前記基準体形データを用いて前記ユーザの体形データを取得する体形データ取得部とを備えた構成を有している。
 この構成により、生体情報に対応付けられた複数の基準体形データを用意して、そのなかからユーザの生体情報に対応する基準体形データを選択して当該ユーザの体形データを取得するので、ユーザの身体の各部位のサイズを求めることなく簡易に体形データを取得できる。なお、体形データ取得部は、選択された基準体形データをそのままユーザの体形データとしてもよいし、選択された基準体形データに何らかの修正ないし調整をしてユーザの体形データとしてもよい。
 上記の体形データ取得システムにおいて、前記選択部は、前記生体情報取得部が取得した前記生体情報に対応する複数の前記基準体形データを選択してよく、前記体形データ取得部は、前記選択部が選択した複数の前記基準体形データを合成した合成体形データを生成し、前記合成体形データを用いて前記体形データを取得してよい。
 この構成により、1つの基準体形データをそのまま用いる場合と比較して、よりユーザの生体情報に対応した体形データを取得できる。なお、体形データ取得部は、合成体形データをそのままユーザの体形データとしてもよいし、合成体形データに何らかの修正ないし調整をしてユーザの体形データとしてもよい。
 上記の体形データ取得システムにおいて、前記選択部は、前記生体情報取得部が取得した前記生体情報に対応する1つの前記基準体形データを選択してよく、前記体形データ取得部は、前記選択部で選択された前記1つの基準体形データを修正して前記体形データを取得してよい。
 この構成により、ユーザの体形に合わせて基準体形データを修正してユーザの体形モデルを取得できる。この修正によって、特に、生体情報との相関が弱く推定精度が低くなりがちな身体部位のサイズを調整することが可能となる。なお、体形データ取得部は、修正された基準体形データをそのままユーザの体形データとしてもよいし、修正された基準体形データにさらに何らかの修正ないし調整をしてユーザの体形データとしてもよい。
 上記の体形データ取得システムにおいて、前記体形データ取得部は、前記合成体形データを修正して前記体形データを取得してよい。
 この構成により、ユーザの体形に合わせて合成体形データを修正した上で体形データを取得できる。この修正により、特に、生体情報との相関が弱く、基準体形データの合成によっても推定精度が低くなりがちな身体部位のサイズを調整することが可能となる。なお、体形データ取得部は、修正された合成体形データをそのままユーザの体形データとしてもよいし、修正された合成体形データにさらに何らかの修正ないし調整をしてユーザの体形データとしてもよい。
 上記の体形データ取得システムにおいて、前記体形データ取得部は、修正指示に従って修正を行ってよく、前記記憶部は、前記修正の内容を記憶してよい。
 この構成により、修正指示に従った修正の内容を記憶しておくことができる。
 上記の体形データ取得システムにおいて、前記体形データ取得部は、操作入力、前記ユーザの体形を表す情報、又は前記記憶部に記憶された前記修正の内容を前記修正指示として修正を行ってよい。
 この構成により、種々の手段で修正の指示を行うことができる。特に、記憶部に記憶された修正の内容に従って修正をする場合には、過去に行った修正の内容に従って修正を行うので、体形データを取得するたびに修正の指示を行う必要がなくなる。なお、体形を表す情報は、ユーザの衣服のサイズであってもよい。
 上記の体形データ取得システムにおいて、前記体形データ取得部は、骨格のサイズ及び/又は姿勢を修正してよい。
 この構成により、生体情報との相関が弱い骨格のサイズや姿勢を調整して、よりユーザの身体に近い体形データを取得できる。
 上記の体形データ取得システムは、前記体形データに基づく人体モデルを表示する表示部をさらに備えていてよく、前記体形データ取得部は、操作入力による修正指示に従って修正を行ってよく、前記表示部は、前記操作入力を受け付けるとともに前記修正を反映した前記人体モデルを含む画面を表示してよい。
 この構成により、ユーザは、修正が反映された人体モデルを画面で確認しながら修正指示のための操作入力を行うことができる。
 上記の体形データ取得システムにおいて、前記記憶部は、前記生体情報と前記基準体形データとを対応付けて記憶したデータベースであってよく、前記選択部は、前記データベースに記憶された前記生体情報のなかから、前記生体情報取得部が取得した前記生体情報とのユークリッド距離が近い前記生体情報を特定し、前記データベースにおいて特定された前記生体情報に対応付けられた前記基準体形データを選択してよい。
 この構成により、ユークリッド距離を用いて、データベースに記憶された生体情報のなかから、取得された生体情報に近い生体情報を特定して、基準体形データを選択できる。
 上記の体形データ取得システムにおいて、前記記憶部は、前記生体情報と前記基準体形データとを対応付けて記憶したデータベースであってよく、前記選択部は、前記生体情報を主成分分析によって加工した、前記生体情報取得部が取得した前記生体情報を原点とする新たな固有ベクトルの合成ベクトル量を用いて、前記記憶部に記憶された生体情報のなかから、前記生体情報取得部が取得した前記生体情報に近い前記生体情報を特定し、前記データベースにおいて特定された前記生体情報に対応付けられた前記基準体形データを選択してよい。
 この構成により、生体情報に主成分分析を行うことで、データベースに記憶された生体情報のなかから、取得された生体情報に近い生体情報を特定して、基準体形データを選択できる。
 上記の体形データ取得システムにおいて、前記記憶部は、前記生体情報を入力として、前記生体情報に対応する前記基準体形データを出力として学習された予測アルゴリズムを記憶していてよく、前記選択部は、前記生体情報取得部で取得した生体情報を前記予測アルゴリズムに入力したときの出力を、前記生体情報取得部が取得した前記生体情報に対応する前記基準体形データとして選択してよい。
 この構成により、機械学習モデルを用いて、取得された生体情報に対応する基準体形データを選択できる。
 上記の体形データ取得システムにおいて、前記生体情報は、性別、年齢、身長、体重、手足間生体電気インピーダンス、両手間生体電気インピーダンス、両足間生体電気インピーダンス、脂肪量、除脂肪量、脂肪厚、筋肉量の少なくとも1つの情報であってよい。または、上記の体形データ取得システムにおいて、前記生体情報は、生体電気インピーダンスの測定により得られる情報が含まれていてもよい。
 この構成により、体形データを取得するために、比較的取得が容易な、性別、年齢、身長、体重、生体電気インピーダンス、生体電気インピーダンスから算出される脂肪量等の情報から体形データを取得できる。
 一態様の体形データ取得プログラムは、生体情報に対応付けられた複数の基準体形データを記憶する記憶部を備えたコンピュータを、ユーザの生体情報を取得する生体情報取得部、前記記憶部に記憶された前記基準体形データから、前記生体情報取得部が取得した前記生体情報に対応する前記基準体形データを選択する選択部、及び前記選択部で選択した前記基準体形データを用いて前記ユーザの体形データを取得する体形データ取得部として機能させる。
 この構成によっても、生体情報に対応付けられた複数の基準体形データを用意して、そのなかからユーザの生体情報に対応する基準体形データを選択して当該ユーザの体形データを取得するので、ユーザの身体の各部位のサイズを求めることなく簡易に体形データを取得できる。
図1は、実施の形態の体形データ取得システムを示す図である。 図2は、実施の形態の計測装置の使用態様を示す図である。 図3は、実施の形態の体形データ取得システムの構成を示すブロック図である。 図4は、実施の形態のデータベースの例を示す図である。 図5は、実施の形態の体形データに基づく人体モデルの例を示す図である。 図6は、実施の形態の第1の選択方法における類似度の算出を説明する図である。 図7は、実施の形態の類似度の算出を説明する図である。 図8は、実施の形態の合成体形データの生成を説明する図である。 図9は、実施の形態の手動操作による修正をするための修正用画面を示す図である。 図10は、実施の形態の体形データ取得方法のフローチャートである。 図11は、実施の形態の体形データ取得方法のフローチャートである。
 以下、図面を参照して本開示の実施の形態を説明する。なお、以下に説明する実施の形態は、本開示を実施する場合の一例を示すものであって、本開示を以下に説明する具体的構成に限定するものではない。本開示の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。
 本明細書において、体形データとは、身体の形状を表すためのデータである。体形データは、身体の2次元形状を表すデータであってもよいが、本実施の形態では、体形データは身体の3次元形状を表現するデータである。体形データが3次元形状を表現するデータである場合に、そのデータ形式は、ワイヤフレーム、サーフェス、ソリッド、ボクセル、ポリゴンのいずれの形式でもよく、そのファイルフォーマットは、JSON、STL、PLY等のいずれの形式でもよい。体形データは、それ自体で2次元ないし3次元の形状を表現するデータでなくてもよく、身体の各部位のサイズを表したパラメータの集合であってもよい。この場合には、当該パラメータを所定の人体モデルに適用することで、当該パラメータに応じた人体モデルが得られる。
 図1は、実施の形態の体形データ取得システムを示す図である。また、図2は、実施の形態の計測装置の使用態様を示す図である。本実施の形態では、体形データ取得システム50は、計測装置10と情報処理端末(以下、「ユーザ端末」という。)20とからなる。計測装置10は、体組成計であり、生体情報として体重および体組成を測定可能である。計測装置10は、本体部11とハンドルユニット12とを備えている。
 本体部11とハンドルユニット12とは、接続コード13により電気的に接続されている。ハンドルユニット12は、本体部11に設けられた収容部14に収容可能である。ハンドルユニット12が収容部14に収容されるときは、接続コード13は本体部11内部の図示しない巻取り機構により巻き取られて、本体部11の内部に収容される。
 本体部11は、上面の右側に通電用電極111R及び測定用電極112Rを備え、上面の左側に通電用電極111L及び測定用電極112Lを備えている。
 ハンドルユニット12は、概略棒状の形状を有し、その中央にはハンドル本体15を備え、ハンドル本体15の両側にグリップ16R及び16Lが設けられている。ハンドル本体15には、表示パネル17と、操作ボタン18A~18Dが設けられている。また、グリップ16Rは、通電用電極161R及び測定用電極162Rを備え、グリップ16Lは、通電用電極161L及び測定用電極162Lを備えている。
 図2に示す使用態様において、ユーザは、裸足で本体部11の上に乗って直立し、両腕を前に伸ばした状態でハンドルユニット12を両手で握ることで、生体情報の計測を行うことができる。このとき、通電用電極111Rには右足の指の付け根が接触し、測定用電極112Rには右足のかかとが接触し、通電用電極111Lには左足の指の付け根が接触し、測定用電極112Lには右足のかかとが接触し、通電用電極161Rには右手の掌が接触し、測定用電極162Rには右手の指が接触し、通電用電極161Lには左手の掌が接触し、測定用電極162Lには左手の指が接触する。
 また、本体部11は、内部に体重を計測するためのロードセルを備えており、図2に示すように本体部11に乗ったユーザの体重を測定できる。
 ユーザ端末20は、アプリケーションプログラムを実行可能なコンピュータ、フラッシュメモリ等の内部ストレージ、タッチパネル、各種のコネクタ等を備えた携帯型の端末である。また、ユーザ端末20は、インターネットに接続するための無線通信デバイス、近くの他デバイスに接続するための近距離通信デバイスを備えている。計測装置10は、近くの他デバイスに接続するための近距離通信デバイスを備えている。計測装置10とユーザ端末20とは、互いにペアリングをすることで近距離無線通信により各種の情報を送受信することが可能である。
 図3は、実施の形態の体形データ取得システムの構成を示すブロック図である。体形データ取得システム50は、入力部51、測定部52、選択部53、記憶部54、取得部55、修正指示受付部56、及び表示部57を備えている。
 測定部52は、計測装置10に設けられている。測定部52以外の構成については、計測装置10及びユーザ端末20のいずれに設けられていてもよく、すべての構成が計測装置10に設けられ、計測装置10単体で体形データ取得システム50が構成されてもよい。また、選択部53、記憶部54、取得部55、及び修正指示受付部56は、計測装置10又はユーザ端末20とインターネットを介して通信する他の装置に設けられ、当該他の装置と計測装置10とユーザ端末20とで体形データ取得システム50が構成されてもよい。この場合には、当該他の装置は、複数の計測装置10又はユーザ端末20が共用するものであってもよい。
 本実施の形態では、入力部51及び測定部52が計測装置10に設けられ、その他の構成がユーザ端末20に設けられている。また、本実施の形態では、ユーザ端末20は汎用のコンピュータであり、プロセッサがそのオペレーションシステム上で動作するアプリケーションプログラムを実行することで、ユーザ端末20に選択部53、記憶部54、取得部55、及び修正指示受付部56が構成される。アプリケーションプログラムは、ユーザ端末20が通信ネットワークからダウンロードすることでユーザ端末20に提供されてもよく、あるいは、非一時的な記録媒体を介してユーザ端末20に提供されてもよい。
 入力部51は、計測装置10の電源の入切の操作、各種の設定の操作、及びユーザによる生体情報の入力の操作を受け付ける。具体的には、入力部51は、年齢、性別、身長等の生体情報の入力操作を受け付ける。測定部52は、ユーザの体重、生体電気インピーダンス等の生体情報を測定する。また、測定部52は、ユーザの身長、体重、生体電気インピーダンス等の生体情報を所定の回帰式に適用して演算することで、全身及び身体部位ごとの脂肪率等の生体情報を取得する。このように、生体情報には、入力部51にてユーザによって入力されるもの(入力生体情報)と、測定部52にて測定されるもの(測定生体情報)と、測定部52にて演算により算出されるもの(算出生体情報)とがある。
 測定部52は、体重を計測するためのロードセルを備えている。ロードセルは荷重に応じて変形する金属部材の起歪体と、起歪体に貼られる歪みゲージとによって構成される。ユーザが計測装置10の上に乗ると、ユーザの荷重によってロードセルの起歪体が撓んで歪ゲージが伸縮する。歪みゲージの抵抗値(出力値)は、その伸縮に応じて変化する。測定部52は、荷重がかかっていないときのロードセルの出力値(ゼロ点)と荷重がかかったときの出力値との差から体重を演算する。なお、ロードセルを用いた体重の測定に関する構成は、一般の体重計と同様の構成を用いればよい。
 測定部52は、さらに、上記の各電極111R、111L、112R、112L、161R、161L、162R、162Lと、各通電用電極161R、161L、111R、111Lに電流を流す電流制御回路とを備えている。
 測定部52におけるユーザの全身及び各身体部位の生体電気インピーダンスの測定は、例えば以下のようにして行う。
(1)全身の生体電気インピーダンスの測定は、通電用電極161L及び通電用電極111Lを用いて電流を供給し、左手、左腕、胸部、腹部、左脚部、左足を流れる電流経路において、その左手に接触している測定用電極162Lと左足に接触している測定用電極112Lとの間の電位差を測定する。
(2)右脚の生体電気インピーダンスの測定は、通電用電極161R及び通電用電極111Rを用いて電流を供給し、右手、右腕、胸部、腹部、右脚部、右足を流れる電流経路において、その左足に接触している測定用電極112Lと右足に接触している測定用電極112Rとの間の電位差を測定する。
(3)左脚の生体電気インピーダンスの測定は、通電用電極161L及び通電用電極111Lを用いて電流を供給し、左手、左腕、胸部、腹部、左脚部、左足を流れる電流経路において、その左足に接触している測定用電極112Lと右足に接触している測定用電極112Rとの間の電位差を測定する。
(4)右腕の生体電気インピーダンスの測定は、通電用電極161R及び通電用電極111Rを用いて電流を供給し、右手、右腕、胸部、腹部、右脚部、右足を流れる電流経路において、その左手に接触している測定用電極162Lと右手に接触している測定用電極162Rとの間の電位差を測定する。
(5)左腕の生体電気インピーダンスの測定は、通電用電極161L及び通電用電極111Lを用いて電流を供給し、左手、左腕、胸部、腹部、左脚部、左足を流れる電流経路において、その左手に接触している測定用電極162Lと右手に接触している測定用電極162Rとの間の電位差を測定する。
 このようにして、測定部52は、各通電用電極からユーザの身体の所定部位に電流を流し、この電流経路に生じる電位差を測定し、このような電流及び電位差の各値に基づいて、ユーザの全身又は各身体部位の生体電気インピーダンスを算出する。生体電気インピーダンスの測定に関する構成は、一般の体組成計と同様の構成を用いればよい。
 また、測定部52は、入力生体情報及び測定生体情報を所定の回帰式に適用して演算をすることにより、脂肪率、脂肪量、除脂肪量、筋肉量、内臓脂肪量、内臓脂肪レベル、内蔵脂肪面積、皮下脂肪量、基礎代謝量、骨量、体水分率、BMI(Body Mass Index)、細胞内液量、細胞外液量等の算出生体情報を取得する。算出生体情報の演算に関する構成も、一般の体組成計と同様の構成を用いることができる。なお、算出生体情報は、入力生体情報及び測定生体情報を入力とし、算出生体情報を出力とする機械学習モデルによって取得されてもよい。
 以上のように、入力部51は、操作入力によって生体情報を取得し、測定部53は、測定、又は測定及び演算によって生体情報を取得するものであり、いずれも生体情報を取得する生体情報取得部として機能する。
 記憶部54は、生体情報と基準となる体形データ(以下、「基準体形データ」という。)とが対応付けられたデータベースを有する。図4は、実施の形態のデータベースの例を示す図である。図4の例では、測定番号ごとに、生体情報である性別、年齢、身長、体重、BMI、脂肪率が、基準体形データと対応付けて1つのレコードが構成されている。なお、記憶部54に記憶される生体情報は、性別、年齢、身長、体重、BMI、脂肪率そのもののほか、それらの乗数や比を含んでいてもよい。
 図5は、実施の形態の体形データに基づく人体モデルの例を示す図である。この例では、体形データは、ワイヤフレーム形式の3次元データである。
 図4に示すように、データベースには、生体情報と基準体形データとの多数の組み合わせが記憶されている。なお、データベースにおいて、測定番号と生体情報が対応付けられたテーブルと、測定番号と基準体形データとが対応付けられたテーブルとが別々に記憶されていてもよい。
 選択部53は、記憶部54に記憶された基準体形データから、入力部51及び測定部52で取得した生体情報に対応する基準体形データを選択する。本実施の形態では、上述のように、記憶部54のデータベースにおいて、性別、年齢、身長、体重、BMI、脂肪率が基準体形データと対応付けて記憶されているので、選択部53は、入力部51に入力されたユーザの性別、年齢、身長と、測定部54で測定されたユーザの体重、BMI、脂肪率を取り出して、これに近い生体情報をデータベースから探索する。なお、上述のように、記憶部54のデータベースに、性別、年齢、身長、体重、BMI、脂肪率の乗数や比が含まれる場合には、選択部53は、それに対応する乗数や比を算出する。
 取得部55は、選択部53で選択した基準体形データを用いてユーザの体形データを取得する。以下では、選択部53における基準体形データの選択及び取得部55における体形データの取得の方法として、2種類の方法を説明する。
(基準体形データの選択及び体形データの取得の第1の方法)
 基準体形データの選択及び体形データの取得の第1の方法では、選択部53は、1つの基準体形データを選択して、取得部55は、この基準体形データを用いてユーザの体形データを取得する。選択部53は、記憶部54に記憶されている生体情報(以下、「記憶情報」ともいう。)のうちの入力部51及び測定部52にて取得された生体情報(以下、「取得情報」ともいう。)に類似するものを探索し、取得情報に最も類似する記憶情報に対応付けられた基準体形データを選択する。この選択の方法として、以下に3つの例を説明する。
(第1の選択方法)
 第1の選択方法では、選択部53は、取得情報との類似度が高い記憶情報を探索する。類似度は、取得情報と記憶情報との差によって算出される。具体的には、類似度は、性別、年齢、身長、体重、BMI、脂肪率を変数とする多次元座標空間における取得情報と記憶情報とのユークリッド距離に基づいて計算される。
 下式(1)は、第1の選択方法において類似度を算出する式である。
Figure JPOXMLDOC01-appb-M000001
 ここで、iは、記憶情報の番号であり、jは、多次元空間座標を構成する変数の番号であり、Sは,i番目の記憶情報と取得情報との類似度であり、vijは、i番目の記憶情報のj番目の変数のベクトルであり、v0jは、取得情報のj番目の変数のベクトルである。この式(1)によれば、取得情報と記憶情報とのユークリッド距離が近いほど類似度Sが大きくなる。
 図6は、実施の形態の第1の選択方法における類似度の算出を説明する図である。図6の例では、理解のしやすさのために、変数として身長、体重、脂肪率のみを用いた3次元座標空間を示しているが、性別、年齢、身長、体重、BMI、脂肪率を変数とする場合には、6次元座標空間のユークリッド距離を計算することになる。図6の例において、中空円(図中の「〇」)は取得情報であり、小ドット(図中の「・」)は記憶情報であり、中実円(図中の「●」)は取得情報に最も近い(類似している)記憶情報である。
 なお、ユークリッド距離によって類似度を求める場合に、下式(2)に示すように、変数の差分に重みづけを行ってもよい。
Figure JPOXMLDOC01-appb-M000002
 ここで、Wはj番目の変数の重み(重要度)である。
 選択部53は、取得情報に最も近い記憶情報、即ち類似度の最も高い記憶情報に対応付けられた基準体形データを選択する。
(第2の選択方法)
 第2の選択方法でも、選択部53は、取得情報との類似度が高い記憶情報を探索する。ただし、第2の探索方法では、取得情報及び記憶情報を主成分分析によって加工し、取得情報を原点とする新たな固有ベクトルの合成ベクトル量から類似度を算出する。
 下式(3)は、第2の選択方法において類似度を算出する式である。
Figure JPOXMLDOC01-appb-M000003
 ここで、j(pca)は多次元空間座標を構成する主成分軸の番号であり、vij (pca)は取得情報に対するi番目の記憶情報の固有ベクトルである。
 図7は、実施の形態の類似度の算出を説明する図である。図7の例では、理解のしやすさのために、変数として第1~第3の主成分に主成分分析をした場合を示しているが、主成分の数は3より大きくても小さくてもよい。図7の例において、中空円(図中の「〇」)は取得情報であり、小ドット(図中の「・」)は記憶情報であり、中実円(図中の「●」)は取得情報に最も近い(類似している)記憶情報である。
 なお、下式(4)に示すように、複数の主成分分析の軸に重みをつけて組み合わせてもよい。
Figure JPOXMLDOC01-appb-M000004
 ここで、W (pca)は第j(pca)主成分軸の重み(重要度)である。
 選択部53は、取得情報に最も近い記憶情報、即ち類似度の最も高い記憶情報に対応付けられた基準体形データを選択する。なお、本実施の形態では、記憶情報や取得情報を主成分分析によって加工した上で類似度を評価したが、情報の加工方法は、主成分分析に限らず、高次元の生体情報の次元削減による加工方法であればよく、例えば、特異値分解による加工でもよい。
(第3の選択方法)
 第3の選択方法では、記憶部54は、生体情報を入力として、生体情報に対応する基準体形データを出力として学習された予測アルゴリズムを記憶している。この予測アルゴリズムとして、生体情報を入力とし、基準体形データ又はその特徴量を出力として構築された、少なくとも3層以上の階層型ニューラルネットワークで学習された予測アルゴリズムを採用することができる。なお、予測アルゴリズムとしては、ニューラルネットワークのほか、k-means、SVM(サポートベクターマシン)、ランダムフォレスト等の他の機械学習モデルを採用できる。
 選択部53は、取得情報を予測アルゴリズムに入力したときの出力を、取得情報に対応する基準体形データとして選択する。
 取得部55は、選択部53で選択された基準体形データを用いてユーザの体形データを取得する。取得部55は、まずは基準体形データをそのままユーザの体形データとする。取得部55は、この基準体形データを修正してユーザの体形データとすることも可能である。修正については後述する。
(基準体形データの選択及び体形データの取得の第2の方法)
 基準体形データの選択及び体形データの取得の第2の方法では、選択部53は、複数の基準体形データを選択して、取得部55は、選択された複数の基準体形データを用いてユーザの体形データを取得する。具体的には、選択部53は、上記の第1~第3の選択方法のいずれかによって取得情報に最も近い所定数の記憶情報を探索し、それらの記憶情報に対応付けられた複数の基準体形データを選択する。取得部55は、選択部53が選択した複数の基準体形データに対して合成処理を行うことで、合成体形データを生成する。
 図8は、実施の形態の合成体形データの生成を説明する図である。図8の例では、説明の分かりやすさのために、腹部の形状を表す第1主成分軸のみ考慮して合成処理を行う例を示している。図8の例では、選択部53は、第1主成分軸について取得情報Dに最も近い記憶情報Dと、取得情報Dを基準として当該最も近い記憶情報Dとは軸上の逆方向にある最も近い記憶情報Dとを選択する。
 図8に示すように、取得情報Dに最も近い2つの記憶情報として、記憶情報D及びDが得られた場合において、それぞれの類似度がS及びSであるとすると、取得部55は、図8に示すように、記憶情報Dに対応する基準体形データMと記憶情報Dに対応する基準体形データMとの間をS:Sに分ける形状として合成体形データMを算出する。 
 以下、取得部55が合成体形データを生成する合成処理を詳細に説明する。取得部55は、合成体形データが示す体形モデルを構成する点群の各点の位置情報を演算する。具体的には、取得部55は、複数の軸(変数)からなる多次元座標空間における軸(変数)ごとに類似度を変数に含む、上記各点の位置情報を演算する。なお、軸(変数)は、主成分軸であってもよい。合成体形データが示す体形モデルを構成する点群のk番目の点kの、複数の軸からなる多次元座標空間におけるj番目の軸jにおける類似度を変数に含む位置情報Pkjの演算式は、下式(5)のとおりである。
Figure JPOXMLDOC01-appb-M000005
 ここで、Sc,j (1),Sc,j (2),・・・,Sc,j (t)は、軸jにおける類似度を算出するために選択部53が選択したt個の記憶情報の各々と取得情報との軸jにおける類似度である。また、Gは類似度を変数とする関数であり、αkjは点kの軸jにおける補間率である。なお、P0,k (1,2,。。。,t)は、軸jにおける類似度を算出するために選択されたt個の記憶情報の任意の1つの記憶情報に対応する基準体形データが示す体形モデルを構成する点群のうち、合成体形データが示す体形モデルの点kに対応する点の位置情報となる。代替的に、P0,k (1,2,。。。,t)は、t個の記憶情報のうち複数の記憶情報に対応する基準体形データが示す各体形モデルを構成する点群のうち、合成体形データが示す体形モデルの点kに対応する各点の平均の位置情報であってもよい。
 取得部55は、複数の軸(変数)からなる多次元座標空間において、軸(変数)ごとに図8に示す合成処理を行ってそれらを合成することで合成体形データを生成する。合成体形データが示す体形モデルを構成する点群のk番目の点kの、複数の軸からなる多次元座標空間における軸ごとにおける類似度を変数とした位置情報を合成した位置情報Pの演算式は、下式(6)のとおりである。
Figure JPOXMLDOC01-appb-M000006
 ここで、Cは類似度を算出するために用いられるj番目の軸(変数)の合成体形データの生成に対する寄与率である。
 なお、取得部55は、取得情報の位置に関わらず、選択された2つの記憶情報の中間点を合成体形データとするように合成処理を行ってもよい。
 また、上述のように基準体形データが3次元形状データではなく身体の各部位のサイズを表したパラメータの集合で定義されている場合には、上述した合成処理に代えて、それらのパラメータの補間を行うことで合成体形データを生成してよい。また、例えば、記憶情報を主成分分析した際の第1主成分がウェストのサイズを表している場合において、最も近い2つの基準体形データのウェストが63cmと65cmである場合に、それら1つの基準体形データの中間に位置する合成体形データのウェストを64cmとしてもよい。
 以上のように、取得部55は、第1の方法では、選択部53にて選択された1つの基準体形データを取得し、第2の方法では、選択部53で選択された複数の基準体形データを合成して合成体形データを取得する。そして、取得部55は、これらの基準体形データや合成体形データを修正する機能を有している。以下、この修正機能による修正方法について説明する。
 修正指示受付部56は、表示部57に表示される修正用画面において、ユーザの手動操作による修正指示を受け付ける。取得部55は、修正指示受付部56にて受け付けた手動操作に従って基準体形データや合成体形データを修正する。この修正のために、表示部57は、基準体形データや合成体形データにより表現される人体モデルと、修正可能な各部位のサイズの表とを含む修正用画面を表示する。
 図9は、実施の形態の手動操作による修正をするための修正用画面を示す図である。修正用画面571には、人体モデルMとともに、修正可能な各部位のサイズの表Tが含まれる。表Tには、修正可能な各部位ごとに、現在のサイズがインジケータ(棒グラフ)及び数値で示されている。図9の例では、主に、生体電気インピーダンスからは推定しにくいサイズ、例えば、身長、首長さ、肩幅、腕長さ等の骨格のサイズ、及び首回り、手首、尻高さ等のサイズが修正可能なサイズとされている。これに加えて、背中の曲がり具合(猫背)等の姿勢を修正可能としてもよい。
 ユーザは、この修正用画面571において、人体モデルMの各部位を直接指定することで該当する部位のサイズを変更できる。例えば、図9に示すように、人体モデルMの両肩をピンチアウトするタッチ操作をすると、修正指示受付部56がこの操作による修正指示を受け付けて、取得部55は、この修正指示に従って肩幅を広げるように、基準体形データや合成体形データを修正する。表示部57は、修正後の基準体形データや合成体形データに従って肩幅の広がった人体モデルMを表示する。
 また、図9に示すように、ユーザが人体モデルMの下腿部をピンチインするタッチ操作をすると、修正指示受付部56がこの操作による修正指示を受け付けて、取得部55は、この修正指示に従って下腿長さを短くするように、基準体形データや合成体形データを修正する。表示部57は、修正後の基準体形データや合成体形データに従って、下腿長さが短くなった人体モデルMを表示する。また、修正用画面571に表示された人体モデルMに対して直接タッチ操作をして該当する部位のサイズを変更すると、その変更が直ちに表Tにも反映される。
 また、表Tにおいてインジケータの先端(右端)をドラッグしてインジケータを伸縮させると、表示部57は、インジケータを伸縮させる。修正指示受付部56がこの操作による修正指示を受け付けて、取得部55は、この修正指示に従って該当する部位を修正するように、基準体形データや合成体形データを修正する。これに応じて、とともに、インジケータの伸縮を表Tの数値に反映させる。さらに、表示部57は、基準体形データや合成体形データの修正を人体モデルMにも反映させる。
 また、表Tにおいて数値を書き換える操作をすると、修正指示受付部56がこの操作による修正指示を受けて、表示部57は、表Tの数値を書き換える。これに応じて、取得部55は、この修正指示に従って該当する部位を修正するように、基準体形データや合成体形データを修正する。表示部57はさらに、書き換えられた数値に応じてインジケータを伸縮させ、基準体形データや合成体形データの修正を反映した人体モデルMを表示する。
 このように、取得部55の修正機能によって、ユーザは、基準体形データや合成体形データを自らの体形に合致するように修正することができる。また、修正用画面571では、ユーザは、基準体形データや合成体形データを用いて生成された人体モデルを直接操作することで各部位のサイズを変更でき、各部位ごとのインジケータを伸縮させることでも各部位のサイズを変更でき、さらに、各部位ごとの数値を書き換えることでも各部位のサイズを変更でき、いずれの場合にも、修正後の人体モデルを修正用画面571で確認することができる。
 図9の例の変形例として、ユーザの体形を表す情報、例えば、首回り、胸回り、腰回り、腕回り、太もも回り等の身体の各部位のサイズ、あるいは、ユーザが着用している衣服のサイズないし体形タイプを指定することで修正を指示することができる。例えば、スーツについて、日本方式では、サイズは1~10で指定でき、体形タイプはYA体、A体、AB体、BE体、E体、K体で指定可能である。また、イギリス、アメリカ方式では、チェスト及びウェストのサイズは36~42程度で指定でき、身長区分はShort(SHT)、Regular(REG)、Long(LONG)で指定可能である。また、ヨーロッパ方式では、チェストサイズは42~56程度で指定でき、ウェストサイズは、Frop8~Drop0で指定でき、身長区分はCorco(C)、Regolate(R)、Lungo(L)で指定可能である。例えば、日本方式では、ユーザが修正指示受付部56にサイズ及び体形タイプを入力すると、取得部55は、サイズと体形タイプに応じて肩幅やウェスト等の数値を修正する。
 修正指示受付部56が修正指示を受けて、取得部55がそれに従って基準体形データや合成体形データを修正すると、その修正の内容が記憶部54に記憶される。記憶部54に記憶された修正の内容は、次回以降に同じユーザの取得情報に応じて体形データを取得する際に参照される。即ち、修正指示受付部56は、記憶部54に同じユーザについて過去の修正の内容が記憶されている場合には、当該修正の内容に従って基準体形データや合成体形データを修正する。なお、この場合にも、ユーザは、更に修正用画面を用いた手動操作によって修正を行うことが可能である。
 また、基準体形データや合成体形データが修正された場合に、そのユーザの生体情報とともに、修正された基準体形データや合成体形データを新たな基準体形データとするレコードが記憶部54のデータベースに記憶され、このようにしてデータベースが更新されてもよい。特に、上述のように、記憶部54が、計測装置10及びユーザ端末20とは別の他の装置に設けられ、複数のユーザに共用される場合には、複数のユーザがした修正がデータベースに反映されて、データベースが有効に更新されることになる。
 取得部55は、選択部53にて1つの基準体形データが選択された場合には、当該基準体形データを用いて、選択部53にて複数の基準体形データが選択された場合は、それらの合成処理を行うことによって合成体形データを生成した上で当該合成体形データを用いて、修正指示受付部56にて修正指示を受け付けた場合には、さらにそれらの基準体形データや合成体形データを修正して、ユーザの体形データを取得する。
 表示部57は、取得部55にて取得された体形データを用いて人体モデルを表示する。本実施の形態では、基準体形データ(及びそれを合成した合成体形データ)は、ワイヤフレームで表現されるデータであり、表示部57で表示される人体モデルは、そのワイヤフレームを変換して得られるサーフェースモデルである。なお、表示される人体モデルのデータ形式と基準体形データのデータ形式とが同じであってもよく、表示部57は、基準体形データ、合成体形データ、あるいはそれらを修正したデータをそのまま人体モデルとして表示してもよい。また、体形データ取得システム50は、表示部57を持たずに、取得部55で取得された体形データを他の装置に送信するだけであってもよい。
 人体モデルは、表示部57に表示された際に、回転操作をすることができ、拡大及び縮小等も可能である。また、体形データに関節の情報を持たせることで、人体モデルの手や足を可動としてもよい。
 図10は、実施の形態の体形データ取得方法のフローチャートである。図10のフローチャートは、選択部53が1つの基準体形データを選択する例を示している。まず、入力部51は、ユーザの性別、年齢、身長等の入力生体情報の操作入力を受け付け、測定部52は、体重、生体電気インピーダンス等の測定生体情報を測定し、脂肪率等の算出生体情報を算出することで、各種の生体情報(取得情報)を取得して選択部53に出力する(ステップS101)。次に、選択部53は、記憶部54のデータベースを参照して、取得情報に最も近い1つの記憶情報を特定して、特定した記憶情報に対応する1つの基準体形データを選択して取得部55に出力する(ステップS102)。
 修正指示受付部56は、記憶部54に過去にした修正の内容が記憶されているか否かを判断し(ステップS103)、記憶されている場合には(ステップS103にてYES)、取得部55は、その修正内容を修正指示として、基準体形データを修正する(ステップS104)。記憶部54に修正内容が記憶されていない場合(ステップS103にてNO)、及び記憶された修正内容に従って修正をした後には、修正指示受付部56にてユーザからの修正指示を受け付けたか否かを判断する(ステップS105)。
 修正指示受付部56にてユーザからの修正指示を受け付けた場合には(ステップS105にてYES)、その修正指示に従って基準体形データを修正する(ステップS106)とともに、修正の内容を記憶部54に記憶する(ステップS107)。ユーザからの修正指示を受け付けていない場合(ステップS105にてNO)、及び基準体形データを修正した後には、取得部55は、基準体形データ(修正がされた場合には修正後の基準体形データ)をユーザの体形データとして取得し、表示部57に出力する(ステップS108)。表示部57は、体形データに従って人体モデルを表示する(ステップS109)。
 図11は、実施の形態の体形データ取得方法のフローチャートである。図11のフローチャートは、選択部53が複数の基準体形データを選択する例を示している。まず、入力部51は、ユーザの性別、年齢、身長等の入力生体情報の操作入力を受け付け、測定部52は、体重、生体電気インピーダンス等の測定生体情報を測定し、脂肪率等の算出生体情報を算出することで、各種の生体情報(取得情報)を取得して選択部53に出力する(ステップS111)。次に、選択部53は、記憶部54のデータベースを参照して、取得情報に最も近い複数(例えば、3つ)の生体情報(記憶情報)を特定して、特定した各記憶情報に対応する複数の基準体形データを取得して取得部55に出力する(ステップS112)。
 取得部55は、選択部53にて選択された複数の基準体形データを合成して合成体形データを生成する(ステップS113)。修正指示部56は、記憶部54に過去にした修正の内容が記憶されているか否かを判断し(ステップS114)、記憶されている場合には(ステップS11134にてYES)、取得部55は、その修正内容を修正指示として、合成体形データを修正する(ステップS115)。記憶部54に修正内容が記憶されていない場合(ステップS114にてNO)、及び記憶された修正内容に従って修正をした後には、修正指示受付部56にてユーザからの修正指示を受け付けたか否かを判断する(ステップS116)。
 修正指示受付部56にてユーザからの修正指示を受け付けた場合には(ステップS116にてYES)、その修正指示に従って合成体形データを修正する(ステップS117)とともに、修正の内容を記憶部54に記憶する(ステップS118)。ユーザからの修正指示を受け付けない場合(ステップS116にてNO)、及び合成体形データを修正した後には、取得部55は、合成体形データ(修正がされた場合には修正後の合成体形データ)に従ってユーザの体形データとして取得し、表示部57に出力する(ステップS119)。表示部57は、体形データに従って人体モデルを表示する(ステップS120)。
 以上のように、本実施の形態の体形データ取得システム50によれば、複数の基準体形データをあらかじめ用意しておき、ユーザの生体情報を取得したときに、当該生体情報に対応する基準体形データを選択することでユーザの体形データを取得するので、ユーザの生体情報はあらかじめ用意された基準体形データを選択するのに必要な程度に取得すればよく、容易にユーザの体形データを取得できる。上記の実施の形態では、データベースにおいて複数の基準体形データの各々に、生体情報として、性別、年齢、身長、体重、BMI、脂肪率が対応付けられていたので、ユーザの生体情報としては、これらの情報を取得すれば足りる。
 また、記憶部54のデータベースに記憶するレコードの数を少なくすることで、容量に制限がある小型のユーザ端末20に記憶部54を設けることが可能となる。
 なお、データベースに記憶されている生体情報よりも少ない情報量のユーザの生体情報しか取得できない場合、例えば、ユーザの生体情報として性別、年齢、身長、体重のみしか得られない場合にも、そのようなユーザの生体情報に近い生体情報をデータベースから探索することは可能であり、ユーザの生体情報に対応する基準体形データを選択することが可能である。また、体形データ取得システム50において、測定部52は必須ではなく、ユーザが入力部51に入力した自らの生体情報、及び/又は他の体組成計で測定された生体情報を用いて、選択部53における上述の選択の処理を行ってもよい。
 さらに、選択部53は、ユーザが入力部51に入力した自らの生体情報から身長や職業等のユーザの属性を特定し、ユーザと同じ属性に属する生体情報に対応付けられた記憶情報を選択してもよい。これにより、ユーザと同じ属性に属する生体情報のデータに対応する基準体形データが選択されるので、実際のユーザの体形に近い記憶情報が選択されることを期待できる。
 また、ユーザの生体情報として生体電気インピーダンスを測定する場合には、上記の実施の形態のように、手足間(全身)の生体電気インピーダンスを測定してもよく、ハンドルユニット12に相当する装置によって両手間の生体電気インピーダンスのみを測定してもよく、本体部11に相当する装置によって両足間の生体電気インピーダンスのみを測定してもよい。即ち、本実施の形態の体形データ取得システム50によれば、両手間又は両足間の生体電気インピーダンスのみしか得られず、全身の生体電気インピーダンスが得られない場合であっても、そのような生体電気インピーダンスを利用してユーザの体形データを取得することができる。
 また、上記の実施の形態によれば、入力部51と測定部52で得られたユーザの生体情報のみでそのユーザの人体モデルを一目で理解できる。表示部57の表示において、過去の人体モデルや目標とする人体モデルを重ね合わせて表示すれば、過去からの変化や目標体形までの差を視覚的に把握できる。
 また、体形データを「.json」、「.blender」、「.stl」、「.ply」等のフォーマットで出力することで、ゲームやVR、AR、MR等のコンテンツのキャラクタアセットデータとして使用することもできる。さらに、体形データに種々の物理特性を付与すれば、ユーザの各部位の可動域や運動能力等のシミュレーションが可能となる。例えば、体形データにボーンを加え、JSON形式などの3次元画像データとして出力することで、unity(登録商標)などのゲームアプリケーション開発環境において、ユーザの特徴を表した体形データを有するキャラクタを生成することができる。さらに、筋肉量等の体組成データを用いることで、ユーザの体組成に応じて、キャラクタにジャンプ力の強さや力の強さ、体力などの身体能力を付与することができる。表示部57では、身体能力に応じてキャラクタや人体モデルの動きを表現してもよい。
 さらに、記憶部54に、ユーザの体形データの履歴を記憶することで、体形データの推移を用いて将来の体形の予測を行うこともできる。また、目標体形として、スポーツ選手やモデル等の体形データを設定し、ユーザの体形と目標体形との類似度や類似の系統を把握することもできる。
 10 計測装置
 11 本体部
 111R、111L 通電用電極
 112R、112L 測定用電極
 12 ハンドルユニット
 13 接続コード
 14 収容部
 15 ハンドル本体
 16R、16L グリップ
 161R、161L 通電用電極
 162R、162L 測定用電極
 17 表示パネル
 18A~18D 操作ボタン
 20 情報処理端末(ユーザ端末)
 50 体形データ取得システム
 51 入力部
 52 測定部
 53 選択部
 54 記憶部
 55 取得部
 56 修正指示受付部
 57 表示部
 571 修正用画面

Claims (14)

  1.  ユーザの生体情報を取得する生体情報取得部と、
     生体情報に対応付けられた複数の基準体形データを記憶する記憶部と、
     前記記憶部に記憶された前記基準体形データから、前記生体情報取得部が取得した前記生体情報に対応する前記基準体形データを選択する選択部と、
     前記選択部で選択した前記基準体形データを用いて前記ユーザの体形データを取得する体形データ取得部と、
     を備えた、体形データ取得システム。
  2.  前記選択部は、前記生体情報取得部が取得した前記生体情報に対応する複数の前記基準体形データを選択し、
     前記体形データ取得部は、前記選択部が選択した複数の前記基準体形データを合成した合成体形データを生成し、前記合成体形データを用いて前記体形データを取得する、請求項1に記載の体形データ取得システム。
  3.  前記選択部は、前記生体情報取得部が取得した前記生体情報に対応する1つの前記基準体形データを選択し、
     前記体形データ取得部は、前記選択部で選択された前記1つの基準体形データを修正して前記体形データを取得する、請求項1に記載の体形データ取得システム。
  4.  前記体形データ取得部は、前記合成体形データを修正して前記体形データを取得する、請求項2に記載の体形データ取得システム。
  5.  前記体形データ取得部は、修正指示に従って修正を行い、
     前記記憶部は、前記修正の内容を記憶する、請求項3に記載の体形データ取得システム。
  6.  前記体形データ取得部は、操作入力、前記ユーザの体形を表す情報、又は前記記憶部に記憶された前記修正の内容を前記修正指示として修正を行う、請求項5に記載の体形データ取得システム。
  7.  前記体形データ取得部は、骨格のサイズ及び/又は姿勢を修正する、請求項3~6のいずれかに記載の体形データ取得システム。
  8.  前記体形データに基づく人体モデルを表示する表示部をさらに備え、
     前記体形データ取得部は、操作入力による修正指示に従って修正を行い、
     前記表示部は、前記操作入力を受け付けるとともに前記修正を反映した前記人体モデルを含む画面を表示する、請求項5に記載の体形データ取得システム。
  9.  前記記憶部は、前記生体情報と前記基準体形データとを対応付けて記憶したデータベースであり、
     前記選択部は、前記データベースに記憶された前記生体情報のなかから、前記生体情報取得部が取得した前記生体情報とのユークリッド距離が近い前記生体情報を特定し、前記データベースにおいて特定された前記生体情報に対応付けられた前記基準体形データを選択する、請求項1に記載の体形データ取得システム。
  10.  前記記憶部は、前記生体情報と前記基準体形データとを対応付けて記憶したデータベースであり、
     前記選択部は、前記生体情報を主成分分析によって加工した、前記生体情報取得部が取得した前記生体情報を原点とする新たな固有ベクトルの合成ベクトル量を用いて、前記記憶部に記憶された生体情報のなかから、前記生体情報取得部が取得した前記生体情報に近い前記生体情報を特定し、前記データベースにおいて特定された前記生体情報に対応付けられた前記基準体形データを選択する、請求項1に記載の体形データ取得システム。
  11.  前記記憶部は、前記生体情報を入力として、前記生体情報に対応する前記基準体形データを出力として学習された予測アルゴリズムを記憶しており、
     前記選択部は、前記生体情報取得部で取得した生体情報を前記予測アルゴリズムに入力したときの出力を、前記生体情報取得部が取得した前記生体情報に対応する前記基準体形データとして選択する、請求項1に記載の体形データ取得システム。
  12.  前記生体情報は、性別、年齢、身長、体重、手足間生体電気インピーダンス、両手間生体電気インピーダンス、両足間生体電気インピーダンス、脂肪量、除脂肪量、脂肪厚、筋肉量の少なくとも1つの情報である、請求項1に記載の体形データ取得システム。
  13.  生体情報に対応付けられた複数の基準体形データを記憶する記憶部を備えたコンピュータを、
     ユーザの生体情報を取得する生体情報取得部、
     前記記憶部に記憶された前記基準体形データから、前記生体情報取得部が取得した前記生体情報に対応する前記基準体形データを選択する選択部、及び
     前記選択部で選択した前記基準体形データを用いて前記ユーザの体形データを取得する体形データ取得部、
     として機能させる、体形データ取得プログラム。
  14.  請求項13に記載の体形データプログラムを記憶した、コンピュータ読み取り可能な非一時的記憶媒体。
PCT/JP2020/005109 2019-02-12 2020-02-10 体形データ取得システム、体形データ取得プログラム、及びコンピュータ読み取り可能な非一時的記憶媒体 WO2020166554A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20756580.5A EP3925530A4 (en) 2019-02-12 2020-02-10 BODY SHAPE DATA ACQUISITION SYSTEM, BODY SHAPE DATA ACQUISITION PROGRAM AND COMPUTER READABLE NON-TRANSITORY STORAGE MEDIA
CN202080013923.4A CN113423337A (zh) 2019-02-12 2020-02-10 体形数据获取系统、体形数据获取程序以及计算机可读取的非暂时性存储介质
US17/399,545 US20210369140A1 (en) 2019-02-12 2021-08-11 Body shape data acquisition system, body shape data acquisition program, and computer-readable non-transitory storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-022352 2019-02-12
JP2019022352A JP7330480B2 (ja) 2019-02-12 2019-02-12 体形データ取得システム、及び体形データ取得プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/399,545 Continuation US20210369140A1 (en) 2019-02-12 2021-08-11 Body shape data acquisition system, body shape data acquisition program, and computer-readable non-transitory storage medium

Publications (1)

Publication Number Publication Date
WO2020166554A1 true WO2020166554A1 (ja) 2020-08-20

Family

ID=72045514

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/005109 WO2020166554A1 (ja) 2019-02-12 2020-02-10 体形データ取得システム、体形データ取得プログラム、及びコンピュータ読み取り可能な非一時的記憶媒体

Country Status (5)

Country Link
US (1) US20210369140A1 (ja)
EP (1) EP3925530A4 (ja)
JP (1) JP7330480B2 (ja)
CN (1) CN113423337A (ja)
WO (1) WO2020166554A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112957028A (zh) * 2021-04-09 2021-06-15 桂林电子科技大学 一种腹部健康综合检测分析仪及其分析方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102339097B1 (ko) 2021-05-04 2021-12-15 오수혁 신체 예측 모델 시스템
CN114005199B (zh) * 2021-10-26 2022-10-11 珠海格力电器股份有限公司 一种门锁控制方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110962A (ja) * 2003-10-08 2005-04-28 Tanita Corp 体型判定装置
JP2009039289A (ja) * 2007-08-08 2009-02-26 Tanita Corp 生体測定装置及び生体測定方法
JP2014018444A (ja) * 2012-07-19 2014-02-03 Tanita Corp 生体測定装置及び体画像作成プログラム
WO2017168525A1 (ja) * 2016-03-28 2017-10-05 株式会社3D body Lab 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4018334B2 (ja) 2000-12-11 2007-12-05 デジタルファッション株式会社 人体モデル作成装置およびその方法ならびに人体モデル作成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5429992B2 (ja) 2010-02-26 2014-02-26 日本ユニシス株式会社 三次元形状モデル生成装置、三次元形状モデル生成方法、三次元形状モデル生成プログラム、及び三次元形状モデル生成システム
JP6617016B2 (ja) 2015-12-04 2019-12-04 株式会社オンワードホールディングス 三次元形状オブジェクトの平均形状算出方法及びそのプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110962A (ja) * 2003-10-08 2005-04-28 Tanita Corp 体型判定装置
JP2009039289A (ja) * 2007-08-08 2009-02-26 Tanita Corp 生体測定装置及び生体測定方法
JP2014018444A (ja) * 2012-07-19 2014-02-03 Tanita Corp 生体測定装置及び体画像作成プログラム
JP5990820B2 (ja) 2012-07-19 2016-09-14 株式会社タニタ 生体測定装置及び体画像作成プログラム
WO2017168525A1 (ja) * 2016-03-28 2017-10-05 株式会社3D body Lab 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112957028A (zh) * 2021-04-09 2021-06-15 桂林电子科技大学 一种腹部健康综合检测分析仪及其分析方法

Also Published As

Publication number Publication date
JP7330480B2 (ja) 2023-08-22
EP3925530A4 (en) 2022-11-02
CN113423337A (zh) 2021-09-21
EP3925530A1 (en) 2021-12-22
JP2020127676A (ja) 2020-08-27
US20210369140A1 (en) 2021-12-02

Similar Documents

Publication Publication Date Title
WO2020166554A1 (ja) 体形データ取得システム、体形データ取得プログラム、及びコンピュータ読み取り可能な非一時的記憶媒体
JP6013669B1 (ja) 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム
US8878922B2 (en) Video image information processing apparatus and video image information processing method
JP5990820B2 (ja) 生体測定装置及び体画像作成プログラム
JP2011078728A (ja) 身体状態評価装置、状態推測装置、歩幅推測装置、及び、健康管理システム
JP6649323B2 (ja) 歩行解析システム及び方法
JP6980097B2 (ja) サイズ測定システム
JP2017176803A (ja) 人体モデル提供システム、人体モデル変形方法、及びコンピュータプログラム
KR101624525B1 (ko) 생체 정보 측정 장치, 서버 및 프로그램
CN112288766A (zh) 运动评估方法、装置、系统及存储介质
WO2020180688A1 (en) Multiple physical conditions embodied in body part images to generate an orthotic
JP6215232B2 (ja) 身体部分の測定
CN109243562A (zh) 一种基于Elman神经网络和遗传算法的形象气质提升方法
CN113679371A (zh) 一种体成分检测方法、电子设备和计算机可读存储介质
WO2022081745A1 (en) Real-time rendering of 3d wearable articles on human bodies for camera-supported computing devices
CN114649096A (zh) 体型数据确定方法、装置、设备、存储介质及产品
KR20210130420A (ko) 스마트 삼차원 의류 피팅 시스템 및 이를 이용한 의류 피팅 서비스 제공 방법
WO2020174586A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Wagnerberger et al. Inverse kinematics for full-body self representation in vr-based cognitive rehabilitation
WO2020180521A1 (en) Biometric evaluation of body part images to generate an orthotic
JP2006198044A (ja) 体脂肪推定装置
US20220076311A1 (en) Clothing size acquisition system, clothing size acquisition program, clothing selection assistance method, and computer-readable non-transitory storage medium
US20220183591A1 (en) Biomechanical modelling of motion measurements
JP2015026186A (ja) 3次元コンピュータグラフィックスモデル及びその画像の作成方法、同システム、並びにバーチャル試着方法
WO2021261454A1 (ja) 測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20756580

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020756580

Country of ref document: EP

Effective date: 20210913