WO2023068373A1 - 胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体 - Google Patents

胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体 Download PDF

Info

Publication number
WO2023068373A1
WO2023068373A1 PCT/JP2022/039410 JP2022039410W WO2023068373A1 WO 2023068373 A1 WO2023068373 A1 WO 2023068373A1 JP 2022039410 W JP2022039410 W JP 2022039410W WO 2023068373 A1 WO2023068373 A1 WO 2023068373A1
Authority
WO
WIPO (PCT)
Prior art keywords
time point
image data
distance image
image sensor
measured
Prior art date
Application number
PCT/JP2022/039410
Other languages
English (en)
French (fr)
Inventor
宗司 廣田
Original Assignee
アステラス製薬株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アステラス製薬株式会社 filed Critical アステラス製薬株式会社
Publication of WO2023068373A1 publication Critical patent/WO2023068373A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing

Definitions

  • the present disclosure relates to a chest motion measuring device, a chest motion measuring program, and a non-temporary storage medium that are used in a hand-held state.
  • COPD chronic obstructive pulmonary disease
  • Japanese Patent Application Laid-Open No. 2020-92980 discloses a respiratory system disease discrimination device aimed at enabling discrimination of respiratory system diseases without using a mouthpiece.
  • This respiratory system disease determination device includes a first detection means for detecting a distance from the body surface of the subject, and a position different from the first detection means. and a second detection means for detecting a distance.
  • the respiratory system disease determination apparatus includes respiration measurement means for measuring respiration of the subject excluding body movement based on the detection result of the first detection means and the detection result of the second detection means. It has
  • This respiratory system disease discriminating apparatus includes a disease discriminating means for discriminating a respiratory system disease of the subject based on the detection result of the respiration measuring means.
  • Japanese Unexamined Patent Application Publication No. 2017-217298 discloses a respiration measurement device intended to enable non-contact, real-time, and accurate measurement of respiration waveforms.
  • This respiration measurement device includes a three-dimensional image acquisition unit that acquires a three-dimensional image including distance information and posture information of a target region of a person to be measured every unit time, and a measurement reference position and the target region from the three-dimensional image. and a distance acquisition unit that acquires distance information between.
  • the respiration measurement device includes a posture acquisition unit that acquires posture information of the target region from the three-dimensional image; and Further, the respiration measurement device generates a movement amount waveform of the main respiratory region by arranging the distance information of one or more pixels of the three-dimensional image corresponding to the main respiratory region in time series.
  • a movement amount waveform generator is provided.
  • This respiration measuring device includes a respiration waveform generator that generates a respiration waveform from the movement amount waveform.
  • Japanese Patent Application Laid-Open No. 2000-217802 discloses a respiratory motion monitoring device intended to be able to measure respiratory motion abnormalities or respiratory organ abnormalities in a completely non-invasive manner.
  • This respiratory motion monitoring device is equipped with two or more laser sensors that can measure the distance between the sensor and the subject using a laser, and continuously measures the movement of the subject at two or more different locations with the sensors.
  • Japanese Patent Publication No. 2011-519657 discloses a device for contactless respiratory monitoring of patients.
  • the device comprises a distance sensor continuously detecting temporal distance variations relative to the patient's chest, and a computing unit determining the respiratory activity based on the detected temporal distance variations.
  • a value related to human respiratory function such as the one-second rate measured by a spirometer
  • a special device such as a spirometer
  • a method of measuring a person's thoracic movement such as the technique disclosed in Japanese Patent Application Laid-Open No. 2020-92980, is conceivable.
  • a portable general-purpose portable terminal device such as a smartphone, tablet terminal, wearable device, notebook PC (personal computer), etc. is used as a measuring device. As such, it is more preferable that the measurement can be performed in a state in which oneself holds it in hand.
  • the person being measured When measuring chest movement using a portable terminal device as a measuring device, the person being measured is required to take a forced breath or a deep breath during the measurement. Therefore, in this case, it is necessary to assume that the relative positional relationship between the measuring device and the area to be measured (hereinafter referred to as the "measurement area") shifts over time with respiration. There is a problem that the measurement accuracy of the respiratory function value decreases if the measurement is performed without considering the deviation.
  • JP-A-2020-92980, JP-A-2017-217298, and JP-A-2000-217802 do not assume that the measuring device is used in a hand-held state. Therefore, the above-mentioned problems cannot be solved.
  • An object of the present invention is to provide a chest motion measuring device, a chest motion measuring program, and a non-temporary storage medium capable of suppressing deterioration in measurement accuracy when measuring respiratory function values in a state of being in a relaxed state.
  • the inventor of the present disclosure conducted studies with the aim of providing a chest motion measurement device and a chest motion measurement program that can suppress deterioration in measurement accuracy when measuring respiratory function values in a hand-held state.
  • using the range image data obtained by the range image sensor at the first time point and the second time point in a region including at least a part of the thorax of the subject We found that by measuring physical quantities related to exercise, it is possible to suppress the effects of camera shake when measuring respiratory function values in a handheld state, and to suppress deterioration in the measurement accuracy of respiratory function values in a handheld state. rice field.
  • a first aspect of the present disclosure is a thoracic motion measuring device that measures the thoracic motion of a person to be measured using range image data obtained by a range image sensor mounted in a handheld state, wherein the to-be-measured an acquisition unit that acquires the range image data at a first time point and a second time point of an area that includes at least a portion of a person's thorax; and the positions and orientations of the distance image sensor at the first time point and the second time point specified by the specifying unit, which of the first time point and the second time point acquired by the acquiring unit a derivation unit that derives the distance image data converted into the coordinate system of the distance image sensor at the other of the first time and the second time by mapping the distance image data at one of the time points; A measurement unit that measures a physical quantity related to the chest movement of the person to be measured using the distance image data at the other time point obtained by the obtaining unit and the distance image data at the one time point derived by the derivation unit. and a chest motion
  • the identifying unit identifies the position and orientation of the distance image sensor using an acceleration sensor and a gyro sensor.
  • a third aspect of the present disclosure is the chest motion measuring device according to the first aspect or the second aspect, wherein the chest motion of the person to be measured is a chest motion associated with forced breathing of the person to be measured.
  • a fourth aspect of the present disclosure is the thoracic movement measuring device according to any one of the first to third aspects, wherein the measurement unit measures the position of at least part of the head and neck of the person to be measured.
  • the physical quantity is continuously measured for the measurement region of the chest movement of the subject, which is continuously specified as the reference position.
  • a fifth aspect of the present disclosure is the thoracic movement measuring device according to any one of the first to fourth aspects, wherein the physical quantity is at least one of a 1-second rate and a 1-second volume of the person to be measured. is.
  • a sixth aspect of the present disclosure is chest motion measurement performed in a chest motion measuring device that measures the chest motion of a subject using distance image data obtained by a mounted distance image sensor while being hand-held.
  • a chest motion measurement program for causing a computer to execute a process of measuring a physical quantity relating to the chest motion of the person to be measured using the derived distance image data at one time point.
  • a seventh aspect of the present disclosure is a thoracic movement measuring device that measures the thoracic movement of a person to be measured using range image data obtained by a range image sensor mounted in a handheld state, comprising: a memory; at least one processor connected to the memory, wherein the processor acquires the range image data at a first time point and a second time point of an area including at least a portion of the subject's thorax; The position and orientation of the distance image sensor at the first time point and the second time point are specified, and the acquired first time point is obtained using the specified position and orientation of the distance image sensor at the first time point and the second time point.
  • An eighth aspect of the present disclosure is a chest motion measuring device that measures the chest motion of a person to be measured using range image data obtained by a range image sensor mounted in a hand-held state.
  • a non-temporary storage medium storing a program executable by a computer to be executed, wherein the thoracic motion measurement process is performed at a first time point and a second time point of an area including at least a portion of the thorax of the person to be measured.
  • a general-purpose portable device can be used without using a special device such as a spirometer.
  • a thoracic movement measuring device as the terminal device of the model, the respiratory function value can be measured more easily.
  • FIG. 4 is a schematic diagram showing an example of a state during measurement of chest motion using the chest motion measuring device according to one embodiment.
  • 6 is a flowchart showing an example of chest motion measurement processing according to one embodiment.
  • FIG. 10 is a front view for explaining a method of detecting a measurement region in chest motion measurement processing according to one embodiment;
  • FIG. 10 is a front view showing an example of the configuration of a distance warning screen displayed during execution of chest motion measurement processing according to one embodiment
  • FIG. 11 is a front view showing an example of the configuration of a forced breathing instruction screen displayed during execution of chest motion measurement processing according to one embodiment
  • FIG. 4 is a diagram for explaining the chest motion measurement process according to the embodiment, and is a diagram showing an example of various states of the unnecessary component removal process.
  • FIG. 4 is a diagram for explaining the chest motion measurement process according to the embodiment, and is a diagram showing an example of various states of the unnecessary component removal process.
  • FIG. 4 is a diagram for explaining the chest motion measurement process according to the embodiment, and is a graph showing an example of transition of the measured volumetric change amount over time.
  • FIG. 5 is a diagram for explaining the thoracic motion measurement process according to one embodiment, and is a graph showing an example of a change in estimated lung ventilation over time and an example of a main region of the lung ventilation.
  • FIG. 13 is a diagram for explaining the chest motion measurement process according to the embodiment, and is a graph showing an example when the main region in FIG. 12 is enlarged.
  • FIG. 10 is a front view showing an example of the configuration of a measurement result display screen displayed during execution of chest motion measurement processing according to one embodiment;
  • FIG. 10 is a diagram for explaining the chest motion measurement process according to the embodiment, and is a diagram showing another example of the unnecessary component removal process.
  • FIG. 11 is a front view showing another example of the configuration of the effort breathing instruction screen displayed when executing the chest motion measurement process according to one embodiment;
  • FIG. 4 is a schematic diagram for explaining three-dimensional coordinate transformation according to one embodiment;
  • the chest motion measuring device according to the technology of the present disclosure is applied to a general-purpose smartphone.
  • the application target of the technology of the present disclosure is not limited to smartphones, and can also be applied to other portable information processing devices such as portable game devices, tablet terminals, wearable devices, and notebook personal computers. can.
  • FIG. 1 is a block diagram showing an example of the hardware configuration of a chest motion measuring device 10 according to one embodiment.
  • FIG. 2 is a block diagram showing an example of a functional configuration of the chest motion measuring device 10 according to one embodiment.
  • the chest motion measuring device 10 includes a CPU (Central Processing Unit) 11, a memory 12 as a temporary storage area, a non-volatile storage unit 13, a touch panel and various switches. A portion 14 is provided. Further, the thoracic movement measuring device 10 according to this embodiment includes a display unit 15 such as a liquid crystal display, and a medium read/write device (R/W) 16 . Further, the chest motion measuring device 10 according to the present embodiment includes a wireless communication section 18 and an audio output section 19 that perform mobile communication according to a predetermined communication standard. Furthermore, the thoracic movement measuring device 10 according to this embodiment includes an imaging unit 20 , a distance image sensor 21 , and a position/orientation detection unit 22 .
  • a CPU Central Processing Unit
  • memory 12 as a temporary storage area
  • a non-volatile storage unit 13 a touch panel and various switches.
  • a portion 14 is provided.
  • the thoracic movement measuring device 10 according to this embodiment includes a display unit 15 such as a liquid crystal display, and
  • CPU 11 memory 12, storage unit 13, input unit 14, display unit 15, medium read/write device 16, wireless communication unit 18, audio output unit 19, photographing unit 20, distance image sensor 21, and position/orientation detection unit 22 are connected to a bus. are connected to each other via B.
  • the medium read/write device 16 reads information written in the recording medium 17 and writes information to the recording medium 17 .
  • the storage unit 13 is implemented by a HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, or the like.
  • a chest motion measurement program 13A is stored in the storage unit 13 as a storage medium.
  • the thorax movement measurement program 13A is stored in the storage unit 13 by setting the recording medium 17 in which the program 13A is written to the medium reading/writing device 16, and reading the program 13A from the recording medium 17 by the medium reading/writing device 16. It is stored (installed).
  • the CPU 11 reads out the chest motion measurement program 13A from the storage unit 13, develops it in the memory 12, and sequentially executes the processes of the chest motion measurement program 13A.
  • the chest motion measurement program 13A is installed in the chest motion measurement device 10 via the recording medium 17, but it is not limited to this.
  • the chest motion measurement program 13A may be installed in the chest motion measurement device 10 by downloading it via the wireless communication unit 18 .
  • the storage unit 13 stores an attribute information database 13B. Details of the attribute information database 13B will be described later.
  • the storage unit 13 stores an estimation model 13C.
  • the estimation model 13C includes attribute information indicating the attributes of the subject measured by the chest motion measuring device 10 and information indicating the amount of volume change during chest motion of the subject, which will be described later in detail, as input information. , and information indicating the lung ventilation volume of the person to be measured is output information.
  • information indicating gender and age is applied as attribute information, but the attribute information is not limited to this. For example, in addition to these gender and age, any one of the four types of information of height and weight, or a combination of a plurality of them, may be applied as attribute information.
  • a CNN Convolutional Neural Network
  • An estimation model using other machine learning for example, an RNN (Recurrent Neural Network) may be applied as the estimation model 13C.
  • the estimation model 13C may be an estimation model such as a statistical model that does not use machine learning.
  • a conventionally known method for example, a method by supervised learning, reinforcement learning, etc. can be applied, so detailed description here will be omitted. .
  • the photographing unit 20 functions as a photographing device for photographing moving images, and is capable of photographing the user of the thoracic movement measuring device 10 .
  • the photographing unit 20 is often installed in a general-purpose portable information processing apparatus, and in this case, the cost of the photographing unit 20 does not increase.
  • the distance image sensor 21 functions to detect distance image data, which is data indicating the distance for each pixel having a size corresponding to the resolution. Further, the range image sensor 21 according to the present embodiment is set so that the area for acquiring the range image data matches the shooting angle of view of the shooting unit 20 .
  • a ToF (Time of Flight) system is applied as the distance image sensor 21, but it is not limited to this.
  • a bright point projection sensor, a stereo (multiple) camera, or a displacement sensor may be applied as the distance image sensor 21 .
  • the type of signal from the distance image sensor 21 an optical type is often used, but a radio wave type or an ultrasonic type may also be used.
  • a ToF method or a bright point projection method is applied as the distance image sensor 21, these sensors are often installed in general-purpose portable information processing devices. The sensor 21 does not add cost.
  • the position/orientation detection unit 22 functions to detect the position and orientation of the distance image sensor 21 .
  • an acceleration sensor and a gyro sensor are applied as the position/orientation detection unit 22 .
  • the acceleration sensor and the gyro sensor are also often installed in a general-purpose portable information processing apparatus, and in this case also, the position/orientation detection unit 22 does not increase the cost.
  • the chest motion measurement device 10 includes an acquisition unit 11A, a first identification unit 11B, a derivation unit 11C, a measurement unit 11D, a detection unit 11E, a second identification unit 11F, and a notification unit. 11G included.
  • the CPU 11 of the chest motion measurement device 10 executes the chest motion measurement program 13A, the acquisition unit 11A, the first identification unit 11B, the derivation unit 11C, the measurement unit 11D, the detection unit 11E, the second identification unit 11F, and the notification unit 11G.
  • the chest motion measuring device 10 is assumed to measure the chest motion of the subject by using distance image data obtained by the mounted distance image sensor 21 while being held by the subject. It is It should be noted that the chest movement measuring device 10 according to the present embodiment may be configured to measure the chest movement of the person to be measured while being hand-held by a person other than the person to be measured. Then, the acquiring unit 11A according to the present embodiment acquires from the range image sensor 21 the range image data at the first time point and the second time point of a region including at least a part of the chest of the person to be measured.
  • the first specifying unit 11B uses the position/posture detection unit 22 to specify the position and posture of the distance image sensor 21 at the first and second time points.
  • the derivation unit 11C uses the position and orientation of the distance image sensor 21 at the first time point and the second time point specified by the first specifying unit 11B to obtain the first distance obtained by the obtaining unit 11A.
  • Distance image data at either one of the time point and the second time point is mapped. Based on this mapping, the distance image data converted into the coordinate system of the distance image sensor 21 at the other time of the first time and the second time is derived.
  • the derivation unit 11C maps the distance image data at the second point in time to derive the distance image data converted into the coordinate system of the distance image sensor 21 at the first point in time. It is not limited to this.
  • the deriving unit 11C may map the distance image data at the first time point to derive the distance image data converted into the coordinate system of the distance image sensor 21 at the second time point.
  • the measurement unit 11D obtains the distance image data at the other time point (the first time point in the present embodiment) acquired by the acquisition unit 11A and the one time point derived by the derivation unit 11C.
  • the range image data in this embodiment, the second point in time
  • a physical quantity related to the chest movement of the subject in this embodiment, chest movement associated with forced breathing
  • the physical quantity is not limited to this.
  • the detection unit 11E detects at least part of the head and neck of the person to be measured.
  • the detector 11E detects the chin of the subject's head, but the present invention is not limited to this.
  • the detection unit 11E may detect other parts such as the eyes and nose of the subject's head, or the detection unit 11E may detect the central position of the subject's neck. .
  • the target part is detected by the detection unit 11E using the distance image data acquired by the acquisition unit 11A, but it is not limited to this.
  • the detection unit 11 ⁇ /b>E may detect the target site using captured image data representing a captured image obtained by the imaging unit 20 .
  • the detection of the target part by the detection unit 11E can be performed by a conventionally known image recognition technique in both cases of using the distance image data and using the photographed image data. , detailed description of this point is omitted.
  • the second specifying unit 11F uses the position of at least part of the head and neck (the jaw in the present embodiment) detected by the detecting unit 11E as a reference position. Then, the second specifying unit 11F selects a region below the reference position and separated from the reference position by a distance predetermined according to the attribute of the person to be measured (hereinafter referred to as "attribute-corresponding distance"). is continuously specified as the chest movement measurement region for the subject. As described above, in the present embodiment, information indicating the sex and age of the person to be measured is applied as the attribute information indicating the attributes to be applied here.
  • the measurement unit 11D continuously measures the chest motion of the person to be measured (in the present embodiment, measures the physical quantity) targeting the measurement region specified by the second specifying unit 11F. conduct.
  • the notification unit 11G when the relative positional relationship with the person to be measured becomes a predetermined relationship as appropriate, notifies that the relative positional relationship is appropriate, and is not appropriate, the information is notified to that effect.
  • the notification by the notification unit 11G the notification by the display using the display unit 15 is applied, but the notification is not limited to this.
  • the second specifying unit 11F determines the dimension of the measurement area according to the attribute.
  • mapping performed by the derivation unit 11C will be described.
  • f be the focal length of the optical system attached to the distance image sensor 21
  • Z be the component related to the distance to the subject obtained by the distance image sensor 21
  • x be the two-dimensional coordinates of the pixels in the distance image sensor 21.
  • each of these values can be represented by each of the following formulas.
  • a 3 ⁇ 4 matrix Pp in the following formula is called a projection matrix.
  • the three-dimensional coordinate X can be calculated by giving the two-dimensional coordinate x.
  • the focal length f can be obtained by previously calibrating the target distance image sensor 21 . However, since there are actually distortions and aberrations in the lenses of the optical system, it is necessary to correct them. Also, the component Z can be obtained by the range image sensor 21 .
  • the point p on the thoracic surface captured at the position of the range image sensor 21 at a certain time can be obtained as three-dimensional coordinates by using the values obtained from the range image sensor 21 and the projection matrix Pp.
  • FIG. 17 is a schematic diagram for explaining three-dimensional coordinate transformation according to one embodiment.
  • the coordinate BX is represented by the following equation.
  • the coordinate BX of the point p in the coordinate system B can be expressed by the following equation.
  • the position of the distance image sensor 21 that serves as a reference (corresponding to the position at the first point in time) is determined in advance, and the three-dimensional coordinates obtained by the distance image sensor 21 that has moved due to camera shake are calculated. , is converted into the coordinates of the distance image sensor 21 that serves as the reference, it can be grasped as a change in the measurement coordinates at the position of the distance image sensor 21 that serves as the reference.
  • the rotation matrix B A R is given from the gyro sensor
  • the translational vector B A t can be obtained from the integrated value of the acceleration sensor. Therefore, it is possible to correct the three-dimensional coordinates obtained by the projective transformation in the coordinate system B as the coordinate system A by performing the coordinate transformation according to the arithmetic expression of the finally obtained coordinates BX . Since the projection matrix can be treated as invariant as long as the focal length f of the lens in the optical system does not change, the same projection matrix can be used even when the same range image sensor 21 moves.
  • the average distance of the point group in space observed planarly at the position of the distance image sensor 21 serving as a reference is used. Therefore, it is sufficient to obtain only the spatial coordinates of the point group after camera shake correction, and it is not necessary to search for the same point in space as described above.
  • mapping method is not limited to the above method.
  • the distance image sensor is a stereo camera or the like
  • a form using the basic matrix shown below can be applied.
  • a basic matrix is expressed by the product of a matrix R describing rotation parameters and a matrix S describing movement distances.
  • the moving distance of the distance image sensor 21 from the first time point to the second time point can be estimated from the elapsed time from the first time point to the second time point. can do.
  • the matrix R is a value obtained by the gyro sensor, and by calculating the basic matrix, changes in the relative position and orientation of the distance image sensor 21 between the first time point and the second time point when camera shake occurs. can be calculated.
  • epipolar geometry holds only for fixed points in space. That is, in the coordinate system of the range image sensor 21 at the first time point, the point cloud (point group) forming the range image acquired at the first time point, the range image sensor 21 at the first time point, and the range image sensor 21 at the second time point. 21 position and orientation can be specified.
  • the same spatial point as the range image obtained at the first time point does not exist in the range image newly obtained at the second time point.
  • the coordinates of each point of the range image at the second point in time can be mapped to the coordinate system of the range image sensor 21 at the first point in time. can be calculated as
  • the relative change between the first time point and the second time point can be calculated. can do.
  • FIG. 3 is a schematic diagram showing an example of the configuration of the attribute information database 13B according to one embodiment.
  • the attribute information database 13B according to this embodiment is for storing various types of information according to the attributes of the subject. As shown in FIG. 3, the attribute information database 13B according to this embodiment stores information on gender, age, distance, and size.
  • the above gender is information indicating the sex of the subject
  • the above age is information indicating the predetermined age group of the subject of the corresponding gender.
  • the stages of the age group the stage of 60 years old or older and the stage of under 60 years old and in increments of 10 years are applied, but it is needless to say that it is not limited to this.
  • the distance is information indicating the above-described attribute correspondence distance suitable for the corresponding combination of gender and age group
  • the above-mentioned dimension is information indicating the above-described dimension of the measurement area suitable for the combination.
  • the distance from the reference position to the center position of the measurement area is used as the attribute correspondence distance, but it is not limited to this.
  • the distance from the reference position to the upper end of the measurement area may be applied as the attribute corresponding distance, or the distance from the reference position to the lower end of the measurement area may be applied as the attribute correspondence distance. .
  • the attribute correspondence distance corresponding to a man aged 60 or over is 15.5 (cm)
  • the dimensions of the measurement area are 35.5 (cm) in width
  • FIG. 4 is a schematic diagram showing an example of a state during measurement of chest motion using the chest motion measuring device 10 according to one embodiment.
  • the person M to be measured holds the thoracic movement measuring device 10 and puts his or her head within the angle of view of the imaging unit 20 of the thoracic motion measuring device 10.
  • the thoracic motion measuring device 10 is positioned so as to include at least a portion of the body (the jaw in this embodiment) and the thorax.
  • the person M to be measured should ensure that the distance between the thorax movement measuring device 10 and his or her own thorax is within a predetermined reference range (a range of 50 (cm) to 55 (cm) in this embodiment). Positioning is done with the aim of becoming The reference range is not limited to this range, and may be appropriately set according to the performance of the distance image sensor 21 in the thoracic movement measuring device 10, the attributes of the person M to be measured, and the like.
  • FIG. 5 is a flowchart illustrating an example of chest motion measurement processing according to one embodiment.
  • attribute information indicating the attributes (here, sex and age) of the person M to be measured is set in advance.
  • the chest motion measuring process shown in FIG. 5 is executed.
  • the chest motion measurement process shown in FIG. 5 is executed when the subject M inputs an instruction via the input unit 14 to start execution of the chest motion measurement program 13A.
  • the subject M positions the thoracic movement measuring device 10 as described with reference to FIG. 4 as an example.
  • the CPU 11 controls the imaging unit 20, the distance image sensor 21, and the position/orientation detection unit 22 to start driving.
  • the CPU 11 reads the distance (attribute-corresponding distance) corresponding to the preset attribute information of the subject M and the dimension information from the attribute information database 13B.
  • the CPU 11 acquires distance image data for one image from the distance image sensor 21 .
  • the CPU 11 uses the acquired distance image data to perform image recognition of a partial region (the jaw in this embodiment) of the head of the subject M as described above. Detected by
  • step 108 as shown in FIG. 6, the CPU 11 sets the detected position of the jaw as a reference position E, and sets a position below the reference position and separated by the read attribute correspondence distance D as the center C, Furthermore, a region having the read dimensions of width W and height H is detected as a measurement region A.
  • FIG. FIG. 6 is a diagram for explaining a method of detecting the measurement area A in the chest motion measurement process according to one embodiment. The chest motion measuring device 10 is illustrated in a state in which it is not held.
  • the CPU 11 uses the acquired distance image data to detect the distance F between the thoracic movement measuring device 10 and the subject M at this point.
  • the distance F the distance indicated by the pixel data corresponding to the central pixel in the distance image data is applied, but it is not limited to this.
  • an average value of distances indicated by pixel data of pixels in a predetermined area (for example, 10 pixels ⁇ 10 pixels) including the central pixel in the distance image data may be applied as the distance F.
  • step 112 the CPU 11 determines whether or not the distance F is within the above-described reference range (the range from 50 (cm) to 55 (cm) in this embodiment), and if the determination is affirmative. moves to step 116, and moves to step 114 if the determination is negative.
  • the reference range the range within which the chest movement measuring device 10 can perform the measurement with high accuracy when the distance F is within the range is determined in advance by an experiment using an actual machine, A range obtained by computer simulation or the like is applied.
  • the present invention is not limited to this form, and for example, a form in which the reference range is appropriately set according to the measurement accuracy required of the chest motion measuring device 10, the attribute of the person M to be measured, or the like may be adopted.
  • the CPU 11 controls the display unit 15 to display a distance warning screen having a predetermined configuration, and then returns to step 104 .
  • FIG. 7 shows an example of the distance warning screen according to this embodiment.
  • the distance warning screen according to the present embodiment displays a message instructing that the distance between the thorax motion measuring device 10 and one's own thorax be approximately within the reference range described above. Therefore, the person M to be measured can grasp that the distance between the thorax motion measuring device 10 held by the subject M and the thorax is not within the reference range. By following the instruction, the person M to be measured moves to step 116 in a state in which the distance between the thorax movement measuring device 10 and the thorax is within the reference range.
  • the CPU 11 controls the display unit 15 so as to display a forced breathing instruction screen configured in advance.
  • FIG. 8 shows an example of a forced breathing instruction screen according to this embodiment.
  • a message indicating that the positional relationship between the person M to be measured and the chest motion measuring device 10 is appropriate, and A message instructing breathing is displayed. Therefore, the subject M performs forced breathing at this timing.
  • step 118 the CPU 11 acquires distance image data from the distance image sensor 21 .
  • the CPU 11 determines the difference between the previously acquired range image data (hereinafter referred to as "first range image data”) and the currently acquired range image data (hereinafter referred to as "second range image data"). Then, the mapping of the second distance image data is performed as described above. Through this mapping, range image data is derived by transforming the second range image data into the coordinate system of the range image sensor 21 at the time when the first range image data was obtained. It should be noted that when the processing of step 120 is executed for the first time after starting the execution of this thoracic movement measurement processing, since there is no first distance image data, the processing of step 120 is not executed in this case.
  • the CPU 11 stores the mapped distance image data in the storage unit 13 .
  • the CPU 11 determines whether or not a predetermined amount of distance image data (amount corresponding to 3 seconds in this embodiment) has been stored. On the other hand, if the determination is affirmative, the process proceeds to step 126 . It should be noted that when repeatedly executing the processes of steps 118 to 124, the CPU 11 executes processes similar to those of steps 104 to 114 in parallel. As a result, distance image data corresponding to the measurement area A can be obtained with the distance F within the reference range.
  • the CPU 11 reads out all distance image data (hereinafter referred to as "target distance image data") from the storage unit 13, and performs predetermined unnecessary component removal processing on the read target distance image data. Do as follows.
  • the CPU 11 derives a histogram of each pixel data (data indicating distance) in the target distance image data for each target distance image data, as shown in the graph shown in the lower left diagram of FIG.
  • This histogram is roughly divided into three types of regions: the arm region of the subject M, the body surface region excluding the arm region of the subject M, and the background region of the subject M. and the maximum value of the frequency of the region of the body surface becomes maximum.
  • the body surface region is located in the middle between the arm region and the background region, and is relatively closer to the arm region than the background region.
  • the predetermined range is set as a fixed value, but it is not limited to this, and may be appropriately set according to attributes of the person M to be measured.
  • the CPU 11 sets the pixel data of the extracted pixel to be processed to 1, and sets the pixel data of pixels other than the target pixel to be processed (hereinafter referred to as "non-processed pixels") to 0 (zero), thereby binarizing the data.
  • the obtained mask image data is stored in the storage unit 13 in association with the corresponding target distance image data.
  • mask image data shown in the upper right diagram of FIG. 9 can be derived from the target distance image data showing the distance image shown in the upper left diagram of FIG. 9 as an example for each of the target distance image data. .
  • the CPU 11 targets the pixels whose pixel data is 1 in the mask image data, and as an example, as shown in FIG. is larger than the difference (displacement) between the maximum value and the minimum value of the corresponding distance when forced breathing is performed. Then, the CPU 11 sets the pixel data of the mask image data corresponding to the extracted pixels to 0 (zero), thereby masking (unprocessed pixels) the pixels in the portion where there was a movement larger than the forced breathing.
  • step 128, the CPU 11 selects the pixels whose pixel data is 1 in the mask image data obtained by the above processing, and extracts the pixel data of the corresponding pixels between the target distance image data adjacent in chronological order. is derived as the volume change amount. As a result, it is possible to obtain the volume change amount that changes according to the elapsed time shown in FIG. 11 as an example.
  • step 130 the CPU 11 inputs the information indicating the derived volumetric change amount and the preset attribute information of the subject M to the estimation model 13C, thereby estimating the lung ventilation volume of the subject M. Derive the value.
  • the CPU 11 calculates the 1-second rate FEV1% using the derived estimated lung ventilation volume.
  • a method for calculating the 1-second rate FEV 1% will be described with reference to FIGS. 12 and 13.
  • FIG. FIG. 12 is a graph showing changes in the estimated lung ventilation over time and the main region X of the lung ventilation
  • FIG. 13 is an enlarged graph of the main region.
  • the CPU 11 derives the starting point t0 of the 1-second volume FEV1 in the main region X of the lung ventilation by reverse extrapolation.
  • t max in FIG. 13 is the maximum inspiratory time and the maximum value (apex) of the waveform V(t).
  • tPF in FIG. 13 is the maximum airflow time, the point at which the slope of the waveform V(t) is maximum, and is obtained by the following equation (1).
  • the 1-second volume FEV1 is calculated by the following formula (3A), and the 1-second rate FEV1% is calculated by the formula (3B) from the 1-second volume FEV1 and the estimated lung ventilation volume FVC derived by the estimation model 13C. do.
  • the CPU 11 uses the 1-second rate FEV1% obtained by the above processing to control the display unit 15 to display the measurement result display screen configured in advance.
  • FIG. 14 shows an example of the measurement result display screen according to this embodiment.
  • the 1-second rate FEV1% obtained by the above processing is displayed on the measurement result display screen according to the present embodiment. Therefore, the person M to be measured can grasp the estimated value of his/her one-second rate FEV1% by referring to the measurement result display screen.
  • step 136 the CPU 11 stops the driving of the imaging unit 20, the distance image sensor 21, and the position/orientation detection unit 22 started by the processing of step 100, and then terminates the chest motion measurement processing.
  • At least part of the head and neck of the person to be measured is detected, and the position of the detected at least part of the head and neck is set as a reference position.
  • a region below the position and separated from the reference position by a predetermined distance according to the attributes of the person to be measured is continuously specified as a measurement region for chest movement of the person to be measured, and the specified measurement region We are continuously measuring the chest movement of the subject. Therefore, as a result of being able to follow the movement of the measurement region accompanying breathing, it is possible to suppress deterioration in measurement accuracy when measuring respiratory function values in a hand-held state.
  • the relative positional relationship with the person to be measured becomes a predetermined relationship as being appropriate, the appropriateness is notified. Therefore, deterioration in measurement accuracy can be further suppressed.
  • the fact that the positional relationship is inappropriate is further notified. Therefore, deterioration in measurement accuracy can be further suppressed.
  • the dimension of the measurement area is determined according to the attribute. Therefore, as a result of being able to set the dimension of the measurement area accurately for each attribute, it is possible to further suppress the deterioration of the measurement accuracy.
  • a distance image sensor is used to detect the position of at least a part of the head and neck of the person to be measured, and the distance image sensor is used to measure chest movement in the measurement area. It is carried out. Since the distance image sensor is installed in many devices, the use of the distance image sensor makes it possible to suppress deterioration in measurement accuracy without increasing costs.
  • the attribute is at least one of gender, age, height, and weight. Therefore, it is possible to perform more accurate measurement according to the applied attribute.
  • range image data of a region including at least a part of the chest of the subject is obtained at first and second time points, and the range image data at the first and second time points are obtained.
  • the position and orientation are specified, and using the specified positions and orientations of the range image sensor at the first and second time points, the acquired range image data at either the first time point or the second time point is mapped.
  • range image data converted into the coordinate system of the range image sensor at the other of the first time point and the second time point is derived, and the acquired range image data at the other time point and the derived distance at the one time point are derived.
  • Image data is used to measure the physical quantity related to the chest movement of the person to be measured. Therefore, as a result of being able to suppress the influence of camera shake at the time of measurement, it is possible to suppress deterioration in measurement accuracy when measuring respiratory function values in a hand-held state.
  • the position and orientation of the range image sensor are specified using an acceleration sensor and a gyro sensor. Since acceleration sensors and gyro sensors are installed in many devices, the use of the acceleration sensors and gyro sensors can suppress deterioration in measurement accuracy without increasing costs.
  • the chest motion of the subject is the chest motion associated with the subject's forced breathing. Therefore, even when measuring the chest movement accompanied by forced breathing, it is possible to suppress the deterioration of the measurement accuracy.
  • the physical quantity is at least one of the subject's 1-second rate and 1-second volume. Therefore, it is possible to suppress a decrease in measurement accuracy when measuring at least one of the one-second rate and the one-second volume of the subject.
  • the unnecessary component removal processing in step 126 in the chest movement measurement processing the overlap region of the arms, etc., the background region, and the region moving more than breathing are removed from the distance image data. Illustrated, but not limited to. For example, in addition to these regions, processing for removing clearly abnormal value regions may be included in the unnecessary component removal processing.
  • the CPU 11 When executing the process of removing the abnormal value area, for example, the CPU 11 targets pixels whose pixel data is 1 in the mask image data, and removes pixels that do not satisfy the condition shown in the following formula (4). Let the pixel data of the corresponding mask image data be 0 (zero). Thereby, pixels considered to be abnormal values are masked (unprocessed pixels).
  • FEV1%(i,j) in equation (4) represents the 1-second rate of the corresponding pixel (i,j) shown in FIG. 15 as an example.
  • AVE(FEV1%) in the equation (4) represents the average value of the 1-second rate FEV1%, and ⁇ represents the standard deviation of the 1-second rate FEV1%.
  • the notification unit 11G notifies when the relative positional relationship with the person to be measured is appropriate or inappropriate has been described, but the present invention is not limited to this. .
  • the notification unit 11G may display the measurement area A identified by the second identification unit 11F on the display unit 15 to further notify the measurement area A.
  • the person to be measured can grasp the specified measurement area, and as a result, the measurement area can be set more accurately.
  • the notification unit 11G may notify the measurement area A when the positional relationship becomes the predetermined relationship.
  • the person to be measured can recognize whether or not the positional relationship is appropriate depending on whether or not the measurement area A is displayed. Therefore, the convenience for the person to be measured can be further improved. can.
  • the notification unit 11G switches the display form of the measurement area A depending on whether the positional relationship is the predetermined relationship, that is, whether the positional relationship is appropriate. It may be in the form According to this form, the person to be measured can grasp whether the positional relationship is appropriate or not by the display form of the measurement area A, so that the convenience for the person to be measured can be further improved. .
  • the display form to be switched in this case for example, when the positional relationship is correct, there is a form in which the outer peripheral line of the measurement area A is made thicker than when the positional relationship is incorrect. exemplified.
  • a form in which the line type (solid line, broken line, chain line, etc.) of the outer peripheral line is changed, and a form in which the color of the outer peripheral line is changed are exemplified.
  • the chest motion measuring device of the present disclosure is configured by a single device (smartphone in the above embodiment), but the present invention is not limited to this.
  • the chest motion measuring device according to the present disclosure may be configured by a system using a plurality of devices such as a server device such as a cloud server and a terminal device.
  • the terminal device transfers the measurement value of the chest motion of the subject by the distance image sensor 21 to the server device, and the server device uses the measurement value received to derive the 1 second rate, and the terminal device , and the terminal device presents the 1-second rate.
  • attribute information database 13B described in the above embodiment is also an example, and it goes without saying that it may be changed as appropriate according to the embodiment.
  • a processing unit As the hardware structure of the processing unit, various processors shown below can be used. As described above, the above various processors include, in addition to the CPU, which is a general-purpose processor that executes software (programs) and functions as a processing unit, FPGA (Field-Programmable Gate Array), etc. Programmable Logic Device (PLD), ASIC (Application Specific Integrated Circuit), etc. etc. are included.
  • the CPU which is a general-purpose processor that executes software (programs) and functions as a processing unit
  • FPGA Field-Programmable Gate Array
  • PLD Programmable Logic Device
  • ASIC Application Specific Integrated Circuit
  • the processing unit may be configured with one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs or a combination of a CPU and an FPGA). may consist of Also, the processing unit may be configured with a single processor.
  • one processor is configured by combining one or more CPUs and software, as typified by computers such as clients and servers. There is a form that functions as a processing unit. Secondly, there is a form of using a processor that implements the functions of the entire system including the processing section with a single IC (Integrated Circuit) chip, as typified by a System On Chip (SoC). In this way, the processing unit is configured using one or more of the above various processors as a hardware structure.
  • SoC System On Chip
  • an electric circuit combining circuit elements such as semiconductor elements can be used.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

胸郭運動計測装置は、手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置であって、被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の距離画像データを取得する取得部と、第1時点及び第2時点の距離画像センサの位置及び姿勢を特定する特定部と、特定部によって特定された第1時点及び第2時点の距離画像センサの位置及び姿勢を用いて、取得部によって取得された第1時点及び第2時点の何れか一方の時点の距離画像データの写像を行うことで、第1時点及び第2時点の他方の時点の距離画像センサの座標系に変換した距離画像データを導出する導出部と、取得部によって取得された他方の時点の距離画像データと、導出部によって導出された一方の時点の距離画像データとを用いて、被計測者の胸郭運動に関する物理量を計測する計測部と、を備える。

Description

胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体
 本開示は、手持ちされた状態で用いられる胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体に関する。
 近年、慢性閉塞性肺疾患(COPD:Chronic Obstructive Pulmonary Disease)の患者数は増加傾向にある一方、実際に治療を受けている患者数は5%程度に留まっている。この理由として、多くの患者が罹患していることに気付いていないことや、正しく診断されていないこと等が考えられる。そこで、マウスピースを用いる必要のあるスパイロメータ等の特別な装置を用いることなく、簡易な方法で人の呼吸機能を計測することが求められている。
 従来、人の呼吸機能を計測するために適用することのできる技術として以下の技術があった。
 特開2020-92980号公報には、マウスピースを使用しなくても呼吸器系の疾患を判別可能にすることを目的とした呼吸器系疾患判別装置が開示されている。この呼吸器系疾患判別装置は、被検者の体表からの距離を検出する第1の検出手段と、前記第1の検出手段とは異なる位置に配置され、被検者の体表からの距離を検出する第2の検出手段と、を備えている。また、この呼吸器系疾患判別装置は、前記第1の検出手段の検出結果と前記第2の検出手段の検出結果に基づいて、体動を除いた被検者の呼吸を計測する呼吸計測手段を備えている。そして、この呼吸器系疾患判別装置は、前記呼吸計測手段の検出結果に基づいて、被検者の呼吸器系の疾患を判別する疾患判別手段を備えている。
 特開2017-217298号公報には、非接触かつリアルタイムで正確に呼吸波形を測定することができるようにすることを目的とした呼吸測定装置が開示されている。この呼吸測定装置は、測定対象者の対象領域の距離情報及び姿勢情報を含む三次元画像を単位時間ごとに取得する、三次元画像取得部と、前記三次元画像から測定基準位置と前記対象領域との間の距離情報を取得する、距離取得部と、を備えている。また、この呼吸測定装置は、前記三次元画像から前記対象領域の姿勢情報を取得する、姿勢取得部と、前記姿勢情報を用いて前記対象領域内の呼吸主要領域を確定する、呼吸主要領域確定部と、を備えている。また、この呼吸測定装置は、前記呼吸主要領域に対応する前記三次元画像の1つ又は複数の画素の前記距離情報を時系列に並べることによって、前記呼吸主要領域の移動量波形を生成する、移動量波形生成部を備えている。そして、この呼吸測定装置は、前記移動量波形から呼吸波形を生成する、呼吸波形生成部を備えている。
 特開2000-217802号公報には、完全に非侵襲的に呼吸運動の異常又は呼吸器官の異常を測定することができるようにすることを目的とした呼吸運動のモニター装置が開示されている。この呼吸運動のモニター装置は、レーザーによりセンサと検体との距離を測定し得る2個又はそれ以上のレーザーセンサを備え、当該センサにより検体の異なる2箇所以上の動きを持続的に計測する。
 特表2011-519657号公報には、患者のコンタクトレス呼吸監視に関するデバイスが開示されている。このデバイスは、前記患者の胸部に対する時間的距離変動を連続的に検出する距離センサと、前記検出された時間的距離変動に基づき前記呼吸活動を決定する計算ユニットと、を備えている。
 ところで、スパイロメータによって計測される1秒率等といった、人の呼吸機能に関する値(以下、「呼吸機能値」という。)をスパイロメータ等の特別な装置を用いることなく計測するためには、特開2020-92980号公報に開示されている技術のように、人の胸郭運動を計測する方法が考えられる。そして、より簡易に呼吸機能値を計測するためには、スマートフォン、タブレット端末、ウェアラブルデバイス、ノートブック型PC(パーソナル・コンピュータ)等の手持ち可能で、かつ、汎用の携帯型の端末装置を計測装置として、自分自身が手持ちした状態で計測可能とすることが更に好ましい。
 携帯型の端末装置を計測装置として胸郭運動を計測する場合、被計測者には、当該計測を行っている最中に努力呼吸や深呼吸等の呼吸を行うことが求められる。このため、この場合には、呼吸に伴って計測装置と計測対象とする領域(以下、「計測領域」という。)との相対的な位置関係が時間の経過に伴ってずれることを想定する必要があり、当該ずれを考慮しないで計測を行うと、呼吸機能値の計測精度が低下してしまう、という問題点が生じる。
 これに対し、特開2020-92980号公報、特開2017-217298号公報、及び特開2000-217802号公報に開示されている技術は、何れも手持ちした状態で計測装置を用いることは想定していないため、上述した問題点を解決することはできない。
 また、特表2011-519657号公報に開示されている技術は、手持ちした状態で計測装置を用いることは想定しているものの、上記ずれに関しては考慮されていないため、この技術においても呼吸機能値の計測精度が低下してしまう、という問題点を解決することはできない。
 本開示は、マウスピースを用いる必要のあるスパイロメータ等の特別な装置を用いることなく、簡易な方法で呼吸機能値を計測するために、上記の問題点に鑑みてなされたものであり、手持ちした状態で呼吸機能値を計測する場合における計測精度の低下を抑制することができる胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体を提供することを目的とする。
 本開示の発明者は、手持ちした状態で呼吸機能値を計測する場合における計測精度の低下を抑制することができる胸郭運動計測装置及び胸郭運動計測プログラムを提供することを目的として検討を行った。その結果、本開示によれば、被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の距離画像センサによって得られた距離画像データを用いて、被計測者の胸郭運動に関する物理量を計測することにより手持ちした状態で呼吸機能値の計測時における手振れの影響を抑制することができ、手持ちした状態での呼吸機能値の計測精度の低下を抑制することができることを見出した。
 本開示の第1態様は、手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置であって、前記被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の前記距離画像データを取得する取得部と、前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を特定する特定部と、前記特定部によって特定された前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を用いて、前記取得部によって取得された前記第1時点及び第2時点の何れか一方の時点の前記距離画像データの写像を行うことで、前記第1時点及び第2時点の他方の時点の前記距離画像センサの座標系に変換した距離画像データを導出する導出部と、前記取得部によって取得された前記他方の時点の距離画像データと、前記導出部によって導出された前記一方の時点の距離画像データとを用いて、前記被計測者の胸郭運動に関する物理量を計測する計測部と、を備えた胸郭運動計測装置である。
 本開示の第2態様は、第1態様の胸郭運動計測装置において、前記特定部が、前記距離画像センサの位置及び姿勢を、加速度センサ及びジャイロセンサを用いて特定するものである。
 本開示の第3態様は、第1態様又は第2態様の胸郭運動計測装置において、前記被計測者の胸郭運動が、当該被計測者の努力呼吸に伴う胸郭運動であるものである。
 本開示の第4態様は、第1態様~第3態様の何れか1の態様の胸郭運動計測装置において、前記計測部が、前記被計測者の頭部及び頸部の少なくとも一部の位置を基準位置として継続的に特定される当該被計測者の胸郭運動の計測領域を対象として前記物理量を継続的に計測するものである。
 本開示の第5態様は、第1態様~第4態様の何れか1の態様の胸郭運動計測装置において、前記物理量が、前記被計測者の1秒率及び1秒量の少なくとも一方であるものである。
 本開示の第6態様は、手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置において実行される胸郭運動計測プログラムであって、前記被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の前記距離画像データを取得し、前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を特定し、特定した前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を用いて、取得した前記第1時点及び第2時点の何れか一方の時点の前記距離画像データの写像を行うことで、前記第1時点及び第2時点の他方の時点の前記距離画像センサの座標系に変換した距離画像データを導出し、取得した前記他方の時点の距離画像データと、導出した前記一方の時点の距離画像データとを用いて、前記被計測者の胸郭運動に関する物理量を計測する、処理をコンピュータに実行させるための胸郭運動計測プログラムである。
 本開示の第7態様は、手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置であって、メモリと、前記メモリに接続された少なくとも1つのプロセッサと、を含み、前記プロセッサは、前記被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の前記距離画像データを取得し、前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を特定し、特定した前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を用いて、取得した前記第1時点及び第2時点の何れか一方の時点の前記距離画像データの写像を行うことで、前記第1時点及び第2時点の他方の時点の前記距離画像センサの座標系に変換した距離画像データを導出し、取得した前記他方の時点の距離画像データと、導出した前記一方の時点の距離画像データとを用いて、前記被計測者の胸郭運動に関する物理量を計測する、処理を実行させる。
 本開示の第8態様は、手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置において、胸郭運動計測処理を実行するようにコンピュータによって実行可能なプログラムを記憶した非一時記憶媒体であって、前記胸郭運動計測処理は、前記被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の前記距離画像データを取得し、前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を特定し、特定した前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を用いて、取得した前記第1時点及び第2時点の何れか一方の時点の前記距離画像データの写像を行うことで、前記第1時点及び第2時点の他方の時点の前記距離画像センサの座標系に変換した距離画像データを導出し、取得した前記他方の時点の距離画像データと、導出した前記一方の時点の距離画像データとを用いて、前記被計測者の胸郭運動に関する物理量を計測する。
 本開示によれば、手持ちした状態で呼吸機能値を計測する場合における計測精度の低下を抑制することができる。
 従って、手持ちした状態で呼吸機能値を計測する場合における計測精度の低下を抑制することができる本開示の胸郭運動計測装置によれば、スパイロメータ等の特別な装置を用いることなく、汎用の携帯型の端末装置を胸郭運動計測装置とすることで、より簡易に、呼吸機能値を計測することができる。
一実施形態に係る胸郭運動計測装置のハードウェア構成の一例を示すブロック図である。 一実施形態に係る胸郭運動計測装置の機能的な構成の一例を示すブロック図である。 一実施形態に係る属性情報データベースの構成の一例を示す模式図である。 一実施形態に係る胸郭運動計測装置を用いた胸郭運動の計測時における状態の一例を示す概略図である。 一実施形態に係る胸郭運動計測処理の一例を示すフローチャートである。 一実施形態に係る胸郭運動計測処理における計測領域の検出方法の説明に供する正面図である。 一実施形態に係る胸郭運動計測処理の実行時において表示される距離警告画面の構成の一例を示す正面図である。 一実施形態に係る胸郭運動計測処理の実行時において表示される努力呼吸指示画面の構成の一例を示す正面図である。 一実施形態に係る胸郭運動計測処理の説明に供する図であり、不要成分除去処理の各種状態の一例を示す図である。 一実施形態に係る胸郭運動計測処理の説明に供する図であり、不要成分除去処理の各種状態の一例を示す図である。 一実施形態に係る胸郭運動計測処理の説明に供する図であり、計測された体積変化量の時間経過に伴う推移の一例を示すグラフである。 一実施形態に係る胸郭運動計測処理の説明に供する図であり、推定された肺換気量の時間経過に伴う変化、及び当該肺換気量の要部領域の一例を示すグラフである。 一実施形態に係る胸郭運動計測処理の説明に供する図であり、図12における要部領域を拡大した場合の一例を示すグラフである。 一実施形態に係る胸郭運動計測処理の実行時において表示される計測結果表示画面の構成の一例を示す正面図である。 一実施形態に係る胸郭運動計測処理の説明に供する図であり、不要成分除去処理の他の一例を示す図である。 一実施形態に係る胸郭運動計測処理の実行時において表示される努力呼吸指示画面の構成の他の一例を示す正面図である。 一実施形態に係る3次元座標変換の説明に供する模式図である。
 以下、図面を参照して、本開示の実施形態の一例を詳細に説明する。なお、各図面において同一または等価な構成要素および部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。
 本実施形態では、本開示の技術における胸郭運動計測装置を汎用のスマートフォンに適用した場合について説明する。但し、本開示の技術の適用対象はスマートフォンに限るものではなく、携帯型のゲーム装置、タブレット端末、ウェアラブルデバイス、ノートブック型パーソナルコンピュータ等の他の携帯型の情報処理装置にも適用することができる。
 まず、図1、図2を参照して、本実施形態に係る胸郭運動計測装置10の構成を説明する。図1は、一実施形態に係る胸郭運動計測装置10のハードウェア構成の一例を示すブロック図である。また、図2は、一実施形態に係る胸郭運動計測装置10の機能的な構成の一例を示すブロック図である。
 図1に示すように、本実施形態に係る胸郭運動計測装置10は、CPU(Central Processing Unit)11、一時記憶領域としてのメモリ12、不揮発性の記憶部13、及びタッチパネルと各種スイッチ等の入力部14を備えている。また、本実施形態に係る胸郭運動計測装置10は、液晶ディスプレイ等の表示部15、及び媒体読み書き装置(R/W)16を備えている。また、本実施形態に係る胸郭運動計測装置10は、予め定められた通信規格でモバイル通信を行う無線通信部18、及び音声出力部19を備えている。更に、本実施形態に係る胸郭運動計測装置10は、撮影部20、距離画像センサ21、及び位置・姿勢検出部22を備えている。CPU11、メモリ12、記憶部13、入力部14、表示部15、媒体読み書き装置16、無線通信部18、音声出力部19、撮影部20、距離画像センサ21、及び位置・姿勢検出部22はバスBを介して互いに接続されている。媒体読み書き装置16は、記録媒体17に書き込まれている情報の読み出し及び記録媒体17への情報の書き込みを行う。
 一方、記憶部13はHDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現される。記憶媒体としての記憶部13には、胸郭運動計測プログラム13Aが記憶されている。胸郭運動計測プログラム13Aは、当該プログラム13Aが書き込まれた記録媒体17が媒体読み書き装置16にセットされ、媒体読み書き装置16が記録媒体17からの当該プログラム13Aの読み出しを行うことで、記憶部13へ記憶(インストール)される。CPU11は、胸郭運動計測プログラム13Aを記憶部13から読み出してメモリ12に展開し、胸郭運動計測プログラム13Aが有するプロセスを順次実行する。
 このように、本実施形態に係る胸郭運動計測装置10では、胸郭運動計測プログラム13Aを、記録媒体17を介して胸郭運動計測装置10にインストールしているが、これに限るものではない。例えば、無線通信部18を介してダウンロードすることにより、胸郭運動計測プログラム13Aを胸郭運動計測装置10にインストールする形態としてもよい。
 また、記憶部13には、属性情報データベース13Bが記憶される。属性情報データベース13Bについては、詳細を後述する。
 更に、記憶部13には、推定モデル13Cが記憶される。
 本実施形態に係る推定モデル13Cは、胸郭運動計測装置10による被計測者の属性を示す属性情報、及び詳細を後述する、当該被計測者の胸郭運動時における体積変化量を示す情報が入力情報とされ、当該被計測者の肺換気量を示す情報が出力情報とされている。本実施形態では、属性情報として、性別及び年齢を示す情報を適用しているが、これに限るものではない。例えば、これらの性別及び年齢に加えて、身長及び体重の4種類の情報のうちの何れか1つ、又は複数の組み合わせを属性情報として適用する形態としてもよい。
 なお、本実施形態では、推定モデル13Cとして、機械学習を用いた推定モデルであるCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)によるものを適用しているが、これに限るものではない。他の機械学習を用いた推定モデル、例えば、RNN(Recurrent Neural Network、再帰型ニューラルネットワーク)によるものを推定モデル13Cとして適用する形態としてもよい。また、推定モデル13Cは、機械学習を用いていない統計モデル等の推定モデルであってもよい。また、機械学習を用いた推定モデル13Cの学習方法については、従来既知の方法(例えば、教師あり学習、強化学習等による方法)を適用することができるため、ここでの詳細な説明は省略する。
 一方、撮影部20は、動画像を撮影する撮影装置として機能し、かつ、胸郭運動計測装置10のユーザを撮影することができるものとされている。撮影部20は、汎用の携帯型の情報処理装置には搭載されている場合が多く、この場合、撮影部20のためにコストの上昇を招くことはない。
 また、距離画像センサ21は、解像度に応じたサイズの画素毎に距離を示すデータである距離画像データを検出するものとして機能する。また、本実施形態に係る距離画像センサ21は、距離画像データを取得する領域が、撮影部20による撮影画角と一致するように設定されている。なお、本実施形態では、距離画像センサ21として、ToF(Time of Flight)方式のものを適用しているが、これに限るものではない。例えば、輝点投影方式のセンサ、ステレオ(多眼)カメラ、又は、変位センサを距離画像センサ21として適用する形態としてもよい。また、距離画像センサ21の信号のタイプとしては、光学式がよく用いられるが、電波式、超音波式のものであってもよい。距離画像センサ21としてToF方式のもの、又は輝点投影方式のものを適用する場合、これらのセンサは汎用の携帯型の情報処理装置には搭載されている場合が多く、この場合も、距離画像センサ21のためにコストの上昇を招くことはない。
 更に、位置・姿勢検出部22は、距離画像センサ21の位置及び姿勢を検出するものとして機能する。本実施形態では、位置・姿勢検出部22として加速度センサ及びジャイロセンサを適用している。この加速度センサ及びジャイロセンサも、汎用の携帯型の情報処理装置には搭載されている場合が多く、この場合にも、位置・姿勢検出部22のためにコストの上昇を招くことはない。
 次に、図2を参照して、本実施形態に係る胸郭運動計測装置10の機能的な構成について説明する。図2に示すように、本実施形態に係る胸郭運動計測装置10は、取得部11A、第1特定部11B、導出部11C、計測部11D、検出部11E、第2特定部11F、及び報知部11Gを含む。胸郭運動計測装置10のCPU11が胸郭運動計測プログラム13Aを実行することで、取得部11A、第1特定部11B、導出部11C、計測部11D、検出部11E、第2特定部11F、及び報知部11Gとして機能する。
 本実施形態に係る胸郭運動計測装置10は、被計測者により手持ちされた状態で、搭載された距離画像センサ21によって得られた距離画像データを用いて被計測者の胸郭運動を計測するものとされている。なお、本実施形態に係る胸郭運動計測装置10は、被計測者以外の者により手持ちされた状態で、被計測者の胸郭運動を計測する形態としてもよい。そして、本実施形態に係る取得部11Aは、被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の距離画像データを距離画像センサ21から取得する。
 また、本実施形態に係る第1特定部11Bは、位置・姿勢検出部22を用いて、上記第1時点及び第2時点の距離画像センサ21の位置及び姿勢を特定する。
 また、本実施形態に係る導出部11Cは、第1特定部11Bによって特定された第1時点及び第2時点の距離画像センサ21の位置及び姿勢を用いて、取得部11Aによって取得された第1時点及び第2時点の何れか一方の時点の距離画像データの写像を行う。この写像により、第1時点及び第2時点の他方の時点の距離画像センサ21の座標系に変換した距離画像データを導出する。なお、本実施形態では、導出部11Cにより、第2時点の距離画像データの写像を行うことで、第1時点の距離画像センサ21の座標系に変換した距離画像データを導出しているが、これに限るものではない。導出部11Cにより、第1時点の距離画像データの写像を行うことで、第2時点の距離画像センサ21の座標系に変換した距離画像データを導出する形態としてもよい。
 そして、本実施形態に係る計測部11Dは、取得部11Aによって取得された上記他方の時点(本実施形態では、第1時点)の距離画像データと、導出部11Cによって導出された上記一方の時点(本実施形態では、第2時点)の距離画像データとを用いて、被計測者の胸郭運動(本実施形態では、努力呼吸に伴う胸郭運動)に関する物理量を計測する。なお、本実施形態では、上記物理量として被計測者の1秒率を適用した場合について説明するが、これに限るものではない。例えば、被計測者の1秒量を上記物理量として適用する形態としてもよい。
 一方、本実施形態に係る検出部11Eは、被計測者の頭部及び頸部の少なくとも一部を検出する。なお、本実施形態では、検出部11Eが被計測者の頭部における顎部を検出するものとされているが、これに限るものではない。例えば、被計測者の頭部における目、鼻等の他の部位を検出部11Eにより検出する形態としてもよいし、被計測者の頸部における中心位置を検出部11Eにより検出する形態としてもよい。
 また、本実施形態では、検出部11Eによる対象部位の検出を、取得部11Aによって取得された距離画像データを用いて行っているが、これに限るものではない。例えば、撮影部20によって得られた撮影画像を示す撮影画像データを用いて、検出部11Eによる対象部位の検出を行う形態としてもよい。検出部11Eによる対象部位の検出を、距離画像データを用いて行う場合、及び撮影画像データを用いて行う場合の何れの場合においても、当該検出を従来既知の画像認識技術によって行うことができるため、この点についての詳細な説明は省略する。
 また、本実施形態に係る第2特定部11Fは、検出部11Eによって検出された頭部及び頸部の少なくとも一部(本実施形態では、顎部)の位置を基準位置とする。そして、第2特定部11Fは、当該基準位置の下方で、かつ、被計測者の属性に応じて予め定められた距離(以下、「属性対応距離」という。)を当該基準位置から隔てた領域を、当該被計測者に対する胸郭運動の計測領域として継続的に特定する。なお、本実施形態では、ここで適用する属性を示す属性情報として、被計測者の性別及び年齢を示す情報を適用している点は上述した通りである。
 そして、本実施形態に係る計測部11Dは、第2特定部11Fによって特定された計測領域を対象として、被計測者の胸郭運動の計測(本実施形態では、上記物理量の計測)を継続的に行う。
 更に、本実施形態に係る報知部11Gは、被計測者との相対的な位置関係が適正なものとして予め定められた関係となった場合に、当該適正である旨を報知し、当該位置関係が不適正である場合に、当該不適正である旨を報知する。なお、本実施形態では、報知部11Gによる報知として、表示部15を用いた表示による報知を適用しているが、これに限るものではない。例えば、音声出力部19を用いた音声による報知を、報知部11Gによる報知として適用する形態としてもよい。
 また、本実施形態に係る第2特定部11Fは、上記属性に応じて計測領域の寸法を決定する。
 ここで、導出部11Cによって行われる写像について説明する。
 距離画像センサ21に付随する光学系の焦点距離をfとし、距離画像センサ21によって得られる被写体までの距離に関する成分をZとし、距離画像センサ21における画素の2次元座標をxとする。この場合、これらの各値は次の各数式によって表すことができる。下記数式における3×4行列Ppを射影行列という。
Figure JPOXMLDOC01-appb-M000001
 従って、焦点距離fと3次元座標の成分Zが既知である場合、2次元座標xが与えられることによって3次元座標Xを算出することができる。
 焦点距離fは、予め対象となる距離画像センサ21のキャリブレーションを行うことで得ることができる。但し、実際には上記光学系のレンズの歪みや収差が存在するため、これらを補正しておく必要がある。また成分Zは距離画像センサ21によって得ることができる。
 即ち、ある時点の距離画像センサ21の位置で撮影された胸郭表面の点pは、距離画像センサ21から得られる値と射影行列Ppを用いることで、3次元座標として求めることができる。
 ここで、図17を参照して、3次元座標変換について説明する。図17は、一実施形態に係る3次元座標変換の説明に供する模式図である。
 図17に示すように、距離画像センサ21の位置がCである場合の位置Cを原点とした座標系Aにおける空間中の点pの座標をXとし、座標系Aにおける位置Cの座標をとし、距離画像センサ21の位置がCである場合の位置Cを原点とした座標系Bにおける点pの座標をXとする。また、位置Cから位置Cへの回転行列を Rとし、並進ベクトルを tとする。
 このとき、座標系Bにおける点pの座標Xは次式により表される。
Figure JPOXMLDOC01-appb-M000002
 ここで、並進ベクトル t及び回転行列 Rを次式のようにおく。
Figure JPOXMLDOC01-appb-M000003
 この場合、座標Xは次式により表される。
Figure JPOXMLDOC01-appb-M000004
 また、座標Xを次式のようにおく。
Figure JPOXMLDOC01-appb-M000005
 この場合、点pの座標系Bにおける座標Xは次式により表すことができる。
Figure JPOXMLDOC01-appb-M000006
 手振れを補正するためには、基準となる距離画像センサ21の位置(第1時点の位置に相当)を予め決めておき、そこから手振れによって移動した距離画像センサ21で得られた3次元座標を、基準となる距離画像センサ21の座標に変換することによって、基準となる距離画像センサ21の位置における測定座標の変化として捉えることができる。
 ここで、座標系Aを胸郭運動の基準座標系とおき、座標系Bを手振れ後(第2時点に相当)の座標系とおけば、回転行列 Rはジャイロセンサから与えられており、並進ベクトル tは加速度センサの積分値から求めることができる。このため、最終的に得られた座標Xの演算式による座標変換を行うことによって、座標系Bにおいて射影変換によって求められた3次元座標を座標系Aとして補正することが可能になる。射影行列は、上記光学系におけるレンズの焦点距離fが変化しない限り不変のものとして扱うことができるため、同一の距離画像センサ21が移動した場合であっても同じ射影行列を用いればよい。
 但し、特定の点が手振れ後において同一点である保証はないことに留意する必要がある。なぜなら、手振れ後には胸郭運動によって、手振れ前に計測した点群は既に移動してしまっている可能性が高いためである。同一点の探索を行う場合、ステレオマッチング等によって距離計測を行うために、複数の画像に含まれる類似パターンを比較することで行われることが多いが、本実施形態に係る胸郭運動の計測では、そのような探索を行う必要はない。
 本実施形態に係る胸郭運動の計測においては、基準となる距離画像センサ21の位置において面状に観測される空間中の点群の平均距離を用いる。このため、手振れ補正後の点群の空間座標のみが得られればよく、上記のような空間上の同一点を探索する必要はない。
 なお、写像の方法は以上の方法に限るものではない。例えば、距離画像センサがステレオカメラ等の場合は、以下に示す基本行列を使用する形態を適用することができる。
 即ち、エピポーラ幾何学に基づけば、空間上の同一点を異なる2箇所から観測している場合の当該2箇所の距離画像センサ21の位置及び姿勢の関係を基本行列という行列を使って記述することが可能となる。この基本行列は、回転パラメータを記述した行列Rと、移動距離を記述した行列Sの積によって表現される。
 加速度センサで加速度を検出することにより、距離画像センサ21の第1時点から第2時点までの移動距離を第1時点から第2時点までの経過時間から推定することができるため、行列Sを記述することができる。行列Rはジャイロセンサで得られる値であり、基本行列を計算することで、手振れが発生した場合の距離画像センサ21の第1時点と第2時点との間の相対的な位置及び姿勢の変化を計算することができる。
 ここで重要なのは、エピポーラ幾何では空間上の固定された点についてのみ成立するということである。即ち、第1時点の距離画像センサ21の座標系における、第1時点に取得された距離画像を構成するポイントクラウド(点群)、第1時点の距離画像センサ21並びに第2時点の距離画像センサ21の位置及び姿勢を特定することができる。
 努力呼吸時には身体が大きく動くため、第2時点で新たに得られた距離画像には、第1時点で得られた距離画像と同一の空間点は存在しない。しかし、第2時点の距離画像センサ21の位置及び姿勢は計算で求められるため、第2時点の距離画像の各点の座標は、写像を行うことで第1時点の距離画像センサ21の座標系として計算することができる。
 このようにして、第1時点及び第2時点のそれぞれで得られた距離画像を同一の座標系で記述することができるため、第1時点と第2時点との間の相対的な変化を算出することができる。
 次に、図3を参照して、本実施形態に係る属性情報データベース13Bについて説明する。図3は、一実施形態に係る属性情報データベース13Bの構成の一例を示す模式図である。
 本実施形態に係る属性情報データベース13Bは、被計測者の属性に応じた各種情報を記憶するためのものである。図3に示すように、本実施形態に係る属性情報データベース13Bは、性別、年齢、距離、及び寸法の各情報が記憶される。
 上記性別は、被計測者の性別を示す情報であり、上記年齢は、対応する性別の被計測者における、予め定められた段階別の年齢層を示す情報である。なお、本実施形態では、当該年齢層の段階として、60歳以上の段階、及び60歳未満で、かつ、10歳刻みの段階を適用しているが、これに限るものでないことは言うまでもない。
 また、上記距離は、対応する性別及び年齢層の組み合わせに好適な、上述した属性対応距離を示す情報であり、上記寸法は、当該組み合わせに好適な、上述した計測領域の寸法を示す情報である。本実施形態では、属性対応距離として、上記基準位置から計測領域の中心位置までの距離を適用しているが、これに限るものではない。例えば、上記基準位置から計測領域の上端部までの距離を属性対応距離として適用する形態としてもよいし、上記基準位置から計測領域の下端部までの距離を属性対応距離として適用する形態としてもよい。
 図3に示す例では、60歳以上の男性に対応する属性対応距離が15.5(cm)で、計測領域の寸法が幅35.5(cm)で、高さが22.0(cm)であることが記憶されている。
 次に、図4を参照して、胸郭運動計測装置10による被計測者の胸郭運動の計測方法について説明する。図4は、一実施形態に係る胸郭運動計測装置10を用いた胸郭運動の計測時における状態の一例を示す概略図である。
 図4に示すように、胸郭運動を計測する場合に、被計測者Mは、胸郭運動計測装置10を把持した状態で、胸郭運動計測装置10の撮影部20による撮影画角内に自身の頭部の少なくとも一部(本実施形態では、顎部)、及び胸郭部が含まれるように胸郭運動計測装置10を位置決めする。この際、被計測者Mは、胸郭運動計測装置10と自身の胸郭部との距離が、予め定められた基準範囲(本実施形態では、50(cm)から55(cm)までの範囲)内となることを目指して位置決めする。なお、基準範囲は、この範囲に限るものではなく、胸郭運動計測装置10における距離画像センサ21の性能や被計測者Mの属性等に応じて適宜設定する形態としてもよい。
 次に、図5~図15を参照して、本実施形態に係る胸郭運動計測装置10の作用を説明する。図5は、一実施形態に係る胸郭運動計測処理の一例を示すフローチャートである。なお、ここでは、錯綜を回避するため、属性情報データベース13Bが既に構築済みである場合について説明する。また、ここでは、錯綜を回避するため、被計測者Mの属性(ここでは、性別及び年齢)を示す属性情報が予め設定されている場合について説明する。
 胸郭運動計測装置10のCPU11が胸郭運動計測プログラム13Aを実行することによって、図5に示す胸郭運動計測処理が実行される。図5に示す胸郭運動計測処理は、被計測者Mにより、胸郭運動計測プログラム13Aの実行を開始する指示入力が入力部14を介して行われた場合に実行される。なお、この際、被計測者Mは、一例として図4を参照して説明したように胸郭運動計測装置10を位置決めする。
 図5のステップ100で、CPU11は、撮影部20、距離画像センサ21、及び位置・姿勢検出部22の駆動を開始するように制御する。ステップ102で、CPU11は、予め設定されている被計測者Mの属性情報に対応する距離(属性対応距離)及び寸法の各情報を属性情報データベース13Bから読み出す。
 ステップ104で、CPU11は、距離画像センサ21から1画像分の距離画像データを取得する。ステップ106で、CPU11は、図6に示すように、取得した距離画像データを用いて、被計測者Mの頭部における一部領域(本実施形態では、顎部)を上述したように画像認識により検出する。
 ステップ108で、CPU11は、図6に示すように、検出した顎部の位置を基準位置Eとして、当該基準位置の下方で、かつ、読み出した属性対応距離Dを隔てた位置を中心Cとし、更に、幅W及び高さHが読み出した寸法とされた領域を計測領域Aとして検出する。なお、図6は、一実施形態に係る胸郭運動計測処理における計測領域Aの検出方法の説明に供する図であるが、この図では、計測領域Aを明確に示すために、被計測者Mが胸郭運動計測装置10を把持していない状態で図示している。
 ステップ110で、CPU11は、取得した距離画像データを用いて、この時点における胸郭運動計測装置10と被計測者Mとの距離Fを検出する。なお、本実施形態では、距離Fとして、距離画像データにおける中心の画素に対応する画素データが示す距離を適用しているが、これに限るものではない。例えば、距離画像データにおける中心の画素を含む予め定められた領域の画素(例えば、10画素×10画素)の各画素データが示す距離の平均値を距離Fとして適用する形態としてもよい。
 ステップ112で、CPU11は、距離Fが上述した基準範囲(本実施形態では、50(cm)から55(cm)までの範囲)内となっているか否かを判定し、肯定判定となった場合はステップ116に移行する一方、否定判定となった場合はステップ114に移行する。なお、本実施形態では、基準範囲として、距離Fが当該範囲内となった場合に胸郭運動計測装置10による計測が精度よく行うことができると見なされる範囲として、予め実機を用いた実験や、コンピュータ・シミュレーション等によって得られた範囲を適用している。但し、この形態に限るものではなく、例えば、胸郭運動計測装置10に求められる計測精度や、被計測者Mの属性等に応じて基準範囲を適宜設定する形態としてもよい。
 ステップ114で、CPU11は、予め定められた構成とされた距離警告画面を表示するように表示部15を制御し、その後にステップ104に戻る。
 図7には、本実施形態に係る距離警告画面の一例が示されている。図7に示すように、本実施形態に係る距離警告画面では、胸郭運動計測装置10と自身の胸郭部との距離を、概ね上述した基準範囲とすることを指示するメッセージが表示される。従って、被計測者Mは、自身が把持している胸郭運動計測装置10と胸郭部との距離が基準範囲となっていないことを把握することができる。そして、被計測者Mが、当該指示に従うことで、胸郭運動計測装置10と胸郭部との距離が基準範囲となった状態でステップ116に移行することになる。
 ステップ116で、CPU11は、予め定められた構成とされた努力呼吸指示画面を表示するように表示部15を制御する。
 図8には、本実施形態に係る努力呼吸指示画面の一例が示されている。図8に示すように、本実施形態に係る努力呼吸指示画面では、被計測者Mと胸郭運動計測装置10との位置関係が適正である旨を示すメッセージと、被計測者Mに対して努力呼吸を指示する旨のメッセージとが表示される。従って、被計測者Mは、このタイミングで努力呼吸を行う。
 そこで、ステップ118で、CPU11は、距離画像データを距離画像センサ21から取得する。ステップ120で、CPU11は、前回取得した距離画像データ(以下、「第1距離画像データ」という。)と、今回取得した距離画像データ(以下、「第2距離画像データ」という。)との間で、上述したように第2距離画像データの写像を行う。この写像により、第2距離画像データを、第1距離画像データを取得した時点の距離画像センサ21の座標系に変換した距離画像データが導出される。なお、本胸郭運動計測処理の実行を開始して、初めてステップ120の処理を実行する場合には第1距離画像データがないため、この場合にはステップ120の処理は実行しない。
 ステップ122で、CPU11は、写像が行われた距離画像データを記憶部13に記憶する。ステップ124で、CPU11は、距離画像データを予め定められた量(本実施形態では、3秒分に相当する量)だけ記憶したか否かを判定し、否定判定となった場合はステップ118に戻る一方、肯定判定となった場合はステップ126に移行する。なお、ステップ118~ステップ124の処理を繰り返し実行する際に、CPU11は、これと並行して、ステップ104~ステップ114と同様の処理を実行する。これにより、距離Fが基準範囲内とされた状態で計測領域Aに対応する距離画像データを得ることができる。
 ステップ126で、CPU11は、全ての距離画像データ(以下、「対象距離画像データ」という。)を記憶部13から読み出し、読み出した対象距離画像データに対して、予め定められた不要成分除去処理を以下のように行う。
 まず、CPU11は、図9の左下図に示すグラフのように、対象距離画像データの各々毎に、対象距離画像データにおける各画素データ(距離を示すデータ)のヒストグラムを導出する。このヒストグラムでは、主として、被計測者Mの腕の領域と、被計測者Mの腕の領域を除く体表の領域と、被計測者Mの背景の領域と、の3種類の領域に大別され、かつ、当該体表の領域の度数の最大値が最大となる。また、体表の領域は、腕の領域及び背景の領域の中間部に位置し、かつ、背景の領域よりも腕の領域に、相対的に近いものとなる。
 そこで、CPU11は、図9の右下図に示すグラフのように、導出したヒストグラムにおける、度数が最大となる距離を中心として、予め定められた範囲(本実施形態では、±10(cm)の範囲)に距離が含まれる対象距離画像データの画素を処理対象とする画素(以下、「処理対象画素」という。)として抽出する。なお、本実施形態では、上記予め定められた範囲を固定値としているが、これに限るものではなく、被計測者Mの属性等に応じて適宜設定する形態としてもよい。
 そして、CPU11は、抽出した処理対象画素の画素データを1とし、処理対象画素を除く画素(以下、「非処理画素」という。)の画素データを0(零)とすることで二値化されたマスク画像データを、対応する対象距離画像データに関連付けて記憶部13に記憶する。
 以上の処理により、対象距離画像データの各々について、一例として図9の左上図に示す距離画像を示す対象距離画像データから、一例として図9の右上図に示すマスク画像データを導出することができる。
 次いで、CPU11は、マスク画像データにおける画素データが1とされた画素を対象として、一例として図10に示すように、対象距離画像データの各々間の対応する画素データの差分(変位)の最大値が、努力呼吸を行っている場合の対応する距離の最大値及び最小値の差分(変位)より大きな画素を抽出する。そして、CPU11は、抽出した画素に対応するマスク画像データの画素データを0(零)とすることで、努力呼吸よりも大きな動きがあった部分の画素をマスキング(非処理画素化)する。
 ステップ128で、CPU11は、以上の処理によって得られたマスク画像データにおいて画素データが1とされている画素を対象として、時系列順で隣接する対象距離画像データ間における、対応する画素の画素データの差分の合計値を体積変化量として導出する。これにより、一例として図11に示す経過時間に応じて変化する体積変化量を得ることができる。
 ステップ130で、CPU11は、導出した体積変化量を示す情報と、予め設定されている被計測者Mの属性情報とを推定モデル13Cに入力することで、被計測者Mの肺換気量の推定値を導出する。
 ステップ132で、CPU11は、導出した肺換気量の推定値を用いて1秒率FEV1%を算出する。以下、図12及び図13を参照して、1秒率FEV1%の算出方法を説明する。なお、図12は、推定された肺換気量の時間経過に伴う変化、及び当該肺換気量の要部領域Xを示すグラフであり、図13は、当該要部領域を拡大したグラフである。
 まず、CPU11は、一例として図13に示すように、肺換気量の要部領域Xにおける、1秒量FEV1の始点tを逆外挿法により導出する。
 即ち、図13におけるtmaxは最大吸気時間であり、波形V(t)の最大値(頂点)である。また、図13におけるtPFは気流最大時間であり、波形V(t)の傾きが最大となる点であり、次の式(1)により求められる。
Figure JPOXMLDOC01-appb-M000007
 点(tPF,V(tPF))及び点(t,V(t))の2点より、急峻点接線の傾きaを算出する式を変形して、始点tは次の式(2)によって算出される。
Figure JPOXMLDOC01-appb-M000008
 そして、1秒量FEV1を次の式(3A)により算出し、当該1秒量FEV1と推定モデル13Cにより導出された肺換気量の推定値FVCから式(3B)により1秒率FEV1%を算出する。
Figure JPOXMLDOC01-appb-M000009
 ステップ134で、CPU11は、以上の処理によって得られた1秒率FEV1%を用いて、予め定められた構成とされた計測結果表示画面を表示するように表示部15を制御する。
 図14には、本実施形態に係る計測結果表示画面の一例が示されている。図14に示すように、本実施形態に係る計測結果表示画面では、以上の処理によって得られた1秒率FEV1%が表示される。従って、被計測者Mは、計測結果表示画面を参照することで、自身の1秒率FEV1%の推定値を把握することができる。
 ステップ136で、CPU11は、ステップ100の処理によって開始した撮影部20、距離画像センサ21、及び位置・姿勢検出部22の駆動を停止させ、その後に本胸郭運動計測処理を終了する。
 以上説明したように、一実施形態によれば、被計測者の頭部及び頸部の少なくとも一部を検出し、検出した頭部及び頸部の少なくとも一部の位置を基準位置として、当該基準位置の下方で、かつ、被計測者の属性に応じて予め定められた距離を当該基準位置から隔てた領域を、被計測者に対する胸郭運動の計測領域として継続的に特定し、特定した計測領域を対象として、被計測者の胸郭運動の計測を継続的に行っている。従って、呼吸に伴う計測領域の移動に追随することができる結果、手持ちした状態で呼吸機能値を計測する場合における計測精度の低下を抑制することができる。
 また、一実施形態によれば、被計測者との相対的な位置関係が適正なものとして予め定められた関係となった場合に、当該適正である旨を報知している。従って、計測精度の低下を、より抑制することができる。
 また、一実施形態によれば、上記位置関係が不適正である場合に、当該不適正である旨を更に報知している。従って、計測精度の低下を、より抑制することができる。
 また、一実施形態によれば、属性に応じて計測領域の寸法を決定している。従って、計測領域の寸法を属性別に的確に設定することができる結果、計測精度の低下を、より抑制することができる。
 また、一実施形態によれば、距離画像センサを用いて、被計測者の頭部及び頸部の少なくとも一部の位置を検出し、当該距離画像センサを用いて、計測領域における胸郭運動の計測を行っている。距離画像センサは多くの装置に搭載されているため、当該距離画像センサを用いることで、コストの上昇を招くことなく、計測精度の低下を抑制することができる。
 また、一実施形態によれば、属性を、性別、年齢、身長、及び体重の少なくとも1つとしている。従って、適用した属性に応じた、より高精度な計測を行うことができる。
 また、一実施形態によれば、被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の距離画像データを取得し、第1時点及び第2時点の距離画像センサの位置及び姿勢を特定し、特定した第1時点及び第2時点の距離画像センサの位置及び姿勢を用いて、取得した第1時点及び第2時点の何れか一方の時点の距離画像データの写像を行うことで、第1時点及び第2時点の他方の時点の距離画像センサの座標系に変換した距離画像データを導出し、取得した他方の時点の距離画像データと、導出した一方の時点の距離画像データとを用いて、被計測者の胸郭運動に関する物理量を計測している。従って、計測時における手振れの影響を抑制することができる結果、手持ちした状態で呼吸機能値を計測する場合における計測精度の低下を抑制することができる。
 また、一実施形態によれば、距離画像センサの位置及び姿勢を、加速度センサ及びジャイロセンサを用いて特定している。加速度センサ及びジャイロセンサは多くの装置に搭載されているため、当該加速度センサ及びジャイロセンサを用いることで、コストの上昇を招くことなく、計測精度の低下を抑制することができる。
 また、一実施形態によれば、被計測者の胸郭運動を、当該被計測者の努力呼吸に伴う胸郭運動としている。従って、努力呼吸を伴う胸郭運動の計測を行う場合であっても、計測精度の低下を抑制することができる。
 更に、一実施形態によれば、上記物理量を、被計測者の1秒率及び1秒量の少なくとも一方としている。従って、被計測者の1秒率及び1秒量の少なくとも一方を計測する場合における計測精度の低下を抑制することができる。
 なお、上記実施形態では、胸郭運動計測処理におけるステップ126の不要成分除去処理において、距離画像データにおける腕等の重なり領域、背景領域、及び呼吸よりも大きな動きをしている領域を除去する場合について説明したが、これに限定されない。例えば、これらの領域に加えて、明らかな異常値の領域を除去する処理を不要成分除去処理に含める形態としてもよい。
 この異常値の領域を除去する処理を実行する場合、例えば、CPU11は、マスク画像データにおける画素データが1とされた画素を対象として、次の式(4)に示される条件を満足しない画素に対応するマスク画像データの画素データを0(零)とする。これにより、異常値であると考えられる画素をマスキング(非処理画素化)する。なお、式(4)におけるFEV1%(i,j)は、一例として図15に示す、対応する画素(i,j)の1秒率を表す。また、式(4)におけるAVE(FEV1%)は1秒率FEV1%の平均値を表し、σは1秒率FEV1%の標準偏差を表す。
Figure JPOXMLDOC01-appb-M000010
 また、上記実施形態では、報知部11Gが、被計測者との相対的な位置関係が適正である場合及び不適正である場合に、その旨を報知する場合について説明したが、これに限定されない。
 例えば、一例として図16に示すように、報知部11Gが、第2特定部11Fによって特定された計測領域Aを表示部15により表示することで当該計測領域Aを更に報知する形態としてもよい。この形態によれば、特定されている計測領域を被計測者に把握させることができる結果、より的確に計測領域を設定させることができる。
 また、この形態において、報知部11Gが、計測領域Aの報知を、上記位置関係が上記予め定められた関係となった場合に行う形態としてもよい。この形態によれば、計測領域Aの表示の有無によって上記位置関係が適正であるか否かを被計測者に把握させることができため、被計測者にとっての利便性を、より向上させることができる。
 更に、この形態において、報知部11Gが、上記位置関係が上記予め定められた関係であるか否か、即ち、当該位置関係が適正であるか否かに応じて計測領域Aの表示形態を切り換える形態としてもよい。この形態によれば、計測領域Aの表示形態によって上記位置関係が適正であるか否かを被計測者に把握させることができため、被計測者にとっての利便性を、更に向上させることができる。
 この場合の切り換え対象とする表示形態の具体的な例としては、例えば、上記位置関係が適正である場合は、不適正である場合に比較して、計測領域Aの外周線を太くする形態が例示される。また、この場合の切り換え対象とする表示形態の具体例として、上記外周線の線種(実線、破線、鎖線等)を変える形態、当該外周線の色を変える形態が例示される。
 また、上記実施形態では、本開示の胸郭運動計測装置を単体構成とされた装置(上記実施形態では、スマートフォン)により構成した場合について説明したが、これに限定されない。例えば、クラウドサーバ等のサーバ装置と端末装置との、複数の装置を用いたシステムによって本開示に係る胸郭運動計測装置を構成する形態としてもよい。この場合、例えば、端末装置にて被計測者に対する胸郭運動の距離画像センサ21による計測値をサーバ装置に転送し、サーバ装置にて受信した計測値を用いて1秒率を導出して端末装置に送信し、端末装置にて1秒率を提示する形態を例示することができる。
 また、上記実施形態で説明した各種数式(数(1)~数(4)等)は一例であり、実施態様等に応じて適宜変更してもよいことは言うまでもない。
 また、上記実施形態で説明した属性情報データベース13Bも一例であり、実施態様等に応じて適宜変更してもよいことは言うまでもない。
 また、上記実施形態において、例えば、取得部11A、第1特定部11B、導出部11C、計測部11D、検出部11E、第2特定部11F、及び報知部11Gの各処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、処理部を1つのプロセッサで構成してもよい。
 処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、処理部を含むシス
テム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 なお、日本国特許出願第2021-173223号の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (8)

  1.  手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置であって、
     前記被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の前記距離画像データを取得する取得部と、
     前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を特定する特定部と、
     前記特定部によって特定された前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を用いて、前記取得部によって取得された前記第1時点及び第2時点の何れか一方の時点の前記距離画像データの写像を行うことで、前記第1時点及び第2時点の他方の時点の前記距離画像センサの座標系に変換した距離画像データを導出する導出部と、
     前記取得部によって取得された前記他方の時点の距離画像データと、前記導出部によって導出された前記一方の時点の距離画像データとを用いて、前記被計測者の胸郭運動に関する物理量を計測する計測部と、
     を備えた胸郭運動計測装置。
  2.  前記特定部は、前記距離画像センサの位置及び姿勢を、加速度センサ及びジャイロセンサを用いて特定する、
     請求項1に記載の胸郭運動計測装置。
  3.  前記被計測者の胸郭運動は、当該被計測者の努力呼吸に伴う胸郭運動である、
     請求項1又は請求項2に記載の胸郭運動計測装置。
  4.  前記計測部は、前記被計測者の頭部及び頸部の少なくとも一部の位置を基準位置として継続的に特定される当該被計測者の胸郭運動の計測領域を対象として前記物理量を継続的に計測する、
     請求項1~請求項3の何れか1項に記載の胸郭運動計測装置。
  5.  前記物理量は、前記被計測者の1秒率及び1秒量の少なくとも一方である、
     請求項1~請求項4の何れか1項に記載の胸郭運動計測装置。
  6.  手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置において実行される胸郭運動計測プログラムであって、
     前記被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の前記距離画像データを取得し、
     前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を特定し、
     特定した前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を用いて、取得した前記第1時点及び第2時点の何れか一方の時点の前記距離画像データの写像を行うことで、前記第1時点及び第2時点の他方の時点の前記距離画像センサの座標系に変換した距離画像データを導出し、
     取得した前記他方の時点の距離画像データと、導出した前記一方の時点の距離画像データとを用いて、前記被計測者の胸郭運動に関する物理量を計測する、
     処理をコンピュータに実行させるための胸郭運動計測プログラム。
  7.  手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置であって、
     メモリと、
     前記メモリに接続された少なくとも1つのプロセッサと、
    を含み、
     前記プロセッサは、
     前記被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の前記距離画像データを取得し、
     前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を特定し、
     特定した前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を用いて、取得した前記第1時点及び第2時点の何れか一方の時点の前記距離画像データの写像を行うことで、前記第1時点及び第2時点の他方の時点の前記距離画像センサの座標系に変換した距離画像データを導出し、
     取得した前記他方の時点の距離画像データと、導出した前記一方の時点の距離画像データとを用いて、前記被計測者の胸郭運動に関する物理量を計測する、
     処理を実行させる、胸郭運動計測装置。
  8.  手持ちされた状態で、搭載された距離画像センサによって得られた距離画像データを用いて被計測者の胸郭運動を計測する胸郭運動計測装置において、胸郭運動計測処理を実行するようにコンピュータによって実行可能なプログラムを記憶した非一時記憶媒体であって、
     前記胸郭運動計測処理は、
     前記被計測者の胸郭部の少なくとも一部を含む領域の第1時点及び第2時点の前記距離画像データを取得し、
     前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を特定し、
     特定した前記第1時点及び第2時点の前記距離画像センサの位置及び姿勢を用いて、取得した前記第1時点及び第2時点の何れか一方の時点の前記距離画像データの写像を行うことで、前記第1時点及び第2時点の他方の時点の前記距離画像センサの座標系に変換した距離画像データを導出し、
     取得した前記他方の時点の距離画像データと、導出した前記一方の時点の距離画像データとを用いて、前記被計測者の胸郭運動に関する物理量を計測する、
     非一時的記憶媒体。
PCT/JP2022/039410 2021-10-22 2022-10-21 胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体 WO2023068373A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021173223 2021-10-22
JP2021-173223 2021-10-22

Publications (1)

Publication Number Publication Date
WO2023068373A1 true WO2023068373A1 (ja) 2023-04-27

Family

ID=86058351

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039410 WO2023068373A1 (ja) 2021-10-22 2022-10-21 胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体

Country Status (1)

Country Link
WO (1) WO2023068373A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016147678A1 (ja) * 2015-03-13 2016-09-22 ノーリツプレシジョン株式会社 バイタルサイン測定装置、バイタルサイン測定方法、及び、バイタルサイン測定プログラム
JP2018187090A (ja) * 2017-05-08 2018-11-29 有限会社アルファ 呼吸検知装置、呼吸検知方法およびコンピュータプログラム
EP3838128A1 (en) * 2019-12-16 2021-06-23 Koninklijke Philips N.V. Device and method for determining a vital sign of a subject

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016147678A1 (ja) * 2015-03-13 2016-09-22 ノーリツプレシジョン株式会社 バイタルサイン測定装置、バイタルサイン測定方法、及び、バイタルサイン測定プログラム
JP2018187090A (ja) * 2017-05-08 2018-11-29 有限会社アルファ 呼吸検知装置、呼吸検知方法およびコンピュータプログラム
EP3838128A1 (en) * 2019-12-16 2021-06-23 Koninklijke Philips N.V. Device and method for determining a vital sign of a subject

Similar Documents

Publication Publication Date Title
US20200268339A1 (en) System and method for patient positioning
CN105378793B (zh) 用于在对象可能受医学状况影响时进行鉴别的系统、方法和计算机可读介质
CN107357429B (zh) 用于确定视线的方法、设备和计算机可读存储介质
US10872408B2 (en) Method and system for imaging and analysis of anatomical features
US11403882B2 (en) Scoring metric for physical activity performance and tracking
JP2020049211A (ja) 検査位置の調整方法、調整装置、超音波プローブおよび端末
WO2021077759A1 (zh) 一种图像的匹配方法、装置、设备及存储介质
CN111488775B (zh) 注视度判断装置及方法
JP6662532B2 (ja) 歩行分析装置、歩行分析方法、及びプログラム
US20140316247A1 (en) Method, apparatus, and system for tracking deformation of organ during respiration cycle
KR102321991B1 (ko) 수면 무호흡증 진단을 위한 기도 형태 분석 방법 및 장치
CN113474816A (zh) 弹性动态投影映射系统和方法
US10242452B2 (en) Method, apparatus, and recording medium for evaluating reference points, and method, apparatus, and recording medium for positional alignment
CN114663463A (zh) 关节活动度的测量方法、系统、设备、电子设备和存储介质
WO2023068373A1 (ja) 胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体
KR100930594B1 (ko) 안면 영상 촬영장치 및 그의 안면 특징점 검출 방법
WO2023068372A1 (ja) 胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体
JP7327494B2 (ja) 補正方法、補正プログラムおよび情報処理システム
US20220084244A1 (en) Information processing apparatus, information processing method, and program
JP2019046057A (ja) 画像処理装置、画像処理方法およびプログラム
WO2023249098A1 (ja) 胸郭運動計測装置、胸郭運動計測プログラム、及び非一時的記憶媒体
US20220160260A1 (en) System and method for measuring biomedical signal
KR20230010164A (ko) 두경부 영상 이미지를 이용한 지방량 산출 방법 및 이를 위한 장치
TWI637353B (zh) 測量裝置及測量方法
KR102518493B1 (ko) 경추를 포함하는 X-ray 이미지에서, 인공 지능 모델을 이용하여 상기 경추에 포함된 적어도 하나의 경추 포인트를 검출하는 전자 장치 및 그의 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22883675

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE