WO2024135475A1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
WO2024135475A1
WO2024135475A1 PCT/JP2023/044523 JP2023044523W WO2024135475A1 WO 2024135475 A1 WO2024135475 A1 WO 2024135475A1 JP 2023044523 W JP2023044523 W JP 2023044523W WO 2024135475 A1 WO2024135475 A1 WO 2024135475A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
moving body
posture
user
head
Prior art date
Application number
PCT/JP2023/044523
Other languages
English (en)
French (fr)
Inventor
秀行 金原
マルティン クリンキグト
貴志 鈴木
治 宝珠山
有村 汐里 東海林
雅之 岸
エドワードアラタ ヤマモトムラカミ
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2024135475A1 publication Critical patent/WO2024135475A1/ja

Links

Images

Definitions

  • This disclosure relates to an information processing device and an information processing method.
  • Patent Document 1 describes an information processing device that includes a means for acquiring moving images of a walking subject and evaluates the beauty of the subject's movements.
  • An information processing device includes: The system is equipped with a control unit that determines the state of posture of the upper body of the moving body based on the amplitude ratio of any two pieces of data regarding the acceleration of the head of the moving body in each of the forward/backward, left/right, and up/down directions of the moving body, and the angular velocity of the head of the moving body in each of the pitch, roll, and yaw directions of the moving body when vibrations are transmitted to the body of the moving body.
  • An information processing method includes: This includes determining the posture state of the upper body of the moving body based on the amplitude ratio of any two pieces of data on the acceleration of the head of the moving body in each of the forward/backward, left/right, and up/down directions of the moving body, and the angular velocity of the head of the moving body in each of the pitch, roll, and yaw directions of the moving body when vibrations are transmitted to the body of the moving body.
  • FIG. 1 is a diagram illustrating a schematic configuration of an information processing system according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram for explaining a local coordinate system and a global coordinate system.
  • FIG. 2 is a block diagram of the information processing system shown in FIG. 1 .
  • 11 is a graph showing an example of data in a local coordinate system.
  • 1 is a graph showing an example of data in a global coordinate system.
  • FIG. 1 is a diagram showing a human walking on two legs.
  • FIG. 13 is a diagram showing experimental data of the phase and amplitude ratio of data D 1 (f) and data D 2 (f) in a walking experiment.
  • FIG. 13 is a diagram showing the posture of a subject in a vibration experiment using a vibration plate.
  • FIG. 13 is a diagram showing experimental data of the phase and amplitude ratio of data D 1 (f) and data D 2 (f) in a vibration experiment.
  • FIG. 13 is a diagram showing experimental data of the phase and amplitude ratio of data D 1 (f) and data D 2 (f) in a vibration experiment.
  • FIG. 13 is a box plot of case A in the vibration experiment.
  • Patent Document 1 There is room for improvement in conventional technology for evaluating the posture of a moving object.
  • moving images of a walking subject are used. Therefore, the posture of the subject cannot be evaluated unless the subject walks through a location where a camera or the like for acquiring the moving images is placed.
  • An information processing system 1 as shown in Fig. 1 can determine the state of posture of the upper body of a moving object when vibration is transmitted to the moving object.
  • the moving object is a user.
  • the user is a human being.
  • the moving object may be any living organism or object, etc., as long as it has an upper body.
  • the moving object may be a vertebrate animal other than a human, a robot, etc.
  • the information processing system 1 can determine the state of posture of the user's upper body when vibrations are transmitted from the user's feet to the user's body.
  • the information processing system 1 determines the state of posture of the user's upper body when the user is walking on two legs. When the user is walking on two legs, for example when the user's feet land on the ground, vibrations are transmitted from the user's feet to the user's body.
  • the posture of the user's upper body can be evaluated. With this configuration, the user can know whether or not their posture is correct when walking on two legs.
  • the time when the information processing system 1 determines the posture state of the user's upper body is not limited to when the user is walking on two legs.
  • the time when the information processing system 1 determines the posture state of the user's upper body may be any time when vibrations are transmitted from the user's feet to the user's body.
  • the information processing system 1 may determine the posture state of the user's upper body when the user is running or when the user is standing on a train, etc.
  • the information processing system 1 includes sensor devices 10A, 10B, 10C, and 10D, and an electronic device 20. However, the information processing system 1 does not need to include all of the sensor devices 10A to 10D. It is sufficient for the information processing system 1 to include at least one of the sensor devices 10A to 10D.
  • sensor devices 10A, 10B, 10C, and 10D they will also be referred to simply as “sensor devices 10.”
  • the sensor device 10 and the electronic device 20 can communicate with each other via a communication line.
  • the communication line is configured to include at least one of a wired line and a wireless line.
  • a local coordinate system and a global coordinate system as shown in FIG. 2 are used.
  • the local coordinate system is a coordinate system based on the position of the sensor device 10 as shown in FIG. 2.
  • the position of the sensor device 10A is shown by a dashed line as an example of the position of the sensor device 10.
  • the local coordinate system is composed of, for example, an x-axis, a y-axis, and a z-axis.
  • the x-axis, the y-axis, and the z-axis are mutually perpendicular.
  • the x-axis is parallel to the front-rear direction as seen from the sensor device 10.
  • the y-axis is parallel to the left-right direction as seen from the sensor device 10.
  • the z-axis is parallel to the up-down direction as seen from the sensor device 10.
  • the positive and negative directions of the x-axis, y-axis, and z-axis may be set according to the configuration of the information processing system 1, etc.
  • the global coordinate system is a coordinate system based on the user as shown in FIG. 2.
  • the global coordinate system is composed of, for example, an X-axis, a Y-axis, and a Z-axis.
  • the X-axis, Y-axis, and Z-axis are mutually perpendicular.
  • the X-axis is parallel to the front-back direction as seen by the user.
  • the Y-axis is parallel to the left-right direction as seen by the user.
  • the Z-axis is parallel to the up-down direction as seen by the user.
  • the positive and negative directions of the X-axis, Y-axis, and Z-axis may be set according to the configuration of the information processing system 1, etc.
  • the roll direction is the direction of rotation around the X axis.
  • the pitch direction is the direction of rotation around the Y axis.
  • the yaw direction is the direction of rotation around the Z axis.
  • the positive and negative directions of the roll direction, pitch direction, and yaw direction may be set according to the configuration of the information processing system 1, etc.
  • the sensor device 10 is attached to a part of the user's body as shown in Figure 1.
  • the sensor device 10A is worn on the user's head as shown in FIG. 1.
  • the sensor device 10A may be a wearable device.
  • the sensor device 10A is worn on the user's ear by being included in an earphone.
  • the sensor device 10A may be the earphone itself.
  • the earphone may be a bone conduction earphone or a canal-type earphone.
  • the method of wearing the sensor device 10A on the head is not limited to the configuration shown in FIG. 1.
  • the sensor device 10A may be worn on the user's head by headphones, a helmet, a mouthpiece, a face seal, glasses, goggles, a hair accessory, a headband, a hairpin, a hairpin, a headband, a bandage, or a hearing aid, etc.
  • Sensor device 10A is worn on the user's head so that the x-axis of a local coordinate system based on the position of sensor device 10A is parallel to the front-to-back direction of the head as seen by the user, the y-axis of the local coordinate system is parallel to the left-to-right direction of the head as seen by the user, and the z-axis of the local coordinate system is parallel to the up-to-down direction of the head as seen by the user.
  • the x-axis, y-axis, and z-axis of the local coordinate system do not have to be strictly parallel to the front-to-back, left-to-right, and up-to-down directions of the head as seen by the user. Misalignment of sensor device 10A when worn by an individual may be tolerated.
  • the sensor device 10B is attached to the user's chest.
  • the sensor device 10B may be attached to the user's chest by a belt or a clip, etc.
  • Sensor device 10B is attached to the user's chest so that the x-axis of a local coordinate system based on the position of sensor device 10B is parallel to the front-to-back direction of the chest as seen by the user, the y-axis of the local coordinate system is parallel to the left-to-right direction of the chest as seen by the user, and the z-axis of the local coordinate system is parallel to the rotation direction of the chest as seen by the user.
  • the rotation direction of the chest is, for example, the direction in which the chest twists and rotates.
  • the x-axis, y-axis, and z-axis of the local coordinate system do not need to be strictly parallel to the front-to-back direction, left-to-right direction, and rotation direction of the chest as seen by the user. Misalignment of sensor device 10B when worn by an individual may be tolerated.
  • the sensor device 10C is attached to the user's waist.
  • the sensor device 10C may be a wearable device.
  • the sensor device 10C may be attached to the user's waist by a belt or a clip, etc.
  • the sensor device 10C is attached to the user's waist so that the x-axis of a local coordinate system based on the position of the sensor device 10C is parallel to the front-to-back direction of the waist as seen by the user, the y-axis of the local coordinate system is parallel to the left-to-right direction of the waist as seen by the user, and the z-axis of the local coordinate system is parallel to the rotation direction of the waist as seen by the user.
  • the rotation direction of the waist is, for example, the direction in which the waist twists and rotates.
  • the x-axis, y-axis, and z-axis of the local coordinate system do not have to be strictly parallel to the front-to-back direction, left-to-right direction, and rotation direction of the waist as seen by the user. Misalignment of the sensor device 10C when worn by an individual may be permitted.
  • the sensor device 10D is attached to the user's foot.
  • the foot is the part of the user's foot from the ankle to the toes.
  • the sensor device 10D is attached to the user's left ankle by a belt or clip, etc.
  • the sensor device 10D may also be attached to the right ankle, or to a part of the foot other than the ankle.
  • the sensor device 10D may also be a shoe-type wearable device. In this case, the sensor device 10 may be attached to the user's foot by the user wearing the shoe-type wearable device.
  • Sensor device 10D is attached to the user's foot so that the x-axis of a local coordinate system based on the position of sensor device 10D is parallel to the front-to-back direction of the ankle as seen by the user, the y-axis of the local coordinate system is parallel to the left-to-right direction of the ankle as seen by the user, and the z-axis of the local coordinate system is parallel to the rotation direction of the ankle as seen by the user.
  • the rotation direction of the ankle is, for example, the direction in which the ankle twists and rotates.
  • the x-axis, y-axis, and z-axis of the local coordinate system do not have to be strictly parallel to the front-to-back direction, left-to-right direction, and rotation direction of the ankle as seen by the user. Misalignment of sensor device 10D when worn by an individual may be permitted.
  • the electronic device 20 is an example of an information processing device.
  • the electronic device 20 is, for example, a mobile device such as a smartphone or a tablet.
  • the electronic device 20 is carried by a user wearing the sensor device 10.
  • the sensor device 10 includes a communication unit 11, a sensor unit 12, a notification unit 13, a storage unit 15, and a control unit 16.
  • the sensor devices 10B to 10D do not necessarily need to include the notification unit 13.
  • the communication unit 11 is configured to include at least one communication module capable of communicating with the electronic device 20 via a communication line.
  • the communication module is a communication module that complies with the standard of the communication line.
  • the standard of the communication line is, for example, a short-range wireless communication standard including Bluetooth (registered trademark), infrared, and NFC (Near Field Communication).
  • the sensor unit 12 includes at least one of a three-axis acceleration sensor and a three-axis angular velocity sensor.
  • the three-axis acceleration sensor is capable of detecting acceleration in the directions of the x-axis, y-axis, and z-axis of the local coordinate system.
  • the three-axis angular velocity sensor is capable of detecting acceleration in the directions of the x-axis, y-axis, and z-axis of the local coordinate system.
  • the sensor unit 12 may include a three-axis inertial measurement unit (IMU).
  • IMU three-axis inertial measurement unit
  • the notification unit 13 is capable of notifying information.
  • the notification unit 13 includes an output unit 14.
  • the notification unit 13 is not limited to the output unit 14.
  • the notification unit 13 may include any component capable of outputting information.
  • the output unit 14 is capable of outputting data.
  • the output unit 14 is configured to include at least one output interface capable of outputting data.
  • the output interface is, for example, a display or a speaker.
  • the display is, for example, an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display.
  • the output unit 14 When the output unit 14 is included in the sensor device 10A, it may be configured to include a speaker.
  • the memory unit 15 is configured to include at least one semiconductor memory, at least one magnetic memory, at least one optical memory, or a combination of at least two of these.
  • the semiconductor memory is, for example, a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the RAM is, for example, an SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory).
  • the ROM is, for example, an EEPROM (Electrically Erasable Programmable Read Only Memory).
  • the memory unit 15 may function as a main memory device, an auxiliary memory device, or a cache memory.
  • the memory unit 15 stores data used in the operation of the sensor device 10 and data obtained by the operation of the sensor device 10. For example, the memory unit 15 stores system programs, application programs, embedded software, etc.
  • the control unit 16 is configured to include at least one processor, at least one dedicated circuit, or a combination of these.
  • the processor is a general-purpose processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit), or a dedicated processor specialized for a specific process.
  • the dedicated circuit is, for example, an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit).
  • the control unit 16 executes processes related to the operation of the sensor device 10 while controlling each part of the sensor device 10.
  • the control unit 16 receives a signal from the electronic device 20 via the communication unit 11 instructing the start of data detection. When the control unit 16 receives this signal, it starts data detection. For example, the control unit 16 acquires data detected by the sensor unit 12 from the sensor unit 12. The control unit 16 transmits the acquired data to the electronic device 20 via the communication unit 11. If the information processing system 1 includes multiple sensor devices 10, the signal instructing the start of data detection is transmitted as a broadcast signal from the electronic device 20 to the multiple sensor devices 10. By transmitting a signal instructing the start of data detection to the multiple sensor devices 10 as a broadcast signal, the multiple sensor devices 10 can start data detection simultaneously.
  • the control unit 16 may acquire data from the sensor unit 12 at a preset time interval. This time interval may be set based on the walking speed of a typical user, etc. This time interval may be the same for each of the multiple sensor devices 10. By having this time interval be the same for the multiple sensor devices 10, the timing at which each of the multiple sensor devices 10 detects data can be synchronized.
  • the control unit 16 transmits the data acquired from the sensor unit 12 via the communication unit 11.
  • the electronic device 20 includes a communication unit 21, an input unit 22, a notification unit 23, a storage unit 26, and a control unit 27.
  • the communication unit 21 is configured to include at least one communication module capable of communicating with the sensor device 10 via a communication line.
  • the communication module is at least one communication module that corresponds to the standard of the communication line.
  • the standard of the communication line is, for example, a short-range wireless communication standard including Bluetooth (registered trademark), infrared, and NFC.
  • the input unit 22 is capable of receiving input from a user.
  • the input unit 22 is configured to include at least one input interface capable of receiving input from a user.
  • the input interface is, for example, a physical key, a capacitive key, a pointing device, a touch screen that is integrated with a display, or a microphone.
  • the notification unit 23 notifies information.
  • the notification unit 23 includes an output unit 24 and a vibration unit 25.
  • the notification unit 23 is not limited to the output unit 24 and the vibration unit 25.
  • the notification unit 23 may include any component capable of outputting information.
  • the output unit 24 is capable of outputting data.
  • the output unit 24 includes at least one output interface capable of outputting data.
  • the output interface is, for example, a display or a speaker.
  • the display is, for example, an LCD or an organic EL display.
  • the vibration unit 25 is capable of vibrating the electronic device 20.
  • the vibration unit 25 includes a vibration element.
  • the vibration element is, for example, a piezoelectric element.
  • the storage unit 26 is configured to include at least one semiconductor memory, at least one magnetic memory, at least one optical memory, or a combination of at least two of these.
  • the semiconductor memory is, for example, a RAM or a ROM.
  • the RAM is, for example, an SRAM or a DRAM.
  • the ROM is, for example, an EEPROM.
  • the storage unit 26 may function as a main storage device, an auxiliary storage device, or a cache memory.
  • the storage unit 26 stores data used in the operation of the electronic device 20 and data obtained by the operation of the electronic device 20. For example, the storage unit 26 stores system programs, application programs, embedded software, etc.
  • the control unit 27 is configured to include at least one processor, at least one dedicated circuit, or a combination of these.
  • the processor is a general-purpose processor such as a CPU or GPU, or a dedicated processor specialized for a specific process.
  • the dedicated circuit is, for example, an FPGA or ASIC.
  • the control unit 27 executes processes related to the operation of the electronic device 20 while controlling each part of the electronic device 20.
  • the control unit 27 receives an input that instructs the execution of a judgment process through the input unit 22.
  • This input causes the electronic device 20 to execute a judgment process that judges the posture state of the user's upper body.
  • This input is, for example, input from the input unit 22 by the user.
  • the user inputs this input into the input unit 22 after attaching the sensor device 10 to their body and before starting to walk.
  • control unit 27 When the control unit 27 receives an input instructing the execution of a determination process, it transmits a signal instructing the sensor device 10 to start data detection via the communication unit 21. If the information processing system 1 includes multiple sensor devices 10, the control unit 27 may transmit the signal instructing the start of data detection as a broadcast signal to the multiple sensor devices 10 via the communication unit 21. After the signal instructing the start of data detection is transmitted to the sensor device 10, the data detected by the sensor device 10 is transmitted from the sensor device 10 to the electronic device 20.
  • the control unit 27 receives data detected by the sensor device 10 from the sensor device 10 via the communication unit 21.
  • the data received from the sensor device 10 is data in a local coordinate system.
  • the control unit 27 receives acceleration data of the user's head in a local coordinate system as shown in the upper part of Fig. 4 from the sensor device 10A.
  • the control unit 27 also receives acceleration data of the user's ankle in a local coordinate system as shown in the lower part of Fig. 4 from the sensor device 10D.
  • the horizontal axis indicates time [s].
  • the vertical axis indicates acceleration [m/ s2 ].
  • the control unit 27 converts the data of the local coordinate system received from the sensor device 10 into data of the global coordinate system. As an example of this process, the control unit 27 detects the direction of gravitational acceleration acting on the sensor device 10 by the data of the local coordinate system received from the sensor device 10. The control unit 27 may detect the direction of gravitational acceleration acting on the sensor device 10 by using data selected by a complementary filter from the acceleration and angular velocity data of the local coordinate system. The control unit 27 detects the attitude of the sensor device 10 by the detected direction of gravitational acceleration acting on the sensor device 10. The control unit 27 calculates a rotation matrix that converts the data of the local coordinate system into data of the global coordinate system by the detected attitude of the sensor device 10.
  • the control unit 27 converts the data of the local coordinate system into data of the global coordinate system by the calculated rotation matrix. For example, the control unit 27 converts the data of the acceleration of the user's head in the local coordinate system shown in the upper part of FIG. 4 into the data of the acceleration of the user's head in the global coordinate system shown in the upper part of FIG. 5. Furthermore, the control unit 27 converts the data of the acceleration of the user's ankle in the local coordinate system as shown in the lower part of Fig. 4 into data of the acceleration of the user's ankle in the global coordinate system as shown in the lower part of Fig. 5. In the graph shown in Fig. 5, the horizontal axis represents time [s], and the vertical axis represents acceleration [m/ s2 ].
  • the control unit 27 converts the data in the local coordinate system detected by the sensor device 10 into data in the global coordinate system, it performs a Fourier transform on the time series data within a predetermined time in the data in the global coordinate system.
  • the period of vibration transmitted through the user's body may change depending on the cause of vibration in the user's feet. Therefore, the predetermined time may be set depending on the cause of vibration in the user's feet. For example, if the cause of vibration in the user's feet is bipedal walking, the predetermined time may be longer than the walking period.
  • the control unit 27 may set the predetermined time by detecting the user's walking period by detecting the landing timing when the user's feet land on the ground. Alternatively, the predetermined time may be appropriately set based on the walking period of a typical human being.
  • the predetermined time is, for example, 1 to 2 [s].
  • the control unit 27 can obtain frequency spectrum data of the acceleration and angular velocity of the user's body parts in the global coordinate system by performing a Fourier transform on the time series data within a predetermined time in the global coordinate system. In other words, the control unit 27 can obtain frequency spectrum data of the acceleration and angular velocity of the user's head, chest, waist, and feet in the global coordinate system.
  • the control unit 27 calculates a frequency response function H(f) using any two of the frequency spectrum data of the acceleration and angular velocity data of the user's head, chest, waist, and feet in the global coordinate system.
  • the control unit 27 calculates the frequency response function H(f) using one of the two of the frequency spectrum data as an input and the other as an output.
  • any two of the frequency spectrum data of the acceleration and angular velocity data of the user's head, chest, waist, and feet are also referred to as "data D 1 (f)" and "data D 2 (f)".
  • the data D 1 (f) corresponds to the input in the frequency response
  • the data D 2 (f) corresponds to the output in the frequency response.
  • the control unit 27 calculates the frequency response function H(f) using formula (1).
  • H(f) D2 (f)/ D1 (f) Equation (1)
  • the control unit 27 can analyze the vibration transmission characteristics in the user's body using the calculated frequency response function H(f).
  • the frequency of the vibration transmitted to each part of the user's body differs depending on the user's posture. Therefore, the control unit 27 can determine the state of the user's posture by analyzing the vibration transmission characteristics in the body using the calculated frequency response function H(f).
  • the control unit 27 calculates the amplitude ratio
  • the control unit 27 determines whether the upper body is in an upright posture or a forward leaning posture based on the calculated amplitude ratio
  • a forward leaning posture is a so-called hunched back.
  • the control unit 27 may calculate the amplitude ratio
  • the control unit 27 may set any two of the frequency spectrum data of the acceleration and acceleration data of the user's head in the global coordinate system as data D1 (f) and data D2 (f).
  • the control unit 27 can determine whether the upper body is in an upright posture or a forward-leaning posture based on the amplitude ratio
  • FIG. 6 shows a human walking on two legs in an upright posture and a human walking on two legs in a forward-leaning posture.
  • the human's feet land on the ground or the like while walking on two legs, vibrations are transmitted from the ground or the like to the feet. That is, when the human is walking on two legs, vibrations are transmitted from the user's feet to the head.
  • the center of gravity of the head and the center of gravity of the waist are almost the same in the XY plane.
  • the center of gravity of the head is located further forward than the center of gravity of the waist in the XY plane.
  • the vibrations transmitted from the ground or the like to the feet when landing are more likely to be transmitted to the head as vibration components in the X-axis or Y-axis direction than when the human walks on two legs in an upright posture.
  • the vibration transmitted from the ground to the feet when landing is more likely to be transmitted to the head as a vibration component in the Z-axis direction than when the human walks on two legs in a forward-leaning posture.
  • FIG. 7 shows experimental data of the phase and amplitude ratio of data D2 (f) to data D1 (f) in the walking experiment.
  • data D1 (f) is frequency spectrum data of the head acceleration in the X-axis direction of the global coordinate system.
  • Data D2 (f) is frequency spectrum data of the head acceleration in the Z-axis direction of the global coordinate system.
  • the solid line is the average value of the data obtained when seven subjects walked in an upright posture.
  • the dashed line is the average value of the data obtained when seven subjects walked in a forward-leaning posture.
  • FIG. 7 shows the standard deviation of the data obtained when seven subjects walked in an upright posture and the standard deviation of the data obtained when seven subjects walked in a forward-leaning posture.
  • FIG. 7 shows a graph of the phase difference between data D1 (f) and data D2 (f).
  • the vertical axis of the graph corresponds to the phase difference [deg].
  • the horizontal axis of the graph corresponds to the frequency [Hz].
  • the amplitude ratio in the forward leaning posture is smaller than the amplitude ratio in the upright posture.
  • the reason for this is that, as described above with reference to Fig. 6, when a person walks on two legs in a forward leaning posture, the vibration transmitted from the ground or the like to the foot when landing is more likely to be transmitted to the head as a vibration component in the X-axis direction than when the person walks on two legs in an upright posture.
  • the amplitude ratio of data D2 (f) to data D1 (f) in the forward leaning posture is smaller than the amplitude ratio of data D2 (f) to data D1(f) in the upright posture .
  • the control unit 27 may use the data D 1 (f) as frequency spectrum data of the acceleration of the head of the moving body in the X-axis direction, and the data D 2 (f) as frequency spectrum data of the acceleration of the head of the moving body in the Z-axis direction. In this case, the control unit 27 determines that the posture of the upper body of the moving body is upright when the amplitude ratio
  • the control unit 27 determines that the posture of the upper body of the moving body is forward leaning when the amplitude ratio
  • the predetermined frequency may be set according to the structure of the moving body and the parts of the moving body used for the data D 1 (f) and the data D 2 (f).
  • the predetermined frequency is, for example, 8 [Hz] when the moving body is a human and the part used for data D 1 (f) and data D 2 (f) is the head.
  • the predetermined value may be set based on experimental data, or may be set according to the structure of the moving body and the part of the moving body used for data D 1 (f) and data D 2 (f).
  • the predetermined value is, for example, 3.
  • the inventors also evaluated other combinations of the subject's head data in the global coordinate system. The results of this evaluation are explained with reference to Table 1.
  • Table 1 shows the experimental results when data D1 (f) and data D2 (f) were combined in the subject's head data. This experimental data was obtained from seven subjects, as in FIG. 7. The inventors evaluated whether it is possible to determine whether the subject's upper body is in an upright or forward-leaning posture based on the amplitude ratio
  • OK is when the average value of one of the data obtained when the seven subjects walked on two legs in an upright position and the data obtained when the seven subjects walked on two legs in a forward-leaning position does not overlap with the standard deviation of the other data.
  • OK is when the solid line in Figure 7 does not overlap with the standard deviation of the data obtained when walking in a forward-leaning position, or when the dashed line does not overlap with the standard deviation of the data obtained when walking in an upright position.
  • Good is when there is a clear difference between the standard deviation of the data obtained when the seven subjects walked on two legs in an upright position and the standard deviation of the data obtained when the seven subjects walked on two legs in a forward-leaning position.
  • Good is when there is a gap in Figure 7 between the standard deviation of the data obtained when the subjects walked on two legs in a forward-leaning position and the standard deviation of the data obtained when the subjects walked on two legs in an upright position.
  • Table 1 How to read Table 1 will be explained.
  • the "D 1 (f)” column shows the head data in the global coordinate system used for the frequency spectrum data of data D 1 (f).
  • the “D 2 (f)” column shows the head data in the global coordinate system used for the frequency spectrum data of data D 2 (f).
  • the “Evaluation result” column shows the evaluation result of OK or Good.
  • No. 1 is a case where data D1 (f) is frequency spectrum data of the acceleration of the subject's head in the Y-axis direction, and data D2 (f) is frequency spectrum data of the acceleration of the subject's head in the Z-axis direction.
  • the evaluation result of No. 1 was OK.
  • the control unit 27 may set any two of the frequency spectrum data of the acceleration of the user's head in each of the X-axis direction, Y-axis direction, and Z-axis direction of the global coordinate system, and the angular velocity of the user's head in each of the pitch direction, roll direction, and yaw direction of the global coordinate system, as data D 1 (f) and data D 2 (f).
  • the control unit 27 determines that the posture of the upper body of the moving body is upright when the amplitude ratio
  • control unit 27 determines that the posture of the upper body of the moving body is forward leaning when the amplitude ratio
  • the ... selects data No. 1 to No. 2 in Table 1.
  • the state of the posture of the upper body of the moving object may be determined by a combination of data D1 (f) and data D2 (f) of No. 8, or the state of the posture of the upper body of the moving object may be determined by a combination of No. 1 to No. 15 in Table 4 described later.
  • the control unit 27 may set any two of the frequency spectrum data of the user's head and feet in the global coordinate system as data D1 (f) and data D2 (f).
  • the control unit 27 can determine whether the upper body is in an upright posture or a forward leaning posture based on the amplitude ratio
  • Table 2 shows the experimental results when data D1 (f) and data D2 (f) were combined in the data of the subject's ankle and head. This experimental data was obtained from seven subjects, as in FIG. 7. The inventors evaluated whether it is possible to determine whether the subject's upper body is in an upright posture or a forward-leaning posture based on the amplitude ratio
  • No. 1 is a case where data D1 (f) is frequency spectrum data of the acceleration of the subject's ankle in the Y-axis direction, and data D2 (f) is frequency spectrum data of the acceleration of the subject's head in the Y-axis direction.
  • the evaluation result of No. 1 was OK.
  • the control unit 27 may set any two of the frequency spectrum data of the acceleration data of the user's head and feet in each of the X-axis direction, Y-axis direction, and Z-axis direction of the global coordinate system, and the angular velocity data of the user's head and feet in each of the pitch direction, roll direction, and yaw direction of the global coordinate system, as data D 1 (f) and data D 2 (f).
  • the control unit 27 determines that the posture of the upper body of the moving body is upright when the amplitude ratio
  • control unit 27 determines that the posture of the upper body of the moving body is forward leaning when the amplitude ratio
  • the state of posture of the upper body of the moving object may be determined by a combination of data D 1 (f) and data D 2 (f) of No. 11.
  • the control unit 27 may set any two of the frequency spectrum data of the user's head and waist in the global coordinate system as data D1 (f) and data D2 (f).
  • the control unit 27 can determine whether the upper body is in an upright posture or a forward-leaning posture based on the amplitude ratio
  • ⁇ Vibration experiment>> The inventors conducted a vibration experiment on 17 subjects. Of the 17 subjects, 15 were male and 2 were female. As shown in Fig. 8, the subjects stood on a vibration plate, and vibration was applied to the subjects. Fig. 8 shows the posture of the subjects in the vibration experiment using the vibration plate. A 3D Balance Blade (manufactured by DOCTOR AIR) was used as the vibration plate.
  • the four vibration conditions consisted of a combination of two vibration modes and two postures.
  • the two vibration modes in the four vibration conditions are strong mode and weak mode.
  • the vibration in the weak mode is 6.5 [Hz].
  • the vibration in the strong mode is 8.5 [Hz].
  • the two postures in the four vibration conditions were an upright posture and a forward-leaning posture, as shown in Figure 8.
  • the subjects stood on the vibration plate in both an upright posture and a forward-leaning posture.
  • the subjects placed their arms at their sides.
  • the subjects placed their arms in front of them.
  • the subjects kept their legs fully extended.
  • the subjects' gaze was directed forward.
  • the time for which the vibration plate was vibrated i.e. the vibration excitation time for which vibration was applied to the subject, was 20 seconds.
  • each vibration condition was repeated three times. In other words, by repeating the four vibration conditions three times, the total number of trials was 12.
  • FIG. 9 and 10 show experimental data of the phase and amplitude ratio of data D2 (f) to data D1 (f) in the vibration experiment.
  • data D1 (f) is frequency spectrum data of the acceleration of the lower back in the Z-axis direction of the global coordinate system.
  • Data D2 (f) is frequency spectrum data of the acceleration of the head in the X-axis direction of the global coordinate system.
  • the horizontal and vertical axes of the graphs shown in Fig. 9 and Fig. 10 are the same as the horizontal and vertical axes of the graph shown in Fig. 7, respectively.
  • the solid line is the average value of the data obtained when the 17 subjects were in an upright position and the vibration mode was in weak mode.
  • Figure 9 also shows the standard deviation of the data obtained when the 17 subjects were in an upright position and the vibration mode was in weak mode.
  • the dashed line is the average value of the data obtained when the 17 subjects were in a forward-leaning position and the vibration mode was the strong mode.
  • Figure 9 also shows the standard deviation of the data obtained when the 17 subjects were in a forward-leaning position and the vibration mode was the strong mode.
  • the solid line is the average value of the data obtained when the 17 subjects were in an upright position and the vibration mode was in the strong mode.
  • Figure 10 also shows the standard deviation of the data obtained when the 17 subjects were in an upright position and the vibration mode was in the strong mode.
  • the dashed line is the average value of the data obtained when the 17 subjects were in a forward-leaning position and the vibration mode was weak mode.
  • Figure 10 also shows the standard deviation of the data obtained when the 17 subjects were in a forward-leaning position and the vibration mode was weak mode.
  • the amplitude ratio when the person is in a forward leaning posture is larger than the amplitude ratio when the person is in an upright posture.
  • the vibration transmitted from the feet to the body is more likely to be transmitted to the head as a vibration component in the X-axis direction than when the person is in an upright posture.
  • the amplitude ratio of data D2 (f) to data D1 (f) when the person is in a forward leaning posture is larger than the amplitude ratio of data D2 (f) to data D1 (f) when the person is in an upright posture.
  • Table 3 is a table summarizing the experimental results of the head and lumbar region in the vibration experiment.
  • data D1 (f) is frequency spectrum data of either the acceleration or angular velocity of the lumbar region of the subject in the global coordinate system.
  • Data D2 (f) is frequency spectrum data of either the acceleration or angular velocity of the head of the subject in the global coordinate system. Combinations of data D1 (f) and data D2 (f) shown in No. 1 to No. 36 were evaluated.
  • Table 3 shows the number of subjects out of 17 who were able to significantly distinguish between the amplitude ratio when in an upright posture and the amplitude ratio when in a forward-leaning posture in strong mode in case A.
  • Case A is a case in which the amplitude ratio when in an upright posture in weak mode and the amplitude ratio when in a forward-leaning posture in strong mode were compared, as shown in Figure 9.
  • Table 3 shows the number of subjects out of 17 who were able to significantly distinguish between the amplitude ratio when in an upright posture and the amplitude ratio when in a forward-leaning posture in strong mode in case B.
  • Case B is a case in which the amplitude ratio when in an upright posture in strong mode and the amplitude ratio when in a forward-leaning posture in weak mode were compared, as shown in Figure 10.
  • Table 3 The way of reading Table 3 will be explained.
  • the "D 1 (f)” column shows the data of the waist in the global coordinate system used for the frequency spectrum data of data D 1 (f).
  • the “D 2 (f)” column shows the data of the head in the global coordinate system used for the frequency spectrum data of data D 2 (f).
  • the "Number of subjects who can be distinguished (Case A)” column shows the number of subjects who could significantly distinguish the amplitude ratio when in an upright posture from the amplitude ratio when in a forward leaning posture among the 17 subjects in Case A.
  • the "P ⁇ 0.05 (Case A)” column shows the P value of less than 0.05, i.e., the significant difference, when the amplitude ratio when in an upright posture and the amplitude ratio when in a forward leaning posture are compared by the t-test in Case A, with "##".
  • the "Number of people who could be distinguished (Case B)” column shows the number of people among the 17 subjects who could significantly distinguish the amplitude ratio when they were in an upright posture from the amplitude ratio when they were in a forward leaning posture in Case B.
  • the "P ⁇ 0.05 (Case B)" column shows with "##" the P value of less than 0.05, i.e., the significant difference, when the amplitude ratio when they were in an upright posture and the amplitude ratio when they were in a forward leaning posture were compared between the two groups in Case B by t-test.
  • the data of all 17 subjects were used for the t-tests in Case A and Case B.
  • No. 1 is a case where data D1 (f) is frequency spectrum data of the acceleration of the subject's waist in the Z-axis direction, and data D2 (f) is frequency spectrum data of the acceleration of the subject's head in the Z-axis direction.
  • data D1 (f) is frequency spectrum data of the acceleration of the subject's waist in the Z-axis direction
  • data D2 (f) is frequency spectrum data of the acceleration of the subject's head in the Z-axis direction.
  • 11 out of 17 subjects were able to significantly distinguish between the amplitude ratio when they were in an upright posture and the amplitude ratio when they were in a forward-leaning posture.
  • case B 12 out of 17 subjects were able to significantly distinguish between the amplitude ratio when they were in an upright posture and the amplitude ratio when they were in a forward-leaning posture.
  • a and B significant differences were found.
  • Figure 11 shows the box plot of case A in the vibration experiment.
  • data D1 (f) is the frequency spectrum data of the angular velocity of the subject's waist in the roll direction.
  • Data D2 (f) is the frequency spectrum data of the acceleration of the subject's head in the X-axis direction.
  • Figure 11 shows box plots for all 17 subjects when the frequency was 6.92 Hz.
  • the right side of Figure 11 shows box plots for one subject when the frequency was 6.87 Hz.
  • the results in Figure 11 show that even when the frequency was as low as 7 Hz, the amplitude ratio when in an upright posture and when in a forward-leaning posture was significant.
  • the control unit 27 may set any two of the frequency spectrum data of the acceleration data of the user's head and waist in each of the X-axis direction, Y-axis direction, and Z-axis direction of the global coordinate system, and the angular velocity data of the user's head and waist in each of the pitch direction, roll direction, and yaw direction of the global coordinate system, as data D1 (f) and data D2 (f).
  • the control unit 27 determines that the posture of the upper body of the moving body is an upright posture when the amplitude ratio
  • the control unit 27 determines that the posture of the upper body of the moving body is a forward-leaning posture when the amplitude ratio
  • the posture state of the upper body of the moving object may be determined by combining the data D 1 (f) and the data D 2 (f) of 36 .
  • Table 4 summarizes the experimental results of the head in the vibration experiment.
  • data D1 (f) and data D2 (f) are frequency spectrum data of either the acceleration or angular velocity of the subject's head in the global coordinate system. Combinations of data D1 (f) and data D2 (f) shown in No. 1 to No. 15 were evaluated.
  • No. 1 is the case where data D 1 (f) is frequency spectrum data of the acceleration of the subject's head in the Z-axis direction, and data D 2 (f) is frequency spectrum data of the acceleration of the subject's head in the X-axis direction.
  • the combination of data D 1 (f) and data D 2 (f) is the same as the combination of data D 1 (f) and data D 2 (f) shown in FIG. 7 in which data D 1 (f) and data D 2 (f) are swapped.
  • case A 15 out of 17 subjects were able to significantly distinguish between the amplitude ratio when in an upright posture and the amplitude ratio when in a forward-leaning posture.
  • case B 15 out of 17 subjects were able to significantly distinguish between the amplitude ratio when in an upright posture and the amplitude ratio when in a forward-leaning posture. In both cases A and B, significant differences were observed.
  • Figure 11 shows the box plot of Case B in the vibration experiment.
  • data D1 (f) is the frequency spectrum data of the acceleration of the subject's head in the X-axis direction.
  • Data D2 (f) is the frequency spectrum data of the angular velocity of the subject's head in the pitch direction.
  • the left side of Figure 12 shows box plots for all 17 subjects when the frequency is 8.59 Hz.
  • the right side of Figure 12 shows box plots for one subject when the frequency is 8.63 Hz. This subject is the same as the subject in the box plot on the right side of Figure 11.
  • the results in Figure 12 show that when the frequency is around 8.5 Hz, the amplitude ratio when in an upright posture and when in a forward-leaning posture is significantly different.
  • the control unit 27 may set any two of the frequency spectrum data of the user's head and chest in the global coordinate system as data D 1 (f) and data D 2 (f).
  • the chest and the waist are included in the torso. Since the chest and the waist are included in the torso, the frequency spectrum data of the acceleration and angular velocity of the chest exhibit similar behavior to the frequency spectrum data of the acceleration and angular velocity of the waist, respectively. Since the data of the chest exhibits similar behavior to the data of the waist, it can be understood from the results of the vibration experiment described above with reference to FIGS. 8 to 11 and Table 3 that it is possible to determine whether the upper body is in an upright posture or a forward leaning posture even if the data of the chest is used instead of the data of the waist.
  • the control unit 27 may set any two of the frequency spectrum data of the acceleration data of the user's head and chest in each of the X-axis direction, Y-axis direction, and Z-axis direction of the global coordinate system, and the angular velocity data of the user's head and chest in each of the pitch direction, roll direction, and yaw direction of the global coordinate system as data D1 (f) and data D2 (f).
  • the control unit 27 determines that the posture of the upper body of the moving body is an upright posture when the amplitude ratio
  • the control unit 27 determines that the posture of the upper body of the moving body is a forward-leaning posture when the amplitude ratio
  • control unit 27 determines whether the posture of the user's upper body is upright or leaning forward, it may execute a notification process for notifying the user of the determination result of the posture state.
  • control unit 27 determines that the posture of the user's upper body is leaning forward, it may cause the speaker of the output unit 24 to output a voice message stating "The posture of the upper body is leaning forward.” If the control unit 27 determines that the posture of the user's upper body is upright, it may cause the speaker of the output unit 24 to output a voice message stating "The posture of the upper body is upright.”
  • the control unit 27 may vibrate the vibration unit 25 with a first vibration pattern.
  • the control unit 27 may vibrate the vibration unit 25 with a second vibration pattern different from the first vibration pattern.
  • control unit 27 when the control unit 27 determines that the posture of the user's upper body is a forward leaning posture, it may transmit a signal indicating the forward leaning posture to the sensor device 10A via the communication unit 21.
  • control unit 27 determines that the posture of the user's upper body is an upright posture, it may transmit a signal indicating the upright posture to the sensor device 10A via the communication unit 21.
  • the control unit 16 when the control unit 16 receives a signal indicating a forward leaning posture from the electronic device 20 via the communication unit 11, it may cause the speaker of the output unit 14 to output a voice saying "The posture of the upper body is a forward leaning posture.”
  • the control unit 16 receives a signal indicating an upright posture from the electronic device 20 via the communication unit 11, it may cause the speaker of the output unit 14 to output a voice saying "The posture of the upper body is an upright posture.”
  • Fig. 13 is a flowchart showing the flow of the determination process executed by the electronic device 20 shown in Fig. 1. For example, when a user inputs an input instructing execution of the determination process to the input unit 22, the control unit 27 starts the process of step S1.
  • the control unit 27 receives an input instructing execution of a determination process through the input unit 22 (step S1).
  • the control unit 27 transmits a signal instructing the start of data detection to the sensor device 10 through the communication unit 21 (step S2).
  • the control unit 27 receives data detected by the sensor device 10 from the sensor device 10 via the communication unit 21 (step S3).
  • the data received in the process of step S3 is data in the local coordinate system.
  • the control unit 27 converts the data in the local coordinate system received in the process of step S3 into data in the global coordinate system (step S4).
  • the control unit 27 performs a Fourier transform on the time series data within the predetermined time in the global coordinate system that was converted in the processing of step S4 (step S5).
  • the control unit 27 obtains frequency spectrum data of the user's body part in the global coordinate system by performing a Fourier transform on the time series data in the global coordinate system.
  • the control unit 27 sets two pieces of frequency spectrum data of the acceleration and angular velocity data of the user's body parts in the global coordinate system as data D1 (f) and D2 (f).
  • the control unit 27 calculates an amplitude ratio
  • the control unit 27 determines whether the amplitude ratio
  • control unit 27 determines that the amplitude ratio
  • the control unit 27 executes a notification process to notify the user of the determination result of step S8 or step S9 (step S10).
  • control unit 27 After the processing of step S10, the control unit 27 ends the judgment processing. However, the control unit 27 may execute the judgment processing again, for example, when a set time has elapsed. The set time may be input in advance by the user from the input unit 22, or may be set as appropriate. In the judgment processing to be executed again, the control unit 27 may start from the processing of step S3. The control unit 27 may repeatedly execute the judgment processing every time the set time has elapsed until it receives an input from the input unit 22 instructing the end of the judgment processing.
  • the input instructing the end of the judgment processing is, for example, input by the user to the input unit 22. For example, when the user finishes walking, the user inputs an input from the input unit 22 instructing the end of the judgment processing.
  • the control unit 27 determines the state of the posture of the user's upper body by the amplitude ratio of any two data of the acceleration and angular velocity of the user's body part in each direction of the global coordinate system when the user is walking on two legs. That is, the control unit 27 can determine the state of the posture of the user's upper body by taking any two data of the acceleration and angular velocity of the user's body part in the global coordinate system when vibration is transmitted to the user's body as D 1 (f) and D 2 (f), and the amplitude ratio
  • the data of the acceleration and angular velocity of the user's body part can be acquired by the sensor device 10 attached to the body part.
  • the state of the user's posture can be determined even if the user does not walk in a place where a camera or the like is placed.
  • the posture state of the user's upper body while walking can be determined based on the data of the user's body parts when the user is walking on two legs, i.e., when vibrations are transmitted from the user's feet to the user's body.
  • the posture state of the user's upper body can be determined based on the amplitude ratio
  • the posture state of the user's upper body while walking can be determined without strictly detecting the user's walking cycle.
  • control unit 27 can determine the state of posture of the user's upper body based on the amplitude ratio of any two pieces of data among the acceleration of the user's head in the X-axis direction, Y-axis direction, and Z-axis direction, and the angular velocity of the user's head in the pitch direction, roll direction, and yaw direction while the user is walking.
  • the state of posture of the user's upper body can be determined. With this configuration, the user only needs to wear the sensor device 10A. Therefore, user convenience can be improved.
  • an information processing device includes: The system is equipped with a control unit that determines the state of posture of the upper body of the moving body based on the amplitude ratio of any two pieces of data regarding the acceleration of the head of the moving body in each of the forward/backward, left/right, and up/down directions of the moving body, and the angular velocity of the head of the moving body in each of the pitch, roll, and yaw directions of the moving body when vibrations are transmitted to the body of the moving body.
  • the vibration may be transmitted from the foot to the head of the moving body.
  • the two pieces of data may be data on acceleration of the head of the moving body in a forward/backward direction of the moving body, and data on acceleration of the head of the moving body in a vertical direction of the moving body.
  • the two pieces of data may be data on acceleration of the head of the moving body in a forward/backward direction of the moving body, and data on angular velocity of the head of the moving body in a roll direction of the moving body.
  • the two pieces of data may be data on acceleration of the head of the moving body in a vertical direction of the moving body, and data on angular velocity of the head of the moving body in a yaw direction of the moving body.
  • the control unit may determine whether an upper body of the moving object is in a forward leaning position or an upright position based on the amplitude ratio in a frequency range equal to or higher than a predetermined frequency.
  • an information processing method includes: This includes determining the posture state of the upper body of the moving body based on the amplitude ratio of any two pieces of data on the acceleration of the head of the moving body in each of the forward/backward, left/right, and up/down directions of the moving body, and the angular velocity of the head of the moving body in each of the pitch, roll, and yaw directions of the moving body when vibrations are transmitted to the body of the moving body.
  • each functional unit, each means, each step, etc. can be added to other embodiments so as not to be logically inconsistent, or replaced with each functional unit, each means, each step, etc. of other embodiments.
  • multiple functional units, each means, each step, etc. can be combined into one or divided.
  • each of the above-described embodiments of the present disclosure is not limited to being implemented faithfully according to each of the described embodiments, but may be implemented by combining each feature or omitting some features as appropriate.
  • the control unit 27 has been described as determining the state of posture of the upper body of the user by setting any two pieces of data of the user's body parts in the global coordinate system as D1 (f) and D2 (f) when vibration is transmitted from the user's feet to the head, and by the amplitude ratio
  • the control unit 27 can determine the state of posture of the upper body of the mobile body at any time by the amplitude ratio
  • control unit 27 has been described as determining that the posture of the upper body of the moving body is an upright posture when the amplitude ratio
  • the control unit 27 may determine that the posture of the upper body of the moving body is a forward leaning posture when the amplitude ratio
  • the electronic device 20 has been described as an information processing device that determines the posture state of the user's upper body.
  • the information processing device that determines the posture state of the user's upper body is not limited to the electronic device 20.
  • the sensor device 10 may determine the posture state of the user's upper body as an information processing device.
  • the server device may determine the posture state of the user's upper body as an information processing device.
  • references such as “first” and “second” are identifiers for distinguishing the configuration.
  • Configurations distinguished by descriptions such as “first” and “second” in this disclosure may have their numbers exchanged.
  • the first vibration pattern may exchange identifiers “first” and “second” with the second vibration pattern.
  • the exchange of identifiers is performed simultaneously.
  • the configurations remain distinguished even after the exchange of identifiers.
  • Identifiers may be deleted.
  • Configurations from which identifiers have been deleted are distinguished by symbols. Descriptions of identifiers such as “first” and “second” in this disclosure alone should not be used to interpret the order of the configurations or to justify the existence of identifiers with smaller numbers.

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

情報処理装置は、制御部を備える。制御部は、移動体の身体に振動が伝達している時の、移動体の前後方向、左右方向及び上下方向のそれぞれにおける移動体の頭部の加速度並びに移動体のピッチ方向、ロール方向及びヨー方向のそれぞれにおける移動体の頭部の角速度のうちの何れか2つのデータの振幅比に基づいて移動体の上半身の姿勢の状態を判定する。

Description

情報処理装置及び情報処理方法 関連出願へのクロスリファレンス
 本出願は、2022年12月22日に日本国に特許出願された特願2022-205927の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本開示は、情報処理装置及び情報処理方法に関する。
 従来、人間等の移動体の姿勢を評価するための技術が知られている。例えば、特許文献1には、歩行している被写体の動画像を取得する手段を備え、被写体の動きの美しさを評価する情報処理装置が記載されている。
国際公開第2019/111521号
 本開示の一実施形態に係る情報処理装置は、
 移動体の身体に振動が伝達している時の、前記移動体の前後方向、左右方向及び上下方向のそれぞれにおける前記移動体の頭部の加速度並びに前記移動体のピッチ方向、ロール方向及びヨー方向のそれぞれにおける前記移動体の頭部の角速度のうちの何れか2つのデータの振幅比に基づいて前記移動体の上半身の姿勢の状態を判定する制御部を備える。
 本開示の一実施形態に係る情報処理方法は、
 移動体の身体に振動が伝達している時の、前記移動体の前後方向、左右方向及び上下方向のそれぞれにおける前記移動体の頭部の加速度並びに前記移動体のピッチ方向、ロール方向及びヨー方向のそれぞれにおける前記移動体の頭部の角速度のうちの何れか2つのデータの振幅比に基づいて前記移動体の上半身の姿勢の状態を判定することを含む。
本開示の一実施形態に係る情報処理システムの概略構成を示す図である。 ローカル座標系及びグローバル座標系を説明するための図である。 図1に示す情報処理システムのブロック図である。 ローカル座標系のデータの一例を示すグラフである。 グローバル座標系のデータの一例を示すグラフである。 人間が二足歩行する様子を示す図である。 歩行実験におけるデータD(f)及びデータD(f)の位相及び振幅比の実験データを示す図である。 振動プレートを用いた加振実験における被験者の姿勢を示す図である。 加振実験におけるデータD(f)及びデータD(f)の位相及び振幅比の実験データを示す図である。 加振実験におけるデータD(f)及びデータD(f)の位相及び振幅比の実験データを示す図である。 加振実験におけるケースAの箱ひげ図である。 加振実験におけるケースBの箱ひげ図である。 図1に示す電子機器が実行する判定処理の流れを示すフローチャートである。
 移動体の姿勢を評価するための従来の技術には、改善の余地がある。例えば、特許文献1では、歩行している被写体の動画像が用いられる。そのため、動画像を取得するためのカメラ等が配置された場所を被写体が歩行しなければ、被写体の姿勢を評価することができない。本開示の一実施形態によれば、移動体の姿勢を評価するための技術を改善することができる。
 以下、本開示に係る実施形態について、図面を参照して説明する。
 (システムの構成)
 図1に示すような情報処理システム1は、移動体に振動が伝達している時の、移動体の上半身の姿勢の状態を判定することができる。本実施形態では、移動体は、ユーザである。ユーザは、人間である。ただし、移動体は、上半身を有すれば、任意の生物又は物体等であってよい。他の例として、移動体は、人間以外の脊椎動物又はロボット等であってもよい。
 情報処理システム1は、ユーザの足部からユーザの身体に振動が伝達している時の、ユーザの上半身の姿勢の状態を判定することができる。本実施形態では、情報処理システム1は、ユーザが二足歩行している時の、ユーザの上半身の姿勢の状態を判定する。ユーザが二足歩行している時、例えばユーザの足部が地面等に着地した着地時、ユーザの足部からユーザの身体に振動が伝達する。ユーザが二足歩行している時のユーザの上半身の姿勢の状態を判定することにより、ユーザの上半身の姿勢を評価することができる。このような構成により、ユーザは、二足歩行している時の自身の姿勢が正しいか否かを知ることができる。
 ただし、情報処理システム1がユーザの上半身の姿勢の状態を判定する時は、ユーザが二足歩行している時に限定されない。情報処理システム1がユーザの上半身の姿勢の状態を判定する時は、ユーザの足部からユーザの身体に振動が伝達している時であれば、任意であってよい。他の例として、情報処理システム1は、ユーザが走行している時又はユーザが電車に立って乗車している時等に、ユーザの上半身の姿勢の状態を判定してもよい。
 情報処理システム1は、センサ機器10A,10B,10C,10Dと、電子機器20とを含む。ただし、情報処理システム1は、センサ機器10A~10Dの全てを含まなくてよい。センサ機器10A~10Dのうちの少なくとも1個を含めばよい。
 以下、センサ機器10A,10B,10C,10Dのそれぞれを特に区別しない場合、これらは、単に「センサ機器10」とも記載される。
 センサ機器10と電子機器20とは、通信線を介して通信可能である。通信線は、有線及び無線の少なくとも何れかを含んで構成される。
 情報処理システム1では、図2に示すようなローカル座標系及びグローバル座標系が用いられる。
 ローカル座標系は、図2に示すようなセンサ機器10の位置を基準とする座標系である。図2には、センサ機器10の位置の例示として、センサ機器10Aの位置を破線で示す。ローカル座標系は、例えば、x軸、y軸及びz軸で構成される。x軸と、y軸と、z軸とは、互いに直交する。x軸は、センサ機器10から見た前後方向に平行である。y軸は、センサ機器10から見た左右方向に平行である。z軸は、センサ機器10から見た上下方向に平行である。x軸、y軸及びz軸の正負の方向は、情報処理システム1の構成等に応じて、設定されてよい。
 グローバル座標系は、図2に示すようなユーザを基準とする座標系である。グローバル座標系は、例えば、X軸、Y軸及びZ軸で構成される。X軸と、Y軸と、Z軸とは、互いに直交する。X軸は、ユーザから見た前後方向に平行である。Y軸は、ユーザから見た左右方向に平行である。Z軸は、ユーザから見た上下方向に平行である。X軸、Y軸及びZ軸の正負の方向は、情報処理システム1の構成等に応じて、設定されてよい。
 グローバル座標系では、図2に示すようなロール方向、ピッチ方向及びヨー方向が設定される。ロール方向は、X軸を中心に回転する方向である。ピッチ方向は、Y軸を中心に回転する方向である。ヨー方向は、Z軸を中心に回転する方向である。ロール方向、ピッチ方向及びヨー方向の正負の方向は、情報処理システム1の構成等に応じて、設定されてよい。
 センサ機器10は、図1に示すように、ユーザの身体部位に装着される。
 センサ機器10Aは、図1に示すように、ユーザの頭部に装着される。センサ機器10Aは、ウェアラブル機器であってよい。図1では、センサ機器10Aは、イヤホンに含まれることにより、ユーザの耳に装着される。ただし、センサ機器10Aは、イヤホン自体であってもよい。イヤホンは、骨伝導イヤホンであってもよいし、カナル型イヤホンであってもよい。ここで、センサ機器10Aを頭部に装着する方法は、図1に示す構成に限定されない。他の例として、センサ機器10Aは、ヘッドホン、ヘルメット、マウスピース、ファイスシール、メガネ、ゴーグル、髪飾り、カチューシャ、かんざし、ヘアピン、ヘッドバンド、包帯又は補聴器等によって、ユーザの頭部に装着されてもよい。
 センサ機器10Aは、センサ機器10Aの位置を基準とするローカル座標系のx軸がユーザから見た頭部の前後方向に平行になり、当該ローカル座標系のy軸がユーザから見た頭部の左右方向に平行になり、当該ローカル座標系のz軸がユーザから見た頭部の上下方向に平行になるように、ユーザの頭部に装着される。ただし、当該ローカル座標系のx軸、y軸及びz軸のそれぞれと、ユーザから見た頭部の前後方向、左右方向及び上下方向のそれぞれとは、厳密な並行でなくてもよい。センサ機器10Aの個人による装着時のずれが許容されてよい。
 センサ機器10Bは、ユーザの胸部に装着される。センサ機器10Bは、ベルト又はクリップ等によって、ユーザの胸部に装着されてよい。
 センサ機器10Bは、センサ機器10Bの位置を基準とするローカル座標系のx軸がユーザから見た胸部の前後方向に平行になり、当該ローカル座標系のy軸がユーザから見た胸部の左右方向に平行になり、当該ローカル座標系のz軸がユーザから見た胸部の回旋方向に平行になるように、ユーザの胸部に装着される。胸部の回旋方向は、例えば、胸部がねじれて回旋する方向である。ただし、当該ローカル座標系のx軸、y軸及びz軸のそれぞれと、ユーザから見た胸部の前後方向、左右方向及び旋回方向のそれぞれとは、厳密な並行でなくてもよい。センサ機器10Bの個人による装着時のずれが許容されてよい。
 センサ機器10Cは、ユーザの腰部に装着される。センサ機器10Cは、ウェアラブル機器であってよい。センサ機器10Cは、ベルト又はクリップ等によってユーザの腰部に装着されてよい。
 センサ機器10Cは、センサ機器10Cの位置を基準とするローカル座標系のx軸がユーザから見た腰部の前後方向に並行になり、当該ローカル座標系のy軸がユーザから見た腰部の左右方向に並行になり、当該ローカル座標系のz軸がユーザから見た腰部の回旋方向に並行になるように、ユーザの腰部に装着される。腰部の回旋方向は、例えば、腰部がねじれて回旋する方向である。ただし、当該ローカル座標系のx軸、y軸及びz軸のそれぞれと、ユーザから見た腰部の前後方向、左右方向及び旋回方向のそれぞれとは、厳密な並行でなくてもよい。センサ機器10Cの個人による装着時のずれが許容されてよい。
 センサ機器10Dは、ユーザの足部に装着される。本実施形態では、足部は、ユーザの足首からつま先までの部分である。図1では、センサ機器10Dは、ベルト又はクリップ等によって、ユーザの左側の足首に装着される。ただし、センサ機器10Dは、右側の足首に装着されてもよいし、足部のうちの足首以外の部分に装着されてもよい。また、センサ機器10Dは、靴型のウェアラブル機器であってもよい。この場合、センサ機器10は、ユーザが靴型のウェアラブル機器を履くことにより、ユーザの足部に装着されてよい。
 センサ機器10Dは、センサ機器10Dの位置を基準とするローカル座標系のx軸がユーザから見た足首の前後方向に並行になり、当該ローカル座標系のy軸がユーザから見た足首の左右方向に並行になり、当該ローカル座標系のz軸がユーザから見た足首の回旋方向に並行になるように、ユーザの足部に装着される。足首の回旋方向は、例えば、足首がねじれて回旋する方向である。ただし、当該ローカル座標系のx軸、y軸及びz軸のそれぞれと、ユーザから見た足首の前後方向、左右方向及び旋回方向のそれぞれとは、厳密な並行でなくてもよい。センサ機器10Dの個人による装着時のずれが許容されてよい。
 電子機器20は、情報処理装置の一例である。電子機器20は、例えば、スマートフォン又はタブレット等のモバイル機器である。電子機器20は、センサ機器10が装着されたユーザによって携帯される。
 (センサ機器の構成)
 図3に示すように、センサ機器10は、通信部11と、センサ部12と、報知部13と、記憶部15と、制御部16とを備える。ただし、センサ機器10B~10Dは、報知部13を備えなくてもよい。
 通信部11は、通信線を介して電子機器20と通信可能な少なくとも1つの通信モジュールを含んで構成される。通信モジュールは、通信線の規格に対応した通信モジュールである。通信線の規格は、例えば、Bluetooth(登録商標)、赤外線及びNFC(Near Field Communication)等を含む近距離無線通信規格である。
 センサ部12は、3軸の加速度センサ及び3軸の角速度センサの少なくとも何れかを含んで構成される。3軸の加速度センサは、ローカル座標系のx軸、y軸及びz軸のそれぞれの方向の加速度を検出可能である。3軸の角速度センサは、ローカル座標系のx軸、y軸及びz軸のそれぞれの加速度を検出可能である。センサ部12は、3軸の慣性計測ユニット(IMU:Inertial Measurement Unit)を含んで構成されてもよい。
 報知部13は、情報を報知可能である。本実施形態では、報知部13は、出力部14を含む。ただし、報知部13は、出力部14に限定されない。報知部13は、情報を出力可能な任意の構成要素を含んでよい。
 出力部14は、データを出力可能である。出力部14は、データを出力可能な少なくとも1つの出力用インタフェースを含んで構成される。出力用インタフェースは、例えば、ディスプレイ又はスピーカ等である。ディスプレイは、例えば、LCD(Liquid Crystal Display)又は有機EL(Electro Luminescence)ディスプレイ等である。出力部14は、センサ機器10Aに含まれる場合、スピーカを含んで構成されてよい。
 記憶部15は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ又はこれらのうちの少なくとも2種類の組み合わせを含んで構成される。半導体メモリは、例えば、RAM(Random Access Memory)又はROM(Read Only Memory)等である。RAMは、例えば、SRAM(Static Random Access Memory)又はDRAM(Dynamic Random Access Memory)等である。ROMは、例えば、EEPROM(Electrically Erasable Programmable Read Only Memory)等である。記憶部15は、主記憶装置、補助記憶装置又はキャッシュメモリとして機能してよい。記憶部15は、センサ機器10の動作に用いられるデータと、センサ機器10の動作によって得られたデータとを記憶する。例えば、記憶部15は、システムプログラム、アプリケーションプログラム及び組み込みソフトウェア等を記憶する。
 制御部16は、少なくとも1つのプロセッサ、少なくとも1つの専用回路又はこれらの組み合わせを含んで構成される。プロセッサは、CPU(Central Processing Unit)若しくはGPU(Graphics Processing Unit)等の汎用プロセッサ又は特定の処理に特化した専用プロセッサである。専用回路は、例えば、FPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等である。制御部16は、センサ機器10の各部を制御しながら、センサ機器10の動作に関わる処理を実行する。
 制御部16は、データ検出の開始を指示する信号を、電子機器20から通信部11によって受信する。制御部16は、この信号を受信すると、データ検出を開始する。例えば、制御部16は、センサ部12から、センサ部12が検出したデータを取得する。制御部16は、取得したデータを電子機器20に通信部11によって送信する。情報処理システム1が複数のセンサ機器10を含む場合、データ検出の開始を指示する信号は、ブロードキャスト信号として、電子機器20から複数のセンサ機器10に送信される。データ検出の開始を指示する信号がブロードキャスト信号として複数のセンサ機器10に送信されることにより、複数のセンサ機器10は、データ検出を同時に開始することができる。
 制御部16は、予め設定された時間間隔で、センサ部12からデータを取得してよい。この時間間隔は、一般的なユーザの歩行速度等に基づいて、設定されてよい。この時間間隔は、複数のセンサ機器10のそれぞれにおいて、同じであってよい。この時間間隔が複数のセンサ機器10で同じであることにより、複数のセンサ機器10のそれぞれがデータを検出するタイミングを同期させることができる。制御部16は、センサ部12から取得したデータを通信部11によって送信する。
 (電子機器の構成)
 図3に示すように、電子機器20は、通信部21と、入力部22と、報知部23と、記憶部26と、制御部27とを備える。
 通信部21は、通信線を介してセンサ機器10と通信可能な少なくとも1つの通信モジュールを含んで構成される。通信モジュールは、通信線の規格に対応した少なくとも1つの通信モジュールである。通信線の規格は、例えば、Bluetooth(登録商標)、赤外線及びNFC等を含む近距離無線通信規格である。
 入力部22は、ユーザからの入力を受付可能である。入力部22は、ユーザからの入力を受付可能な少なくとも1つの入力用インタフェースを含んで構成される。入力用インタフェースは、例えば、物理キー、静電容量キー、ポインティングデバイス、ディスプレイと一体的に設けられたタッチスクリーン又はマイク等である。
 報知部23は、情報を報知する。本実施形態では、報知部23は、出力部24及び振動部25を含む。ただし、報知部23は、出力部24及び振動部25に限定されない。報知部23は、情報を出力可能な任意の構成要素を含んでよい。
 出力部24は、データを出力可能である。出力部24は、データを出力可能な少なくとも1つの出力用インタフェースを含んで構成される。出力用インタフェースは、例えば、ディスプレイ又はスピーカ等である。ディスプレイは、例えば、LCD又は有機ELディスプレイ等である。
 振動部25は、電子機器20を振動可能である。振動部25は、振動素子を含んで構成される。振動素子は、例えば、圧電素子等である。
 記憶部26は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ又はこれらのうちの少なくとも2種類の組み合わせを含んで構成される。半導体メモリは、例えば、RAM又はROM等である。RAMは、例えば、SRAM又はDRAM等である。ROMは、例えば、EEPROM等である。記憶部26は、主記憶装置、補助記憶装置又はキャッシュメモリとして機能してよい。記憶部26には、電子機器20の動作に用いられるデータと、電子機器20の動作によって得られたデータとが記憶される。例えば、記憶部26は、システムプログラム、アプリケーションプログラム及び組み込みソフトウェア等を記憶する。
 制御部27は、少なくとも1つのプロセッサ、少なくとも1つの専用回路又はこれらの組み合わせを含んで構成される。プロセッサは、CPU若しくはGPU等の汎用プロセッサ又は特定の処理に特化した専用プロセッサである。専用回路は、例えば、FPGA又はASIC等である。制御部27は、電子機器20の各部を制御しながら、電子機器20の動作に関わる処理を実行する。
 制御部27は、判定処理の実行を指示する入力を、入力部22によって受け付ける。この入力は、電子機器20に、ユーザの上半身の姿勢の状態を判定する判定処理を実行させる入力である。この入力は、例えば、ユーザによって入力部22から入力される。ユーザは、例えば、センサ機器10を自身の身体に装着した後、歩行を開始する前に、この入力を入力部22に入力する。
 制御部27は、判定処理の実行を指示する入力を受け付けると、データ検出の開始を指示する信号をセンサ機器10に通信部21によって送信する。情報処理システム1が複数のセンサ機器10を含む場合、制御部27は、データ検出の開始を指示する信号をブロードキャスト信号として、複数のセンサ機器10に通信部21によって送信してよい。データ検出の開始を指示する信号がセンサ機器10に送信された後、センサ機器10が検出したデータが、センサ機器10から電子機器20へ送信される。
 制御部27は、センサ機器10から、センサ機器10が検出したデータを通信部21によって受信する。センサ機器10から受信したデータは、ローカル座標系のデータである。例えば、制御部27は、センサ機器10Aから、図4の上部に示すようなローカル座標系のユーザの頭部の加速度のデータを受信する。また、制御部27は、センサ機器10Dから、図4の下部に示すようなローカル座標系のユーザの足首の加速度のデータを受信する。図4に示すグラフにおいて、横軸は、時間[s]を示す。縦軸は、加速度[m/s]を示す。
 制御部27は、センサ機器10から受信したローカル座標系のデータをグローバル座標系のデータに変換する。この処理の一例として、制御部27は、センサ機器10から受信したローカル座標系のデータによって、センサ機器10に働く重力加速度の方向を検出する。制御部27は、ローカル座標系の加速度及び角速度のデータのうちから相補フィルタによって選択したデータを用い、センサ機器10に働く重力加速度の方向を検出してよい。制御部27は、検出したセンサ機器10に働く重力加速度の方向によって、センサ機器10の姿勢を検出する。制御部27は、検出したセンサ機器10の姿勢によって、ローカル座標系のデータをグローバル座標系のデータに変換する回転行列を算出する。制御部27は、算出した回転行列によって、ローカル座標系のデータをグローバル座標系のデータに変換する。例えば、制御部27は、図4の上部に示すようなローカル座標系のユーザの頭部の加速度のデータを、図5の上部に示すようなグローバル座標系のユーザの頭部の加速度のデータに変換する。また、制御部27は、図4の下部に示すようなローカル座標系のユーザの足首の加速度のデータを、図5の下部に示すようなグローバル座標系のユーザの足首の加速度のデータに変換する。図5に示すグラフにおいて、横軸は、時間[s]を示す。縦軸は、加速度[m/s]を示す。
 制御部27は、センサ機器10が検出したローカル座標系のデータをグローバル座標系のデータに変換すると、グローバル座標系のデータにおける所定時間内の時系列データに対してフーリエ変換を実行する。ここで、ユーザの足部に振動を与える要因に応じて、ユーザの身体を伝達する振動の周期が変わり得る。そこで、所定時間は、ユーザの足部に振動を与える要因に応じて設定されてよい。例えば、ユーザの足部に振動を与える要因が二足歩行である場合、所定時間は、歩行周期以上であってよい。制御部27は、ユーザの足部が地面に着地する着地タイミングを検出することによりユーザの歩行周期を検出することによって、所定時間を設定してもよい。又は、所定時間は、一般的な人間の歩行周期に基づいて適宜設定されてもよい。所定時間は、例えば、1~2[s]である。
 制御部27は、グローバル座標系の所定時間内の時系列データに対してフーリエ変換を実行することにより、グローバル座標系のユーザの身体部位の加速度及び角速度の周波数スペクトルデータを取得することができる。つまり、制御部27は、グローバル座標系のユーザの頭部、胸部、腰部及び足部の加速度及び角速度の周波数スペクトルデータを取得することができる。
 制御部27は、グローバル座標系のユーザの頭部、胸部、腰部及び足部の加速度及び角速度のデータのうちの何れか2つの周波数スペクトルデータによって、周波数応答関数H(f)を算出する。制御部27は、これらのデータの何れか2つの周波数スペクトルデータのうちの、一方を入力とし、他方を出力として、周波数応答関数H(f)を算出する。以下、ユーザの頭部、胸部、腰部及び足部の加速度及び角速度のデータのうちの何れか2つの周波数スペクトルデータは、「データD(f)」及び「データD(f)」とも記載される。データD(f)が周波数応答における入力に対応し、データD(f)が周波数応答における出力に対応するものとする。制御部27は、式(1)によって周波数応答関数H(f)を算出する。
 H(f)=D(f)/D(f)   式(1)
 制御部27は、算出した周波数応答関数H(f)によってユーザの身体における振動の伝達特性を解析することができる。ここで、ユーザの各身体部位を伝達する振動の周波数は、ユーザの姿勢によって異なる。したがって、制御部27は、算出した周波数応答関数H(f)によって身体における振動の伝達特性を解析することにより、ユーザの姿勢の状態を判定することができる。
 本実施形態では、制御部27は、算出した周波数応答関数H(f)によって、データD(f)に対するデータD(f)の振幅比|H(f)|を算出する。制御部27は、算出した振幅比|H(f)|によって、上半身が直立姿勢であるか又は前傾姿勢であるかを判定する。前傾姿勢は、いわゆる猫背である。制御部27は、以下に説明するようなデータD(f)及びデータD(f)の組み合わせによって振幅比|H(f)|を算出し、上半身が直立姿勢であるか又は前傾姿勢であるかを判定してよい。
 <組み合わせ:頭部>
 制御部27は、例えばユーザがセンサ機器10Aを装着する場合、グローバル座標系のユーザの頭部の加速度及び加速度のデータのうちの何れか2つの周波数スペクトルデータを、データD(f)及びデータD(f)としてよい。制御部27は、ユーザの頭部のみに関するデータD(f)に対するデータD(f)の振幅比|H(f)|によって、上半身が直立姿勢であるか又は前傾姿勢であるかを判定することができる。この原理について、図6を参照して説明する。
 図6には、人間が直立姿勢で二足歩行する様子と、人間が前傾姿勢で二足歩行する様子とを示す。人間が二足歩行している間、人間の足部が地面等に着地した着地時、地面等から足部に振動が伝達する。つまり、人間が二足歩行している時、振動がユーザの足部から頭部に伝達する。ここで、人間が直立姿勢で二足歩行する場合、XY平面において、頭部の重心位置と腰部の重心位置とは、ほぼ一致する。これに対し、人間が前傾姿勢で二足歩行する場合、XY平面において、頭部の重心位置は、腰部の重心位置よりも、人間の前側に位置する。そのため、人間が前傾姿勢で二足歩行する場合、着地時に地面等から足部に伝達する振動は、人間が直立姿勢で二足歩行する場合よりも、X軸方向又はY軸方向の振動成分として頭部に伝達しやすくなる。これに対し、人間が直立姿勢で二足歩行する場合、着地時に地面等から足部に伝達する振動は、人間が前傾姿勢で二足歩行する場合よりも、Z軸方向の振動成分として頭部に伝達しやすくなる。換言すると、人間が直立姿勢で二足歩行する場合、地面等から足部に伝達する振動は、人間が前傾姿勢で二足歩行する場合よりも、X軸方向及びY軸方向の振動成分として頭部に伝達しにくくなる。これらの事から、ユーザの頭部のみのデータであっても、グローバル座標系において異なる方向のデータD(f)に対するデータD(f)の振幅比|H(f)|を算出すれば、上半身が直立姿勢であるか又は前傾姿勢であるかを判定可能であることが分かる。例えば、データD(f)をX軸方向の頭部の加速度の周波数スペクトルデータとし、データD(f)をZ軸方向の頭部の加速度の周波数スペクトルデータとすれば、上半身が直立姿勢であるか又は前傾姿勢であるかを判定可能であることが分かる。これを検証するために、発明者らは、歩行実験を行った。この歩行実験について、以下に説明する。また、後述の表4の結果も参照されたい。
 <<歩行実験>>
 歩行実験は、7人の被験者に対して行われた。7人の被験者は、頭部に慣性センサが装着された状態で、直立姿勢及び前傾姿勢のそれぞれで歩行した。
 図7に、歩行実験におけるデータD(f)に対するデータD(f)の位相及び振幅比の実験データを示す。図7では、データD(f)は、グローバル座標系のX軸方向の頭部の加速度の周波数スペクトルデータである。データD(f)は、グローバル座標系のZ軸方向の頭部の加速度の周波数スペクトルデータである。実線は、7人の被験者が直立姿勢で歩行したときに得られたデータの平均値である。破線は、7人の被験者が前傾姿勢で歩行したときに得られたデータの平均値である。図7には、7人の被験者が直立姿勢で歩行したときに得られたデータの標準偏差、及び、7人の被験者が前傾姿勢で歩行したときに得られたデータの標準偏差を示す。
 図7の上部には、データD(f)に対するデータD(f)の位相差のグラフを示す。このグラフの縦軸は、位相差[deg]に対応する。このグラフの横軸は、周波数[Hz]に対応する。
 図7の下部には、データD(f)に対するデータD(f)の振幅比のグラフを示す。このグラフの縦軸は、振幅比[-]に対応する。このグラフの横軸は、周波数[Hz]に対応する。
 図7の下部に示す振幅比のグラフにおいて、前傾姿勢であるときの振幅比は、直立姿勢であるときの振幅比よりも小さくなる。この理由は、図6を参照して上述したように、人間が前傾姿勢で二足歩行する場合、着地時に地面等から足部に伝達する振動が、人間が直立姿勢で二足歩行する場合よりも、X軸方向の振動成分として頭部に伝達しやすくなるためである。つまり、前傾姿勢であるときのデータD(f)に対するデータD(f)の振幅比は、直立姿勢であるときのデータD(f)に対するデータD(f)の振幅比よりも小さくなるためである。
 図7の下部に示す振幅比のグラフから、8[Hz]以上の周波数領域では、直立姿勢であるときの振幅比と、前傾姿勢であるときの振幅比とを有意に分別可能であることが分かる。つまり、8[Hz]以上の周波数領域では、直立姿勢であるときの振幅比は、前傾姿勢であるときの振幅比よりも、顕著に高くなる。発明者らは、直立姿勢と前傾姿勢とが分別可能になる周波数8[Hz]が人間の人体構造並びにデータD(f)及びデータD(f)に用いられる人間の身体部位に依拠するとの知見を得た。
 図7の結果から次の事が言える。制御部27は、データD(f)をX軸方向の移動体の頭部の加速度の周波数スペクトルデータとし、データD(f)をZ軸方向の移動体の頭部の加速度の周波数スペクトルデータとしてよい。この場合、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値以上である場合、移動体の上半身の姿勢が直立姿勢であると判定する。一方、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値を下回る場合、移動体の上半身の姿勢が前傾姿勢であると判定する。所定周波数は、移動体の構造並びにデータD(f)及びデータD(f)に用いられる移動体の部位に応じて設定されてよい。所定周波数は、移動体が人間であり、さらにデータD(f)及びデータD(f)に用いられる部位が頭部である場合、例えば、8[Hz]である。所定値は、実験データに基づいて設定されてもよいし、移動体の構造並びにデータD(f)及びデータD(f)に用いられる移動体の部位に応じて設定されてもよい。所定値は、図7に示す実験データを用いた場合、例えば、3である。
 発明者らは、グローバル座標系の被験者の頭部のデータのうちの他の組み合わせについても評価した。この評価結果を表1を参照して説明する。
 表1は、被験者の頭部のデータにおいてデータD(f)及びデータD(f)を組み合わせた場合の実験結果を示す表である。この実験データは、図7と同じく、7人の被験者から得られた。発明者らは、No.1からNo.8の組み合わせによるデータD(f)に対するデータD(f)の振幅比|H(f)|によって、被験者の上半身が直立姿勢であるか又は前傾姿勢であるかを判定可能であるか評価した。発明者らは、評価結果として、ОK又はGoodを付与した。
 OKは、7人の被験者が直立姿勢で二足歩行したときに得られたデータ及び7人の被験者が前傾姿勢で二足歩行したときに得られたデータのうちの一方のデータの平均値が他方のデータの標準偏差に重ならない場合である。例えば、OKは、図7において、実線が前傾姿勢で歩行したときに得られたデータの標準偏差に重ならない場合、又は、破線が直立姿勢で歩行したときに得られたデータの標準偏差に重ならない場合である。
 Goodは、7人の被験者が直立姿勢で二足歩行したときに得られたデータの標準偏差と7人の被験者が前傾姿勢で二足歩行したときに得られたデータの標準偏差との間に明確な差がみられる場合である。例えば、Goodは、図7において、前傾姿勢で二足歩行したときに得られたデータの標準偏差と、直立姿勢で二足歩行したときに得られたデータの標準偏差との間に隙間が見られる場合である。
Figure JPOXMLDOC01-appb-T000001
 表1の見方を説明する。表1のNo.1~8において、「D(f)」の欄には、データD(f)の周波数スペクトルデータに用いたグローバル座標系の頭部のデータを示す。「D(f)」の欄には、データD(f)の周波数スペクトルデータに用いたグローバル座標系の頭部のデータを示す。「評価結果」の欄には、ОK又はGoodの評価結果を示す。
 例えば、No.1は、データD(f)をY軸方向の被験者の頭部の加速度の周波数スペクトルデータとし、データD(f)をZ軸方向の被験者の頭部の加速度の周波数スペクトルデータとした場合となる。No.1の評価結果は、OKであった。
 表1に示す結果から次の事が言える。制御部27は、グローバル座標系のX軸方向、Y軸方向及びZ軸方向のそれぞれにおけるユーザの頭部の加速度、並びに、グローバル座標系のピッチ方向、ロール方向及びヨー方向のそれぞれにおけるユーザの頭部の角速度のうちの何れか2つの周波数スペクトルデータをデータD(f)及びデータD(f)としてよい。この場合、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値以上である場合、移動体の上半身の姿勢が直立姿勢であると判定する。一方、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値を下回る場合、移動体の上半身の姿勢が前傾姿勢であると判定する。制御部27は、表1のNo.1からNo.8のデータD(f)及びデータD(f)の組み合わせによって移動体の上半身の姿勢の状態を判定してもよいし、後述の表4のNo.1からNo.15の組み合わせによって移動体の上半身の姿勢の状態を判定してもよい。
 <組み合わせ:頭部及び足部>
 制御部27は、例えばユーザがセンサ機器10A及びセンサ機器10Dを装着する場合、グローバル座標系のユーザの頭部及び足部のデータのうちの何れか2つの周波数スペクトルデータを、データD(f)及びデータD(f)としてよい。制御部27は、ユーザの頭部及び足部に関するデータD(f)に対するデータD(f)の振幅比|H(f)|によって、上半身が直立姿勢であるか又は前傾姿勢であるかを判定することができる。これについて実験結果を参照して説明する。
 <<歩行実験>>
 表2は、被験者の足首及び頭部のデータにおいてデータD(f)及びデータD(f)を組み合わせた場合の実験結果を示す表である。この実験データは、図7と同じく、7人の被験者から得られた。発明者らは、No.1からNo.11の組み合わせによるデータD(f)に対するデータD(f)の振幅比|H(f)|によって、被験者の上半身が直立姿勢であるか又は前傾姿勢であるかを判定可能であるか評価した。発明者らは、表1に示す評価結果と同じように、ОK又はGoodを付与した。
Figure JPOXMLDOC01-appb-T000002
 表2の見方を説明する。表2のNo.1~11において、「D(f)」の欄には、データD(f)の周波数スペクトルデータに用いたグローバル座標系の足首のデータを示す。「D(f)」の欄には、データD(f)の周波数スペクトルデータに用いたグローバル座標系の頭部のデータを示す。「評価結果」の欄には、ОK又はGoodの評価結果を示す。
 例えば、No.1は、データD(f)をY軸方向の被験者の足首の加速度の周波数スペクトルデータとし、データD(f)をY軸方向の被験者の頭部の加速度の周波数スペクトルデータとした場合である。No.1の評価結果は、OKであった。
 表2に示す結果から次の事が言える。制御部27は、グローバル座標系のX軸方向、Y軸方向及びZ軸方向のそれぞれにおけるユーザの頭部及び足部の加速度のデータ、並びに、グローバル座標系のピッチ方向、ロール方向及びヨー方向のそれぞれにおけるユーザの頭部及び足部の角速度のデータのうちの何れか2つの周波数スペクトルデータをデータD(f)及びデータD(f)としてよい。この場合、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値以上である場合、移動体の上半身の姿勢が直立姿勢であると判定する。一方、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値を下回る場合、移動体の上半身の姿勢が前傾姿勢であると判定する。制御部27は、表2のNo.1からNo.11のデータD(f)及びデータD(f)の組み合わせによって移動体の上半身の姿勢の状態を判定してもよい。
 <組み合わせ:頭部及び腰部>
 制御部27は、例えばユーザがセンサ機器10A及びセンサ機器10Cを装着する場合、グローバル座標系のユーザの頭部及び腰部のデータのうちの何れか2つの周波数スペクトルデータを、データD(f)及びデータD(f)としてよい。制御部27は、ユーザの頭部及び腰部に関するデータD(f)に対するデータD(f)の振幅比|H(f)|によって、上半身が直立姿勢であるか又は前傾姿勢であるかを判定することができる。これについて実験結果を参照して説明する。
 <<加振実験>>
 発明者らは、17人の被験者に対して加振実験を行った。17人の被験者のうち、15人が男性であり、2人が女性であった。図8に示すように、被験者が振動プレート上に立つことにより、被験者に振動が与えられた。図8には、振動プレートを用いた加振実験における被験者の姿勢を示す。振動プレートには、3Dバランスブレード(DOCTOR AIR製)が用いられた。
 加振実験では、4つの加振条件における被験者の頭部及び腰部のデータが取得された。4つの加振条件は、2つの振動モード及び2つの姿勢の組み合わせからなる。
 4つの加振条件における2つの振動モードは、強モード及び弱モードである。弱モードの振動は、6.5[Hz]である。強モードの振動は、8.5[Hz]である。
 4つの加振条件における2つの姿勢は、図8に示すような直立姿勢及び前傾姿勢である。被験者は、直立姿勢及び前傾姿勢のそれぞれで振動プレートの上に立った。直立姿勢では、被験者は、腕を側部に位置させた。前傾姿勢では、被験者は、腕を前方に位置させた。直立姿勢及び前傾姿勢の両方において、被験者は、脚をしっかり伸ばした状態にした。また、直立姿勢及び前傾姿勢の両方において、被験者の目線は、正面に向けられた。
 振動プレートを振動させる時間すなわち被験者に振動を加える加振時間は、20秒間とした。また、1つの加振条件は、3回繰り返えされた。つまり、4つの加振条件を3回繰り返すことにより、全試行回数は、12回となった。
 図9及び図10に、加振実験におけるデータD(f)に対するデータD(f)の位相及び振幅比の実験データを示す。図9及び図10において、データD(f)は、グローバル座標系のZ軸方向の腰部の加速度の周波数スペクトルデータである。データD(f)は、グローバル座標系のX軸方向の頭部の加速度の周波数スペクトルデータである。図9及び図10に示すグラフの横軸及び縦軸は、それぞれ、図7に示すグラフの横軸及び縦軸と同じである。
 図9において、実線は、17人の被験者が直立姿勢であり、さらに振動モードが弱モードであるときに得られたデータの平均値である。図9には、17人の被験者が直立姿勢であり、さらに振動モードが弱モードであるときに得られたデータの標準偏差を示す。
 図9において、破線は、17人の被験者が前傾姿勢であり、さらに振動モードが強モードであるときに得られたデータの平均値である。図9には、17人の被験者が前傾姿勢であり、さらに振動モードが強モードであるときに得られたデータの標準偏差を示す。
 図10において、実線は、17人の被験者が直立姿勢であり、さらに振動モードが強モードであるときに得られたデータの平均値である。図10には、17人の被験者が直立姿勢であり、さらに振動モードが強モードであるときに得られたデータの標準偏差を示す。
 図10において、破線は、17人の被験者が前傾姿勢であり、さらに振動モードが弱モードであるときに得られたデータの平均値である。図10には、17人の被験者が前傾姿勢であり、さらに振動モードが弱モードであるときに得られたデータの標準偏差を示す。
 図9及び図10の下部に示す振幅比のグラフにおいて、前傾姿勢であるときの振幅比は、直立姿勢であるときの振幅比よりも大きくなる。この理由は、人間が前傾姿勢である場合、足部から身体に伝達する振動が、人間が直立姿勢である場合よりも、X軸方向の振動成分として頭部に伝達しやすくなるためである。つまり、前傾姿勢であるときのデータD(f)に対するデータD(f)の振幅比が、直立姿勢であるときのデータD(f)に対するデータD(f)の振幅比よりも大きくなるためである。
 図9の下部に示す振幅比のグラフから、6.5[Hz]以上の周波数領域では、弱モードで直立姿勢であるときの振幅比と、強モードで前傾姿勢であるときの振幅比とを有意に分別可能であることが分かる。発明者らは、弱モードの直立姿勢と強モードの前傾姿勢とが分別可能になる周波数6.5[Hz]が人間の人体構造並びにデータD(f)及びデータD(f)に用いられる人間の身体部位に依拠するとの知見を得た。
 図10の下部に示す振幅比のグラフから、8.5[Hz]以上の周波数領域では、強モードで直立姿勢であるときの振幅比と、弱モードで前傾姿勢であるときの振幅比とを有意に分別可能であることが分かる。発明者らは、強モードの直立姿勢と弱モードの前傾姿勢とが分別可能になる周波数8.5[Hz]が人間の人体構造並びにデータD(f)及びデータD(f)に用いられる人間の身体部位に依拠するとの知見を得た。
 表3は、加振実験における頭部及び腰部の実験結果をまとめた表である。表3では、データD(f)をグローバル座標系の被験者の腰部の加速度及び角速度の何れかの周波数スペクトルデータとした。データD(f)をグローバル座標系の被験者の頭部の加速度及び角速度の何れかの周波数スペクトルデータとした。No.1からNo.36に示すデータD(f)及びデータD(f)の組み合わせを評価した。
 表3には、ケースAにおいて、17人の被験者うちで直立姿勢であるときの振幅比と強モードで前傾姿勢であるときの振幅比とを有意に分別可能できた人数を示す。ケースAは、図9に示すような弱モードで直立姿勢であるときの振幅比と強モードで前傾姿勢であるときの振幅比とを比較したケースである。
 表3には、ケースBにおいて、17人の被験者うちで直立姿勢であるときの振幅比と強モードで前傾姿勢であるときの振幅比とを有意に分別可能できた人数を示す。ケースBは、図10に示すような強モードで直立姿勢であるときの振幅比と、弱モードで前傾姿勢であるときの振幅比とを比較したケースである。
Figure JPOXMLDOC01-appb-T000003
 表3の見方を説明する。表3のNo.1~36において、「D(f)」の欄には、データD(f)の周波数スペクトルデータに用いたグローバル座標系の腰部のデータを示す。「D(f)」の欄には、データD(f)の周波数スペクトルデータに用いたグローバル座標系の頭部のデータを示す。「分別可能な人数(ケースA)」の欄には、ケースAにおいて、17人の被験者のうちで、直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを有意に分別できた人数を示す。「P<0.05(ケースA)」の欄には、ケースAにおいて、t検定によって直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを2群比較したときにP値が0.05未満になったものすなわち有意差があるものを「##」で示す。「分別可能な人数(ケースB)」の欄には、ケースBにおいて、17人の被験者のうちで、直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを有意に分別できた人数を示す。「P<0.05(ケースB)」の欄には、ケースBにおいて、t検定によって直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを2群比較したときにP値が0.05未満になったものすなわち有意差があるものを「##」で示す。ケースA及びケースBにおけるt検定には、17人の被験者全員のデータを用いた。
 例えば、No.1は、データD(f)をZ軸方向の被験者の腰部の加速度の周波数スペクトルデータとし、データD(f)をZ軸方向の被験者の頭部の加速度の周波数スペクトルデータとした場合となる。ケースAにおいて、17人の被験者のうちの11人で、直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを有意に分別できた。ケースBにおいて、17人の被験者のうちの12で、直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを有意に分別できた。ケースA及びケースBの両方において、有意差が出た。
 図11に、加振実験におけるケースAの箱ひげ図を示す。図11では、データD(f)は、ロール方向の被験者の腰部の角速度の周波数スペクトルデータである。データD(f)は、X軸方向の被験者の頭部の加速度の周波数スペクトルデータである。
 図11の左側には、周波数が6.92[Hz]であるときの17人の被験者全員による箱ひげ図を示す。図11の右側には、周波数が6.87[Hz]であるときの一人の被験者による箱ひげ図を示す。図11の結果から、周波数が7[Hz]程度と低い場合であっても、直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを有意可能であることが分かる。
 図9から図11及び表3の結果から次の事が言える。制御部27は、グローバル座標系のX軸方向、Y軸方向及びZ軸方向のそれぞれにおけるユーザの頭部及び腰部の加速度のデータ、並びに、グローバル座標系のピッチ方向、ロール方向及びヨー方向のそれぞれにおけるユーザの頭部及び腰部の角速度のデータのうちの何れか2つの周波数スペクトルデータをデータD(f)及びデータD(f)としてよい。この場合、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値以上である場合、移動体の上半身の姿勢が直立姿勢であると判定する。一方、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値を下回る場合、移動体の上半身の姿勢が前傾姿勢であると判定する。制御部27は、表3のNo.1からNo.36のデータD(f)及びデータD(f)の組み合わせによって移動体の上半身の姿勢の状態を判定してもよい。
 <<加振実験:頭部>>
 表4は、加振実験における頭部の実験結果をまとめた表である。表4では、データD(f)及びデータD(f)をグローバル座標系の被験者の頭部の加速度及び角速度の何れかの周波数スペクトルデータとした。No.1からNo.15に示すデータD(f)及びデータD(f)の組み合わせを評価した。
Figure JPOXMLDOC01-appb-T000004
 表4の見方を説明する。表4のNo.1~15において、「D(f)」の欄には、データD(f)の周波数スペクトルデータに用いたグローバル座標系の頭部のデータを示す。「D(f)」の欄には、データD(f)の周波数スペクトルデータに用いたグローバル座標系の頭部のデータを示す。「分別可能な人数(ケースA)」、「P<0.05(ケースA)」「分別可能な人数(ケースB)」及び「P<0.05(ケースB)」のそれぞれの欄に示す内容は、表3と同じである。
 例えば、No.1は、データD(f)をZ軸方向の被験者の頭部の加速度の周波数スペクトルデータとし、データD(f)をX軸方向の被験者の頭部の加速度の周波数スペクトルデータとした場合となる。このデータD(f)及びデータD(f)の組み合わせは、図7に示すデータD(f)及びデータD(f)を入れ替えた組み合わせと同じである。ケースAにおいて、17人の被験者のうちの15人で、直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを有意に分別できた。ケースBにおいて、17人の被験者のうちの15人で、直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを有意に分別できた。ケースA及びケースBの両方において、有意差が出た。
 図11に、加振実験におけるケースBの箱ひげ図を示す。図12では、データD(f)は、X軸方向の被験者の頭部の加速度の周波数スペクトルデータである。データD(f)は、ピッチ方向の被験者の頭部の角速度の周波数スペクトルデータである。
 図12の左側には、周波数が8.59[Hz]であるときの17人の被験者全員による箱ひげ図を示す。図12の右側には、周波数が8.63[Hz]であるときの一人の被験者による箱ひげ図を示す。この被験者は、図11の右側の箱ひげ図の被験者と同じである。図12の結果から、周波数が8.5[Hz]程度である場合、直立姿勢であるときの振幅比と前傾姿勢であるときの振幅比とを有意可能であることが分かる。
 <組み合わせ:頭部及び胸部>
 制御部27は、例えばユーザがセンサ機器10A及びセンサ機器10Bを装着する場合、グローバル座標系のユーザの頭部及び胸部のデータのうちの何れか2つの周波数スペクトルデータを、データD(f)及びデータD(f)としてよい。胸部と腰部とは、胴体に含まれる。胸部と腰部とが胴体に含まれることにより、胸部の加速度及び角速度の周波数スペクトルデータは、それぞれ、腰部の加速度及び角速度の周波数スペクトルデータと類似の挙動を示す。胸部のデータが腰部のデータと類似の挙動を示すことにより、図8から図11及び表3を参照して上述した加振実験の結果から、腰部のデータの代わりに胸部のデータを用いても、上半身が直立姿勢であるか又は前傾姿勢であるかを判定可能であることが理解されよう。
 つまり、図8から図11及び表3を参照して上述した加振実験の頭部及び腰部の結果から次の事が言える。制御部27は、グローバル座標系のX軸方向、Y軸方向及びZ軸方向のそれぞれにおけるユーザの頭部及び胸部の加速度のデータ、並びに、グローバル座標系のピッチ方向、ロール方向及びヨー方向のそれぞれにおけるユーザの頭部及び胸部の角速度のデータのうちの何れか2つの周波数スペクトルデータをデータD(f)及びデータD(f)としてよい。この場合、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値以上である場合、移動体の上半身の姿勢が直立姿勢であると判定する。一方、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値を下回る場合、移動体の上半身の姿勢が前傾姿勢であると判定する。
 <報知処理>
 制御部27は、ユーザの上半身の姿勢が直立姿勢であるか又は前傾姿勢であるかを判定すると、姿勢の状態の判定結果をユーザに報知するための報知処理を実行してよい。
 報知処理の一例として、制御部27は、ユーザの上半身の姿勢が前傾姿勢であると判定した場合、「上半身の姿勢が前傾姿勢です」との音声を出力部24のスピーカに出力させてよい。制御部27は、ユーザの上半身の姿勢が直立姿勢であると判定した場合、「上半身の姿勢が直立姿勢です」との音声を出力部24のスピーカに出力させてよい。
 報知処理の他の例として、制御部27は、ユーザの上半身の姿勢が前傾姿勢であると判定した場合、振動部25を第1振動パターンで振動させてよい。制御部27は、ユーザの上半身の姿勢が直立姿勢であると判定した場合、振動部25を第1振動パターンとは異なる第2振動パターンで振動させてよい。
 報知処理のさらに他の例として、制御部27は、ユーザの上半身の姿勢が前傾姿勢であると判定した場合、前傾姿勢を示す信号を、センサ機器10Aに通信部21によって送信してもよい。制御部27は、ユーザの上半身の姿勢が直立姿勢であると判定した場合、直立姿勢を示す信号を、センサ機器10Aに通信部21によって送信してもよい。センサ機器10Aでは、制御部16は、電子機器20から前傾姿勢を示す信号を通信部11によって受信した場合、「上半身の姿勢が前傾姿勢です」との音声を出力部14のスピーカに出力させてよい。制御部16は、電子機器20から直立姿勢を示す信号を通信部11によって受信した場合、「上半身の姿勢が直立姿勢です」との音声を出力部14のスピーカに出力させてよい。
 (電子機器の動作)
 図13は、図1に示す電子機器20が実行する判定処理の流れを示すフローチャートである。例えば、ユーザが判定処理の実行を指示する入力を入力部22に入力すると、制御部27は、ステップS1の処理を開始する。
 制御部27は、判定処理の実行を指示する入力を、入力部22によって受け付ける(ステップS1)。制御部27は、データ検出の開始を指示する信号をセンサ機器10に通信部21によって送信する(ステップS2)。
 制御部27は、センサ機器10から、センサ機器10が検出したデータを通信部21によって受信する(ステップS3)。ステップS3の処理で受信したデータは、ローカル座標系のデータである。制御部27は、ステップS3の処理で受信したローカル座標系のデータをグローバル座標系のデータに変換する(ステップS4)。
 制御部27は、ステップS4の処理で変換したグローバル座標系の所定時間内の時系列データに対してフーリエ変換を実行する(ステップS5)。制御部27は、グローバル座標系の時系列データに対してフーリエ変換を実行することにより、グローバル座標系のユーザの身体部位の周波数スペクトルデータを取得する。
 制御部27は、グローバル座標系のユーザの身体部位の加速度及び角速度のデータのうちの何れか2つの周波数スペクトルデータをデータD(f)及びD(f)とする。制御部27は、データD(f)に対するデータD(f)の振幅比|H(f)|を算出する(ステップS6)。
 制御部27は、所定周波数以上の周波数領域において、振幅比|H(f)|が所定値以上であるか否かを判定する(ステップS7)。制御部27は、所定周波数以上の周波数領域において振幅比|H(f)|が所定値以上であると判定した場合(ステップS7:YES)、ユーザの上半身の姿勢が直立姿勢であると判定する(ステップS8)。一方、制御部27は、所定周波数以上の周波数領域において振幅比|H(f)|が所定値を下回ると判定した場合(ステップS7:NO)、ユーザの上半身の姿勢が前傾姿勢であると判定する(ステップS9)。
 制御部27は、ステップS8又はステップS9の判定結果を、ユーザに報知するための報知処理を実行する(ステップS10)。
 ステップS10の処理後、制御部27は、判定処理を終了する。ただし、制御部27は、例えば設定時間が経過すると、判定処理を再び実行してもよい。設定時間は、ユーザによって入力部22から予め入力されてもよいし、適宜設定されてもよい。再度行する判定処理では、制御部27は、ステップS3の処理から開始してよい。制御部27は、判定処理の終了を指示する入力を入力部22から受け付けるまで、設定時間が経過する毎に判定処理を繰り返し実行してよい。判定処理の終了を指示する入力は、例えば、ユーザによって入力部22に入力される。ユーザは、例えば、歩行を終了すると、判定処理の終了を指示する入力を入力部22から入力する。
 このように本実施形態に係る電子機器20では、制御部27は、ユーザが二足歩行している時の、グローバル座標系の各方向のそれぞれにおけるユーザの身体部位の加速度及び角速度の何れか2つのデータの振幅比によって、ユーザの上半身の姿勢の状態を判定する。つまり、制御部27は、ユーザの身体に振動が伝達している時のグローバル座標系のユーザの身体部位の加速度及び角速度の何れか2つのデータをD(f)及びD(f)とし、D(f)に対するD(f)の振幅比|H(f)|によってユーザの上半身の姿勢の状態を判定することができる。ユーザの身体部位の加速度及び角速度のデータは、当該身体部位に装着されたセンサ機器10によって取得することができる。このような構成により、本実施形態では、カメラ等が配置された場所をユーザが歩行しなくても、ユーザの姿勢の状態を判定することができる。
 さらに、本実施形態では、グローバル座標系のデータを用いることにより、ユーザの姿勢の状態の判定においてセンサ機器10の位置を基準とするローカル座標系の影響を小さくすることができる。センサ機器10の位置を基準とするローカル座標系の影響を小さくすることにより、ユーザの姿勢の状態の判定においてセンサ機器10の個人による装着時のずれの影響を小さくすることができる。また、センサ機器10の位置を基準とするローカル座標系の影響を小さくすることにより、センサ機器10の初期姿勢を検出しなくてもよくなる。
 また、本実施形態では、ユーザが二足歩行している時の、すなわち、ユーザの足部からユーザの身体に振動が伝達している時の、ユーザの身体部位のデータによって、歩行中のユーザの上半身の姿勢の状態を判定することができる。つまり、本実施形態では、D(f)に対するD(f)の振幅比|H(f)|によってユーザの上半身の姿勢の状態を判定することができる。このような構成により、本実施形態では、ユーザの歩行周期を厳密に検出しなくても、歩行中のユーザの上半身の姿勢の状態を判定することができる。
 また、本実施形態では、制御部27は、ユーザが歩行している時の、X軸方向、Y軸方向及びZ軸方向のユーザの頭部の加速度並びにピッチ方向、ロール方向及びヨー方向におけるユーザの頭部の角速度のうちの何れか2つのデータの振幅比に基づいてユーザの上半身の姿勢の状態を判定することができる。つまり、本実施形態では、ユーザがセンサ機器10Aのみを装着する場合であっても、ユーザの上半身の姿勢の状態を判定することができる。このような構成により、ユーザは、センサ機器10Aのみを装着すればよくなる。したがって、ユーザの利便性を向上させることができる。
 よって、本実施形態によれば、移動体の姿勢の状態を評価するための技術を改善することができる。
 一実施形態において、(1)情報処理装置は、
 移動体の身体に振動が伝達している時の、前記移動体の前後方向、左右方向及び上下方向のそれぞれにおける前記移動体の頭部の加速度並びに前記移動体のピッチ方向、ロール方向及びヨー方向のそれぞれにおける前記移動体の頭部の角速度のうちの何れか2つのデータの振幅比に基づいて前記移動体の上半身の姿勢の状態を判定する制御部を備える。
 (2)上記(1)の情報処理装置では、
 前記振動は、前記移動体の足部から頭部に伝達されてもよい。
 (3)上記(1)又は(2)の情報処理装置では、
 前記何れか2つのデータは、前記移動体の前後方向における前記移動体の頭部の加速度のデータと、前記移動体の上下方向における前記移動体の頭部の加速度のデータとであってもよい。
 (4)上記(1)又は(2)の情報処理装置では、
 前記何れか2つのデータは、前記移動体の前後方向における前記移動体の頭部の加速度のデータと、前記移動体のロール方向における前記移動体の頭部の角速度のデータとであってもよい。
 (5)上記(1)又は(2)の情報処理装置では、
 前記何れか2つのデータは、前記移動体の上下方向における前記移動体の頭部の加速度のデータと、前記移動体のヨー方向における前記移動体の頭部の角速度のデータとであってもよい。
 (6)上記(1)から(5)までの何れか1つの情報処理装置では、
 前記制御部は、所定周波数以上の周波数領域における前記振幅比に基づいて、前記移動体の上半身が前傾姿勢であるか又は直立姿勢であるかを判定してもよい。
 一実施形態において、(7)情報処理方法は、
 移動体の身体に振動が伝達している時の、前記移動体の前後方向、左右方向及び上下方向のそれぞれにおける前記移動体の頭部の加速度並びに前記移動体のピッチ方向、ロール方向及びヨー方向のそれぞれにおける前記移動体の頭部の角速度のうちの何れか2つのデータの振幅比に基づいて前記移動体の上半身の姿勢の状態を判定することを含む。
 本開示を諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。したがって、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各機能部に含まれる機能等は論理的に矛盾しないように再配置可能である。複数の機能部等は、1つに組み合わせられたり、分割されたりしてよい。上述した本開示に係る各実施形態は、それぞれ説明した各実施形態に忠実に実施することに限定されるものではなく、適宜、各特徴を組み合わせたり、一部を省略したりして実施され得る。つまり、本開示の内容は、当業者であれば本開示に基づき種々の変形及び修正を行うことができる。したがって、これらの変形及び修正は本開示の範囲に含まれる。例えば、各実施形態において、各機能部、各手段又は各ステップ等は論理的に矛盾しないように他の実施形態に追加し、若しくは、他の実施形態の各機能部、各手段又は各ステップ等と置き換えることが可能である。また、各実施形態において、複数の各機能部、各手段又は各ステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。また、上述した本開示の各実施形態は、それぞれ説明した各実施形態に忠実に実施することに限定されるものではなく、適宜、各特徴を組み合わせたり、一部を省略したりして実施することもできる。
 例えば、上述した実施形態では、制御部27は、ユーザの足部から頭部に振動が伝達している時のグローバル座標系のユーザの身体部位の何れか2つのデータをD(f)及びD(f)とし、D(f)に対するD(f)の振幅比|H(f)|によってユーザの上半身の姿勢の状態を判定するものとして説明した。ただし、制御部27は、移動体の身体に振動が伝達している時のグローバル座標系の移動体の身体部位の何れか2つのデータをD(f)及びD(f)とすれば、D(f)に対するD(f)の振幅比|H(f)|によって、任意の時の移動体の上半身の姿勢の状態を判定することができる。
 例えば、上述した実施形態では、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値以上である場合、移動体の上半身の姿勢が直立姿勢であると判定するものとして説明した。また、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値を下回る場合、移動体の上半身の姿勢が前傾姿勢であると判定するものとして説明した。ただし、データD(f)及びデータD(f)の組み合わせによっては、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値以上である場合、移動体の上半身の姿勢が前傾姿勢であると判定してもよい。この場合、制御部27は、所定周波数以上の周波数領域において、データD(f)に対するデータD(f)の振幅比|H(f)|が所定値を下回る場合、移動体の上半身の姿勢が直立姿勢であると判定してもよい。
 例えば、上述した実施形態では、電子機器20が情報処理装置としてユーザの上半身の姿勢の状態を判定するものとして説明した。ただし、ユーザの上半身の姿勢の状態を判定する情報処理装置は、電子機器20に限定されない。他の例として、センサ機器10が情報処理装置としてユーザの上半身の姿勢の状態を判定してもよい。さらに他の例として、サーバ装置が情報処理装置としてユーザの上半身の姿勢の状態を判定してもよい。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1振動パターンは、第2振動パターンと識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 1 情報処理システム
 10,10A,10B,10C,10D センサ機器
 11 通信部
 12 センサ部
 13 報知部
 14 出力部
 15 記憶部
 16 制御部
 20 電子機器
 21 通信部
 22 入力部
 23 報知部
 24 出力部
 25 振動部
 26 記憶部
 27 制御部

Claims (7)

  1.  移動体の身体に振動が伝達している時の、前記移動体の前後方向、左右方向及び上下方向のそれぞれにおける前記移動体の頭部の加速度並びに前記移動体のピッチ方向、ロール方向及びヨー方向のそれぞれにおける前記移動体の頭部の角速度のうちの何れか2つのデータの振幅比に基づいて前記移動体の上半身の姿勢の状態を判定する制御部を備える、
     情報処理装置。
  2.  前記振動は、前記移動体の足部から頭部に伝達される、請求項1に記載の情報処理装置。
  3.  前記何れか2つのデータは、前記移動体の前後方向における前記移動体の頭部の加速度のデータと、前記移動体の上下方向における前記移動体の頭部の加速度のデータとである、請求項1又は2に記載の情報処理装置。
  4.  前記何れか2つのデータは、前記移動体の前後方向における前記移動体の頭部の加速度のデータと、前記移動体のロール方向における前記移動体の頭部の角速度のデータとである、請求項1又は2に記載の情報処理装置。
  5.  前記何れか2つのデータは、前記移動体の上下方向における前記移動体の頭部の加速度のデータと、前記移動体のヨー方向における前記移動体の頭部の角速度のデータとである、請求項1又は2に記載の情報処理装置。
  6.  前記制御部は、所定周波数以上の周波数領域における前記振幅比に基づいて、前記移動体の上半身が前傾姿勢であるか又は直立姿勢であるかを判定する、請求項1から5までの何れか一項に記載の情報処理装置。
  7.  移動体の身体に振動が伝達している時の、前記移動体の前後方向、左右方向及び上下方向のそれぞれにおける前記移動体の頭部の加速度並びに前記移動体のピッチ方向、ロール方向及びヨー方向のそれぞれにおける前記移動体の頭部の角速度のうちの何れか2つのデータの振幅比に基づいて前記移動体の上半身の姿勢の状態を判定することを含む、情報処理方法。
PCT/JP2023/044523 2022-12-22 2023-12-12 情報処理装置及び情報処理方法 WO2024135475A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022205927 2022-12-22
JP2022-205927 2022-12-22

Publications (1)

Publication Number Publication Date
WO2024135475A1 true WO2024135475A1 (ja) 2024-06-27

Family

ID=91588504

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/044523 WO2024135475A1 (ja) 2022-12-22 2023-12-12 情報処理装置及び情報処理方法

Country Status (1)

Country Link
WO (1) WO2024135475A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050245988A1 (en) * 2004-04-14 2005-11-03 Medtronic, Inc. Collecting posture and activity information to evaluate therapy
JP2015062654A (ja) * 2013-08-28 2015-04-09 日本電信電話株式会社 歩容推定装置とそのプログラム、転倒危険度算出装置とそのプログラム
US20150157242A1 (en) * 2013-12-05 2015-06-11 Cyberonics, Inc. Motion-based seizure detection systems and methods
JP2017023689A (ja) * 2015-07-24 2017-02-02 株式会社東芝 モニタリングシステム、モニタ方法およびプログラム
JP2019528105A (ja) * 2016-08-09 2019-10-10 ビフレクス インコーポレイテッド 運動認識方法および装置
WO2020202543A1 (ja) * 2019-04-05 2020-10-08 日本電気株式会社 歩行周期判定システム、歩行周期判定方法、およびプログラム記録媒体
WO2021157026A1 (ja) * 2020-02-06 2021-08-12 株式会社竹中土木 判定装置および姿勢制御装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050245988A1 (en) * 2004-04-14 2005-11-03 Medtronic, Inc. Collecting posture and activity information to evaluate therapy
JP2015062654A (ja) * 2013-08-28 2015-04-09 日本電信電話株式会社 歩容推定装置とそのプログラム、転倒危険度算出装置とそのプログラム
US20150157242A1 (en) * 2013-12-05 2015-06-11 Cyberonics, Inc. Motion-based seizure detection systems and methods
JP2017023689A (ja) * 2015-07-24 2017-02-02 株式会社東芝 モニタリングシステム、モニタ方法およびプログラム
JP2019528105A (ja) * 2016-08-09 2019-10-10 ビフレクス インコーポレイテッド 運動認識方法および装置
WO2020202543A1 (ja) * 2019-04-05 2020-10-08 日本電気株式会社 歩行周期判定システム、歩行周期判定方法、およびプログラム記録媒体
WO2021157026A1 (ja) * 2020-02-06 2021-08-12 株式会社竹中土木 判定装置および姿勢制御装置

Similar Documents

Publication Publication Date Title
CN113874816B (zh) 人工现实系统中身体姿态跟踪的磁传感器采样频率的同步
US9918663B2 (en) Feedback wearable
US10845845B2 (en) Pressure sensing to identify fitness and comfort of virtual reality headset
JP2021100257A (ja) 調整機構を備えたヘッドマウントディスプレイ
US10470971B2 (en) Garment with remote controlled vibration array
US11662692B2 (en) Electronic devices and systems
US20140135960A1 (en) Wearable device, display device, and system to provide exercise service and methods thereof
WO2018085806A1 (en) System and method for activity monitoring eyewear and head apparel
CN105094310A (zh) 虚拟现实驾乘系统中减少晕车的方法和系统
KR20170041537A (ko) 착용 및 부착형 웨어러블 디바이스 및 이를 이용한 운동 서비스 시스템
JP2018134274A (ja) 情報処理方法、情報処理装置及びプログラム
WO2024135475A1 (ja) 情報処理装置及び情報処理方法
JP6342440B2 (ja) 眼球運動検出装置、眼球運動検出方法、およびアイウエア
JP2022000697A (ja) 表示装置、表示装置の制御方法
US11599189B2 (en) Head orientation tracking
JP2018147086A (ja) 情報処理方法、プログラム、仮想空間配信システム及び装置
JP2018205429A (ja) 表示制御装置
US11137600B2 (en) Display device, display control method, and display system
TW202144967A (zh) 基於步態分析的不平衡預警方法及穿戴裝置
US10661163B2 (en) Video game with haptic signal that is disabled based on losing contact with a surface
KR101580317B1 (ko) 스마트폰을 이용한 자세 인식 장치
US11126267B2 (en) Tactile feedback device and operation method thereof
CN113712536B (zh) 基于步态分析的不平衡预警方法及穿戴装置
KR20150083174A (ko) 자세 감지 장치
US20180081175A1 (en) Visual field enhancement system