WO2015083429A1 - 解析装置、解析方法および記録媒体 - Google Patents

解析装置、解析方法および記録媒体 Download PDF

Info

Publication number
WO2015083429A1
WO2015083429A1 PCT/JP2014/076554 JP2014076554W WO2015083429A1 WO 2015083429 A1 WO2015083429 A1 WO 2015083429A1 JP 2014076554 W JP2014076554 W JP 2014076554W WO 2015083429 A1 WO2015083429 A1 WO 2015083429A1
Authority
WO
WIPO (PCT)
Prior art keywords
collision
contact
speed
analysis
ball
Prior art date
Application number
PCT/JP2014/076554
Other languages
English (en)
French (fr)
Inventor
英行 松永
功誠 山下
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP14868210.7A priority Critical patent/EP3078398A4/en
Priority to US15/039,097 priority patent/US10406413B2/en
Publication of WO2015083429A1 publication Critical patent/WO2015083429A1/ja
Priority to US16/522,858 priority patent/US11173362B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B60/00Details or accessories of golf clubs, bats, rackets or the like
    • A63B60/46Measurement devices associated with golf clubs, bats, rackets or the like for measuring physical parameters relating to sporting activity, e.g. baseball bats with impact indicators or bracelets for measuring the golf swing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B49/00Stringed rackets, e.g. for tennis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/02Devices characterised by the use of mechanical means
    • G01P3/12Devices characterised by the use of mechanical means by making use of a system excited by impact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2102/00Application of clubs, bats, rackets or the like to the sporting activity ; particular sports involving the use of balls and clubs, bats, rackets, or the like
    • A63B2102/02Tennis
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2102/00Application of clubs, bats, rackets or the like to the sporting activity ; particular sports involving the use of balls and clubs, bats, rackets, or the like
    • A63B2102/04Badminton
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2102/00Application of clubs, bats, rackets or the like to the sporting activity ; particular sports involving the use of balls and clubs, bats, rackets, or the like
    • A63B2102/16Table tennis
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2102/00Application of clubs, bats, rackets or the like to the sporting activity ; particular sports involving the use of balls and clubs, bats, rackets, or the like
    • A63B2102/18Baseball, rounders or similar games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2102/00Application of clubs, bats, rackets or the like to the sporting activity ; particular sports involving the use of balls and clubs, bats, rackets, or the like
    • A63B2102/32Golf
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/30Speed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/40Acceleration
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/50Force related parameters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/803Motion sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/833Sensors arranged on the exercise apparatus or sports implement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/89Field sensors, e.g. radar systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2225/00Miscellaneous features of sport apparatus, devices or equipment
    • A63B2225/50Wireless data transmission, e.g. by radio transmitters or telemetry
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B60/00Details or accessories of golf clubs, bats, rackets or the like
    • A63B60/002Resonance frequency related characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • G06F2218/10Feature extraction by analysing the shape of a waveform, e.g. extracting parameters relating to peaks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present disclosure relates to an analysis apparatus, an analysis method, and a recording medium.
  • an expensive dedicated device such as a high-speed camera or a motion capture is required for the measurement.
  • a dedicated device is required in order to determine the amount of rotation of the ball.
  • advanced techniques are required for analysis and operation, it is difficult for the user to use them easily.
  • the present disclosure proposes a new and improved analysis device, analysis method, and recording medium that can analyze a contact phenomenon between objects with a simpler configuration.
  • the acquisition unit that acquires the vibration data indicating the vibration generated in the first object due to the contact of the second object with the first position on the first object, and the vibration data
  • a first analysis processing unit that identifies the first position by comparing the displayed vibration characteristic with a vibration characteristic defined for each position at which the second object can contact the first object;
  • An analysis device is provided that includes a second analysis processing unit that estimates the speed of the second object after the contact based on the speed of the first object and the first position.
  • the vibration data indicating the vibration generated in the first object due to the contact of the second object with the first position on the first object is acquired; and the vibration data The first position is identified by comparing the vibration characteristic indicated by the vibration characteristic defined for each position where the second object can contact the first object, and the first object
  • An analysis method is provided that includes estimating the post-contact speed of the second object based on the speed of the object and the first position.
  • a recording medium storing a program for causing a computer to realize the function of estimating the speed of the second object after the contact based on the speed of the object and the first position.
  • FIG. 1 is a diagram schematically illustrating a functional configuration of a system according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for describing an example of a process of a collision detection unit according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for describing an exemplary configuration of a physical calculation unit according to an embodiment of the present disclosure.
  • FIG. 5 is a flowchart schematically showing processing in an embodiment of the present disclosure. It is a figure which shows typically the collision phenomenon analyzed in one Embodiment of this indication. It is a figure for demonstrating calculation of the impulse in one embodiment of this indication.
  • FIG. 3 is a diagram illustrating a first example of information presentation according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating a first example of information presentation according to an embodiment of the present disclosure. It is a figure showing the 2nd example of information presentation in one embodiment of this indication. It is a figure showing the 2nd example of information presentation in one embodiment of this indication. It is a figure showing an example of hardware constitutions of a sensor device concerning an embodiment of this indication. It is a figure showing an example of hardware constitutions of an analysis device concerning an embodiment of this indication.
  • FIG. 1 is a diagram illustrating an example of a system configuration according to an embodiment of the present disclosure.
  • the system 10 includes a sensor device 100, a smartphone 200, and a server 300.
  • the sensor device 100 is mounted on a tennis racket R.
  • the sensor device 100 includes a vibration sensor, and detects vibration generated in the racket R when the ball collides with the racket R.
  • the vibration data acquired by the vibration sensor is transmitted to the smartphone 200 by wireless communication such as Bluetooth (registered trademark).
  • the sensor device 100 may include an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, etc. (for example, a nine-axis motion sensor), and may detect the acceleration, angular velocity, inclination, etc. of the racket R. Data acquired by these sensors is also transmitted to the smartphone 200 by wireless communication.
  • the racket R is a hitting tool for hitting a ball in tennis.
  • the racket R is described as an example of the hitting tool, but the example of the hitting tool is not limited thereto.
  • the present technology estimates the velocity of the ball after the collision based on the vibration when the ball collides with the hitting tool. Therefore, the present technology can be applied to any hitting tool that generates vibration due to the collision of the ball, such as a badminton racket, a table tennis racket, a golf club, or a baseball bat.
  • the vibration occurs due to the collision between the objects, the present technology can be applied even if it is not a sport.
  • the collision may be a softer contact. Therefore, it can be said that the present technology estimates the speed of the second object after the contact based on the vibration generated in the first object due to the contact of the second object with the first object.
  • the smartphone 200 receives data transmitted from the sensor device 100. Based on the received data, the smartphone 200 may execute an analysis process such as estimation of a speed after a ball collision as described later. In this case, the smartphone 200 may output the analysis result to the user and upload it to the server 300. Alternatively, the smartphone 200 may transfer the received data to the server 300. In this case, the smartphone 200 may receive the result of the analysis process executed by the server 300 and output it to the user. Note that the smartphone 200 may be replaced by another device having a communication function, an analysis function, and an output function, such as a tablet terminal or various personal computers.
  • the server 300 communicates with the smartphone 200 via the network, and receives the analysis result of the data acquired by the sensor device 100 or the data itself.
  • the server 300 executes an analysis process such as estimation of a speed after a ball collision as described later.
  • the server 300 stores the analysis result uploaded from the smartphone 200 or the analysis result calculated by itself, and transmits it to a terminal device used by a user such as the smartphone 200 as necessary.
  • the server 300 may transmit the analysis result to a terminal device used by a user other than the user who provided the analysis result or data, and may allow the analysis result to be shared between users.
  • FIG. 2 is a diagram schematically illustrating a functional configuration of a system according to an embodiment of the present disclosure.
  • the system 40 includes an input unit 410, a processing unit 420, and an output unit 430 as functional configurations.
  • the functional configuration of the system 40 may be realized by being distributed among a plurality of devices, for example.
  • the input unit 410 may be realized by the sensor device 100
  • the processing unit 420 may be the smartphone 200 or the server 300
  • the output unit 430 may be realized by the smartphone 200.
  • the functional configuration of the system 40 may be realized by being integrated into a single device.
  • the sensor device 100 may include a processor, a display, a speaker, and the like, and all of the input unit 410, the processing unit 420, and the output unit 430 may be realized.
  • the smartphone 200 and the server 300 may not be included in the system 10.
  • the input unit 410 may include, for example, a vibration sensor 411, a motion sensor 413, and other sensors 415.
  • the vibration sensor 411 is realized by, for example, a piezoelectric element, a strain gauge, an acceleration sensor, or the like, and outputs vibration data in which vibration generated in the racket R is detected.
  • the motion sensor 413 is realized by, for example, a 3-axis acceleration sensor, a 3-axis angular velocity sensor, a 3-axis geomagnetic sensor, or the like (a sensor including all of these is also called a 9-axis motion sensor), and the racket R (the sensor device 100 of the racket R is attached). Motion data that detects the acceleration, rotation, direction, etc. of (part) is output.
  • the other sensor 415 may include a temperature sensor, a barometric sensor, a GPS receiver, and the like.
  • the detection results of the other sensors 415 can also be used for analysis processing such as estimation of the speed after a ball collision, which will be described later.
  • the input unit 410 and the processing unit 420 are realized in the same device, the input unit 410 is in contact (collision) with the second object (ball) at the first position on the first object (racquet).
  • the acquisition unit may further acquire motion data indicating the displacement and rotation of the first object (racquet) in a section including contact (collision).
  • vibration data and motion data acquired in a device that implements the input unit 410 are processed by wired or wireless communication. It is transmitted to a device (for example, smartphone 200 or server 300) that realizes unit 420.
  • the communication device that receives vibration data and motion data in the device that implements the processing unit 420 functions as the acquisition unit.
  • the processing unit 420 can include, for example, a collision detection unit 421, a physical calculation unit 423, and an output correction unit 425.
  • the collision detection unit 421 detects a collision of the ball with the racket R based on the vibration data, and executes a process of accurately cutting out sensor data in a section where the collision has occurred.
  • the contact time between the hitting tool and the ball is often extremely short (about 5 ms in the case of tennis). Therefore, in order to estimate the state of the hitting tool before and after the collision, it is desirable that the sampling frequency of the motion sensor 413 is 200 Hz or more.
  • the collision detection unit 421 needs to detect the sensor in the section where the collision has occurred. It is desirable to cut out the data accurately.
  • FIG. 3 is a diagram for describing an example of the process of the collision detection unit according to an embodiment of the present disclosure.
  • the collision detection unit 421 detects the impact.
  • the streaming data of the vibration sensor in the subsequent predetermined length section and the streaming data of the motion sensor in the predetermined length section before and after the impact are cut out as sensor data of the section in which the collision has occurred.
  • FIG. 4 is a diagram for describing an example of a configuration of a physical calculation unit according to an embodiment of the present disclosure.
  • the physical calculation unit 423 included in the processing unit 420 includes a collision analysis unit 4231, a hit ball estimation unit 4233, and a hit ball trajectory estimation unit 4235.
  • the collision analysis unit 4231 estimates the speed, posture, and trajectory of the hitting tool in the collision section detected by the collision detection unit 421. Further, the collision analysis unit 4231 estimates the collision position of the ball on the hitting tool.
  • the hit ball estimation unit 4233 estimates the state of the hit ball immediately after the collision. More specifically, for example, the hit ball estimation unit 4233 estimates the hit ball speed, the rotation axis, the rotation amount, and the jumping direction.
  • the hit ball trajectory estimation unit 4235 estimates the trajectory of the hit ball. Further, the hit ball trajectory estimation unit 4235 may estimate the hit point of the hit ball.
  • the output correction unit 425 included in the processing unit 420 corrects the output of the physical calculation unit 423.
  • the physics computation unit 423 estimates the velocity and rotation of the ball by dynamically modeling and analyzing the collision between the racket R and the ball. In reality, however, the kinetic energy loss due to the racket or gut, The estimated value may not match the actual value due to a change in the coefficient of restitution due to the speed of the ball and a change in the moment of inertia of the racket R due to the swing. Therefore, the output correction unit 425 corrects the output of the physical calculation unit 423. If inconsistency as described above does not become a problem, the output correction unit 425 may not be provided, and the output of the physical calculation unit 423 may be provided to the output unit 430 as it is.
  • the output correction unit 425 may correct the output of the physical calculation unit 423 using a statistical method such as regression or machine learning. Further, for example, the output correction unit 425 uses other data that can be used in the collision section, such as the movement of the racket R before and after the collision, in addition to the value estimated by the physical calculation unit 423. May be corrected.
  • the output unit 430 can include, for example, a display 431, a speaker 433, and other output units 435.
  • the display 431 is various display devices such as an LCD or an organic EL display, and outputs the output of the processing unit 420 to the user as an image.
  • the speaker 433 outputs the output of the processing unit 420 to the user as sound.
  • the other output unit 435 may be, for example, a lamp such as an LED or a vibrator, and outputs the output of the processing unit 420 to the user as light emission or vibration.
  • An example of information presentation by the display 431 will be described later as an example of information output by the output unit 430.
  • FIG. 5 is a flowchart schematically illustrating processing according to an embodiment of the present disclosure. The illustrated steps are executed in the processing unit 420. Referring to FIG. 5, first, the collision detection unit 421 waits for the occurrence of a collision (S101). When a collision occurs, the collision detection unit 421 provides the sensor data of the collision section to the physical calculation unit 423, and processing in the physical calculation unit 423 is started.
  • the collision analysis unit 4231 analyzes the collision position (S103). More specifically, the collision analysis unit 4231 identifies the collision position of the ball on the racket R. For example, this process is based on vibration data detected by the sensor device 100 mounted on a portion different from the portion of the racket R where the ball collides. By comparing the characteristic and the vibration characteristic for each position where the ball of the racket R collides, it may be a process of specifying the collision position where the ball of the racket R collided. Details of such processing are described in, for example, International Publication No. 2013/069447.
  • the hit ball estimation unit 4233 performs estimation related to the hit ball after the collision.
  • the hit ball estimation unit 4233 estimates the speed of the racket R at the collision position (S105). More specifically, first, the hit ball estimation unit 4233 estimates the speed of the racket R at the time of collision at the mounting position of the sensor device 100 based on, for example, the acceleration change of the racket R detected by the motion sensor 413. Further, the hitting ball estimation unit 4233 converts the speed at the mounting position of the sensor device 100 into the speed of the racket R at the collision position based on, for example, rotation of the racket R detected by the motion sensor 413.
  • the hit ball estimation unit 4233 may calculate the attitude of the racket R at the time of and / or before and after the collision based on the acceleration, rotation, and direction of the racket R detected by the motion sensor 413, for example (S107). ).
  • the hitting ball estimation unit 4233 selects or calculates the restitution coefficient in the collision between the racket R and the ball (S109).
  • the coefficient of restitution in the collision may vary depending on the collision position of the ball.
  • the hitting ball estimation unit 4233 may calculate an effective mass of the racket R at the collision position, and calculate an apparent restitution coefficient between the racket R and the ball at the collision position based on the effective mass.
  • the hitting ball estimation unit 4233 may select one corresponding to the collision position estimated in S103 from the apparent restitution coefficient for each collision position measured in advance.
  • the hit ball estimation unit 4233 estimates the hit ball state after the collision based on the physical quantity calculated or selected in the processes so far (S111). For example, the hit ball estimation unit 4233 estimates the speed of the ball after the collision, the launch angle, the rotation amount, the axis of rotation, and the like.
  • the hitting ball estimation unit 4233 is based on the vibration characteristics of the racket defined for the collision position estimated by the collision analysis unit 4231, and the input waveform from the detected vibration data, that is, the force received by the racket R from the ball. Time changes can be restored. Thereby, the impulse given to the ball by the racket R can be calculated.
  • the hit ball trajectory estimation unit 4235 may estimate the trajectory of the hit ball after the collision (S113).
  • the collision analysis unit 4231 causes the second object (ball) to contact (collision) with respect to the vibration characteristics indicated by the vibration data and the first object (racquet). It can be said that the first analysis processing unit identifies the first position (ball collision position on the racket) by comparing the vibration characteristics defined for each possible position.
  • the hitting ball estimation unit 4233 after the contact (collision) of the second object (ball), based on the speed of the first object (racquet) and the first position (ball collision position on the racket). It can be said that this is the second analysis processing unit for estimating the speed.
  • the hitting ball trajectory estimation unit 4235 can be said to be a third analysis processing unit that estimates the trajectory after contact of the second object based on the speed after contact (collision) of the second object (ball). .
  • FIG. 6 is a diagram schematically illustrating a collision phenomenon analyzed in an embodiment of the present disclosure.
  • Mass racket R is the mass of m r
  • the ball B is m b, which is before the collision shown in (a), during a collision shown in (b), unchanged through after the collision shown in (c).
  • the racket R In the stage before the collision shown in (a), the racket R is moving toward the ball B at a speed v r , and the ball B is moving toward the racket R at a speed v b .
  • the racket R receives an impulse of ⁇ F t from the ball B, and the ball B receives an impulse of F t from the racket R.
  • the speed of the racket R changes to v ′ r and the speed of the ball B changes to v ′ b .
  • Equation 1 is a coefficient of restitution between the racket R and the ball B.
  • Equation 2 is the law of conservation of momentum, and Equation 3 is derived from the relationship between change in momentum and impulse.
  • the mass m r of the racket R and the mass m b of the ball B can be measured in advance.
  • the effective mass in the position where the ball B collided with the racket R may be used.
  • the position where the ball B collides with the racket R 1st position
  • the sensor device can further detect the displacement and rotation of the racket R at the mounting position (second position) of the sensor device.
  • the shape of the racket R based on the mounting position of the sensor device is known, the movement of the entire racket R in the three-dimensional space is reproduced, and the ball B collides with the racket R at the first position.
  • the speed of the racket R can be estimated.
  • the vibration input signal at the first position that is, The waveform of the force exerted on the racket R by the ball B can be reproduced. Since the impulse F t received by the racket R from the ball B corresponds to the time integration of this force waveform, in the present embodiment, the impulse F t is determined based on the vibration data and the inherent transfer function of the racket R. Can also be calculated. Further, as will be described later, the restitution coefficient e can also be determined based on the position where the ball B collides with the racket R.
  • Equations 1 to 3 there are three unknowns included in Equations 1 to 3 above: the velocity v ′ r after the collision of the racket R, the velocity v b before the collision of the ball B, and the velocity v ′ b after the collision of the ball B. become. Therefore, the above Equations 1 to 3 can be solved as simultaneous equations for determining these three unknowns. As a result, the velocity v ′ b after the collision of the ball B can be obtained by the following expression 4.
  • the velocity v ′ r after the collision of the racket R can be measured, for example, the velocity v b and v ′ b before and after the collision of the ball B can be obtained by solving equations 1 and 2 as simultaneous equations. Can do.
  • the speed v ′ r after the collision of the racket R is calculated from the detection value of the acceleration sensor, for example, because the time during which the collision occurs is very short (about 5 ms), so a high sampling frequency (200 Hz or more) Is required in practice, and the detection value of the sensor fluctuates greatly due to a collision, which is difficult in practice.
  • the impulse F t can be calculated as described above, the speed v ′ r after the collision of the racket R remains unknown, and the speed after the collision of the ball B v ′ b is estimated.
  • the effective mass is used instead of the mass m r of the racket R, the velocity v r of the racket before the collision is calculated with respect to the collision position, or the apparent coefficient at the collision position as the restitution coefficient e. by or using the coefficient of restitution e a, it is possible to improve the accuracy of the estimation.
  • FIG. 7 is a diagram for describing calculation of impulses according to an embodiment of the present disclosure.
  • the time waveform f (t) of the input signal at the position where the ball B collides with the racket R (first position) is transmitted by a transfer function (FRF: Frequency Response Function) G (j ⁇ ).
  • F (j ⁇ ) Frequency Response Function
  • x (t) of the output signal at the sensor device mounting position (second position) is measured.
  • the impulse exerted on the racket R by the ball B is calculated by integrating this. Can do.
  • the impulse F t is obtained by the following equation 5, where t1 is the collision start time and t2 is the collision end time in the time waveform f ip (t).
  • the impulse F t can be calculated from the vibration data by back calculation using the transfer function included in the vibration characteristic defined for the first position.
  • Equation 4 Although representing the mass of the racquet R and m r, when calculating the rate of more accurately after the collision ball B, the mass m r may be expressed by the effective mass.
  • the mass of the racket R may be different from the actual mass of the racket R (for example, measured in a stationary state). More specifically, the mass of the racket R in Formula 1 to Formula 3 may be a smaller than the actual mass m r effective mass m re.
  • the effective mass m re rackets R by equation 6 below, are known to be calculated from the actual mass m r.
  • the x-axis is an axis in the width direction of the racket R
  • the y-axis is an axis in the length direction of the racket R
  • y is a distance in the y-axis direction from the center of gravity of the racket R to the collision position (first position) of the ball B
  • X is the distance in the x-axis direction from the center of gravity of the racket R to the first position
  • I x is the moment of inertia of the racket R around the x-axis
  • I y is the moment of inertia of the racket R around the y-axis.
  • x and y which are distances in the x-axis and y-axis directions from the center of gravity of the racket R to the collision position (first position), can be calculated by specifying the first position. Further, the inertia moments I x and I y may be measured for each defined collision position, or may be approximated by the following formulas 7 and 8. L is the length of the racket R, and W is the width of the racket R.
  • FIG. 8 is a diagram for describing calculation of the speed of the racket before the collision according to the embodiment of the present disclosure.
  • the speed of the racket R before the collision is calculated based on the attitude of the racket R estimated based on the motion data.
  • the calculated speed is used to estimate the speed after the collision of the ball B.
  • a racket R and a ball B are shown.
  • the racket R includes a grip RG and a head RH , and a sensor device 100 is attached to an end portion (grip end) of the grip RG .
  • the speed of the sensor device 100 was v 0 and the acceleration was a 0 .
  • the velocity V ip generated at the collision position by the rotation of the racket in the state at the time of the collision is obtained by the following expression 11 using the distance r from the grip end of the collision position.
  • the above calculation of the racket speed before the collision is generalized as follows. First, the data of motion sensors (acceleration sensor, angular velocity sensor, etc.) provided in the sensor device 100 are analyzed, and the attitude of the racket R in the section where the collision with the ball B occurs is calculated to obtain the displacement and trajectory. At this point, the displacement and locus at the mounting position of the sensor device 100 are calculated.
  • the displacement and locus at the mounting position of the sensor device 100 obtained as described above are converted into displacement at the collision position (first position) with the ball B.
  • the velocity (vector) at the collision position at the time of collision can be obtained.
  • the speed after the collision of the ball B may be estimated.
  • the rotation amount of the ball B may be estimated based on the speed direction when the racket R collides.
  • the angle of the collision surface (head R H ) of the racket R at the time of collision can also be obtained.
  • the launch angle of the ball B after the collision can also be estimated based on this angle and the speed direction of the racket R at the time of the collision.
  • the speed of the racket R as described above It is not always necessary to calculate.
  • motion data including the acceleration provided from the sensor device 100 is necessary, but other impulses F t , mass m r (or effective mass m re ), Mass m b , and restitution coefficient e (or apparent restitution coefficient e A ), motion data is not necessarily required. Therefore, depending on the conditions of collision, the estimated speed v 'b of the ball B after the collision in the present embodiment can be said to be performed on the basis of no vibration data using the motion data.
  • the coefficient of restitution is the ratio of the magnitudes of the relative velocities of the two colliding objects before and after the collision.
  • the coefficient of restitution between the racket R and the ball B is expressed as e.
  • restitution coefficient e instead of (COR coefficient of restitution), coefficient of restitution e a apparent when the racket R moves by the collision (ACOR: apparent coefficient of restitution) can be used. This is because the racket R is gripped by the user's hand at the time of collision with the actual ball B, so there is room for movement.
  • the apparent restitution coefficient e A is obtained by the following equation 13 using the restitution coefficient e, the mass m r of the racket R, and the effective mass m re of the racket R.
  • the difference between the coefficient of restitution e and the apparent coefficient of restitution e A corresponds to the difference between the mass m r and the effective mass m re of the racket R.
  • the apparent restitution coefficient e A calculated from Expression 13 using the effective mass m re of the racket R at the collision position calculated by the above Expression 6 or Expression 9 is used as the restitution coefficient e ip at the collision position. It is the method used as. Second, for each position on the racquet R that are candidates for the collision position, a way to keep measuring the coefficient of restitution e A apparent advance.
  • an apparent restitution coefficient ACOR ⁇ e A1 , e A2 ,..., E An ⁇ . Note that 1 to n are numbers given to positions on the racket R in this example.
  • the apparent restitution coefficient e A corresponding to the detected collision position is selected as the restitution coefficient e ip at the collision position.
  • the mass m r is used instead of the effective mass m re
  • the velocity v r is used instead of the velocity v rip at the collision position
  • the restitution coefficient e ip at the collision position is used.
  • the processing may be simplified by using the coefficient of restitution e instead of. That is, in the present embodiment, the calculation of the effective mass m re , the velocity v rip , and the restitution coefficient e ip can be adopted as options for improving the accuracy of estimation.
  • FIG. 9 is a diagram for describing estimation of rotation of a ball after a collision according to an embodiment of the present disclosure.
  • the racket R the ball B 1 prior to the collision
  • the ball B 2 in a collision it is shown a ball B 3 after collision.
  • the radius of the ball be r b and the mass of the ball be m b .
  • Ball B 1 before the collision is the speed v b, is rotating at an angular velocity ⁇ b.
  • Ball B3 after the collision 'is b, the angular velocity ⁇ ' velocity v is rotated at a b.
  • impulse F x in the x-axis direction in which the ball B is received from the racket R at the time of a collision is determined by equation 15 below.
  • v bx is a component of the velocity v b in the x-axis direction
  • v ′ bx is a component of the velocity v ′ b in the x-axis direction.
  • the launch angle of the ball B after the collision may be estimated based on the angle of the collision surface (head R H ) of the racket R at the time of the collision and the speed direction of the racket R at the time of the collision. It may be possible.
  • the velocity v b and v ′ b can be decomposed into the x-axis direction component and the y-axis direction component, respectively, and the impulse F x can be calculated using the above equation 15. it can.
  • the impulse F x can be obtained by the following equation 16 as in the case of the above equation 5.
  • the moment of inertia I b can be determined by the following equation 18 by using the mass m b and the radius r b.
  • Expression 19 showing the relationship between the rotational angular velocities ⁇ b and ⁇ ′ b of the ball B before and after the collision is derived.
  • the value of the impulse F x is obtained by the equation 15 or 16
  • the value of the impulse F x is substituted into the equation 19 to obtain the ball B after the collision from the rotational angular velocity ⁇ b of the ball B before the collision.
  • the rotational angular velocity of the ball B after the collision is calculated according to Equation 19.
  • ⁇ ′ b can be estimated.
  • the rotational angular velocity ⁇ b of the ball B before the collision can be specified or estimated by some method
  • Equation 18 may be replaced by appropriately using these methods depending on the shape of the ball B.
  • the trajectory of the ball B after the collision may be estimated as an extension of the processing for estimating the speed and rotation of the ball in the present embodiment.
  • the processing described above it is possible to estimate the speed of the ball B after the collision (initial speed after the collision), the launch direction, the rotation axis, and the amount of rotation.
  • the trajectory of the ball B after the collision can be estimated.
  • 10A and 10B are diagrams illustrating a first example of information presentation according to an embodiment of the present disclosure.
  • 10A and 10B the trajectory T of the collision position (first position) of the ball B on the racket R is displayed in a three-dimensional space (xyz space).
  • a point P is a position where the racket R and the ball B collide, and a trajectory T before and after the point indicates how the first position has moved before and after the collision by the swing.
  • Such display includes, for example, the collision position identification result based on the vibration data provided from the sensor device 100 and the inherent transfer function of the racket R, and the collision position as described above with reference to FIG. This is made possible by using displacement.
  • the trajectory T shown in FIGS. 10A and 10B is, for example, the speed of the racket R at the collision position (estimated not only at the time of collision, but before and after that) estimated by Expression 12 above. Displayed in the corresponding color.
  • the trajectory T is displayed in monochrome, but in another example, the trajectory T may be displayed in color.
  • the point P1 is located in the portion where the trajectory T1 is displayed in the darkest color (indicating the fast speed), and the collision of the ball B occurs in the section where the speed of the racket R is the fastest. I understand that.
  • the locus T2 is deviated from the portion displayed in the darkest color, the point P2 is located, and the collision of the ball B has occurred outside the section where the speed of the racket R is the fastest. I understand that.
  • FIGS. 11A and 11B are diagrams illustrating a second example of information presentation according to an embodiment of the present disclosure.
  • the speed of the racket R at the collision position (first position) of the ball B is displayed by time-series graphs g1 and g2.
  • the graph g1 is a line graph in which the horizontal axis is the time axis and the vertical axis is the speed of the racket R.
  • the graph g2 is a graph that represents the speed of the racket R in color along the time axis.
  • the graphs g1 and g2 are displayed in monochrome, but in other examples, the graphs g1 and g2 may be displayed in color.
  • points Q1 and Q2 indicating the time when the ball B collides with the racket R are displayed.
  • Such a display is made possible by using, for example, the speed of the racket R at the collision position (which can be estimated in the same manner before and after the collision) estimated by Expression 12 above.
  • the point Q1_1 is located at the vertex of the graph g1_1, and the point Q2_1 is located in the darkest section of the graph g2_1. Therefore, it can be seen that the collision of the ball B occurred in the section where the speed of the racket R was the fastest.
  • the point Q1_2 is shifted from the vertex of the graph g1_2, and the point Q2_2 is also outside the darkest section of the graph g2_2. Therefore, it can be seen that the collision of the ball B has occurred outside the section where the speed of the racket R is the fastest.
  • the user can intuitively grasp whether or not the ball B has been hit in the section where the speed of the racket R is the fastest.
  • FIG. 12 is a diagram illustrating an example of a hardware configuration of the sensor device according to the embodiment of the present disclosure.
  • the sensor device 100 includes a sensor 101, a CPU (Central Processing Unit) 103, a ROM (Read Only Memory) 105, a RAM (Random Access Memory) 107, a user interface 109, and an external storage device. 111, a communication device 113, and an output device 115. These elements are connected to each other by, for example, a bus.
  • a bus for example, a bus.
  • the sensor 101 includes, for example, an acceleration sensor, an angular velocity sensor, a vibration sensor, a temperature sensor, a pressure sensor (including a push switch), a GPS (Global Positioning System) receiver, and the like, and realizes the input unit 410 in the above functional configuration.
  • the sensor 101 may include a camera (image sensor) and a microphone (sound sensor).
  • the CPU 103, the ROM 105, and the RAM 107 implement various functions in software by reading and executing program instructions recorded in the external storage device 111, for example.
  • functions such as control of the entire sensor device 100 can be realized by the CPU 103, the ROM 105, and the RAM 107, for example.
  • part or all of the functions of the processing unit 420 in the above-described functional configuration may be realized by the CPU 103, the ROM 105, and the RAM 107 of the sensor device 100.
  • the user interface 109 is an input device such as a button or a touch panel that accepts a user operation to the sensor device 100.
  • the user's operation can be, for example, an instruction to start or end transmission of sensor information from the sensor device.
  • the external storage device 111 stores various types of information regarding the sensor device 100.
  • the external storage device 111 may store, for example, program instructions for causing the CPU 103, the ROM 105, and the RAM 107 to realize functions in software, and the data acquired by the sensor 101 may be temporarily cached. Good.
  • program instructions for causing the CPU 103, the ROM 105, and the RAM 107 to realize functions in software, and the data acquired by the sensor 101 may be temporarily cached. Good.
  • the sensor device 100 is mounted on a hitting tool or the like, it is desirable to use an external storage device 111 that is resistant to impact, such as a semiconductor memory.
  • the communication device 113 communicates with an analysis device 600 described later by various wired or wireless communication methods. Further, the communication device 113 may directly communicate with the analysis device 600 through inter-device communication, or may communicate with the analysis device 600 via a network such as the Internet.
  • the output device 115 is configured by a device that can output information as light, sound, or an image.
  • the output device 115 may output, for example, information notifying the detection of the time or play event in the sensor device 100, or based on the analysis result received from the analysis device 600 or the analysis result calculated in the sensor device 100. Thus, a visual or audible notification for the user may be output.
  • the output device 115 includes, for example, a lamp such as an LED, a display such as an LCD, a speaker, or a vibrator.
  • FIG. 13 is a diagram illustrating an example of a hardware configuration of an analysis apparatus according to an embodiment of the present disclosure.
  • the analysis device 600 may realize the analysis device according to the embodiment of the present disclosure, for example, the smartphone 200 or the server 300 described above. As described above, the analysis device may be realized by the sensor device 100.
  • the analysis device 600 can include a CPU 601, a ROM 603, a RAM 605, a user interface 609, an external storage device 611, a communication device 613, and an output device 615. These elements are connected to each other by, for example, a bus.
  • the CPU 601, the ROM 603, and the RAM 605 realize various functions in software by reading and executing program instructions recorded in the external storage device 611, for example.
  • the CPU 601, the ROM 603, and the RAM 605 can realize, for example, the control of the entire analysis apparatus 600 and the function of the processing unit 420 in the functional configuration described above.
  • the user interface 609 is an input device such as a button or a touch panel that accepts a user operation to the analysis device 600.
  • the external storage device 611 stores various types of information related to the analysis device 600.
  • the CPU 601, the ROM 603, and the RAM 605 may store program instructions for realizing functions in software, and the sensor information received by the communication device 613 is temporarily cached in the external storage device 611. Also good.
  • the external storage device 611 may store analysis result logs.
  • the output device 615 is configured by a device capable of visually or audibly notifying information to the user.
  • the output device 615 can be, for example, a display device such as an LCD (Liquid Crystal Display), or an audio output device such as a speaker or headphones.
  • the output device 615 outputs the result obtained by the processing of the analysis device 600 as a video such as text or an image, or outputs it as a sound or sound.
  • a display device such as an LCD.
  • each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • Embodiments of the present disclosure function, for example, an analysis apparatus (an information processing terminal such as a smartphone, a server, or a sensor apparatus), a system, an analysis apparatus or an information processing method executed by the system, and the analysis apparatus as described above And a non-transitory tangible medium on which the program is recorded.
  • an analysis apparatus an information processing terminal such as a smartphone, a server, or a sensor apparatus
  • a system an analysis apparatus or an information processing method executed by the system, and the analysis apparatus as described above
  • a non-transitory tangible medium on which the program is recorded for example, an analysis apparatus (an information processing terminal such as a smartphone, a server, or a sensor apparatus), a system, an analysis apparatus or an information processing method executed by the system, and the analysis apparatus as described above.
  • An acquisition unit that acquires vibration data indicating vibration generated in the first object due to the second object coming into contact with the first position on the first object; A first characteristic that identifies the first position by comparing a vibration characteristic indicated by the vibration data with a vibration characteristic defined for each position at which the second object can contact the first object.
  • An analysis processing unit An analysis apparatus comprising: a second analysis processing unit that estimates a speed of the second object after the contact based on a speed of the first object and the first position.
  • the second analysis processing unit estimates the velocity after the contact of the second object based on the effective mass of the first object at the first position, according to (1). Analysis device.
  • the second analysis processing unit calculates an impulse given to the second object by the first object based on the vibration characteristic defined for the first position and the vibration data. Then, the analysis device according to (1) or (2), wherein the speed after the contact of the second object is estimated based on the impulse.
  • the second analysis processing unit calculates the impulse from the vibration data by back calculation using a transfer function included in a vibration characteristic defined for the first position, according to (3). Analysis device.
  • the acquisition unit further acquires motion data indicating displacement and rotation of the first object in a section including the contact, The second analysis processing unit estimates the speed after the contact of the second object based on the posture of the first object estimated based on the motion data, (1) to (4 The analysis device according to any one of the above.
  • the second analysis processing unit estimates the speed of the second object after the contact based on the speed direction at the time of the contact of the first object estimated based on the posture.
  • the second analysis processing unit estimates a rotation amount of the second object after the contact based on a speed direction at the time of the contact of the first object estimated based on the posture.
  • (8) The analysis device according to any one of (1) to (7), wherein the second analysis processing unit selects or calculates a coefficient of restitution in the contact according to the first position.
  • the apparatus according to any one of (1) to (8), further including a third analysis processing unit that estimates a trajectory after the contact of the second object based on the speed after the contact of the second object.
  • the analysis device according to any one of the above. (11) acquiring vibration data indicating vibration generated in the first object due to the second object coming into contact with the first position on the first object; Identifying the first position by comparing a vibration characteristic indicated by the vibration data with a vibration characteristic defined for each position at which the second object can contact the first object; An analysis method comprising: estimating the speed of the second object after the contact based on the speed of the first object and the first position.

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Dentistry (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Golf Clubs (AREA)

Abstract

【課題】より簡単な構成でオブジェクト間の接触現象を解析する。 【解決手段】第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって上記第1のオブジェクトに発生した振動を示す振動データを取得する取得部と、上記振動データによって示される振動特性と、上記第1のオブジェクトについて上記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって上記第1の位置を特定する第1の解析処理部と、上記第1のオブジェクトの速度と上記第1の位置とに基づいて、上記第2のオブジェクトの上記接触後の速度を推定する第2の解析処理部とを備える解析装置が提供される。

Description

解析装置、解析方法および記録媒体
 本開示は、解析装置、解析方法および記録媒体に関する。
 これまでに、センシングや解析を利用して、ユーザの運動を支援する技術が多く開発されてきている。かかる技術として、例えば、テニス、バドミントン、卓球、ゴルフ、野球など、打具を用いてボールを打つスポーツにおいて、ボールが打具にヒットした回数やヒットした位置を検出し、ユーザに情報として呈示するものがある。このような技術の例として、例えば特許文献1には、テニスラケットの打面やその周辺にセンサを配置し、打面にボールがヒットしたことを検出してその回数や位置をユーザに通知する技術が記載されている。
特開昭59-194761号公報
 上記の特許文献1に記載の技術では、テニスラケットの打面上の各位置に対応して多数のセンサが配置される。これによって、打面にボールがヒットした回数のみならず打面のどこにボールがヒットしたかをも検出することが可能である。しかしながら、このような多数のセンサは、ユーザが打具を購入後に取付けるには手間がかかりすぎる。予めセンサが組み込まれた打具を販売してもよいが、打具の価格が上昇し、またユーザは打具の買い替えがしづらくなる。また、数千分の1のフレームレートで撮影可能なハイスピードカメラを利用してボールが衝突する瞬間を撮影し、ボールがヒットした位置を画像から確認する方法も考えられるが、ハイスピードカメラは高価であり、また操作も煩雑であるため、ユーザが手軽に利用することは難しい。
 打具のスウィングスピードや、打球の回転軸、回転量、速度などについても同様のことがいえる。つまり、これらを計測することはプレーヤのパフォーマンスを測定するために有用であるが、計測のためには高価な専用装置、例えばハイスピードカメラやモーションキャプチャなどが必要とされる。例えば、ボールの回転量を求めるには、フレームレートが4000fps程度のハイスピードカメラで撮影した画像を解析したり、ドップラーレーダーを利用したりする方法が知られているが、専用の装置が必要となり、また解析や操作にも高度な技術が必要とされるため、ユーザが手軽に利用することは難しい。
 そこで、本開示では、より簡単な構成でオブジェクト間の接触現象を解析することが可能な、新規かつ改良された解析装置、解析方法および記録媒体を提案する。
 本開示によれば、第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって上記第1のオブジェクトに発生した振動を示す振動データを取得する取得部と、上記振動データによって示される振動特性と、上記第1のオブジェクトについて上記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって上記第1の位置を特定する第1の解析処理部と、上記第1のオブジェクトの速度と上記第1の位置とに基づいて、上記第2のオブジェクトの上記接触後の速度を推定する第2の解析処理部とを備える解析装置が提供される。
 また、本開示によれば、第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって上記第1のオブジェクトに発生した振動を示す振動データを取得することと、上記振動データによって示される振動特性と、上記第1のオブジェクトについて上記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって上記第1の位置を特定することと、上記第1のオブジェクトの速度と上記第1の位置とに基づいて、上記第2のオブジェクトの上記接触後の速度を推定することとを含む解析方法が提供される。
 また、本開示によれば、第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって上記第1のオブジェクトに発生した振動を示す振動データを取得する機能と、上記振動データによって示される振動特性と、上記第1のオブジェクトについて上記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって上記第1の位置を特定する機能と、上記第1のオブジェクトの速度と上記第1の位置とに基づいて、上記第2のオブジェクトの上記接触後の速度を推定する機能とをコンピュータに実現させるためのプログラムが格納された記録媒体が提供される。
 以上説明したように本開示によれば、より簡単な構成でオブジェクト間の接触現象を解析することができる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係るシステム構成の例を示す図である。 本開示の一実施形態に係るシステムの機能構成を概略的に示す図である。 本開示の一実施形態に係る衝突検出部の処理の例について説明するための図である。 本開示の一実施形態に係る物理演算部の構成の例について説明するための図である。 本開示の一実施形態における処理を概略的に示すフローチャートである。 本開示の一実施形態において解析される衝突現象を模式的に示す図である。 本開示の一実施形態における力積の算出について説明するための図である。 本開示の一実施形態における衝突前のラケットの速度の算出について説明するための図である。 本開示の一実施形態における衝突後のボールの回転の推定について説明するための図である。 本開示の一実施形態における情報提示の第1の例を示す図である。 本開示の一実施形態における情報提示の第1の例を示す図である。 本開示の一実施形態における情報提示の第2の例を示す図である。 本開示の一実施形態における情報提示の第2の例を示す図である。 本開示の実施形態に係るセンサ装置のハードウェア構成の例を示す図である。 本開示の実施形態に係る解析装置のハードウェア構成の例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.システム構成
 2.機能構成
 3.処理フロー
 4.衝突後のボールの速度の推定
  4-1.力積の算出
  4-2.ラケットの有効質量の算出
  4-3.衝突前のラケットの速度の算出
  4-4.反発係数の選択
 5.ボールの回転の推定
 6.情報提示の例
 7.ハードウェア構成
 8.補足
 (1.システム構成)
 図1は、本開示の一実施形態に係るシステム構成の例を示す図である。図1を参照すると、システム10は、センサ装置100と、スマートフォン200と、サーバ300とを含む。
 センサ装置100は、テニスのラケットRに装着される。センサ装置100は振動センサを備え、ラケットRにボールが衝突したことによってラケットRに発生する振動を検出する。振動センサによって取得された振動データは、例えばBluetooth(登録商標)などの無線通信によってスマートフォン200に送信される。また、センサ装置100は、加速度センサや角速度センサ、地磁気センサなど(例えば9軸モーションセンサ)を備え、ラケットRの加速度や角速度、傾きなどを検出してもよい。これらのセンサによって取得されたデータも、無線通信によってスマートフォン200に送信される。
 ここで、ラケットRは、テニスでボールを打つための打具である。以下で説明する一実施形態では、打具としてラケットRを例として説明するが、打具の例はこれには限られない。後述するように、本技術は、打具にボールが衝突したときの振動に基づいて衝突後のボールの速度を推定するものである。従って、ボールの衝突によって振動が発生する打具、例えばバドミントンのラケット、卓球のラケット、ゴルフのクラブ、野球のバットなど、あらゆる打具について、本技術が適用可能である。また、オブジェクト同士の衝突によって振動が発生する場合であれば、スポーツでなくても本技術を適用することができる。また、衝突は、よりソフトな接触であってもよい。従って、本技術は、第1のオブジェクトへの第2のオブジェクトの接触によって第1のオブジェクトに発生する振動に基づいて、接触後の第2のオブジェクトの速度を推定するものといえる。
 スマートフォン200は、センサ装置100から送信されたデータを受信する。スマートフォン200は、受信したデータに基づいて、後述するようなボールの衝突後の速度の推定などの解析処理を実行してもよい。この場合、スマートフォン200は、解析結果をユーザに向けて出力するとともに、サーバ300にアップロードしてもよい。あるいは、スマートフォン200は、受信したデータをサーバ300に転送してもよい。この場合、スマートフォン200は、サーバ300で実行された解析処理の結果を受信し、ユーザに向けて出力してもよい。なお、スマートフォン200は、通信機能、解析機能、および出力機能を備える他の装置、例えばタブレット端末や各種のパーソナルコンピュータなどによって代替されてもよい。
 サーバ300は、スマートフォン200とネットワークを介して通信し、センサ装置100において取得されたデータの解析結果またはデータそのものを受信する。サーバ300は、スマートフォン200からデータを受信する場合、後述するようなボールの衝突後の速度の推定などの解析処理を実行する。サーバ300は、スマートフォン200からアップロードされた解析結果、または自ら算出した解析結果を保存し、必要に応じてスマートフォン200などのユーザが使用する端末装置に送信する。また、サーバ300は、解析結果またはデータを提供したユーザ以外のユーザが使用する端末装置に解析結果を送信し、解析結果をユーザ間で共有することを可能にしてもよい。
 (2.機能構成)
 図2は、本開示の一実施形態に係るシステムの機能構成を概略的に示す図である。図2を参照すると、システム40は、入力部410と、処理部420と、出力部430とを機能構成として含む。システム40の機能構成は、例えば、複数の装置に分散して実現されてもよい。例えば、上記で図1を参照して説明したシステム10において、入力部410はセンサ装置100で、処理部420はスマートフォン200またはサーバ300で、出力部430はスマートフォン200で、それぞれ実現されてもよい。あるいは、システム40の機能構成は、単一の装置に集約されて実現されてもよい。例えば、図1を参照して説明したシステム10において、センサ装置100がプロセッサやディスプレイ、スピーカなどを有し、入力部410、処理部420、および出力部430のすべてを実現してもよい。なお、この場合、スマートフォン200やサーバ300はシステム10に含まれなくてもよい。
 入力部410は、例えば、振動センサ411と、モーションセンサ413と、その他のセンサ415とを含みうる。振動センサ411は、例えば圧電素子、ひずみゲージ、または加速度センサなどによって実現され、ラケットRに発生する振動を検出した振動データを出力する。モーションセンサ413は、例えば3軸加速度センサ、3軸角速度センサ、3軸地磁気センサなどによって実現され(これらすべてを含むセンサは9軸モーションセンサとも呼ばれる)、ラケットR(のセンサ装置100が取り付けられた部分)の加速度や回転、方位などを検出したモーションデータを出力する。この他に、その他のセンサ415として、温度センサ、気圧センサ、GPS受信機などが含まれてもよい。その他のセンサ415による検出結果も、後述するボールの衝突後の速度の推定などの解析処理に利用されうる。
 ここで、入力部410と処理部420とが同じ装置において実現される場合、入力部410は、第1のオブジェクト(ラケット)上の第1の位置に第2のオブジェクト(ボール)が接触(衝突)したことによって第1のオブジェクトに発生した振動を示す振動データを取得する取得部でありうる。取得部は、さらに、接触(衝突)を含む区間における第1のオブジェクト(ラケット)の変位および回転を示すモーションデータを取得してもよい。あるいは、入力部410と処理部420とが異なる装置において実現される場合、入力部410を実現する装置(例えばセンサ装置100)において取得された振動データやモーションデータは、有線または無線の通信によって処理部420を実現する装置(例えばスマートフォン200またはサーバ300)に送信される。この場合、処理部420を実現する装置において振動データやモーションデータを受信する通信装置が、上記の取得部として機能しているといえる。
 処理部420は、例えば、衝突検出部421と、物理演算部423と、出力補正部425とを含みうる。衝突検出部421は、振動データに基づいて、ラケットRへのボールの衝突を検出し、衝突が発生した区間のセンサデータを正確に切り出す処理を実行する。例えばスポーツの場合、打具とボールとの間の接触時間はきわめて短い場合が多い(テニスの場合は約5ms)。従って、衝突前後の打具の状態を推定するためには、モーションセンサ413のサンプリング周波数は200Hz以上であることが望ましい。このように高いサンプリングで検出されたセンサデータについて、後続の物理演算部423が現実的な処理負荷で正確な解析処理を実行するためには、衝突検出部421が、衝突が発生した区間のセンサデータを正確に切り出すことが望ましい。
 図3は、本開示の一実施形態に係る衝突検出部の処理の例について説明するための図である。図3を参照すると、例えば、振動センサ411およびモーションセンサ413の両方から連続的に提供されるストリーミングデータのうち、振動センサ411のデータにおいてインパクトが検出された場合、衝突検出部421は、インパクトに続く所定の長さの区間の振動センサのストリーミングデータと、インパクトの前後の所定の長さの区間のモーションセンサのストリーミングデータとを、衝突が発生した区間のセンサデータとして切り出す。
 図4は、本開示の一実施形態に係る物理演算部の構成の例について説明するための図である。図4を参照すると、処理部420に含まれる物理演算部423は、衝突解析部4231と、打球推定部4233と、打球軌跡推定部4235とを含む。衝突解析部4231は、衝突検出部421によって検出された衝突区間での打具の速度や姿勢、軌跡を推定する。また、衝突解析部4231は、打具上でのボールの衝突位置を推定する。打球推定部4233は、衝突直後の打球の状態を推定する。より具体的には、例えば、打球推定部4233は、打球の速度、回転軸、回転量、および飛び出し方向を推定する。打球軌跡推定部4235は、打球の軌跡を推定する。また、打球軌跡推定部4235は、打球の落下地点を推定してもよい。
 再び図2を参照して、処理部420に含まれる出力補正部425は、物理演算部423の出力を補正する。物理演算部423では、ラケットRとボールとの衝突を力学的にモデル化して解析することによってボールの速度や回転を推定するが、現実には、ラケットやガットによる運動エネルギーのロスや、衝突前のボールの速度による反発係数の変化、スウィングによるラケットRの慣性モーメントの変化などによって、推定された値が現実の値と整合しない場合がある。そこで、出力補正部425が物理演算部423の出力を補正する。なお、上記のような不整合が問題にならない場合には、出力補正部425を設けず、物理演算部423の出力をそのまま出力部430に提供してもよい。
 より具体的には、例えば、出力補正部425は、回帰や機械学習といった統計的な手法を用いて物理演算部423の出力を補正してもよい。また、例えば、出力補正部425は、物理演算部423で推定された値に加えて、衝突前後のラケットRの動きなど、衝突区間において利用可能な他のデータを利用して、物理演算部423の出力を補正してもよい。
 出力部430は、例えば、ディスプレイ431と、スピーカ433と、その他の出力部435とを含みうる。ディスプレイ431は、例えばLCDまたは有機ELディスプレイなどの各種の表示装置であり、処理部420の出力を画像としてユーザに向けて出力する。スピーカ433は、処理部420の出力を音声としてユーザに向けて出力する。その他の出力部435は、例えば、LEDなどのランプやバイブレータなどでありえ、処理部420の出力を、発光や振動としてユーザに向けて出力する。なお、出力部430によって出力される情報の例として、ディスプレイ431による情報提示の例について後述する。
 (3.処理フロー)
 図5は、本開示の一実施形態における処理を概略的に示すフローチャートである。図示されたステップは、処理部420において実行される。図5を参照すると、まず、衝突検出部421が衝突の発生を待ち受ける(S101)。衝突が発生した場合、衝突検出部421が衝突区間のセンサデータを物理演算部423に提供し、物理演算部423での処理が開始される。
 物理演算部423では、まず、衝突解析部4231が、衝突位置を解析する(S103)。より具体的には、衝突解析部4231は、ラケットR上のボールの衝突位置を特定する。この処理は、例えば、ラケットRにボールが衝突したときの振動を、ラケットRのボールが衝突する部分とは異なる部分に装着されたセンサ装置100によって検出した振動データに基づいて、振動データの振動特性と、ラケットRのボールが衝突する位置ごとの振動特性とを比較することによって、ラケットRのボールが衝突した衝突位置を特定する処理でありうる。なお、このような処理の詳細については、例えば国際公開第2013/069447号に記載されている。
 次に、打球推定部4233が、衝突後の打球に関する推定を実施する。まず、打球推定部4233は、衝突位置におけるラケットRの速度を推定する(S105)。より具体的には、まず、打球推定部4233は、センサ装置100の取付位置における衝突時のラケットRの速度を、例えばモーションセンサ413によって検出されるラケットRの加速度変化に基づいて推定する。さらに、打球推定部4233は、例えばモーションセンサ413によって検出されるラケットRの回転に基づいて、センサ装置100の取付位置における速度を衝突位置におけるラケットRの速度に変換する。このとき、打球推定部4233は、例えばモーションセンサ413によって検出されるラケットRの加速度、回転、および方位に基づいて、衝突時および/またはその前後におけるラケットRの姿勢を算出してもよい(S107)。
 次に、打球推定部4233は、ラケットRとボールとの衝突における反発係数を選択または算出する(S109)。ここで、衝突における反発係数は、ボールの衝突位置によって異なりうる。打球推定部4233は、例えば、衝突位置におけるラケットRの有効質量を算出し、有効質量に基づいて衝突位置におけるラケットRとボールとの間の見かけの反発係数を算出してもよい。あるいは、打球推定部4233は、予め測定された衝突位置ごとの見かけの反発係数の中から、S103において推定された衝突位置に対応するものを選択してもよい。
 さらに、打球推定部4233は、これまでの処理において算出または選択された物理量に基づいて、衝突後の打球状態を推定する(S111)。例えば、打球推定部4233は、衝突後のボールの速度、打ち出し角度、回転量、および回転の軸などを推定する。ここで、打球推定部4233は、衝突解析部4231によって推定された衝突位置について定義されるラケットの振動特性に基づいて、検出された振動データから入力波形、すなわちラケットRがボールから受けた力の時間変化を復元することができる。これによって、ラケットRがボールに与えた力積を算出することができる。なお、衝突後のボールの速度および回転の推定については、この後さらに詳しく説明する。続いて、打球軌跡推定部4235が、衝突後の打球の軌跡を推定してもよい(S113)。
 以上で説明したような本開示の一実施形態において、衝突解析部4231は、振動データによって示される振動特性と、第1のオブジェクト(ラケット)について第2のオブジェクト(ボール)が接触(衝突)しうる位置ごとに定義される振動特性とを比較することによって第1の位置(ラケット上のボールの衝突位置)を特定する第1の解析処理部であるといえる。また、打球推定部4233は、第1のオブジェクト(ラケット)の速度と第1の位置(ラケット上のボールの衝突位置)とに基づいて、第2のオブジェクト(ボール)の接触(衝突)後の速度を推定する第2の解析処理部であるといえる。また、打球軌跡推定部4235は、第2のオブジェクト(ボール)の接触(衝突)後の速度に基づいて、第2のオブジェクトの接触後の軌跡を推定する第3の解析処理部であるといえる。
 以下では、これらの処理部によって実行される衝突後のボールの速度および回転の推定について、さらに詳細に説明する。
 (4.衝突後のボールの速度の推定)
 図6は、本開示の一実施形態において解析される衝突現象を模式的に示す図である。図6を参照すると、ラケットRと、ボールBとが示されている。ラケットRの質量はm、ボールBの質量はmであり、これは(a)に示す衝突前、(b)に示す衝突中、(c)に示す衝突後を通じて変化しない。
 (a)に示す衝突前の段階において、ラケットRは速度vでボールBに向かって運動しており、ボールBは速度vでラケットRに向かって運動している。(b)に示す衝突中の段階において、ラケットRはボールBから-Fの力積を受け、ボールBはラケットRからFの力積を受ける。さらに、(c)に示す衝突後の段階において、ラケットRの速度はv’に変化し、ボールBの速度はv’に変化する。
 上記のような衝突現象に関して、力学の法則に従って以下の式1~式3が成り立つ。なお、eはラケットRとボールBとの間の反発係数である。式1は反発係数の定義式、式2は運動量保存の法則、式3は運動量の変化と力積との関係から導出される。
Figure JPOXMLDOC01-appb-M000001
 上記の衝突現象に関する物理量のうち、ラケットRの質量m、およびボールBの質量mについては、事前に計測することができる。なお、ラケットRの質量mについては、ラケットRにボールBが衝突した位置における有効質量が用いられてもよい。また、本実施形態では、ラケットRに装着されたセンサ装置100から提供される振動データと、事前に測定されたラケットRの固有伝達関数とに基づいて、ラケットRにボールBが衝突した位置(第1の位置)を特定することができる。センサ装置は、さらに、センサ装置の装着位置(第2の位置)におけるラケットRの変位および回転を検出することが可能である。従って、センサ装置の装着位置を基準にしたラケットRの形状が既知であれば、ラケットR全体の3次元空間での運動を再現し、ラケットRにボールBが衝突した時点における第1の位置でのラケットRの速度を推定することができる。
 さらに、本実施形態では、ラケットRに装着されたセンサ装置から提供される振動データと、事前に測定されたラケットRの固有伝達関数とに基づいて、第1の位置における振動の入力信号、すなわちボールBによってラケットRに及ぼされた力の波形を再現することができる。ラケットRがボールBから受けた力積Fは、この力の波形の時間積分に相当するから、本実施形態では、振動データとラケットRの固有伝達関数とに基づいて、力積Fに関しても算出可能である。また、後述するように、反発係数eについても、ラケットRにボールBが衝突した位置に基づいて決定することが可能である。
 そうすると、上記の式1~式3に含まれる未知数は、ラケットRの衝突後の速度v’、ボールBの衝突前の速度v、およびボールBの衝突後の速度v’の3つになる。従って、上記の式1~式3は、これらの3つの未知数を決定するための連立方程式として解くことができる。この結果、ボールBの衝突後の速度v’を、以下の式4によって求めることができる。
Figure JPOXMLDOC01-appb-M000002
 なお、仮に、ラケットRの衝突後の速度v’を計測することができれば、例えば式1および式2を連立方程式として解くことによってボールBの衝突前後の速度v,v’を求めることができる。しかしながら、ラケットRの衝突後の速度v’を、例えば加速度センサの検出値から算出することは、衝突が発生している時間が非常に短い(5ms程度)ために高いサンプリング周波数(200Hz以上)が必要とされること、およびセンサの検出値が衝突のために大きく変動することのために、実際上は困難である。
 そこで、本実施形態では、上述したように力積Fの算出が可能であることを利用して、ラケットRの衝突後の速度v’が未知のままで、ボールBの衝突後の速度v’を推定する。なお、後述するように、式4において、ラケットRの質量mに代えて有効質量を用いたり、衝突前のラケットの速度vを衝突位置について算出したり、反発係数eとして衝突位置における見かけの反発係数eを用いたりすることによって、推定の精度を向上させることができる。
 (4-1.力積の算出)
 図7は、本開示の一実施形態における力積の算出について説明するための図である。図7を参照すると、ラケットRにボールBが衝突した位置(第1の位置)における入力信号の時間波形f(t)が、伝達関数(FRF:Frequency Response Function)G(jω)で伝達されて、センサ装置の装着位置(第2の位置)における出力信号の時間波形x(t)として計測される。ここで、伝達関数G(jω)は、入力信号の周波数スペクトルをF(jω)、出力信号の周波数スペクトルをX(jω)とすると、G(jω)=X(jω)/F(jω)と表される。
 ここで、第1の位置におけるラケットRの伝達関数をGip(ω)、同じく第1の位置における入力信号の周波数スペクトルとFip(ω)とすると(ipは、impact pointの略)、Fip(ω)=X(ω)/Gip(ω)の関係が成り立つ。Gip(ω)は事前の計測によって既知でありうるため、上記の関係に基づき、センサ装置から提供される振動データに基づいてX(ω)を特定すれば、Fip(ω)を算出することができる。さらに、第1の位置における入力信号の時間波形fip(t)は、fip(t)=ifft(Fip(ω))によって求めることができる(ifftは、inverse fast fourier transformの略)。
 さらに、入力信号の時間波形fip(t)は、ボールBからラケットRに伝わった力の時間変化を表すため、これを積分することによってボールBがラケットRに及ぼした力積を算出することができる。力積Fは、時間波形fip(t)における衝突開始時刻をt1、衝突終了時刻をt2とすると、以下の式5によって求められる。
Figure JPOXMLDOC01-appb-M000003
 このようにして、本実施形態では、第1の位置について定義される振動特性に含まれる伝達関数を用いた逆算によって、振動データから力積Fを算出することができる。
 (4-2.ラケットの有効質量の算出)
 次に、ラケットの有効質量の算出について説明する。上記の式4では、ラケットRの質量をmと表現しているが、より正確に衝突後のボールBの速度を算出する場合、この質量mは、有効質量によって表現されうる。
 ラケットRにボールBが衝突した場合、ボールBからラケットRに伝わった力によって、ラケットRが押し返されたり、回転したりする。この結果、衝突現象を表現する上記の式1~式3において、ラケットRの質量は、実際の(例えば静置した状態で計測した)ラケットRの質量とは異なりうる。より具体的には、式1~式3におけるラケットRの質量は、実際の質量mよりも小さい有効質量mreでありうる。
 ここで、ラケットRの有効質量mreは、以下の式6によって、実際の質量mから算出されることが知られている。なお、x軸をラケットRの幅方向の軸、y軸をラケットRの長さ方向の軸として、yはラケットRの重心からボールBの衝突位置(第1の位置)までのy軸方向距離、xはラケットRの重心から第1の位置までのx軸方向距離、IはラケットRのx軸回りの慣性モーメント、IはラケットRのy軸回りの慣性モーメントである。
Figure JPOXMLDOC01-appb-M000004
 本実施形態において、ラケットRの重心から衝突位置(第1の位置)までのx軸およびy軸方向の距離であるxおよびyは、第1の位置が特定されることによって算出可能である。また、慣性モーメントI,Iについては、定義される衝突位置ごとに計測されてもよいし、以下の式7および式8によって近似されてもよい。なお、LはラケットRの長さ、WはラケットRの幅である。
Figure JPOXMLDOC01-appb-M000005
 慣性モーメントI,Iを近似によって求める場合、上記の式6に式7および式8を代入して得られる以下の式9によってラケットRの有効質量mreが求められる。
Figure JPOXMLDOC01-appb-M000006
 (4-3.衝突前のラケットの速度の算出)
 図8は、本開示の一実施形態における衝突前のラケットの速度の算出について説明するための図である。この例では、モーションデータに基づいて推定されるラケットRの姿勢に基づいて、ラケットRの衝突前の速度が算出される。算出された速度は、ボールBの衝突後の速度の推定に用いられる。図8を参照すると、ラケットRと、ボールBとが示されている。ラケットRはグリップRとヘッドRを含み、グリップRの端部(グリップエンド)にセンサ装置100が取り付けられている。(a)に示す初期状態(t=0)において、センサ装置100の速度はv、加速度はaであった。
 (b)に示す衝突時の状態(t=tip)において、センサ装置100の速度はvip、加速度はaipであった。また、センサ装置100の角速度はωipであった。この状態において、ヘッドRにおけるボールBの衝突位置(第1の位置)でのラケットRの速度Vを求める。まず、センサ装置100の速度vipは、初期状態(t=0)から衝突時(t=tip)までに発生した加速度a(t)の結果であることから、以下の式10によって求められる。なお、a(t)=a、a(tip)=aipである。
Figure JPOXMLDOC01-appb-M000007
 さらに、衝突時の状態においてラケットの回転によって衝突位置で発生する速度Vipは、衝突位置のグリップエンドからの距離rを用いて以下の式11によって求められる。
Figure JPOXMLDOC01-appb-M000008
 以上より、衝突時の状態における衝突位置でのラケットの速度vripは、以下の式12によって求められる。
Figure JPOXMLDOC01-appb-M000009
 上述のような衝突前のラケットの速度の算出をより一般化すると、以下のようになる。まず、センサ装置100に備えられたモーションセンサ(加速度センサおよび角速度センサなど)のデータを解析し、ボールBとの衝突が発生した区間におけるラケットRの姿勢計算を実施し、変位および軌跡を求める。この時点では、センサ装置100の取り付け位置での変位および軌跡が算出される。ここでは、例えば、P={x,y,z,roll,pitch,yaw}のように、3次元空間における変位とオイラー角とを含む情報が算出されうる。
 さらに、上記のようにして求められたセンサ装置100の取り付け位置での変位および軌跡を、ボールBとの衝突位置(第1の位置)での変位に変換する。このとき、例えば、センサ装置100に備えられた角速度センサによってラケットRの回転を検出し、回転行列Rotipを求め、センサ装置100の取付位置での変位Pを変換することによって、衝突位置での変位Pipを算出することができる。より具体的には、例えば、Pip=Rot*PとしてPipを求めることができる。
 このようにして、衝突時における衝突位置での速度(ベクトル)を求めることができる。このベクトルの方向(姿勢に基づいて推定されるラケットRの衝突時の速度方向)に基づいて、ボールBの衝突後の速度を推定してもよい。また、後述するように、ラケットRの衝突時の速度方向に基づいて、ボールBの回転量を推定してもよい。上記のPに基づいて、衝突時におけるラケットRの衝突面(ヘッドR)の角度を求めることもできる。この角度と、衝突時におけるラケットRの速度方向とに基づいて、衝突後のボールBの打ち出し角度を推定することもできる。
 なお、例えば、テニスにおけるボレーショットのように、衝突前にラケットRが静止している(v=0またはvrip=0)とみなすことが可能である場合、上記のようなラケットRの速度の算出は必ずしも必要ではない。ここで、速度vまたはvripを算出するためにはセンサ装置100から提供される加速度を含むモーションデータが必要であるが、それ以外の力積F、質量m(または有効質量mre)、質量m、および反発係数e(または見かけの反発係数e)の算出には、モーションデータは必ずしも必要ではない。従って、衝突の条件によっては、本実施形態における衝突後のボールBの速度v’の推定は、モーションデータを用いることなく振動データに基づいて実行可能であるといえる。
 また、例えば、テニスにおけるサーブのように、衝突前にボールBが静止している(v=0)とみなすことが可能である場合、上記の式1~式3において、ボールBの衝突前の速度vが未知数ではなくなる(0とおける)。この場合、代わりにラケットRの衝突前の速度vを未知数として、式1~式3を連立方程式として解いてもよい。この場合も、ラケットRの速度vまたはvripをセンサデータから算出する必要がなく、それ以外の力積F、質量m(または有効質量mre)、質量m、および反発係数e(または見かけの反発係数e)が算出できればよいため、衝突後のボールBの速度v’の推定を、モーションデータを用いることなく振動データに基づいて実行可能である。
 (4-4.反発係数の選択)
 次に、反発係数の選択について説明する。反発係数は、衝突する2物体の、衝突前後の相対速度の大きさの比である。上記の式4では、ラケットRとボールBとの間の反発係数をeと表現しているが、より正確に衝突後のボールBの速度を推定する場合、衝突によってラケットRが動かない場合の反発係数e(COR:Coefficient of Restitution)に代えて、衝突によってラケットRが動く場合の見かけ上の反発係数e(ACOR:Apparent Coefficient of Restitution)が用いられうる。実際のボールBとの衝突時には、ラケットRはユーザの手によって把持されているため動く余地があるためである。
 見かけ上の反発係数eは、反発係数eとラケットRの質量m、およびラケットRの有効質量mreを用いて、以下の式13によって求められることが知られている。式13から明らかなように、反発係数eと見かけ上の反発係数eとの相違は、ラケットRの質量mと有効質量mreとの相違に対応している。
Figure JPOXMLDOC01-appb-M000010
 上記のような見かけ上の反発係数eを、式4に示した衝突後のボールBの速度の推定に反映させる場合、例えば以下の2通りの方法が考えられる。1つは、例えば上記の式6または式9によって算出された衝突位置におけるラケットRの有効質量mreを用いて式13から算出した見かけ上の反発係数eを、衝突位置における反発係数eipとして用いる方法である。もう1つは、衝突位置の候補となるラケットR上の位置ごとに、予め見かけ上の反発係数eを計測しておく方法である。この場合、見かけ上の反発係数ACOR={eA1,eA2,・・・,eAn}のような値の集合として表される。なお、1~nは、この例においてラケットR上の位置に与えられる番号である。上記のACORの中で、検出された衝突位置に対応する見かけ上の反発係数eが、衝突位置における反発係数eipとして選択される。
 上記の式4において、ラケットRの質量として有効質量mreを用い、ラケットRの速度として衝突位置での速度vripを用い、反発係数として衝突位置における反発係数eipを用いると、ボールBの衝突後の速度v’は以下の式14によって求めることができる。
Figure JPOXMLDOC01-appb-M000011
 本実施形態では、衝突位置でのラケットRの有効質量mre、衝突位置でのラケットRの速度vrip、衝突位置での反発係数eip、および力積Fを推定することによって、衝突前のボールの速度vや衝突後のラケットの速度v’がわからなくても、衝突後のボールの速度v’を精度よく推定することができる。なお、例えば必要とされる精度によっては、有効質量mreの代わりに質量mを用いたり、衝突位置での速度vripの代わりに速度vを用いたり、衝突位置での反発係数eipの代わりに反発係数eを用いたりすることによって、処理が簡略化されてもよい。つまり、本実施形態において、有効質量mre、速度vrip、および反発係数eipの算出は、いずれも推定の精度を向上させるためのオプションとして採用されうる。
 (5.ボールの回転の推定)
 図9は、本開示の一実施形態における衝突後のボールの回転の推定について説明するための図である。図9を参照すると、ラケットRと、衝突前のボールBと、衝突中のボールBと、衝突後のボールBとが示されている。ボールの半径をr、ボールの質量をmとする。衝突前のボールBは速度vであり、角速度ωで回転している。衝突後のボールB3は速度v’であり、角速度ω’で回転している。
 ここで、図示されているようにx軸およびy軸を設定すると、衝突時にラケットRからボールBが受けるx軸方向の力積Fは、下記の式15によって求められる。なお、vbxは速度vのx軸方向成分、v’bxは速度v’のx軸方向成分である。
Figure JPOXMLDOC01-appb-M000012
 例えば、上述したような衝突後のボールBの速度の推定処理では、v’、v、およびv’3つの未知数を含む式1~式3を連立方程式として解くことによって、衝突後のボールBの速度v’を推定したが、同様にして衝突前のボールBの速度vについても推定することが可能である。さらに、上記の処理では、衝突時におけるラケットRの衝突面(ヘッドR)の角度と、衝突時におけるラケットRの速度方向とに基づいて、衝突後のボールBの打ち出し角度を推定することも可能でありうる。ボールBの打ち出し角度が推定されれば、速度v,v’をそれぞれx軸方向成分とy軸方向成分とに分解し、上記の式15を用いて力積Fを算出することができる。
 あるいは、ラケットRに取り付けられるセンサ装置100が、x軸方向について感度をもつ振動センサを含む場合、上記の式5の場合と同様にして、以下の式16によって力積Fを求めることができる。
Figure JPOXMLDOC01-appb-M000013
 上記の式15または式16によって力積Fが求められると、ボールBの慣性モーメントIの定義式(慣性モーメントIは、衝突時におけるトルクFの角加速度dω/dtに対する比例定数)より、以下の式17が導出される。
Figure JPOXMLDOC01-appb-M000014
 さらに、ボールBがテニスボールのような、中空で厚さを無視できる球殻の場合、慣性モーメントIは、質量mと半径rとを用いて以下の式18によって求めることができる。
Figure JPOXMLDOC01-appb-M000015
 上記の式17および式18より、衝突前後のボールBの回転角速度ω,ω’の関係を示す式19が導出される。
Figure JPOXMLDOC01-appb-M000016
 上述のように、式15または式16によって力積Fの値が求められれば、これを上記の式19に代入することによって、衝突前のボールBの回転角速度ωから衝突後のボールBの回転角速度ω’を求めることができる。例えば、衝突前にボールBが静止していたり、移動していてもほとんど回転していない(ω=0である)ことが仮定できる場合には、式19によって衝突後のボールBの回転角速度ω’を推定することができる。また、何らかの方法によって衝突前のボールBの回転角速度ωが特定または推定できる場合には、ω=0でなくても、式19によって衝突後のボールBの回転角速度ω’を推定することができる。
 なお、上記の例では、ラケットRとボールBとの間の転がり摩擦係数や滑り摩擦係数、衝突面の角度などについては、処理の簡略化のために考慮していない。ボールBの慣性モーメントIについても、式18では中空で厚さを無視できる球殻として算出したが、厚さを有する球殻や、中実の球体についても半径rを用いて慣性モーメントを算出する方法は公知であるため、ボールBの形状によってこれらの方法を適宜利用して式18を置き換えてもよい。
 ボールの速度および回転の推定の理論的なモデルについては、例えばR.Cross,"Effects of friction between the ball and strings in tennis",Sports Engineering,Vol.3,Issue 2,2000年5月,pp.85-97、およびHoward Brody,Rod Cross,Crawford Lindsey,"The Physics and Technology of Tennis",Racquet Tech Pub.,2002などにも記載されている。このような文献に記載された理論的なモデルに基づいて、上述した本実施形態におけるボールの速度および回転の推定の処理を拡張または変更することも可能である。
 例えば、本実施形態におけるボールの速度および回転の推定の処理の拡張として、衝突後のボールBの軌跡が推定されてもよい。上述したような処理によって、衝突後のボールBの速度(衝突後の初速)、打ち出し方向、回転軸および回転量を推定することが可能であるため、重力加速度による速度の変化や、回転によって発生するマグナス効果を推定することによって、衝突後のボールBの軌跡を推定することができる。
 (6.情報提示の例)
  (第1の例)
 図10Aおよび図10Bは、本開示の一実施形態における情報提示の第1の例を示す図である。図10Aおよび図10Bでは、3次元空間(x-y-z空間)に、ラケットRにおけるボールBの衝突位置(第1の位置)の軌跡Tが表示されている。点PがラケットRとボールBとが衝突した位置であり、その前後の軌跡Tは、スイングによって第1の位置が衝突の前後でどのように移動したかを示す。このような表示は、例えば、センサ装置100から提供される振動データと、ラケットRの固有伝達関数とに基づく衝突位置の特定結果と、上記で図8を参照して説明したような衝突位置の変位とを利用することによって可能になる。
 さらに、図10Aおよび図10Bに示された軌跡Tは、例えば上記で式12によって推定された、衝突位置でのラケットRの速度(衝突時に限らず、その前後で同様にして推定されうる)に対応した色で表示されている。図では、軌跡Tがモノクロームで表示されているが、他の例では軌跡Tがカラーで表示されてもよい。図10Aに示される例では、軌跡T1が最も濃い色(速い速度を示す)で表示された部分に点P1が位置しており、ラケットRの速度が最も速い区間でボールBの衝突が発生したことがわかる。一方、図10Bに示される例では、軌跡T2が最も濃い色で表示された部分からずれて点P2が位置しており、ラケットRの速度が最も速い区間を外れてボールBの衝突が発生したことがわかる。
  (第2の例)
 図11Aおよび図11Bは、本開示の一実施形態における情報提示の第2の例を示す図である。図11Aおよび図11Bでは、ボールBの衝突位置(第1の位置)でのラケットRの速度が、時系列のグラフg1,g2によって表示されている。グラフg1は、横軸を時間軸とし、縦軸をラケットRの速度とする線グラフである。一方、グラフg2は、時間軸に沿ってラケットRの速度を色で表したグラフである。図では、グラフg1,g2がモノクロームで表示されているが、他の例では、グラフg1,g2がカラーで表示されてもよい。グラフg1,g2上には、ラケットRにボールBが衝突した時刻を示す点Q1,Q2が表示されている。
 このような表示は、例えば上記で式12によって推定された、衝突位置でのラケットRの速度(衝突時に限らず、その前後で同様にして推定されうる)を利用することによって可能になる。図11Aに示される例では、点Q1_1がグラフg1_1の頂点に位置しており、また点Q2_1がグラフg2_1で最も色が濃い区間に位置している。従って、ラケットRの速度が最も速い区間でボールBの衝突が発生したことがわかる。一方、図11Bに示される例では、点Q1_2がグラフg1_2の頂点からずれており、また点Q2_2もグラフg2_2の最も色が濃い区間からは外れている。従って、ラケットRの速度が最も速い区間を外れてボールBの衝突が発生したことがわかる。
 以上のような情報提示によって、例えば、ラケットRの速度が最も速い区間でボールBを打てたか否かを、ユーザが直観的に把握することができる。
 (7.ハードウェア構成)
 次に、図12および図13を参照して、本開示の実施形態に係るセンサ装置および解析装置(上述した例ではスマートフォンまたはサーバ)を実現するためのハードウェア構成の例について説明する。
  (センサ装置)
 図12は、本開示の実施形態に係るセンサ装置のハードウェア構成の例を示す図である。図12を参照すると、センサ装置100は、センサ101と、CPU(Central Processing Unit)103と、ROM(Read Only Memory)105と、RAM(Random Access Memory)107と、ユーザインターフェース109と、外部記憶装置111と、通信装置113と、出力装置115とを含みうる。これらの要素は、例えばバスによって相互に接続される。
 センサ101は、例えば加速度センサ、角速度センサ、振動センサ、温度センサ、圧力センサ(押下スイッチを含む)、またはGPS(Global Positioning System)受信機などを含み、上記の機能構成における入力部410を実現する。センサ101は、カメラ(イメージセンサ)やマイクロフォン(音センサ)を含んでもよい。
 CPU103、ROM105、およびRAM107は、例えば外部記憶装置111に記録されたプログラム命令を読み込んで実行することによって、様々な機能をソフトウェア的に実現する。本開示の実施形態では、CPU103、ROM105、およびRAM107によって、例えば、センサ装置100全体の制御などの機能が実現されうる。また、センサ装置100のCPU103、ROM105、およびRAM107によって、上記の機能構成における処理部420の機能の一部または全部が実現されてもよい。
 ユーザインターフェース109は、センサ装置100へのユーザ操作を受け付ける、例えばボタンやタッチパネルなどの入力装置である。ユーザの操作は、例えば、センサ装置からのセンサ情報の送信の開始や終了を指示するものでありうる。
 外部記憶装置111は、センサ装置100に関する各種の情報を記憶する。外部記憶装置111には、例えば、CPU103、ROM105、およびRAM107にソフトウェア的に機能を実現させるためのプログラム命令が格納されてもよく、またセンサ101によって取得されたデータが一時的にキャッシュされてもよい。センサ装置100が打具などに装着されることを考慮すると、外部記憶装置111としては、例えば半導体メモリなどの衝撃に強いものを使用することが望ましい。
 通信装置113は、有線または無線の各種通信方式によって後述する解析装置600と通信する。また、通信装置113は、機器間通信によって直接的に解析装置600と通信してもよいし、インターネットなどのネットワークを介して解析装置600と通信してもよい。
 出力装置115は、情報を光、音声または画像として出力することが可能な装置で構成される。出力装置115は、例えばセンサ装置100における時刻やプレーイベントの検出を通知する情報を出力してもよいし、解析装置600から受信された解析結果、またはセンサ装置100において算出された解析結果に基づいて、ユーザに対する視覚的または聴覚的な通知を出力してもよい。出力装置115は、例えば、例えばLEDなどのランプ、LCDなどのディスプレイ、スピーカ、またはバイブレータなどを含む。
  (解析装置)
 図13は、本開示の実施形態に係る解析装置のハードウェア構成の例を示す図である。解析装置600は、本開示の実施形態に係る解析装置、例えば上記で説明したスマートフォン200またはサーバ300を実現しうる。なお、上述のように、解析装置は、センサ装置100によって実現されてもよい。
 解析装置600は、CPU601と、ROM603と、RAM605と、ユーザインターフェース609と、外部記憶装置611と、通信装置613と、出力装置615とを含みうる。これらの要素は、例えばバスによって相互に接続される。
 CPU601、ROM603、およびRAM605は、例えば外部記憶装置611に記録されたプログラム命令を読み込んで実行することによって、様々な機能をソフトウェア的に実現する。本開示の実施形態では、CPU601、ROM603、およびRAM605によって、例えば、解析装置600全体の制御や、上記の機能構成における処理部420の機能などが実現されうる。
 ユーザインターフェース609は、解析装置600へのユーザ操作を受け付ける、例えばボタンやタッチパネルなどの入力装置である。
 外部記憶装置611は、解析装置600に関する各種の情報を記憶する。外部記憶装置611には、例えば、CPU601、ROM603、およびRAM605にソフトウェア的に機能を実現させるためのプログラム命令が格納されてもよく、また通信装置613が受信したセンサ情報が一時的にキャッシュされてもよい。また、外部記憶装置611には、解析結果のログが蓄積されてもよい。
 出力装置615は、情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置615は、例えば、LCD(Liquid Crystal Display)などの表示装置、またはスピーカやヘッドホンなどの音声出力装置などでありうる。出力装置615は、解析装置600の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。例えば図11A,11B,12A,12Bを参照して説明したような情報は、LCDなどの表示装置を介してユーザに向けて出力されうる。
 以上、センサ装置100および解析装置600のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 (8.補足)
 本開示の実施形態は、例えば、上記で説明したような解析装置(スマートフォンなどの情報処理端末、サーバ、またはセンサ装置)、システム、解析装置またはシステムで実行される情報処理方法、解析装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって前記第1のオブジェクトに発生した振動を示す振動データを取得する取得部と、
 前記振動データによって示される振動特性と、前記第1のオブジェクトについて前記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって前記第1の位置を特定する第1の解析処理部と、
 前記第1のオブジェクトの速度と前記第1の位置とに基づいて、前記第2のオブジェクトの前記接触後の速度を推定する第2の解析処理部と
 を備える解析装置。
(2)前記第2の解析処理部は、前記第1の位置における前記第1のオブジェクトの有効質量に基づいて前記第2のオブジェクトの前記接触後の速度を推定する、前記(1)に記載の解析装置。
(3)前記第2の解析処理部は、前記第1の位置について定義される振動特性と、前記振動データとに基づいて前記第1のオブジェクトが前記第2のオブジェクトに与えた力積を算出し、該力積に基づいて前記第2のオブジェクトの前記接触後の速度を推定する、前記(1)または(2)に記載の解析装置。
(4)前記第2の解析処理部は、前記第1の位置について定義される振動特性に含まれる伝達関数を用いた逆算によって前記振動データから前記力積を算出する、前記(3)に記載の解析装置。
(5)前記取得部は、さらに、前記接触を含む区間における前記第1のオブジェクトの変位および回転を示すモーションデータを取得し、
 前記第2の解析処理部は、前記モーションデータに基づいて推定される前記第1のオブジェクトの姿勢に基づいて前記第2のオブジェクトの前記接触後の速度を推定する、前記(1)~(4)のいずれか1項に記載の解析装置。
(6)前記第2の解析処理部は、前記姿勢に基づいて推定される前記第1のオブジェクトの前記接触時の速度方向に基づいて前記第2のオブジェクトの前記接触後の速度を推定する、前記(5)に記載の解析装置。
(7)前記第2の解析処理部は、前記姿勢に基づいて推定される前記第1のオブジェクトの前記接触時の速度方向に基づいて前記第2のオブジェクトの前記接触後の回転量を推定する、前記(5)または(6)に記載の解析装置。
(8)前記第2の解析処理部は、前記第1の位置に応じて前記接触における反発係数を選択または算出する、前記(1)~(7)のいずれか1項に記載の解析装置。
(9)前記第2の解析処理部は、前記第1の位置における前記第1のオブジェクトの有効質量に基づいて前記反発係数を算出する、前記(8)に記載の解析装置。
(10)前記第2のオブジェクトの前記接触後の速度に基づいて、前記第2のオブジェクトの前記接触後の軌跡を推定する第3の解析処理部をさらに備える、前記(1)~(8)のいずれか1項に記載の解析装置。
(11)第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって前記第1のオブジェクトに発生した振動を示す振動データを取得することと、
 前記振動データによって示される振動特性と、前記第1のオブジェクトについて前記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって前記第1の位置を特定することと、
 前記第1のオブジェクトの速度と前記第1の位置とに基づいて、前記第2のオブジェクトの前記接触後の速度を推定することと
 を含む解析方法。
(12)第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって前記第1のオブジェクトに発生した振動を示す振動データを取得する機能と、
 前記振動データによって示される振動特性と、前記第1のオブジェクトについて前記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって前記第1の位置を特定する機能と、
 前記第1のオブジェクトの速度と前記第1の位置とに基づいて、前記第2のオブジェクトの前記接触後の速度を推定する機能と
 をコンピュータに実現させるためのプログラムが格納された記録媒体。
 10,40  システム
 100  センサ装置
 200  スマートフォン
 300  サーバ
 410  入力部
 411  振動センサ
 413  モーションセンサ
 415  その他のセンサ
 420  処理部
 421  衝突検出部
 423  物理演算部
 4231  衝突解析部
 4233  打球推定部
 4235  打球軌跡推定部
 425  出力補正部
 430  出力部
 431  ディスプレイ
 433  スピーカ
 435  その他の出力部
 

Claims (12)

  1.  第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって前記第1のオブジェクトに発生した振動を示す振動データを取得する取得部と、
     前記振動データによって示される振動特性と、前記第1のオブジェクトについて前記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって前記第1の位置を特定する第1の解析処理部と、
     前記第1のオブジェクトの速度と前記第1の位置とに基づいて、前記第2のオブジェクトの前記接触後の速度を推定する第2の解析処理部と
     を備える解析装置。
  2.  前記第2の解析処理部は、前記第1の位置における前記第1のオブジェクトの有効質量に基づいて前記第2のオブジェクトの前記接触後の速度を推定する、請求項1に記載の解析装置。
  3.  前記第2の解析処理部は、前記第1の位置について定義される振動特性と、前記振動データとに基づいて前記第1のオブジェクトが前記第2のオブジェクトに与えた力積を算出し、該力積に基づいて前記第2のオブジェクトの前記接触後の速度を推定する、請求項1に記載の解析装置。
  4.  前記第2の解析処理部は、前記第1の位置について定義される振動特性に含まれる伝達関数を用いた逆算によって前記振動データから前記力積を算出する、請求項3に記載の解析装置。
  5.  前記取得部は、さらに、前記接触を含む区間における前記第1のオブジェクトの変位および回転を示すモーションデータを取得し、
     前記第2の解析処理部は、前記モーションデータに基づいて推定される前記第1のオブジェクトの姿勢に基づいて前記第2のオブジェクトの前記接触後の速度を推定する、請求項1に記載の解析装置。
  6.  前記第2の解析処理部は、前記姿勢に基づいて推定される前記第1のオブジェクトの前記接触時の速度方向に基づいて前記第2のオブジェクトの前記接触後の速度を推定する、請求項5に記載の解析装置。
  7.  前記第2の解析処理部は、前記姿勢に基づいて推定される前記第1のオブジェクトの前記接触時の速度方向に基づいて前記第2のオブジェクトの前記接触後の回転量を推定する、請求項5に記載の解析装置。
  8.  前記第2の解析処理部は、前記第1の位置に応じて前記接触における反発係数を選択または算出する、請求項1に記載の解析装置。
  9.  前記第2の解析処理部は、前記第1の位置における前記第1のオブジェクトの有効質量に基づいて前記反発係数を算出する、請求項8に記載の解析装置。
  10.  前記第2のオブジェクトの前記接触後の速度に基づいて、前記第2のオブジェクトの前記接触後の軌跡を推定する第3の解析処理部をさらに備える、請求項1に記載の解析装置。
  11.  第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって前記第1のオブジェクトに発生した振動を示す振動データを取得することと、
     前記振動データによって示される振動特性と、前記第1のオブジェクトについて前記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって前記第1の位置を特定することと、
     前記第1のオブジェクトの速度と前記第1の位置とに基づいて、前記第2のオブジェクトの前記接触後の速度を推定することと
     を含む解析方法。
  12.  第1のオブジェクト上の第1の位置に第2のオブジェクトが接触したことによって前記第1のオブジェクトに発生した振動を示す振動データを取得する機能と、
     前記振動データによって示される振動特性と、前記第1のオブジェクトについて前記第2のオブジェクトが接触しうる位置ごとに定義される振動特性とを比較することによって前記第1の位置を特定する機能と、
     前記第1のオブジェクトの速度と前記第1の位置とに基づいて、前記第2のオブジェクトの前記接触後の速度を推定する機能と
     をコンピュータに実現させるためのプログラムが格納された記録媒体。
     
PCT/JP2014/076554 2013-12-05 2014-10-03 解析装置、解析方法および記録媒体 WO2015083429A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP14868210.7A EP3078398A4 (en) 2013-12-05 2014-10-03 Analysis device, analysis method and recording medium
US15/039,097 US10406413B2 (en) 2013-12-05 2014-10-03 Analysis apparatus, analysis method, and recording medium
US16/522,858 US11173362B2 (en) 2013-12-05 2019-07-26 Analysis apparatus, analysis method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-251714 2013-12-05
JP2013251714A JP2015107237A (ja) 2013-12-05 2013-12-05 解析装置、解析方法および記録媒体

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/039,097 A-371-Of-International US10406413B2 (en) 2013-12-05 2014-10-03 Analysis apparatus, analysis method, and recording medium
US16/522,858 Continuation US11173362B2 (en) 2013-12-05 2019-07-26 Analysis apparatus, analysis method, and recording medium

Publications (1)

Publication Number Publication Date
WO2015083429A1 true WO2015083429A1 (ja) 2015-06-11

Family

ID=53273206

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/076554 WO2015083429A1 (ja) 2013-12-05 2014-10-03 解析装置、解析方法および記録媒体

Country Status (4)

Country Link
US (2) US10406413B2 (ja)
EP (1) EP3078398A4 (ja)
JP (1) JP2015107237A (ja)
WO (1) WO2015083429A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013188426A (ja) * 2012-03-15 2013-09-26 Sony Corp 情報処理装置、情報処理システムおよびプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6175750B2 (ja) * 2012-09-21 2017-08-09 カシオ計算機株式会社 状態特定装置、状態特定方法及びプログラム
US9457228B2 (en) * 2013-07-09 2016-10-04 Aditi Sinha Sport training equipment
KR101716360B1 (ko) * 2014-02-20 2017-03-14 주식회사 유컴테크놀러지 골프 스윙 분석 장치 및 방법
US9724561B2 (en) * 2014-07-09 2017-08-08 Aditi Sinha Sport training equipment
US9700777B2 (en) * 2015-07-13 2017-07-11 Sports Sensor, Inc. Instrumented, angle-adjustable batting tee
US10173100B2 (en) * 2016-09-17 2019-01-08 Navyaa Sinha Sport training equipment
CN108307051B (zh) * 2018-01-18 2021-04-16 Oppo广东移动通信有限公司 电子装置、碰撞数据处理方法及相关产品
US20210140815A1 (en) * 2018-07-23 2021-05-13 Future Technologies In Sport, Inc. System and method for sensing vibrations in equipment
JP7525441B2 (ja) 2021-05-11 2024-07-30 株式会社ブリヂストン 推定装置、推定方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59194761A (ja) 1983-04-20 1984-11-05 松下電工株式会社 打撃用具
JPH07168952A (ja) * 1993-12-14 1995-07-04 Canon Inc 物体の衝突シミュレーション方法とその装置
JP2004065570A (ja) * 2002-08-06 2004-03-04 Sumitomo Rubber Ind Ltd ゴルフクラブヘッド
JP2011050674A (ja) * 2009-09-04 2011-03-17 Yokohama Rubber Co Ltd:The 加振力の測定方法
WO2013069447A1 (ja) 2011-11-08 2013-05-16 ソニー株式会社 センサ装置、解析装置および記憶媒体

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3945646A (en) * 1974-12-23 1976-03-23 Athletic Swing Measurement, Inc. Athletic swing measurement system and method
US4940236A (en) * 1985-07-26 1990-07-10 Allen Dillis V Computer golf club
US5471383A (en) * 1992-01-22 1995-11-28 Acushnet Company Monitoring systems to measure and display flight characteristics of moving sports object
FR2740871B1 (fr) * 1995-11-08 1998-01-02 Somville Raymond Joseph Dispositif de mesure d'au moins un parametre physique relatif a une balle de jeu propulsee
US20030207718A1 (en) * 2000-10-20 2003-11-06 Perlmutter Michael S. Methods and systems for analyzing the motion of sporting equipment
US6585605B2 (en) * 2001-04-04 2003-07-01 Callaway Golf Company Measurement of the coefficient of restitution of a golf club
NL1020131C1 (nl) * 2002-03-07 2003-09-10 Govert De Vries Werkwijze en inrichting voor het meten en presenteren van parameters bij het met behulp van een slagwerktuig slaan tegen een te verplaatsen voorwerp.
JP2005204099A (ja) 2004-01-16 2005-07-28 Seiko Epson Corp ネットワーク制御システム
US7736242B2 (en) * 2004-03-23 2010-06-15 Nike, Inc. System for determining performance characteristics of a golf swing
US20060084516A1 (en) * 2004-07-28 2006-04-20 Smartswing, Inc. Method and system for defining and using a reference swing for a sports training system
US20070105664A1 (en) * 2005-11-07 2007-05-10 Fun Racquets, Inc. Racquet with Entertainment and Performance Feedback
US9370704B2 (en) * 2006-08-21 2016-06-21 Pillar Vision, Inc. Trajectory detection and feedback system for tennis
US8534121B2 (en) * 2007-11-08 2013-09-17 Acushnet Company Golf club comprising a piezoelectric sensor
KR101202113B1 (ko) * 2007-11-27 2012-11-15 무겐 인코포레이티드 타격 위치 검출 장치, 타격 위치 검출 방법, 및 타격 위치 검출 장치의 제조 방법
US20090221388A1 (en) * 2008-02-28 2009-09-03 Giannetti William B Feedback-providing sporting goods item
US8903521B2 (en) * 2010-08-26 2014-12-02 Blast Motion Inc. Motion capture element
US8696482B1 (en) * 2010-10-05 2014-04-15 Swingbyte, Inc. Three dimensional golf swing analyzer
JP5948011B2 (ja) * 2010-11-19 2016-07-06 セイコーエプソン株式会社 運動解析装置
US9186547B2 (en) * 2011-04-28 2015-11-17 Nike, Inc. Golf clubs and golf club heads
KR101958902B1 (ko) 2011-09-30 2019-07-03 삼성전자주식회사 전자기기들의 그룹 제어 방법 및 그를 위한 전자기기 관리 시스템
FR2990356A1 (fr) * 2012-05-10 2013-11-15 Movea Procede d'analyse du jeu d'un utilisateur d'une raquette
US9720391B2 (en) 2012-08-07 2017-08-01 Panasonic Intellectual Property Management Co., Ltd. Coordination processing execution method and coordination processing execution system
US8998717B2 (en) * 2013-01-17 2015-04-07 Ppg Technologies, Inc. Device and method for reconstructing and analyzing motion of a rigid body
US20150057112A1 (en) * 2013-08-21 2015-02-26 Lavie Sak Swing with IMU Feedback of Back Swing, Contact Point, and Follow Through
US9626641B2 (en) * 2013-11-19 2017-04-18 Courtmatics, Inc. Tennis game analysis using inertial sensors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59194761A (ja) 1983-04-20 1984-11-05 松下電工株式会社 打撃用具
JPH07168952A (ja) * 1993-12-14 1995-07-04 Canon Inc 物体の衝突シミュレーション方法とその装置
JP2004065570A (ja) * 2002-08-06 2004-03-04 Sumitomo Rubber Ind Ltd ゴルフクラブヘッド
JP2011050674A (ja) * 2009-09-04 2011-03-17 Yokohama Rubber Co Ltd:The 加振力の測定方法
WO2013069447A1 (ja) 2011-11-08 2013-05-16 ソニー株式会社 センサ装置、解析装置および記憶媒体

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HOWARD BRODY; ROD CROSS; CRAWFORD LINDSEY: "The Physics and Technology of Tennis", 2002, RACQUET TECH PUB.
R. CROSS: "Effects of friction between the ball and strings in tennis", SPORTS ENGINEERING, vol. 3, no. 2, May 2000 (2000-05-01), pages 85 - 97, XP055385586, DOI: doi:10.1046/j.1460-2687.2000.00052.x
See also references of EP3078398A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013188426A (ja) * 2012-03-15 2013-09-26 Sony Corp 情報処理装置、情報処理システムおよびプログラム
US10460157B2 (en) 2012-03-15 2019-10-29 Sony Corporation Information processing device, information processing system, and program
US11250247B2 (en) 2012-03-15 2022-02-15 Sony Group Corporation Information processing device, information processing system, and program

Also Published As

Publication number Publication date
US20200016464A1 (en) 2020-01-16
EP3078398A1 (en) 2016-10-12
EP3078398A4 (en) 2017-08-02
US20170157480A1 (en) 2017-06-08
JP2015107237A (ja) 2015-06-11
US11173362B2 (en) 2021-11-16
US10406413B2 (en) 2019-09-10

Similar Documents

Publication Publication Date Title
WO2015083429A1 (ja) 解析装置、解析方法および記録媒体
US9415291B2 (en) Golf swing analyzing apparatus and method of analyzing golf swing
US9962591B2 (en) Motion analysis method, program, and motion analysis device
JP6696109B2 (ja) 運動解析装置、運動解析システム、運動解析方法及びプログラム
JP6613684B2 (ja) スイング診断方法、スイング診断プログラム、記録媒体、スイング診断装置及びスイング診断システム
US20150111657A1 (en) Movement analysis method, movement analysis apparatus, and movement analysis program
US10354550B2 (en) Swing diagnosis apparatus, swing diagnosis system, swing diagnosis method, and recording medium
KR20140148298A (ko) 운동 해석 방법 및 운동 해석 장치
US10307656B2 (en) Swing diagnosis apparatus, swing diagnosis system, swing diagnosis method, and recording medium
JP2016067410A (ja) 運動解析装置、運動解析システム、運動解析方法及びプログラム
US20170007880A1 (en) Motion analysis method, motion analysis apparatus, motion analysis system, and program
KR20160076485A (ko) 운동 해석 장치, 운동 해석 시스템, 운동 해석 방법, 표시 장치 및 기록 매체
JP2017023636A (ja) スイング診断装置、スイング診断システム、スイング診断方法、スイング診断プログラム及び記録媒体
JP7291234B2 (ja) ラケット用解析システム、ラケット用解析装置、ラケット用解析プログラム及びラケット用解析方法
JP2015073821A (ja) 運動解析方法、運動解析装置、および運動解析プログラム
JP2021100453A (ja) 情報処理装置、情報処理方法、プログラム
US20160030805A1 (en) Motion analysis method, motion analysis device, and program
JP2018099452A (ja) 選択支援装置、選択支援システムおよび選択支援方法
JP6304676B2 (ja) ゴルフスイング解析装置およびゴルフスイング解析方法
JP2015002911A (ja) 運動解析装置および運動解析プログラム
WO2015146155A1 (ja) スイングデータ圧縮方法、スイングデータ圧縮装置、スイング解析装置及びスイングデータ圧縮プログラム
JP2016198296A (ja) 評価装置および評価システム
JP2021000371A (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP6904093B2 (ja) 打具の把持状態の解析装置
JP2015198761A (ja) 運動解析装置、運動解析方法、運動解析プログラム、および運動解析表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14868210

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014868210

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014868210

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15039097

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE