WO2015098302A1 - 解析装置、記録媒体および解析方法 - Google Patents

解析装置、記録媒体および解析方法 Download PDF

Info

Publication number
WO2015098302A1
WO2015098302A1 PCT/JP2014/079387 JP2014079387W WO2015098302A1 WO 2015098302 A1 WO2015098302 A1 WO 2015098302A1 JP 2014079387 W JP2014079387 W JP 2014079387W WO 2015098302 A1 WO2015098302 A1 WO 2015098302A1
Authority
WO
WIPO (PCT)
Prior art keywords
users
play
correlation
user
data
Prior art date
Application number
PCT/JP2014/079387
Other languages
English (en)
French (fr)
Inventor
英行 松永
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/104,680 priority Critical patent/US10569135B2/en
Priority to EP14873274.6A priority patent/EP3088059A4/en
Priority to JP2015554649A priority patent/JP6459979B2/ja
Publication of WO2015098302A1 publication Critical patent/WO2015098302A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • A63B24/0006Computerised comparison for qualitative assessment of motion sequences or the course of a movement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B60/00Details or accessories of golf clubs, bats, rackets or the like
    • A63B60/46Measurement devices associated with golf clubs, bats, rackets or the like for measuring physical parameters relating to sporting activity, e.g. baseball bats with impact indicators or bracelets for measuring the golf swing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/10Positions
    • A63B2220/12Absolute positions, e.g. by using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/40Acceleration
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/64Frequency, e.g. of vibration oscillation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/70Measuring or simulating ambient conditions, e.g. weather, terrain or surface conditions
    • A63B2220/72Temperature
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/70Measuring or simulating ambient conditions, e.g. weather, terrain or surface conditions
    • A63B2220/75Humidity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/803Motion sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/805Optical or opto-electronic sensors
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/807Photo cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/833Sensors arranged on the exercise apparatus or sports implement
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/83Special sensors, transducers or devices therefor characterised by the position of the sensor
    • A63B2220/836Sensors arranged on the body of the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2220/00Measuring of physical parameters relating to sporting activity
    • A63B2220/80Special sensors, transducers or devices therefor
    • A63B2220/89Field sensors, e.g. radar systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2225/00Miscellaneous features of sport apparatus, devices or equipment
    • A63B2225/50Wireless data transmission, e.g. by radio transmitters or telemetry

Definitions

  • This disclosure relates to an analysis apparatus, a recording medium, and an analysis method.
  • the present disclosure proposes a new and improved analysis device, recording medium, and analysis method capable of analyzing data obtained from a series of sports plays as a series or set.
  • an acquisition function for acquiring data indicating play events defined based on motions when a plurality of users play sports and arranged in a time interval, and the plurality of users Based on the temporal relationship of each of the play events, the calculation function for calculating the degree of correlation between the plurality of users in the section, and the relationship between the plurality of users in the section based on the degree of correlation.
  • An analysis apparatus including a processor that realizes a relationship estimation function to be estimated is provided.
  • the processor obtains data indicating play events that are defined based on motions when a plurality of users play sports and are arranged in a time interval; Based on the temporal relationship of the play events of each of the plurality of users, calculating the degree of correlation of the play of the plurality of users in the section, and on the basis of the degree of correlation, the plurality of users in the section And an estimation method is provided.
  • data obtained from a series of sports plays can be analyzed as a series or a set.
  • the following explanation is made using a specific example of sports (tennis), but the scope of application of the present technology is not limited to the exemplified sports.
  • the present technology can be applied to any sport as long as a play event can be defined based on the motion of a user playing the sport.
  • FIG. 1 is a diagram illustrating an example of a system configuration according to the first embodiment of the present disclosure.
  • the system 10 includes a sensor device 100, a smartphone 200, and a server 300.
  • the sensor device 100 is mounted on a tennis racket R.
  • the sensor device 100 includes, for example, a motion sensor (for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.).
  • a motion sensor for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.
  • the sensor device 100 directly detects the motion of the racket R.
  • the sensor device 100 indirectly detects the motion of the racket R. It can be said that the user's motion is detected.
  • the sensor device 100 is indirectly attached to the user and detects the user's motion.
  • the sensor device 100 may be attached to, for example, a user's clothes or shoes. In this case as well, the sensor device 100 directly detects the motion of clothes and shoes, but since the clothing and shoes move with the user, the sensor device can indirectly detect the motion of the user. .
  • the sensor device 100 may be directly attached to the user, for example, by being wound around an arm with a band. In this case, the sensor device 100 can directly detect the user's motion. Even if the sensor device 100 directly detects a user's motion, or indirectly detects the user's motion, the sensor device 100 provides if the detected motion reflects the user's motion. Based on the detection result, it is possible to define a play event corresponding to the motion of the user playing the sport.
  • the sensor device 100 may include a vibration sensor.
  • the data detected by the vibration sensor can easily identify the section corresponding to the play event (for example, the section before and after the impact of the ball).
  • the data detected by the vibration sensor may also be used for play event analysis in the same manner as the data detected by the motion sensor.
  • the sensor device 100 may further include a sensor for acquiring environment information of a user who plays sports, such as temperature, humidity, brightness, and position. Data detected by various sensors included in the sensor device 100 is preprocessed as necessary, and then transmitted to the smartphone 200 by wireless communication such as Bluetooth (registered trademark).
  • the smartphone 200 is disposed near a user who is playing sports, for example.
  • the smartphone 200 receives data transmitted from the sensor device 100 through wireless communication such as Bluetooth (registered trademark), temporarily stores and processes the data as necessary, and then performs data transmission through network communication. Is transmitted to the server 300.
  • the smartphone 200 may receive the result of the analysis performed by the server 300 based on the transmitted data and output it to the user via a display, a speaker, or the like. Note that the user does not have to play sports when the analysis result is output.
  • the output of the analysis result may be executed by an information processing terminal used by the user, for example, various personal computers or tablet terminals, a game machine, a television, or the like other than the smartphone 200.
  • the server 300 communicates with the smartphone 200 via the network, and receives data detected by various sensors included in the sensor device 100.
  • the server 300 executes an analysis process using the received data, and generates various types of information regarding sports play.
  • the server 300 defines a play event based on data obtained by a motion sensor and directly or indirectly indicating a motion of a user who plays a sport.
  • a play event corresponds to one shot using a racket R, for example.
  • a play event for example, a user's play represented by motion data can be grasped as a series of plays having a meaning such as ⁇ serve, stroke, volley,.
  • an image is acquired by the imaging unit 250.
  • the imaging unit 250 is realized by, for example, a camera module that combines an imaging device with an optical system such as a lens.
  • the image may include a user who plays sports as a subject.
  • the image acquired by the imaging unit 250 is transmitted from the transmission unit 240 to the server 300 together with the data received by the reception unit 210, for example.
  • the image may be used in the analysis process in the server 300 together with the data acquired by the sensor device 100, for example, or may be incorporated in information generated by the analysis process.
  • the input unit 260 includes, for example, a touch panel, hardware buttons, and / or a microphone and a camera for receiving voice input and gesture input.
  • the processing unit 220 may request information from the server 300 via the transmission unit 240 according to a user operation acquired via the input unit 260.
  • the server 300 includes a reception unit 310, a processing unit 320, a storage unit 330, and a transmission unit 340.
  • the receiving unit 310 is realized by a communication device, and receives data transmitted from the smartphone 200 using network communication such as the Internet.
  • the processing unit 320 is realized by a processor such as a CPU, and processes received data. For example, the processing unit 320 may execute an analysis process on the received data, and may further accumulate the analyzed data in the storage unit 330 or output the data via the transmission unit 340. Alternatively, the processing unit 320 may only execute accumulation and output control of data already analyzed in the smartphone 200 or the like.
  • the analysis process using the data acquired by the sensor device 100 is executed by the processing unit 320 of the server 300, but the analysis process may be executed by the processing unit 220 of the smartphone 200, It may be executed by the processing unit 120 of the sensor device 100.
  • the system 10 is described as including the sensor device 100, the smartphone 200, and the server 300, for example, when an analysis process is executed by the processing unit 220 of the smartphone 200, the server 300 is included in the system 10. It does not have to be included.
  • the server 300 may store the information obtained by the analysis process and provide a service shared between users.
  • the smartphone 10 and the server 300 may not be included in the system 10.
  • the sensor device 100 may be a dedicated sensor device attached to a user or a tool, for example, or a sensor module mounted on a portable information processing terminal may function as the sensor device 100. Therefore, the sensor device 100 can be the same device as the smartphone 200.
  • FIG. 3 and 4 are diagrams for describing an outline of the analysis processing according to the first embodiment of the present disclosure.
  • a plurality of users (user A, user B, and user C in the illustrated example) are defined based on motions when playing sports and are temporally related.
  • Data indicating play events arranged in a particular section is acquired.
  • the time series 1101a of the user A play events, the time series 1101b of the user B play events, and the time series 1101c of the user C play events are acquired.
  • the section P1 includes time series 1101a and 1101b of user A and user B play events.
  • the play events of the user A and the user B are arranged on the time axis, respectively.
  • character strings such as FHST and SRV indicate the type of play event.
  • a play event is defined based on a motion of a user who plays tennis, and each play event corresponds to a tennis shot.
  • FHST indicates a forehand stroke
  • SRV indicates a serve.
  • NS Not Swing
  • the impact between the racket and the ball is detected by a vibration sensor or the like, and a series of motions corresponding to the impact is detected from the motion data, but it is determined whether it is the kind of swing. It can mean a play event that could not be done.
  • the filtering processing unit 423 filters the data after the resampling processing by the resampling processing unit 421. For example, the filtering processing unit 423 removes a predetermined type of play event from the data after the resampling process. More specifically, for example, the filtering processing unit 423 may remove the play event having the NS (Not Swing) play event type illustrated in FIG. 6A and pass the data to the subsequent processing. . For example, the filtering processing unit 423 may weight a specific type of play event in the data after the resampling process.
  • the relationship estimation processing unit 431 may estimate an interaction between a plurality of users.
  • Interaction means each play event that occurs when each user's play interacts with each other, such as a tennis rally (during a game or practice) or play with a ball in soccer. sell.
  • the play events of the users involved in the interaction occur close in time. Therefore, when interaction occurs between users, for example, when the time slot set by the time slot division processing unit 425 is relatively short in the calculation of the correlation degree in the correlation degree calculation processing unit 427 described above. Even if so, a high degree of correlation can be calculated.
  • the output processing unit 430 provides a function (information providing function) that provides information based on the estimation result output by the relationship estimation processing unit 431 as described above to some or all of a plurality of users who are the objects of analysis. Can also be realized. In this case, for example, based on the request of the first user among the plurality of users, information indicating the second user (included in the plurality of users) playing with the first user is first. May be provided to other users.
  • the input processing unit 410 obtains play event time-series data 411 of a plurality of users (for example, friends of the first user) who can provide such information, and the play event time-series data 411 obtained by the analysis processing unit 420.
  • the analysis process is executed based on the above.
  • the analysis processing unit 420 may exclude a user who is included in the play event time-series data 411 but whose time zone in which the play event has occurred does not overlap with the first user from the target of the analysis process. .
  • Information generated by the output processing unit 430 based on the result of the analysis processing can be provided to the first user.
  • FIG. 7 is a flowchart illustrating an example of processing according to the first embodiment of the present disclosure.
  • the player of X can be a user who has requested information on the opponent to play from the system
  • the group of players of Y can be friends of the user (information sharing is permitted), etc. Users.
  • the resampling processing unit 421 resamples the time series data (S105).
  • the filtering processing unit 423 filters the time series data X ′ and Y ′ (S107).
  • the time slot division processing unit 425 divides the time series data X ′′, Y ′′ into common time slots (S109).
  • the correlation degree calculation processing unit 427 executes a loop process for each time slot (S111).
  • the degree of correlation between the time-series data is calculated for each time slot (S113). More specifically, for example, in each time slot, between time series data x ′′ 1 and y ′′ 1, between x ′′ 1 and y ′′ 2, ... between x ′′ 1 and y ′′ n.
  • the degree of correlation can be calculated.
  • the relationship estimation processing unit 431 determines whether the time series data x ′′ 1 in each time slot in S113. The degree of correlation calculated in the above is added to obtain the correlation score of each play opponent candidate, and a player whose correlation score is higher than a predetermined threshold is specified as a play opponent.
  • the time slot division processing unit 425 divides the time series data X ′′, Y ′′ with two types of time slots having different lengths, and the correlation calculation processing unit 427 You may perform the loop process of S111 separately about a time slot.
  • the relationship estimation processing unit 431 performs time-series data for the players whose correlation score is equal to or greater than the threshold value in the shorter time slot among the players (playing opponent candidates) of the time-series data Y.
  • the player may be identified as the player who has interacted with the player of X (who was a tennis rally partner, etc.).
  • the correlation score greater than or equal to the threshold is calculated in the longer time slot, no interaction has occurred with the time series data X player. You may specify as the player who was playing together.
  • the second embodiment is different from the first embodiment in that a position determination unit 521 described below is provided, but the other points are the same as those in the first embodiment. The detailed description about is omitted.
  • FIG. 8 is a diagram schematically illustrating a functional configuration of a processing unit of the system according to the second embodiment of the present disclosure.
  • the processing unit 50 realized by a processor that executes analysis processing includes an input processing unit 410, an analysis processing unit 520, and an output processing unit 430.
  • the input processing unit 410 and the output processing unit 430 are substantially the same as those described above with reference to FIG.
  • the analysis processing unit 520 includes a position determination unit 521, a resampling processing unit 421, a filtering processing unit 423, a time slot division processing unit 425, and a correlation calculation processing unit 427. Note that the resampling processing unit 421, the filtering processing unit 423, the time slot division processing unit 425, and the correlation calculation processing unit 427 are substantially the same as those described above with reference to FIG.
  • the sensor 110 included in the sensor device 100 includes a position sensor such as a GPS sensor, or the smartphone 200 in the vicinity of the sensor device 100 acquires position information using a GPS sensor, a Wi-Fi communication unit, or the like. It is possible to acquire position information indicating the place where the play event has occurred. Therefore, the play event time-series data 411 acquired by the input processing unit 410 can include position information indicating a place where the play event has occurred.
  • the position determination unit 521 extracts a user who is a target of analysis (calculation of correlation) by the processing after the resampling processing unit 421 based on the position information. For example, the position determination unit 521 generates a play event at a position within a predetermined range from the position where the play event of the user who requested the determination of the relationship between the users (for example, the user of the time-series data X in the example of FIG. 7) has occurred. Other generated users may be extracted as analysis target users (for example, users of the time-series data Y in the example of FIG. 7).
  • the position determination unit 521 By such a function of the position determination unit 521, for example, when the number of users included in the play event time-series data 411 is large, a user who is highly likely not to have a relationship between users (a user at a distant position) is selected. It can be excluded from the object of analysis, and the load of analysis processing can be reduced.
  • the function of extracting users or the like having overlapping time zones in which play events have occurred can also function as a target extraction function similar to the position determination unit 521 described above.
  • the position information is used for extracting the users to be analyzed, while the relationship of each user's play (whether they were playing together or interacting with each other) is estimated for the play event. Since motion data or the like is used, it is possible to estimate the relationship of each user's play with higher accuracy.
  • the type of sport is not limited to tennis in the above example, and the embodiment of the present disclosure can be applied to all sports such as soccer, golf, and table tennis.
  • the time slot is set to be long to some extent, it may be possible to distinguish between users playing together on the pitch and users watching outside the pitch.
  • the time slot is set to be short, it may be possible to identify a user who has been interacting among users who are playing together in the pitch, for example, a user who has been holding the ball.
  • FIG. 9 is a diagram illustrating an example of a hardware configuration of the sensor device according to the embodiment of the present disclosure.
  • a sensor device 100 includes a sensor 101, a CPU (Central Processing Unit) 103, a ROM (Read Only Memory) 105, a RAM (Random Access Memory) 107, a user interface 109, and an external storage device. 111, a communication device 113, and an output device 115. These elements are connected to each other by, for example, a bus.
  • a bus for example, a bus.
  • the sensor 101 includes, for example, an acceleration sensor, an angular velocity sensor, a vibration sensor, a geomagnetic sensor, a temperature sensor, a pressure sensor (including a push switch), or a GPS (Global Positioning System) receiver.
  • the sensor 101 may include a camera (image sensor) and a microphone (sound sensor).
  • the user interface 109 is an input device such as a button or a touch panel that accepts a user operation to the sensor device 100.
  • the user's operation can be, for example, an instruction to start or end transmission of sensor information from the sensor device.
  • the external storage device 111 stores various types of information regarding the sensor device 100.
  • the external storage device 111 may store, for example, program instructions for causing the CPU 103, the ROM 105, and the RAM 107 to realize functions in software, and the data acquired by the sensor 101 may be temporarily cached. Good.
  • an external storage device 111 that is resistant to impact, such as a semiconductor memory. Note that the configuration corresponding to the internal storage area (memory or external storage device) that accumulates data detected by the sensor device 100 when the smartphone 200 is not arranged in the vicinity of the user who is playing sports is described above.
  • ROM 105, RAM 107, and / or external storage device 111 is described above.
  • the CPU 601, the ROM 603, and the RAM 605 realize various functions in software by reading and executing program instructions recorded in the external storage device 611, for example.
  • the CPU 601, the ROM 603, and the RAM 605 can realize, for example, control of the entire analysis apparatus 600 and functions of the processing unit in the functional configuration described above.
  • the external storage device 611 stores various types of information related to the analysis device 600.
  • the CPU 601, the ROM 603, and the RAM 605 may store program instructions for realizing functions in software, and the sensor information received by the communication device 613 is temporarily cached in the external storage device 611. Also good.
  • the external storage device 611 may store analysis result logs.
  • the output device 615 is configured by a device capable of visually or audibly notifying information to the user.
  • the output device 615 can be, for example, a display device such as an LCD (Liquid Crystal Display), or an audio output device such as a speaker or headphones.
  • the output device 615 outputs the result obtained by the processing of the analysis device 600 as a video such as text or an image, or outputs it as a sound or sound.
  • each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • An acquisition function for acquiring data indicating play events defined based on motions when a plurality of users play sports, and arranged in a time interval;
  • a calculation function for calculating the degree of correlation of play of the plurality of users in the section based on the temporal relationship of the play events of each of the plurality of users;
  • An analysis device comprising a processor that realizes a relationship estimation function for estimating a relationship between the plurality of users in the section based on the degree of correlation.
  • the information providing function selects a second user among the plurality of users who has played with the first user based on a request of the first user among the plurality of users.
  • the analysis apparatus according to (11), wherein information to be provided is provided to the first user.
  • the processor according to any one of (1) to (12), wherein the processor further realizes a target extraction function for extracting a user who is a target for calculating the correlation degree from the plurality of users.
  • Analysis device (14)
  • the acquisition function acquires the data further including position information indicating a place where the play event has occurred,
  • the analysis device according to (13), wherein the target extraction function extracts a user who is a target for calculating the correlation degree based on the position information.
  • An acquisition function for acquiring data indicating play events defined based on motions when a plurality of users play sports and arranged in a time interval;
  • a calculation function for calculating the degree of correlation of play of the plurality of users in the section based on the temporal relationship of the play events of each of the plurality of users;
  • a recording medium in which a program for causing a computer to realize a relationship estimation function for estimating a relationship between the plurality of users in the section based on the degree of correlation is recorded.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】スポーツの一連のプレーについて得られたデータを系列または集合として解析する。 【解決手段】複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得する取得機能と、上記複数のユーザのそれぞれの上記プレーイベントの時間的な関係に基づいて、上記区間における上記複数のユーザのプレーの相関度を算出する算出機能と、上記相関度に基づいて上記区間における上記複数のユーザの関係を推定する関係推定機能とを実現するプロセッサを備える解析装置が提供される。

Description

解析装置、記録媒体および解析方法
 本開示は、解析装置、記録媒体および解析方法に関する。
 これまでに、センシングや解析を利用して、スポーツのプレーを支援する技術が多く開発されてきている。例えば、特許文献1には、モーションセンサの検出データを用いてスイングの動作の検出を行い、スイングの動作が検出されたデータをスイング候補データとして抽出し、スイングに関連付けられる判定条件に基づきスイング候補データから真のスイングデータを選択する技術が記載されている。これによって、例えば、ユーザがスイング動作の開始や終了のタイミングを支持する必要がなく、比較的小さい計算負荷でスイングデータの抽出を行うことができる。
特開2012-254205号公報
 しかしながら、特許文献1に記載されたような技術では、個々のスイングを解析することはできるものの、得られたデータを系列または集合として解析していない。スポーツのプレーの上達のためには、スイングなどの個々のプレーを解析して改善点などを発見することも重要であるが、例えばゲームやセット構成する一連のプレーは相互に関係しており、個々のプレーに着目するにしてもその前後のプレーの影響は無視できない。また、いわゆる試合運びやプレーのコンビネーションといったものについては、一連のプレーについて得られたデータを系列または集合として解析しなければ把握することが困難である。
 そこで、本開示では、スポーツの一連のプレーについて得られたデータを系列または集合として解析することが可能な、新規かつ改良された解析装置、記録媒体および解析方法を提案する。
 本開示によれば、複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得する取得機能と、上記複数のユーザのそれぞれの上記プレーイベントの時間的な関係に基づいて、上記区間における上記複数のユーザのプレーの相関度を算出する算出機能と、上記相関度に基づいて上記区間における上記複数のユーザの関係を推定する関係推定機能とを実現するプロセッサを備える解析装置が提供される。
 また、本開示によれば、複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得する取得機能と、上記複数のユーザのそれぞれの上記プレーイベントの時間的な関係に基づいて、上記区間における上記複数のユーザのプレーの相関度を算出する算出機能と、上記相関度に基づいて上記区間における上記複数のユーザの関係を推定する関係推定機能とをコンピュータに実現させるためのプログラムが記録された記録媒体が提供される。
 また、本開示によれば、プロセッサが、複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得することと、上記複数のユーザのそれぞれの上記プレーイベントの時間的な関係に基づいて、上記区間における上記複数のユーザのプレーの相関度を算出することと、上記相関度に基づいて上記区間における上記複数のユーザの関係を推定することとを含む解析方法が提供される。
 以上説明したように本開示によれば、スポーツの一連のプレーについて得られたデータを系列または集合として解析することができる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係るシステム構成の例を示す図である。 本開示の第1の実施形態に係るシステムの装置構成を概略的に示すブロック図である。 本開示の第1の実施形態に係る解析処理の概略について説明するための図である。 本開示の第1の実施形態に係る解析処理の概略について説明するための図である。 本開示の第1の実施形態に係るシステムの処理部の機能構成を概略的に示す図である。 本開示の第1の実施形態に係る解析処理について説明するための図である。 本開示の第1の実施形態に係る処理の例を示すフローチャートである。 本開示の第2の実施形態に係るシステムの処理部の機能構成を概略的に示す図である。 本開示の実施形態に係るセンサ装置のハードウェア構成の例を示す図である。 本開示の実施形態に係る解析装置のハードウェア構成の例を示す図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
  1-1.システム構成
  1-1.解析処理の概略
  1-2.機能構成
  1-3.処理フロー
 2.第2の実施形態
 3.ハードウェア構成
 4.補足
 なお、以下の説明は、具体的なスポーツの例(テニス)を用いてなされるが、本技術の適用範囲は例示されたスポーツには限られない。例えば、スポーツをプレーするユーザのモーションに基づいてプレーイベントが定義されうる限りにおいて、本技術はどのようなスポーツにでも適用可能である。
 (1.第1の実施形態)
 (1-1.システム構成)
 図1は、本開示の第1の実施形態に係るシステム構成の例を示す図である。図1を参照すると、システム10は、センサ装置100と、スマートフォン200と、サーバ300とを含む。
 センサ装置100は、テニスのラケットRに装着される。センサ装置100は、例えばモーションセンサ(例えば加速度センサ、ジャイロセンサ、地磁気センサなど)を備える。この場合、センサ装置100が直接的に検出するのはラケットRのモーションであるが、ラケットRはユーザによって把持され、ユーザの意思に従って運動するため、センサ装置100はラケットRのモーションを介して間接的にユーザのモーションを検出しているともいえる。本明細書では、このような場合、センサ装置100はユーザに間接的に装着されてユーザのモーションを検出しているという。
 なお、他の実施形態において、センサ装置100は、例えばユーザの衣服や靴などに装着されてもよい。この場合も、センサ装置100が直接的に検出するのは衣服や靴のモーションであるが、衣服や靴はユーザとともに運動するため、センサ装置は間接的にユーザのモーションを検出しているといえる。あるいは、センサ装置100は、例えばバンドで腕に巻き付けられるなどして、ユーザに直接的に装着されていてもよい。この場合、センサ装置100は直接的にユーザのモーションを検出しうる。センサ装置100がユーザのモーションを直接的に検出する場合だけでなく、間接的に検出する場合であっても、検出されるモーションにユーザのモーションが反映されていれば、センサ装置100が提供する検出結果に基づいて、スポーツをプレーするユーザのモーションに対応するプレーイベントを定義することが可能である。
 さらに、センサ装置100は、振動センサを備えてもよい。振動センサによって検出されるデータによって、例えば、プレーイベントに対応する区間(例えばボールのインパクトの前後の区間)の特定が容易になりうる。また、振動センサによって検出されるデータも、モーションセンサによって検出されるデータと同様にプレーイベントの解析に用いられてもよい。また、センサ装置100は、気温や湿度、明るさ、位置など、スポーツをプレーするユーザの環境情報を取得するためのセンサをさらに備えてもよい。センサ装置100が備える各種のセンサによって検出されたデータは、必要に応じて前処理された上で、例えばBluetooth(登録商標)などの無線通信によってスマートフォン200に送信される。
 スマートフォン200は、例えばスポーツをプレーしているユーザの近傍に配置される。この場合、スマートフォン200は、Bluetooth(登録商標)などの無線通信によってセンサ装置100から送信されたデータを受信し、必要に応じて一時的に蓄積したり処理したりした上で、ネットワーク通信によってデータをサーバ300に送信する。また、スマートフォン200は、送信されたデータに基づいてサーバ300が実行した解析の結果を受信し、ディスプレイやスピーカなどを介してユーザに向けて出力してもよい。なお、解析結果の出力時において、ユーザはスポーツをプレーしていなくてもよい。また、解析結果の出力は、スマートフォン200とは別の、ユーザによって使用される情報処理端末、例えば各種のパーソナルコンピュータやタブレット端末、ゲーム機、テレビなどによって実行されてもよい。
 また、スマートフォン200は、必ずしも、スポーツをプレーしているユーザの近傍に配置されていなくてもよい。この場合、センサ装置100は、検出されたデータを内部の記憶領域(メモリまたは外部記憶装置)に蓄積しておく。例えば、スポーツのプレー後、センサ装置100とスマートフォン200とが接近したときに、Bluetooth(登録商標)などの無線通信によって、データがセンサ装置100からスマートフォン200に送信されてもよい。あるいは、スポーツのプレー後、センサ装置100とスマートフォン200とがUSBなどで有線接続されたときにデータが送信されてもよい。また、センサ装置100からスマートフォン200へのデータの受け渡しには、リムーバブル記録媒体が用いられてもよい。
 サーバ300は、スマートフォン200とネットワークを介して通信し、センサ装置100が備える各種のセンサによって検出されたデータを受信する。サーバ300は、受信されたデータを用いた解析処理を実行し、スポーツのプレーに関するさまざまな情報を生成する。例えば、サーバ300は、モーションセンサによって取得された、スポーツをプレーするユーザのモーションを直接的または間接的に示すデータに基づいて、プレーイベントを定義する。プレーイベントは、例えばラケットRを用いた1回のショットに対応する。プレーイベントを定義することによって、例えば、モーションデータによって表されるユーザのプレーを、{サーブ、ストローク、ボレー、…}といったような意味をもったプレーの連なりとして把握することができる。
 さらに、サーバ300は、複数のユーザのそれぞれのプレーイベントの時間的な関係に基づいて、所定の時間的な区間における複数のユーザのプレーの相関度を算出し、相関度に基づいて当該区間における複数のユーザの関係を推定してもよい。サーバ300の解析処理によって生成された情報は、例えばスマートフォン200に送信され、スマートフォン200のディスプレイやスピーカを介してユーザに向けて出力される。あるいは、サーバ300は、スマートフォン200以外の情報処理端末に情報を送信し、ユーザに向けて出力させてもよい。また、サーバ300は、複数のユーザについてそれぞれ受信されたデータに基づいて解析処理を実行し、各ユーザについて生成されたプレーパターンなどを比較した結果に基づく情報を生成し、各ユーザの情報処理端末に送信してもよい。
 図2は、本開示の第1の実施形態に係るシステムの装置構成を概略的に示すブロック図である。図2を参照すると、センサ装置100は、センサ110と、処理部120と、送信部130とを含む。スマートフォン200は、受信部210と、処理部220と、記憶部230と、送信部240と、撮像部250と、入力部260と、出力部270とを含む。サーバ300は、受信部310と、処理部320と、記憶部330と、送信部340とを含む。なお、それぞれの装置を実現するためのハードウェア構成例(センサ装置および解析装置のハードウェア構成例)については後述する。
 センサ装置100では、センサ110が取得したデータを処理部120が処理し、処理されたデータを送信部130がスマートフォン200に送信する。センサ110は、上述の通り、例えばモーションセンサを含み、スポーツをプレーするユーザのモーションを直接的または間接的に検出する。また、センサ110は、振動センサやユーザの環境情報を取得するためのセンサなどをさらに含んでもよい。処理部120は、プログラムに従って動作するプロセッサによって実現され、センサ110によって取得されたデータを必要に応じて前処理する。前処理は、例えばサンプリングやノイズ除去などを含みうる。前処理は必ずしも実行されなくてもよい。送信部130は、通信装置によって実現され、例えばBluetooth(登録商標)などの無線通信を利用してデータをスマートフォン200に送信する。また、図2には示していないが、センサ装置100は、データを一時的に蓄積するための記憶部を備えてもよい。
 スマートフォン200では、受信部210がセンサ装置100によって送信されたデータを受信し、送信部240がデータをサーバ300に送信する。受信部210および送信部240は、例えばBluetooth(登録商標)などの無線通信、および有線または無線のネットワーク通信を実行する通信装置によって実現される。受信されたデータは、例えば処理部220によって記憶部230に一時的に格納されてから送信される。また、受信されたデータについて、処理部220が前処理を実行してもよい。処理部220はプログラムに従って動作するプロセッサによって実現され、記憶部230はメモリまたはストレージによって実現される。受信部210は、さらに、サーバ300から送信された情報を受信してもよい。受信された情報は、例えば処理部220の制御に従って出力部270からユーザに向けて出力される。出力部270は、例えばディスプレイやスピーカを含む。
 さらに、スマートフォン200では、撮像部250によって画像が取得される。撮像部250は、例えば撮像素子にレンズなどの光学系を組み合わせたカメラモジュールによって実現される。画像は、スポーツをプレーするユーザを被写体として含んでもよい。撮像部250によって取得された画像は、例えば受信部210によって受信されたデータとともに送信部240からサーバ300に送信される。画像は、サーバ300において、例えばセンサ装置100によって取得されたデータとともに解析処理に用いられてもよいし、解析処理によって生成された情報に組み込まれてもよい。入力部260は、例えばタッチパネルやハードウェアボタン、および/または音声入力やジェスチャ入力を受け付けるためのマイクロフォンやカメラを含む。処理部220は、入力部260を介して取得されたユーザ操作に従って、送信部240を介してサーバ300に情報をリクエストしてもよい。
 サーバ300は、受信部310と、処理部320と、記憶部330と、送信部340とを備える。受信部310は、通信装置によって実現され、スマートフォン200からインターネットなどのネットワーク通信を利用して送信されたデータを受信する。処理部320は、例えばCPUなどのプロセッサによって実現され、受信されたデータを処理する。例えば、処理部320は、受信されたデータの処理の解析処理を実行し、解析後のデータをさらに記憶部330に蓄積したり、送信部340を介して出力したりしてもよい。あるいは、処理部320は、スマートフォン200などにおいて既に解析されたデータの蓄積および出力の制御を実行するだけであってもよい。
 以上、本開示の第1の実施形態に係るシステムの構成について説明した。なお、上記で説明された構成は一例であり、他の実施形態ではさまざまな変形が可能である。例えば、上記の例では、センサ装置100によって取得されたデータを用いた解析処理がサーバ300の処理部320で実行されたが、解析処理はスマートフォン200の処理部220で実行されてもよいし、センサ装置100の処理部120で実行されてもよい。システム10は、センサ装置100と、スマートフォン200と、サーバ300とを含むものとして説明されているが、例えばスマートフォン200の処理部220で解析処理が実行される場合には、システム10にサーバ300が含まれなくてもよい。あるいは、この場合、サーバ300は、解析処理によって得られた情報を保存し、ユーザ間で共有するサービスを提供してもよい。また、例えばセンサ装置100の処理部120で解析処理が実行される場合には、システム10にスマートフォン200およびサーバ300が含まれなくてもよい。センサ装置100は、例えばユーザまたは用具に装着される専用のセンサ装置であってもよいし、携帯可能な情報処理端末に搭載されたセンサモジュールがセンサ装置100として機能してもよい。従って、センサ装置100は、スマートフォン200と同一の装置でありうる。
 (1-1.解析処理の概略)
 図3および図4は、本開示の第1の実施形態に係る解析処理の概略について説明するための図である。図3および図4に示すように、本実施形態では、複数のユーザ(図示された例ではユーザA、ユーザBおよびユーザC)がスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータが取得される。図3に示した例では、ユーザAのプレーイベントの時系列1101aと、ユーザBのプレーイベントの時系列1101bと、ユーザCのプレーイベントの時系列1101cとが取得されている。
 ここで、例えば、図3に示すように、時間的な区間P1を設定したとする。区間P1には、ユーザAおよびユーザBのプレーイベントの時系列1101a,1101bが含まれる。これらの時系列では、それぞれ、ユーザAおよびユーザBのプレーイベントが、時間軸上に配列されている。本実施形態では、例えば、ユーザAとユーザBとが区間P1において一緒にプレーしていることを、それぞれのユーザのプレーイベントの時間的な関係に基づいて推定する。つまり、本実施形態では、区間P1におけるユーザAおよびユーザBのプレーイベントの時系列1101a,1101bに含まれるそれぞれのユーザのプレーイベントに所定の時間的な関係が見出されれば、区間P1においてユーザAとユーザBとが一緒にプレーしていたものと推定する。
 図3に示した例では、同様に、区間P2でも、ユーザAとユーザBとが一緒にプレーしていたか否かを推定することができる。この例では、ユーザAとユーザBとが一緒にプレーしていたものとする。一方、区間P3は、区間P2を包含し、ユーザAおよびユーザBのプレーイベントの時系列1101a,1101bに加えて、ユーザCのプレーイベントの時系列1101cを含む。本実施形態では、このような場合、ユーザA、ユーザBおよびユーザCの三者について、区間P3におけるユーザ間の関係が推定される。例えば、ユーザA、ユーザBおよびユーザCは一緒にプレーしていたのかもしれないし、ユーザAとユーザBとが一緒にプレーする一方でユーザCは個別にプレーしていたのかもしれない。
 図4には、図3に示した区間P3における各ユーザのプレーイベントの時系列1101a~1101cが、さらに拡大して示されている。本実施形態では、例えば、このように各ユーザのプレーイベントを共通の時間軸上で比較し、プレーイベントの時間的な関係を検出する。図示された例において、プレーイベントの時系列1101a,1101bの間では、プレーイベントが発生している時間と発生していない時間とが共通している。その一方で、プレーイベントの時系列1101cでは、時系列1101a,1101bでプレーイベントが発生していない区間P4でもプレーイベントが発生しており、時系列1101a,1101bのプレーイベントとは時間的な関係があまりないともいえる。従って、図示された例では、ユーザAとユーザBとは一緒にプレーしているが、ユーザCは個別にプレーしていることが推定されうる。
 以下では、上記で図3および図4を説明して概説したような解析処理を実現するための本実施形態の構成について、より具体的に説明する。
 (1-2.機能構成)
 図5は、本開示の第1の実施形態に係るシステムの処理部の機能構成を概略的に示す図である。図5を参照すると、解析処理を実行するプロセッサによって実現される処理部40は、入力処理部410と、解析処理部420と、出力処理部430とを含む。
 入力処理部410では、プレーイベント時系列データ411が取得される。プレーイベント時系列データ411は、複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義されるプレーイベントを示すデータである。プレーイベント時系列データ411は、時系列で発生した複数のユーザのプレーイベントを含む。後述する解析処理部420における解析処理にあたっては、この時系列から、所定の期間(時間的な区間)内のプレーイベントを抽出して、解析を実施してもよい。この場合、プレーイベントは当該区間内で時間的に配列された状態(発生時刻などの時刻情報を保持した状態)で解析処理に用いられる。
 解析処理部420は、リサンプリング処理部421と、フィルタリング処理部423と、タイムスロット分割処理部425と、相関度算出処理部427とを含む。解析処理部420では、入力処理部410において取得されたプレーイベント時系列データ411を用いた解析処理が実行される。以下、それぞれの機能構成による処理について、図6をあわせて参照しながらさらに説明する。図6は、本開示の第1の実施形態に係る解析処理について説明するための図である。
 リサンプリング処理部421は、取得されたプレーイベント時系列データ411について、共通の時系列によるリサンプリングを実行する。例えば、プレーイベント時系列データ411は、図6(a)に示すように、発生したプレーイベント単位で生成されうる。より具体的には、例えば、プレーイベント時系列データ411は、個々のプレーイベントに対応する区間でのユーザのモーションを示すモーションデータと、モーションデータに対応し、プレーイベントの種類や属性を示すメタデータとを含みうる。この場合、モーションデータは個々のプレーイベントごとに生成されているため、これを共通の時系列上に表す必要がある。そこで、リサンプリング処理部421が、例えばメタデータに含まれるプレーイベントの発生時刻の情報を利用して、各イベントのモーションデータを共通の時系列上に再配置し、共通の時系列上で所定の間隔でのリサンプリングを実行する。これによって、例えば、プレーイベントを示す時系列データは、図6(b)に示すような、イベントの発生時刻において1、それ以外では0になるようなデータに変換されてもよい。
 ここで、図6(a)に示されるプレーイベント時系列データ411の例において、FHSTやSRVといった文字列は、プレーイベントの種類を示す。図示された例ではテニスをプレーするユーザのモーションに基づいてプレーイベントが定義されており、各プレーイベントはテニスのショットに対応する。FHSTはフォアハンドストローク、SRVはサーブを示す。また、NS(Not Swing)は、例えば振動センサなどによってラケットとボールとのインパクトが検出され、モーションデータからもインパクトに対応する一連のモーションが検出されたものの、その種類のスイングであるかが判定できなかったプレーイベントを意味しうる。例えば図3や図4ではプレーイベントの種類を省略して図示していたが、本実施形態での解析処理においては、プレーイベントの種類が解析の対象になってもよい。例えば、後述するように複数のユーザのプレーイベントに所定の時間的な関係が見出された場合において、さらに、時間的に対応しているそれぞれのユーザのプレーイベントの種類が互いに対応している場合に、複数のユーザについて所定の関係(一緒にプレーしている、インタラクションが発生している、など)が推定されてもよい。例えばテニスの場合であれば、一方のユーザのプレーイベントの種類がサーブである場合に他方のユーザのプレーイベントがサーブ以外である(試合で対戦しているユーザの両方が同時にサーブを打つことはない)ことによって、これらのユーザが一緒にプレーし(試合で対戦し)、インタラクション(例えばテニスのラリー)が発生していることが推定されうる。
 なお、リサンプリング処理部421の処理は、プレーイベント時系列データ411が共通の時系列に表されている場合には、必ずしも必要ではない。例えば、プレーイベント時系列データ411が、解析の対象になる区間全体に対応する単一のモーションデータと、モーションデータの中でプレーイベントが発生した区間を指定する複数のメタデータを含むような場合、モーションデータは既に共通の時系列に表されているため、リサンプリング処理部421は設けられなくてもよい。
 フィルタリング処理部423は、リサンプリング処理部421によるリサンプリング処理後のデータをフィルタする。例えば、フィルタリング処理部423は、リサンプリング処理後のデータから所定の種類のプレーイベントを除く。より具体的には、例えば、フィルタリング処理部423は、図6(a)に示したプレーイベント種類がNS(Not Swing)のプレーイベントを除去した上で、後続の処理にデータを渡してもよい。また、例えば、フィルタリング処理部423は、リサンプリング処理後のデータにおいて、特定の種類のプレーイベントに重みづけをしてもよい。
 また、例えば、フィルタリング処理部423は、リサンプリング処理部421によるリサンプリング処理後のデータの移動平均を算出し、移動平均のデータを後続の処理に渡してもよい。例えば、フィルタリング処理部423は、図6(b)に示した、イベントの発生時刻において1、それ以外では0になるようなデータの移動平均を算出することによって、図6(c)に示すような、各プレーイベントの前後の区間で広がりをもった波形の時系列データを生成してもよい。あるいは、フィルタリング処理部423は、例えばローパスフィルタ、ハイパスフィルタ、またはバンドパスフィルタを用いて、各プレーイベントの前後の区間で広がりをもった波形を生成してもよい。
 また、例えば、フィルタリング処理部423は、リサンプリング処理部421によるリサンプリング処理後のデータをオフセットさせ、オフセット後のデータを後続の処理に渡してもよい。例えば、2人のユーザの間でテニスのラリーが行われている場合、それぞれのユーザのプレーイベントは、ボールが飛んでいる時間(例えば1秒~2秒)の間隔をおいて交互に発生する。つまり、一緒にプレーしているユーザの間でも、プレーイベントが全く同期して発生するとは限らない。従って、例えば、所定の関係(一緒にプレーしている、インタラクションが発生している、など)にあるユーザの間でのプレーイベントのずれが予測できる場合、フィルタ処理部423は、データを時間的にオフセットさせてもよい。より具体的には、フィルタリング処理部423は、いずれかの(テニスの場合であればラリーをしている一方の)ユーザのデータを基準にして、他のユーザのデータを所定の時間だけ前または後にオフセットさせてもよい。
 なお、上記のフィルタリング処理部423の処理の例において、データの移動平均を算出したり、ローパスフィルタなどを用いたりしてデータの波形を鈍らせるのは、時系列データの波形がプレーイベントの前後の区間で広がりをもち、若干の時間的なずれをもって発生した他のユーザのプレーイベント(上記のプレーイベントと関連する可能性がある)との間での時間的な関係が検出されやすくするためである。つまり、データの波形を鈍らせる処理と、データをオフセットさせる処理とは、同じ目的で実行される場合がある。従って、フィルタリング処理部423では、データの波形を鈍らせる場合にはデータをオフセットさせなくてもよい場合があり、データをオフセットさせる場合にはデータを鈍らせなくてもよい場合がある。もちろん、データをオフセットするとともに鈍らせてもよい。
 タイムスロット分割処理部425は、解析の対象となる区間を複数のタイムスロットに分割する。タイムスロットは、例えば図6(d)に示したn秒の区間のように、所定の長さの時間的な区間である。解析の対象となる区間をタイムスロットに分割し、各タイムスロット内で後述する相関度算出処理を実行することによって、各ユーザのプレーの相関性を定量的に評価することができる。タイムスロットの長さは、例えば推定しようとするユーザの関係に応じて設定されうる。例えば、ユーザが単に一緒にプレーしていた(必ずしもユーザ間でのインタラクションは発生しておらず、隣り合ってプレーしていた場合なども含む)か否かを推定するような場合には、タイムスロットを比較的長い時間に設定してもよい。一方、ユーザ間でインタラクションが発生したことを推定するような場合には、タイムスロットが比較的短い時間に設定されうる。なお、例えば、解析の対象となる区間全体を対象として、時系列の波形の比較などによって相関度を算出することが可能であるような場合には、タイムスロット分割処理部425は必ずしも設けられなくてもよい。
 相関度算出処理部427は、解析の対象となる区間における複数のユーザのプレーの相関度を算出する。相関度は、複数のユーザのプレーイベントの時間的な関係に基づいて算出される。図示された例では、タイムスロット分割処理部425によって区間がタイムスロットに分割されているため、タイムスロットごとに相関度が算出される。例えば、相関度算出処理部427は、各タイムスロット内の時系列データの波形の積分値(力積)を相乗することによって相関度を算出する。相乗される時系列データのいずれかでタイムスロット内に波形が発生していなければ、積分値は0になる。従って、タイムスロット内の複数の時系列データの力積の相乗値が0でないことによって、そのタイムスロットではそれぞれの時系列データでプレーイベントが発生したことを検出することができる。相関度算出処理部427は、各ユーザのプレーの相関が検出されたタイムスロット、例えば上記の例で力積の相乗値が0ではなかったタイムスロットの割合によって、解析の対象となる区間における複数のユーザのプレーの相関度を算出してもよい。
 上記の例のように力積の相乗値によって相関度を算出する場合、時系列データに波形が発生しているタイムスロットが重複するか否かによって、ユーザのプレーに相関が見出されるか否かが決定される。従って、実際にユーザのプレーに相関(一緒にプレーした、インタラクションが発生した、など)があったにもかかわらず、時系列データに波形が発生したタイムスロットが互い違いになるなどして相関度が算出されないことは好ましくない。そこで、本実施形態では、例えば、上記のフィルタリング処理部423が移動平均やローパスフィルタなどによってデータの波形を鈍らせたり、データを時間的にオフセットさせたりすることによって、プレーに相関があるユーザ同士のプレーイベントに対応する波形が重複するタイムスロットが発生しやすくしている。別の例としては、タイムスロットをある程度長く設定することによって、プレーに相関があるユーザ同士のプレーイベントに対応する波形が重複するタイムスロットが発生しやすくしてもよい。ただし、どちらの例でも、例えば波形を鈍らせすぎたり、タイムスロットが長すぎたりすると、実際にはプレーに相関がなかったユーザにまで相関度が算出されてしまう可能性があるため、適切な範囲での設定が必要である。
 出力処理部430は、関係推定処理部431を含む。関係推定処理部431は、解析処理部420において算出された相関度に基づいて、解析の対象となる区間における複数のユーザの関係を推定し、推定結果を出力する。例えば、関係推定処理部431は、複数のユーザが一緒にプレーしたか否かを推定する。この場合、必ずしもユーザ間でインタラクションが発生していなくてもよいが、各ユーザは単に同じ場所にいるという以上の関係にある。例えば、ユーザは、交代で同じ種類の練習をしている一群のユーザのように、スポーツのプレーにおいて何らかの共同性または共通点を有する。
 また、例えば、関係推定処理部431は、複数のユーザの間のインタラクションを推定してもよい。この場合、各ユーザは同じ場所でプレーしているのに加えて、ユーザ間に何らかのインタラクションが発生している。インタラクションは、例えばテニスのラリー(試合中の、または練習中の)や、サッカーでボールを取り合うプレーのように、各ユーザのプレーが相互に影響し合う状態で発生するそれぞれのプレーイベントを意味しうる。この場合、インタラクションに関わる各ユーザのプレーイベントは、時間的に近接して発生すると考えられる。従って、ユーザ間でインタラクションが発生している場合には、例えば上記の相関度算出処理部427での相関度の算出において、タイムスロット分割処理部425によって設定されるタイムスロットが比較的短い場合であっても高い相関度が算出されうる。従って、関係推定処理部431は、例えば、各タイムスロットの長さが第1の閾値よりも短く、各タイムスロット内での相関度が第2の閾値よりも高い場合に、複数のユーザの間でインタラクションが発生したと推定してもよい。さらに、関係推定処理部431は、相関して発生している(例えば、同じタイムスロット内で発生している)プレーイベントの種類に基づいて、ユーザ間にインタラクションが発生しているか否かを判定してもよい。
 出力処理部430では、上記のようにして関係推定処理部431によって出力された推定結果に基づく情報を、解析の対象になった複数のユーザの一部または全部に提供する機能(情報提供機能)も実現されうる。この場合、例えば、複数のユーザの中の第1のユーザのリクエストに基づいて、第1のユーザと一緒にプレーしていた第2のユーザ(複数のユーザに含まれる)を示す情報が第1のユーザに提供されてもよい。
 より具体的な例として、例えば、第1のユーザ、または第1のユーザが利用しているサービスにおいて、第1のユーザと一緒にプレーしていたユーザの情報がリクエストされた場合、入力処理部410は、そのような情報の提供が可能である複数のユーザ(例えば第1のユーザの友人)のプレーイベント時系列データ411を取得し、解析処理部420が取得されたプレーイベント時系列データ411に基づいて解析処理を実行する。ここで、解析処理部420は、プレーイベント時系列データ411には含まれるものの、プレーイベントが発生した時間帯が第1のユーザと重複していないユーザを解析処理の対象から除外してもよい。解析処理の結果に基づいて出力処理部430が生成した情報が、第1のユーザに提供されうる。
 (1-3.処理フロー)
 図7は、本開示の第1の実施形態に係る処理の例を示すフローチャートである。図7を参照すると、まず、入力処理部410が、プレーヤの時系列データX=(x1)を選択する(S101)。次に、入力処理部410は、プレー相手候補の時系列データY=(y1,y2,…,yn)を選択する(S103)。ここで、上記の例のように、Xのプレーヤはシステムに対してプレー相手の情報をリクエストしたユーザでありえ、Yのプレーヤ群は当該ユーザの友人など(情報の共有が許可されている)他のユーザでありうる。
 次に、解析処理部420において、リサンプリング処理部421が、時系列データをリサンプリングする(S105)。ここで、時系列データX,Yは、それぞれX’=(x’1),Y’=(y’1,y’2,…y’n)になる。続いて、フィルタリング処理部423が、時系列データX’,Y’をフィルタリングする(S107)。ここで、時系列データX’,Y’は、それぞれX”=(x”1),Y”=(y”1,y”2,…y”n)になる。さらに、タイムスロット分割処理部425が、時系列データX”,Y”を共通のタイムスロットに分割する(S109)。
 次に、相関度算出処理部427が、タイムスロットごとのループ処理を実行する(S111)。ここでは、タイムスロットごとに、時系列データ同士の相関度が算出される(S113)。より具体的には、例えば、各タイムスロットにおいて、時系列データx”1とy”1との間、x”1とy”2との間、…x”1とy”nとの間で相関度が算出されうる。この結果に基づいて、関係推定処理部431がプレー相手を特定し(S115)、結果を出力する(S117)。関係推定処理部431は、例えば、時系列データY”=(y”1,y”2,…y”n)のそれぞれについて、上記のS113において各タイムスロットで時系列データx”1との間で算出された相関度を積算し、各プレー相手候補の相関度スコアとする。この相関度スコアが所定の閾値よりも高いプレーヤが、プレー相手として特定される。
 上記の例の変形として、例えば、S109において、タイムスロット分割処理部425が長さの異なる2種類のタイムスロットで時系列データX”,Y”を分割し、相関度算出処理部427がそれぞれのタイムスロットについて個別にS111のループ処理を実行してもよい。この場合、S115において、関係推定処理部431は、時系列データYのプレーヤ(プレー相手候補)のうち、短い方のタイムスロットで閾値以上の相関度スコアが算出されたプレーヤについては、時系列データXのプレーヤとの間でインタラクションが発生していた(テニスのラリー相手であった、など)プレーヤとして特定してもよい。また、それ以外の時系列データYのプレーヤで、長い方のタイムスロットで閾値以上の相関度スコアが算出されたプレーヤについては、時系列データXのプレーヤとの間でインタラクションは発生していないが一緒にプレーしていたプレーヤとして特定してもよい。
 (2.第2の実施形態)
 次に、本開示の第2の実施形態について説明する。第2の実施形態は、以下で説明する位置判定部521が設けられる点で上記の第1の実施形態とは異なるが、それ以外の点については第1の実施形態と同様であるため、それらについての詳細な説明は省略する。
 図8は、本開示の第2の実施形態に係るシステムの処理部の機能構成を概略的に示す図である。図8を参照すると、解析処理を実行するプロセッサによって実現される処理部50は、入力処理部410と、解析処理部520と、出力処理部430とを含む。なお、入力処理部410および出力処理部430については、上記で図5を参照して説明されたものとほぼ同様である。
 解析処理部520は、位置判定部521と、リサンプリング処理部421と、フィルタリング処理部423と、タイムスロット分割処理部425と、相関度算出処理部427とを含む。なお、リサンプリング処理部421、フィルタリング処理部423、タイムスロット分割処理部425、および相関度算出処理部427については、上記で図5を参照して説明されたものとほぼ同様である。
 本実施形態では、センサ装置100が備えるセンサ110がGPSセンサなどの位置センサを含んでいたり、センサ装置100の近傍にあるスマートフォン200がGPSセンサやWi-Fi通信部などを用いて位置情報を取得したりすることによって、プレーイベントが発生した場所を示す位置情報を取得することが可能である。それゆえ、入力処理部410によって取得されるプレーイベント時系列データ411には、プレーイベントが発生した場所を示す位置情報が含まれうる。
 位置判定部521は、上記の位置情報に基づいて、リサンプリング処理部421以降の処理による解析(相関度の算出)の対象になるユーザを抽出する。例えば、位置判定部521は、ユーザ間の関係の判定を要求したユーザ(例えば図7の例における時系列データXのユーザ)のプレーイベントが発生した位置から所定の範囲内の位置でプレーイベントが発生した他のユーザを、解析対象のユーザ(例えば図7の例における時系列データYのユーザ)として抽出してもよい。
 このような位置判定部521の機能によって、例えば、プレーイベント時系列データ411に含まれるユーザの数が多い場合に、ユーザ間の関係がない可能性が高いユーザ(離れた位置にいるユーザ)を解析の対象から除外することができ、解析処理の負荷を低減させることができる。例えば、プレーイベントが発生した時間帯が重複しているユーザなどを抽出する機能も、上記の位置判定部521と同様の対象抽出機能として機能しうる。
 なお、位置判定部521が取得するような位置情報だけでは、例えば図3および図4を参照して説明したように、位置的には近接しているが個別にプレーしていた、またはプレーしていなかったユーザを識別することは困難である。本実施形態では、位置情報を解析対象のユーザの抽出に利用する一方で、各ユーザのプレーの関係(一緒にプレーしていたか、インタラクションが発生していたか、など)の推定にはプレーイベントのモーションデータなどを使用するため、より高い精度で各ユーザのプレーの関係の推定が可能である。
 以上、本開示の2つの実施形態について説明した。なお、本開示の実施形態はこの2つには限られず、他にもさまざまな実施形態が可能である。例えば、既に述べたように、スポーツの種類は上記の例におけるテニスには限られず、例えばサッカーやゴルフ、卓球など、あらゆるスポーツに本開示の実施形態が適用されうる。例えば、サッカーの場合、タイムスロットをある程度長く設定すれば、ピッチの中で一緒にプレーしているユーザと、ピッチの外で観戦しているユーザとを識別することが可能でありうる。さらに、タイムスロットを短く設定すれば、ピッチの中で一緒にプレーしていたユーザの中でインタラクションが発生していたユーザ、例えばボールを取り合っていたユーザを特定することも可能でありうる。
 (3.ハードウェア構成)
 次に、図9および図10を参照して、本開示の実施形態に係るセンサ装置および解析装置(上述した例ではセンサ装置、スマートフォンまたはサーバ)を実現するためのハードウェア構成の例について説明する。
  (センサ装置)
 図9は、本開示の実施形態に係るセンサ装置のハードウェア構成の例を示す図である。図9を参照すると、センサ装置100は、センサ101と、CPU(Central Processing Unit)103と、ROM(Read Only Memory)105と、RAM(Random Access Memory)107と、ユーザインターフェース109と、外部記憶装置111と、通信装置113と、出力装置115とを含みうる。これらの要素は、例えばバスによって相互に接続される。
 センサ101は、例えば加速度センサ、角速度センサ、振動センサ、地磁気センサ、温度センサ、圧力センサ(押下スイッチを含む)、またはGPS(Global Positioning System)受信機などを含む。センサ101は、カメラ(イメージセンサ)やマイクロフォン(音センサ)を含んでもよい。
 CPU103、ROM105、およびRAM107は、例えば外部記憶装置111に記録されたプログラム命令を読み込んで実行することによって、様々な機能をソフトウェア的に実現する。本開示の実施形態では、CPU103、ROM105、およびRAM107によって、例えば、センサ装置100全体の制御などの機能が実現されうる。
 ユーザインターフェース109は、センサ装置100へのユーザ操作を受け付ける、例えばボタンやタッチパネルなどの入力装置である。ユーザの操作は、例えば、センサ装置からのセンサ情報の送信の開始や終了を指示するものでありうる。
 外部記憶装置111は、センサ装置100に関する各種の情報を記憶する。外部記憶装置111には、例えば、CPU103、ROM105、およびRAM107にソフトウェア的に機能を実現させるためのプログラム命令が格納されてもよく、またセンサ101によって取得されたデータが一時的にキャッシュされてもよい。センサ装置100が打具などに装着されることを考慮すると、外部記憶装置111としては、例えば半導体メモリなどの衝撃に強いものを使用することが望ましい。
 なお、上述した、スマートフォン200がスポーツをプレーしているユーザの近傍に配置されない場合における、センサ装置100において検出されたデータを蓄積する内部の記憶領域(メモリまたは外部記憶装置)に対応する構成は、ROM105、RAM107、および/または外部記憶装置111である。
 通信装置113は、有線または無線の各種通信方式によって後述する解析装置600と通信する。また、通信装置113は、機器間通信によって直接的に解析装置600と通信してもよいし、インターネットなどのネットワークを介して解析装置600と通信してもよい。
 出力装置115は、情報を光、音声または画像として出力することが可能な装置で構成される。出力装置115は、例えばセンサ装置100における時刻やプレーイベントの検出を通知する情報を出力してもよいし、解析装置600から受信された解析結果、またはセンサ装置100において算出された解析結果に基づいて、ユーザに対する視覚的または聴覚的な通知を出力してもよい。出力装置115は、例えば、例えばLEDなどのランプ、LCDなどのディスプレイ、スピーカ、またはバイブレータなどを含む。
  (解析装置)
 図10は、本開示の実施形態に係る解析装置のハードウェア構成の例を示す図である。解析装置600は、本開示の実施形態に係る解析装置、例えば上記で説明したスマートフォン200またはサーバ300を実現しうる。なお、上述のように、解析装置は、センサ装置100によって実現されてもよい。
 解析装置600は、CPU601と、ROM603と、RAM605と、ユーザインターフェース609と、外部記憶装置611と、通信装置613と、出力装置615とを含みうる。これらの要素は、例えばバスによって相互に接続される。
 CPU601、ROM603、およびRAM605は、例えば外部記憶装置611に記録されたプログラム命令を読み込んで実行することによって、様々な機能をソフトウェア的に実現する。本開示の実施形態では、CPU601、ROM603、およびRAM605によって、例えば、解析装置600全体の制御や、上記の機能構成における処理部の機能などが実現されうる。
 ユーザインターフェース609は、解析装置600へのユーザ操作を受け付ける、例えばボタンやタッチパネルなどの入力装置である。
 外部記憶装置611は、解析装置600に関する各種の情報を記憶する。外部記憶装置611には、例えば、CPU601、ROM603、およびRAM605にソフトウェア的に機能を実現させるためのプログラム命令が格納されてもよく、また通信装置613が受信したセンサ情報が一時的にキャッシュされてもよい。また、外部記憶装置611には、解析結果のログが蓄積されてもよい。
 出力装置615は、情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置615は、例えば、LCD(Liquid Crystal Display)などの表示装置、またはスピーカやヘッドホンなどの音声出力装置などでありうる。出力装置615は、解析装置600の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
 以上、センサ装置100および解析装置600のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 (4.補足)
 本開示の実施形態は、例えば、上記で説明したような解析装置(スマートフォンなどの情報処理端末、サーバ、またはセンサ装置)、システム、解析装置またはシステムで実行される情報処理方法、解析装置を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得する取得機能と、
 前記複数のユーザのそれぞれの前記プレーイベントの時間的な関係に基づいて、前記区間における前記複数のユーザのプレーの相関度を算出する算出機能と、
 前記相関度に基づいて前記区間における前記複数のユーザの関係を推定する関係推定機能と
 を実現するプロセッサを備える解析装置。
(2)前記関係推定機能は、前記区間において前記複数のユーザが一緒にプレーしたか否かを推定する、前記(1)に記載の解析装置。
(3)前記関係推定機能は、前記区間において発生した前記複数のユーザの間のインタラクションを推定する、前記(2)に記載の解析装置。
(4)前記算出機能は、前記区間を複数のタイムスロットに分割し、各タイムスロット内で前記相関度を算出する、前記(1)~(3)のいずれか1項に記載の解析装置。
(5)前記関係推定機能は、前記各タイムスロットの長さが第1の閾値よりも短く、前記各タイムスロット内での前記相関度が第2の閾値よりも高い場合に、前記複数のユーザの間でインタラクションが発生したと推定する、前記(4)に記載の解析装置。
(6)前記算出機能は、前記データについて共通の時系列によるリサンプリングを実行した上で前記相関度を算出する、前記(1)~(5)のいずれか1項に記載の解析装置。
(7)前記算出機能は、前記リサンプリング後のデータをフィルタした上で前記相関度を算出する、前記(6)に記載の解析装置。
(8)前記算出機能は、前記リサンプリング後のデータの移動平均に基づいて前記相関度を算出する、前記(7)に記載の解析装置。
(9)前記算出機能は、前記リサンプリング後のデータから所定の種類のプレーイベントを除いた上で前記相関度を算出する、前記(7)または(8)に記載の解析装置。
(10)前記算出機能は、前記リサンプリング後のデータをオフセットさせた上で前記相関度を算出する、前記(6)~(9)のいずれか1項に記載の解析装置。
(11)前記プロセッサは、前記関係に基づく情報を前記複数のユーザの一部または全部に提供する情報提供機能をさらに実現する、前記(1)~(10)のいずれか1項に記載の解析装置。
(12)前記情報提供機能は、前記複数のユーザの中の第1のユーザのリクエストに基づいて、前記第1のユーザと一緒にプレーしていた前記複数のユーザの中の第2のユーザを示す情報を前記第1のユーザに提供する、前記(11)に記載の解析装置。
(13)前記プロセッサは、前記複数のユーザの中から前記相関度の算出対象になるユーザを抽出する対象抽出機能をさらに実現する、前記(1)~(12)のいずれか1項に記載の解析装置。
(14)前記取得機能は、前記プレーイベントが発生した場所を示す位置情報をさらに含む前記データを取得し、
 前記対象抽出機能は、前記相関度の算出対象になるユーザを前記位置情報に基づいて抽出する、前記(13)に記載の解析装置。
(15)複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得する取得機能と、
 前記複数のユーザのそれぞれの前記プレーイベントの時間的な関係に基づいて、前記区間における前記複数のユーザのプレーの相関度を算出する算出機能と、
 前記相関度に基づいて前記区間における前記複数のユーザの関係を推定する関係推定機能と
 をコンピュータに実現させるためのプログラムが記録された記録媒体。
(16)プロセッサが、
 複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得することと、
 前記複数のユーザのそれぞれの前記プレーイベントの時間的な関係に基づいて、前記区間における前記複数のユーザのプレーの相関度を算出することと、
 前記相関度に基づいて前記区間における前記複数のユーザの関係を推定することと
 を含む解析方法。
 10   システム
 100  センサ装置
 110  センサ
 120  処理部
 200  スマートフォン
 210  受信部
 220  処理部
 300  サーバ
 310  受信部
 320  処理部
 410  入力処理部
 411  プレーイベント時系列データ
 420  解析処理部
 421  リサンプリング処理部
 423  フィルタリング処理部
 425  タイムスロット分割処理部
 427  相関度算出部
 430  出力処理部
 431  関係推定処理
 521  位置判定部
 

Claims (16)

  1.  複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得する取得機能と、
     前記複数のユーザのそれぞれの前記プレーイベントの時間的な関係に基づいて、前記区間における前記複数のユーザのプレーの相関度を算出する算出機能と、
     前記相関度に基づいて前記区間における前記複数のユーザの関係を推定する関係推定機能と
     を実現するプロセッサを備える解析装置。
  2.  前記関係推定機能は、前記区間において前記複数のユーザが一緒にプレーしたか否かを推定する、請求項1に記載の解析装置。
  3.  前記関係推定機能は、前記区間において発生した前記複数のユーザの間のインタラクションを推定する、請求項2に記載の解析装置。
  4.  前記算出機能は、前記区間を複数のタイムスロットに分割し、各タイムスロット内で前記相関度を算出する、請求項1に記載の解析装置。
  5.  前記関係推定機能は、前記各タイムスロットの長さが第1の閾値よりも短く、前記各タイムスロット内での前記相関度が第2の閾値よりも高い場合に、前記複数のユーザの間でインタラクションが発生したと推定する、請求項4に記載の解析装置。
  6.  前記算出機能は、前記データについて共通の時系列によるリサンプリングを実行した上で前記相関度を算出する、請求項1に記載の解析装置。
  7.  前記算出機能は、前記リサンプリング後のデータをフィルタした上で前記相関度を算出する、請求項6に記載の解析装置。
  8.  前記算出機能は、前記リサンプリング後のデータの移動平均に基づいて前記相関度を算出する、請求項7に記載の解析装置。
  9.  前記算出機能は、前記リサンプリング後のデータから所定の種類のプレーイベントを除いた上で前記相関度を算出する、請求項7に記載の解析装置。
  10.  前記算出機能は、前記リサンプリング後のデータをオフセットさせた上で前記相関度を算出する、請求項6に記載の解析装置。
  11.  前記プロセッサは、前記関係に基づく情報を前記複数のユーザの一部または全部に提供する情報提供機能をさらに実現する、請求項1に記載の解析装置。
  12.  前記情報提供機能は、前記複数のユーザの中の第1のユーザのリクエストに基づいて、前記第1のユーザと一緒にプレーしていた前記複数のユーザの中の第2のユーザを示す情報を前記第1のユーザに提供する、請求項11に記載の解析装置。
  13.  前記プロセッサは、前記複数のユーザの中から前記相関度の算出対象になるユーザを抽出する対象抽出機能をさらに実現する、請求項1に記載の解析装置。
  14.  前記取得機能は、前記プレーイベントが発生した場所を示す位置情報をさらに含む前記データを取得し、
     前記対象抽出機能は、前記相関度の算出対象になるユーザを前記位置情報に基づいて抽出する、請求項13に記載の解析装置。
  15.  複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得する取得機能と、
     前記複数のユーザのそれぞれの前記プレーイベントの時間的な関係に基づいて、前記区間における前記複数のユーザのプレーの相関度を算出する算出機能と、
     前記相関度に基づいて前記区間における前記複数のユーザの関係を推定する関係推定機能と
     をコンピュータに実現させるためのプログラムが記録された記録媒体。
  16.  プロセッサが、
     複数のユーザがそれぞれスポーツをプレーしたときのモーションに基づいて定義され、かつ時間的な区間内に配列されたプレーイベントを示すデータを取得することと、
     前記複数のユーザのそれぞれの前記プレーイベントの時間的な関係に基づいて、前記区間における前記複数のユーザのプレーの相関度を算出することと、
     前記相関度に基づいて前記区間における前記複数のユーザの関係を推定することと
     を含む解析方法。
     
PCT/JP2014/079387 2013-12-27 2014-11-06 解析装置、記録媒体および解析方法 WO2015098302A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/104,680 US10569135B2 (en) 2013-12-27 2014-11-06 Analysis device, recording medium, and analysis method
EP14873274.6A EP3088059A4 (en) 2013-12-27 2014-11-06 Analysis device, recording medium, and analysis method
JP2015554649A JP6459979B2 (ja) 2013-12-27 2014-11-06 解析装置、記録媒体および解析方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013273517 2013-12-27
JP2013-273517 2013-12-27

Publications (1)

Publication Number Publication Date
WO2015098302A1 true WO2015098302A1 (ja) 2015-07-02

Family

ID=53478180

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/079387 WO2015098302A1 (ja) 2013-12-27 2014-11-06 解析装置、記録媒体および解析方法

Country Status (4)

Country Link
US (1) US10569135B2 (ja)
EP (1) EP3088059A4 (ja)
JP (1) JP6459979B2 (ja)
WO (1) WO2015098302A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004927A (ja) * 2017-06-20 2019-01-17 カシオ計算機株式会社 電子機器、リズム情報報知方法及びプログラム
JP2021149451A (ja) * 2020-03-18 2021-09-27 ヤフー株式会社 判定装置、判定方法、および判定プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015069124A1 (en) * 2013-11-08 2015-05-14 Performance Lab Technologies Limited Automated prescription of activity based on physical activity data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012510876A (ja) * 2008-12-05 2012-05-17 ナイキ インターナショナル リミテッド チーム競技環境における運動パフォーマンスモニタリングのシステムおよび方法
US20120277890A1 (en) * 2011-04-29 2012-11-01 Zheng Han Method of Ball Game Motion Recognition, Apparatus for the same, and motion assisting device
JP2012254205A (ja) 2011-06-09 2012-12-27 Seiko Epson Corp スイング分析装置、スイング分析プログラム、および記録媒体
US20130053190A1 (en) * 2011-08-29 2013-02-28 Icuemotion, Llc Racket sport inertial sensor motion tracking and analysis

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1163935A1 (en) * 1999-01-29 2001-12-19 Scale Inc. Time-series data processing device and method
GB2455313B (en) * 2007-12-04 2012-06-13 Sony Corp Apparatus and method for estimating orientation
CA2757238C (en) * 2009-03-27 2019-06-25 Infomotion Sports Technologies, Inc. Monitoring of physical training events
US20100281108A1 (en) * 2009-05-01 2010-11-04 Cohen Ronald H Provision of Content Correlated with Events
WO2011105914A1 (en) * 2010-02-24 2011-09-01 Ackland, Kerri Anne Classification system and method
JP5813787B2 (ja) * 2011-02-17 2015-11-17 ナイキ イノベイト シーブイ ワークアウトセッション中のユーザーパフォーマンス指標の追跡
JP5994306B2 (ja) * 2012-03-15 2016-09-21 ソニー株式会社 情報処理装置、情報処理システムおよびプログラム
JP6439235B2 (ja) * 2012-08-10 2018-12-19 カシオ計算機株式会社 情報報知装置、情報報知方法及びプログラム
US9881206B2 (en) * 2013-04-09 2018-01-30 Sstatzz Oy Sports monitoring system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012510876A (ja) * 2008-12-05 2012-05-17 ナイキ インターナショナル リミテッド チーム競技環境における運動パフォーマンスモニタリングのシステムおよび方法
US20120277890A1 (en) * 2011-04-29 2012-11-01 Zheng Han Method of Ball Game Motion Recognition, Apparatus for the same, and motion assisting device
JP2012254205A (ja) 2011-06-09 2012-12-27 Seiko Epson Corp スイング分析装置、スイング分析プログラム、および記録媒体
US20130053190A1 (en) * 2011-08-29 2013-02-28 Icuemotion, Llc Racket sport inertial sensor motion tracking and analysis

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
D. CONNAGHAN ET AL.: "Toward Next Generation Coaching Tools for Court Based Racquet Sports", PROCEEDINGS OF THE 20TH ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA, 2012, pages 1089 - 1092, XP055353862, DOI: 10.1145/2393347.2396390 *
See also references of EP3088059A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004927A (ja) * 2017-06-20 2019-01-17 カシオ計算機株式会社 電子機器、リズム情報報知方法及びプログラム
JP2021149451A (ja) * 2020-03-18 2021-09-27 ヤフー株式会社 判定装置、判定方法、および判定プログラム
JP7225155B2 (ja) 2020-03-18 2023-02-20 ヤフー株式会社 判定装置、判定方法、および判定プログラム

Also Published As

Publication number Publication date
EP3088059A1 (en) 2016-11-02
US20160310788A1 (en) 2016-10-27
EP3088059A4 (en) 2017-08-09
JP6459979B2 (ja) 2019-01-30
JPWO2015098302A1 (ja) 2017-03-23
US10569135B2 (en) 2020-02-25

Similar Documents

Publication Publication Date Title
US10769796B2 (en) Information processing apparatus, information processing method and recording medium
EP3060317B1 (en) Information processing device, recording medium, and information processing method
JP6458739B2 (ja) 解析装置、記録媒体および解析方法
US20160225410A1 (en) Action camera content management system
US10441847B2 (en) Framework, devices, and methodologies configured to enable gamification via sensor-based monitoring of physically performed skills, including location-specific gamification
JP6354461B2 (ja) フィードバック提供方法、システム、および解析装置
JP2013188426A (ja) 情報処理装置、情報処理システムおよびプログラム
JP2016513999A (ja) 身体活動監視デバイスを用いたゲームプレーの拡張
EP3087364B1 (en) Analysis apparatus, recording medium, and analysis method
JP6447515B2 (ja) 情報処理装置、記録媒体および情報処理方法
JP6459979B2 (ja) 解析装置、記録媒体および解析方法
JP6432523B2 (ja) 解析装置、記録媒体および解析方法
WO2015098303A1 (ja) 解析装置、記録媒体および解析方法
KR101485821B1 (ko) 사용자 모션을 이용한 원격 컨트롤 모듈 및 방법
JP2023025490A (ja) 情報処理装置、情報処理方法及びプログラム
WO2015098301A1 (ja) 解析装置、記録媒体および解析方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14873274

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015554649

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2014873274

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014873274

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15104680

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE