WO2016136073A1 - センサ装置、センシング方法及び情報処理装置 - Google Patents

センサ装置、センシング方法及び情報処理装置 Download PDF

Info

Publication number
WO2016136073A1
WO2016136073A1 PCT/JP2015/084065 JP2015084065W WO2016136073A1 WO 2016136073 A1 WO2016136073 A1 WO 2016136073A1 JP 2015084065 W JP2015084065 W JP 2015084065W WO 2016136073 A1 WO2016136073 A1 WO 2016136073A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
unit
sensor device
information
attachment
Prior art date
Application number
PCT/JP2015/084065
Other languages
English (en)
French (fr)
Inventor
象 村越
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/543,483 priority Critical patent/US10952647B2/en
Priority to EP15883363.2A priority patent/EP3263029A4/en
Priority to JP2017501855A priority patent/JP6699651B2/ja
Publication of WO2016136073A1 publication Critical patent/WO2016136073A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • A63B69/36Training appliances or apparatus for special sports for golf
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range

Definitions

  • the present disclosure relates to a sensor device, a sensing method, and an information processing device.
  • Patent Document 1 discloses a technique for measuring acceleration by an acceleration sensor attached to a player's hand and calculating the speed of the tip of the competition equipment that the player swings based on the measurement result.
  • Patent Document 1 is a technique for measuring the acceleration of a specific part in a specific game, it is difficult to measure the acceleration of an arbitrary part. Furthermore, since it is possible that a preferable measurement object and measurement site are different if the type of competition changes, it is desirable that measurement for visualizing body movements can be performed more flexibly. Therefore, the present disclosure proposes a new and improved sensor device, sensing method, and information processing device capable of performing measurement for visualizing the movement of an object more flexibly.
  • a sensor unit that senses information about an object, an attachment part that is detachably attached to any one or more attachment positions provided on the object, and the attachment part is attached to the attachment part.
  • a sensor device including an acquisition unit that acquires information indicating an attachment position.
  • sensing the information on the object, and the attachment position, to which the attachment part that is detachably attached to any one or more attachment positions provided on the object is attached.
  • a sensing method performed by the sensor device is provided.
  • the sensor information acquired by the sensor device detachably attached to any one or more attachment positions provided on the object and the attachment position to which the sensor device is attached are obtained.
  • An information processing apparatus includes an acquisition unit that acquires information to be displayed, and a processing unit that processes the sensor information acquired by the acquisition unit based on information indicating the attachment position.
  • elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numerals.
  • a plurality of elements having substantially the same functional configuration are distinguished as required by the sensor devices 10A, 10B, and 10C.
  • only the same reference numerals are given.
  • the sensor devices 10A, 10B, and 10C they are simply referred to as the sensor device 10.
  • FIG. 1 is a diagram for explaining an outline of a sensing system 1 according to the present embodiment.
  • the sensing system 1 includes one or more sensor devices 10 (10A to 10D) and information processing devices 30 and 40 attached to the sensor mounting equipment 20.
  • the sensor device 10 is a device that senses various data.
  • the sensor device 10 is attached to a sensor fixture 21 included in the sensor mounting equipment 20 and performs sensing for the movement of an object.
  • the target object may be a human being, a dog, a cat, or other living things, or may be an inanimate object such as a robot.
  • the object is a user (human).
  • the object may be an object used by a living thing.
  • the object may be a tool used for a competition such as a golf club, a tennis racket, a ball, a ski, a ski boot, a goal, or a bat.
  • the object may be a tool used for life such as a prosthetic hand or a wheelchair.
  • the object may be a brace used for animals such as a collar and a horseshoe.
  • the sensor device 10 establishes a wireless connection with the information processing device 30, transmits the acquired data to the information processing device 30, and receives an instruction from the information processing device 30.
  • the sensor device 10 can measure various data by itself or in combination with other sensor devices 10.
  • the sensor device 10 may include an inertial sensor such as an acceleration sensor or a gyro sensor. In that case, the inclination of the attachment position can be measured by one sensor device 10. Further, the degree of bending of the joint sandwiched between the two sensor devices 10 can be measured by the two sensor devices 10.
  • the plurality of sensor devices 10 can measure the time axis order of the maximum value of the angular velocity at each attachment position.
  • the process which calculates these information from the sensing result (sensor information) by the sensor apparatus 10 can be performed by the information processing apparatuses 30 and 40, for example.
  • the sensor mounting equipment 20 is equipment for fixing the sensor device 10 to an object. As shown in FIG. 1, the sensor mounting equipment 20 includes one or more mounting positions (sensor mounting tool 21) for detachably mounting the sensor device 10, and the sensor device 10 can be mounted on a part or all of the mounting position. is there.
  • the sensor mounting equipment 20 may have a shape that covers part or all of the user's trunk, limbs, and the like, and in that case, it is preferably formed of a stretchable material so as not to hinder the movement of the user. .
  • the attached sensor device 10 may be separated from the object, and the sensor mounting equipment 20 may have a thickness such as a helmet or a protector.
  • the sensor mounting equipment 20 may be mounted on an object such as a golf club, a tennis racket, a ski, or formed integrally with the object.
  • the user can attach the sensor device 10 to the sensor fixture 21 located at the site to be measured.
  • the user may attach a plurality of sensor devices 10 and the attachment positions are arbitrary, so that flexible measurement is realized.
  • the information processing devices 30 and 40 are devices that process information output from the sensor device 10.
  • the information processing devices 30 and 40 can be realized by a smartphone, a tablet terminal, a PC, a server, or the like.
  • the information processing device 30 is a smartphone
  • the information processing device 40 is a server.
  • the smartphone 30 and the server 40 visualize sensor information acquired by the sensor device 10 and provide feedback to the user, or provide various services such as advice or product recommendation for improving the competition.
  • the sensing system 1 according to an embodiment of the present disclosure has been created with the above circumstances in mind.
  • the sensor device 10 according to the present embodiment can automatically grasp its own mounting position.
  • the sensing system 1 according to the present embodiment will be described in detail with reference to FIGS.
  • FIG. 2 is a diagram for explaining an example of the external configuration of the sensor device 10 and the sensor fixture 21 according to the present embodiment.
  • the sensor device 10 includes a main body portion 11 and an attachment portion 12.
  • the main body 11 includes a sensor, for example.
  • the attachment part 12 is detachably attached to any one or more sensor attachments 21 provided for the user (sensor mounting equipment 20).
  • the mounting portion 12 is provided with a groove along a cylindrical surface and is screwed into the sensor mounting tool 21.
  • the sensor device 10 is provided with a terminal 13.
  • the sensor fixture 21 is also provided with a terminal 22.
  • the terminal 13 and the terminal 22 are in contact with each other, and an electric signal can be exchanged.
  • the sensor device 10 is provided with a switch 14.
  • the sensor fixture 21 is provided with an uneven portion 23.
  • the convex portion of the concave and convex portion 23 sequentially presses the switch 14.
  • the three convex portions of the concavo-convex portion 23 have a track of the switch 14 so that the switch 14 can be pushed in order when the sensor device 10 is screwed into the sensor fixture 21.
  • the present technology is not limited to such an example.
  • the number of convex portions may be an arbitrary number, an arbitrary interval, or a plurality of rows. When the convex portions are provided in a plurality of rows, it is desirable that the switches 14 are also provided in the plurality of rows.
  • FIG. 3 is a block diagram illustrating an example of a logical configuration of the sensor device 10 according to the present embodiment. As illustrated in FIG. 3, the sensor device 10 includes a sensor unit 110, an interface unit 120, a communication unit 130, and a control unit 140.
  • the sensor unit 110 has a function of sensing information about the object.
  • the sensor unit 110 is realized by an inertial sensor such as an acceleration sensor and a gyro sensor.
  • the sensor unit 110 may include biological sensors such as a myoelectric sensor, a nerve sensor, a pulse sensor, and a body temperature sensor.
  • the sensor unit 110 may include a vibration sensor, a geomagnetic sensor, and the like.
  • the sensor unit 110 outputs sensor information to the control unit 140.
  • the interface unit 120 is an interface with the sensor fixture 21 to which the sensor device 10 is attached.
  • the interface unit 120 includes a terminal 13 and a switch 14.
  • the interface unit 120 outputs information regarding an electrical signal flowing between the terminal 13 and the terminal 22 to the control unit 140.
  • the interface unit 120 outputs information related to pressing of the switch 14 by the uneven portion 23 to the control unit 140.
  • the communication unit 130 is a communication module that transmits and receives data to and from an external device.
  • the communication unit 130 transmits and receives data to and from the smartphone 30.
  • the communication unit 130 is, for example, a wireless LAN (Local Area Network), Wi-Fi (Wireless Fidelity (registered trademark)), infrared communication, Bluetooth, or other methods, directly with the smartphone 30 or other communication such as a network access point. Communicate indirectly via a node.
  • the communication unit 130 may perform wired communication with an external device using a wired LAN or the like.
  • the control unit 140 functions as an arithmetic processing device and a control device, and controls the overall operation in the sensor device 10 according to various programs. As illustrated in FIG. 3, the control unit 140 functions as an acquisition unit 141, a sensor setting unit 143, a compression method setting unit 145, and a communication method setting unit 147.
  • the acquisition unit 141 has a function of acquiring information indicating the attachment position (sensor attachment 21) where the attachment unit 12 is attached.
  • the information indicating the attachment position is also referred to as attachment position information below.
  • the sensor setting unit 143 has a function of setting the sensor unit 110.
  • the compression method setting unit 145 has a function of setting a compression method for data transmitted to the external device by the communication unit 130.
  • the communication method setting unit 147 has a function of setting a communication method used when data is transmitted from the communication unit 130 to an external device.
  • FIG. 4 is a block diagram illustrating an example of a logical configuration of the smartphone 30 according to the present embodiment.
  • the smartphone 30 includes a communication unit 310, an input unit 320, an output unit 330, a storage unit 340, and a control unit 350.
  • the communication unit 310 is a communication module that transmits / receives data to / from an external device. For example, the communication unit 310 transmits and receives data between the sensor device 10 and the server 40.
  • the communication unit 310 uses, for example, a wireless LAN, Wi-Fi, infrared communication, Bluetooth, wired LAN, or the like, directly with the sensor device 10 or the server 40, or via another communication node such as a network access point. Communicate indirectly.
  • the input unit 320 has a function of accepting user operations.
  • the input unit 320 is realized by a keyboard, a mouse, or the like.
  • the input unit 320 may be realized by a touch panel formed integrally with the display device (output unit 330).
  • the output unit 330 has a function of outputting information to the user by video, image, audio, or the like.
  • the output unit 330 is realized by, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (Liquid Crystal Display) device, a speaker, or the like.
  • the storage unit 340 is a part that records and reproduces data on a predetermined recording medium.
  • the storage unit 340 stores data received from the sensor device 10 by the communication unit 310.
  • the control unit 350 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the smartphone 30 according to various programs. As illustrated in FIG. 4, the control unit 350 functions as an acquisition unit 351, a processing unit 353, and an output control unit 355.
  • the acquisition unit 351 has a function of acquiring the sensor information and the attachment position information acquired by the sensor device 10 via the communication unit 310.
  • the processing unit 353 has a function of processing the sensor information acquired by the acquisition unit 351 based on the attachment position information.
  • the output control unit 355 has a function of controlling the output unit 330 to output information.
  • FIG. 5 is a block diagram illustrating an example of a logical configuration of the server 40 according to the present embodiment. As illustrated in FIG. 5, the server 40 includes a communication unit 410, a storage unit 440, and a control unit 450.
  • the communication unit 410 is a communication module that transmits / receives data to / from an external device. For example, the communication unit 410 transmits / receives data to / from the smartphone 30.
  • the communication unit 410 communicates with the smartphone 30 directly or indirectly via another communication node such as a network access point by a method such as wireless LAN, Wi-Fi, infrared communication, Bluetooth, or wired LAN. To do.
  • the storage unit 440 is a part that records and reproduces data with respect to a predetermined recording medium.
  • the storage unit 440 stores data received from the smartphone 30 by the communication unit 410.
  • the control unit 450 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the server 40 according to various programs. As illustrated in FIG. 5, the control unit 450 functions as an acquisition unit 451, a processing unit 453, and an output control unit 455.
  • the acquisition unit 451 has a function of acquiring the sensor information and the attachment position information acquired by the sensor device 10 via the communication unit 410.
  • the processing unit 453 has a function of processing the sensor information acquired by the acquisition unit 451 based on the attachment position information.
  • the output control unit 455 has a function of controlling information output from the output unit 330 of the smartphone 30.
  • the sensor device 10 (for example, the acquisition unit 141) acquires attachment position information when the sensor device 10 is attached to the sensor fixture 21.
  • the attachment position information may be information indicating a specific part such as a user's wrist, shoulder, or chest.
  • the attachment position information may be identification information of the sensor attachment 21. If the position and identification information of each sensor attachment 21 in the sensor mounting equipment 20 are known, the sensing system 1 is specific. Position can be specified.
  • the acquisition unit 141 may acquire the attachment position information based on the electrical characteristics of the sensor fixture 21 to which the attachment unit 12 is attached. For example, the acquisition unit 141 acquires a resistance value obtained by flowing a current between the contacted terminal 13 and the terminal 22 as attachment position information.
  • the sensing system 1 may specify the sensor attachment 21 to which the attachment unit 12 is attached from the resistance value acquired by the acquisition unit 141.
  • the acquisition unit 141 may acquire the attachment position information based on the physical shape of the sensor fixture 21 to which the attachment unit 12 is attached. For example, when the sensor device 10 is screwed into the sensor fixture 21, the acquisition unit 141 has a concavo-convex pattern of the concavo-convex portion 23 obtained by the switch 14 pressed by the concavo-convex portion 23. And the like) are acquired as the attachment position information.
  • the sensing system 1 may specify the sensor fixture 21 to which the attachment unit 12 is attached from the uneven pattern acquired by the acquisition unit 141.
  • the sensing system 1 can automatically acquire the attachment position information by attaching the sensor device 10 to the sensor fixture 21.
  • the user's convenience is improved because the user does not need to input attachment position information.
  • the acquisition unit 141 can acquire a variety of information using the above mechanism.
  • a setting for identifying an individual in the team may be performed on the terminal 22 and / or the uneven portion 23 of the sensor fixture 21.
  • the acquisition unit 141 displays information such as which team the user is attached to, which position (offense or defense, etc.) the user is attached, and what the user's back number is, and the resistance value and / or Or you may acquire from an uneven
  • the acquisition unit 141 may acquire information indicating that the acquisition unit 141 is not attached. Moreover, the acquisition part 141 may acquire the information which shows the attached target object. For example, the acquisition unit 141 may acquire information indicating that it is attached to a user, a tool such as a golf club, a charger, a device for calibration of the sensor device 10, or a shipping inspection machine in a factory.
  • the sensor device 10 (for example, the sensor setting unit 143) sets the sensor unit 110 based on the attachment position information acquired by the acquisition unit 141. Thereby, the sensing system 1 can acquire the sensor information sensed using the setting according to the feature of the sensor information for each attachment position.
  • the sensor setting function according to the characteristic of the sensor information for every attachment position is demonstrated.
  • FIG. 6 is a diagram illustrating an example of characteristics of sensor information for each attachment position in golf.
  • FIG. 6 shows sensor information for each attachment position in an operation of swinging golf with the vertical axis as the angular velocity and the horizontal axis as the acceleration.
  • Reference numeral 510 indicates sensor information acquired by the sensor device 10 attached to the back of the hand.
  • Reference numeral 520 indicates sensor information acquired by the sensor device 10 attached to the shoulder.
  • Reference numeral 530 indicates sensor information acquired by the sensor device 10 attached to the waist.
  • reference numeral 510 in the sensor device 10 attached to a position far from the trunk, such as the back of the hand or the wrist, it is desirable to be able to measure up to high values of angular velocity and acceleration.
  • the sensor device 10 attached to a position close to the trunk can measure angular velocity and acceleration with high resolution.
  • the sensor device 10 attached to an object that generates vibration such as a hitting tool such as a bat or a golf club or a hand holding the hitting tool, it is desirable that measurement by a vibration sensor is possible.
  • the sensor setting unit 143 may set at least one of execution / stop of sensing by the sensor unit 110, dynamic range, and resolution (sampling frequency). For example, when the mounting position of the sensor device 10 is the hitting tool or the back of the hand close to the hitting tool, the sensor setting unit 143 turns on the vibration sensor to execute the sensing, and sets the inertial sensor wide range and low resolution. May be. In the example illustrated in FIG. 6, the sensor setting unit 143 may set the dynamic range to a range indicated by reference numeral 540. As a result, the sensing system 1 can perform analysis of vibration information and analysis of angular velocity and acceleration on the premise of a wide dynamic range.
  • the sensor setting unit 143 turns off the vibration sensor to stop sensing, and sets the dynamic range of the inertial sensor narrow and high resolution. May be.
  • the sensor setting unit 143 may set the dynamic range to a range indicated by reference numeral 550. Thereby, the sensing system 1 can omit the analysis of unnecessary vibration information and can perform the analysis of the angular velocity and the acceleration on the premise that the dynamic range is narrow.
  • the sensor setting unit 143 may perform setting based on at least one of an object or an operation performed by the object.
  • the sensor setting unit 143 may perform different settings depending on, for example, whether the object is a user or a tool used by the user. This is because even if the operation is the same, for example, the minimum and maximum values of acceleration and angular velocity may differ depending on whether the sensor device 10 is attached to a user or a tool.
  • the sensor setting unit 143 may perform different settings depending on whether the action performed by the object is, for example, golf or baseball, and if the action is baseball, it is a batting action or a pitching action. Good. This is because, for example, the minimum and maximum values of acceleration and angular velocity may differ depending on the type of motion.
  • the sensor setting unit 143 may know an operation performed by the object based on a user instruction. For example, the sensor setting unit 143 may acquire information indicating which action the user performs in which game by a user instruction via the smartphone 30. Thereby, the sensor setting unit 143 can perform setting according to the above-described operation.
  • the sensor setting unit 143 may estimate an operation performed by the object based on the sensor information sensed by the sensor unit 110 and the attachment position information acquired by the acquisition unit 141. For example, the sensor setting unit 143 of the sensor device 10 attached to the back of the hand determines whether the user's action is a baseball batting action or a pitching action based on the presence / absence of vibration, the acceleration, and the magnitude of the angular velocity. May be estimated. Thereby, the sensor setting unit 143 can perform setting according to the above-described operation.
  • the information indicating the object may be included in the attachment position information acquired by the acquisition unit 141.
  • the sensor setting unit 143 may acquire information indicating an object based on a user instruction or based on sensor information and attachment position information.
  • the sensor device 10 (for example, the communication unit 130) transmits the sensor information sensed by the sensor unit 110 and the attachment position information acquired by the acquisition unit 141 to another device (for example, the smartphone 30). Thereby, the smartphone 30 and the server 40 can acquire sensor information associated with the attachment position information from each of the sensor devices 10.
  • the ON / OFF of various sensors, the dynamic range, the sampling frequency, and the like may differ depending on the mounting position of the sensor device 10, the amount of data transmitted from the sensor device 10 may change dynamically.
  • the compression method setting unit 145 may set the compression method of data transmitted by the communication unit 130 according to the setting content by the sensor setting unit 143.
  • the compression method setting unit 145 has a higher compression rate in the case of setting contents that increase the amount of sensor information, such as many sensors being turned on, a high sampling frequency, or a large number of quantization bits.
  • a compression method may be set.
  • the compression method setting unit 145 has a lower compression rate in the case of setting contents that reduce the amount of sensor information, such as many sensors being turned off, a low sampling frequency, or a small number of quantization bits. You may set the compression method to become.
  • the setting of the compression method may be performed by selecting a compression algorithm, or may be performed by selecting whether to transmit raw data or processed data.
  • the communication unit 130 may not transmit the angular velocity data as it is, but may transmit the posture information estimated from the angular velocity data after compressing it using a smaller sampling frequency.
  • the compression method setting unit 145 can adjust the amount of data transmitted according to the mounting position of the sensor device 10.
  • the communication method setting unit 147 may set the communication method used by the communication unit 130 according to the setting content by the sensor setting unit 143. For example, in the case of setting contents that increase the amount of sensor information, the communication method setting unit 147 may be set to use a communication method with a wide bandwidth such as Classic Bluetooth. On the other hand, the communication method setting unit 147 may be configured to use a communication method with a narrow band such as Bluetooth LE in the case of setting contents that reduce the amount of sensor information. Thus, the communication method setting unit 147 can employ an appropriate communication method according to the mounting position of the sensor device 10.
  • the sensing system 1 (for example, the smartphone 30 and / or the server 40) can provide various services using information acquired by the sensor device 10. For example, the sensing system 1 provides appropriate services for the user by analyzing sensor information and attachment position information.
  • the smartphone 30 may transmit information to the server 40 via the smartphone 30 and display improvement support advice compared to other users generated by an algorithm inside the server 40. Further, the smartphone 30 may accumulate information acquired in the past, display changes in the skills of individual users, and recommend products according to progress.
  • the smartphone 30 may analyze information received from the sensor device 10 and perform feedback such as displaying information in real time, generating a sound, or moving an actuator provided in another device. Real-time feedback is effective for improving the form and indicating the mounting position.
  • the smartphone 30 stores, for example, information related to the swing motion of a good form realized by the user under the instruction of the coach, and a good form is reproduced when similar information is acquired during personal practice. You may give feedback.
  • FIG. 7 is a flowchart illustrating an example of a flow of sensing processing executed in the sensor device 10 according to the present embodiment.
  • the acquisition unit 141 acquires attachment position information (step S102).
  • the sensor setting unit 143 acquires information indicating an object and an operation performed by the object (step S104).
  • the sensor setting unit 143 sets the sensor unit 110 based on the attachment position information, the object, and information indicating the operation performed by the object (step S106).
  • the sensor part 110 performs various sensing according to the setting made by the sensor setting part 143 (step S108).
  • the compression method setting unit 145 sets a compression method for transmission data according to the attachment position information (step S110).
  • the communication method setting unit 147 sets a communication method according to the attachment position information (step S112).
  • the communication unit 130 generates transmission data including attachment position information and / or sensor information using the compression method set by the compression method setting unit 145 (step S114).
  • the communication part 130 transmits transmission data using the communication system set by the communication system setting part 147 (step S116).
  • FIG. 8 is a block diagram illustrating an example of a hardware configuration of the information processing apparatus according to the present embodiment.
  • the information processing apparatus 900 illustrated in FIG. 8 can realize, for example, the sensor device 10, the smartphone 30, or the server 40 illustrated in FIGS.
  • Information processing by the sensor device 10, the smartphone 30, or the server 40 according to the present embodiment is realized by cooperation between software and hardware described below.
  • the information processing apparatus 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904a.
  • the information processing apparatus 900 includes a bridge 904, an external bus 904b, an interface 905, an input device 906, an output device 907, a storage device 908, a drive 909, a connection port 911, a communication device 913, and a sensor 915.
  • the information processing apparatus 900 may include a processing circuit such as a DSP or an ASIC in place of or in addition to the CPU 901.
  • the CPU 901 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the information processing apparatus 900 according to various programs. Further, the CPU 901 may be a microprocessor.
  • the ROM 902 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • CPU901 can form the control part 140 shown in FIG. 3, the control part 350 shown in FIG. 4, and the control part 450 shown in FIG. 5, for example.
  • the CPU 901, ROM 902, and RAM 903 are connected to each other by a host bus 904a including a CPU bus.
  • the host bus 904 a is connected to an external bus 904 b such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 904.
  • an external bus 904 b such as a PCI (Peripheral Component Interconnect / Interface) bus
  • PCI Peripheral Component Interconnect / Interface
  • the host bus 904a, the bridge 904, and the external bus 904b do not necessarily have to be configured separately, and these functions may be mounted on one bus.
  • the input device 906 is realized by a device in which information is input by the user, such as a mouse, a keyboard, a touch panel, a button, a microphone, a switch, and a lever.
  • the input device 906 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA that supports the operation of the information processing device 900.
  • the input device 906 may include, for example, an input control circuit that generates an input signal based on information input by the user using the above-described input means and outputs the input signal to the CPU 901.
  • a user of the information processing apparatus 900 can input various data and instruct a processing operation to the information processing apparatus 900 by operating the input device 906.
  • the input device 906 can form, for example, the input unit 320 shown in FIG.
  • the output device 907 is formed of a device that can notify the user of the acquired information visually or audibly. Examples of such devices include CRT display devices, liquid crystal display devices, plasma display devices, EL display devices, display devices such as lamps, audio output devices such as speakers and headphones, printer devices, and the like.
  • the output device 907 outputs results obtained by various processes performed by the information processing device 900.
  • the display device visually displays results obtained by various processes performed by the information processing device 900 in various formats such as text, images, tables, and graphs.
  • the audio output device converts an audio signal composed of reproduced audio data, acoustic data, and the like into an analog signal and outputs it aurally.
  • the display device and the audio output device can form, for example, an output unit 330 shown in FIG.
  • the storage device 908 is a data storage device formed as an example of a storage unit of the information processing device 900.
  • the storage apparatus 908 is realized by, for example, a magnetic storage device such as an HDD, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the storage device 908 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 908 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the storage device 908 can form, for example, the storage unit 340 shown in FIG. 4 and the storage unit 440 shown in FIG.
  • the drive 909 is a storage medium reader / writer, and is built in or externally attached to the information processing apparatus 900.
  • the drive 909 reads information recorded on a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 903.
  • the drive 909 can also write information to a removable storage medium.
  • connection port 911 is an interface connected to an external device, and is a connection port with an external device capable of transmitting data by USB (Universal Serial Bus), for example.
  • the connection port 911 can form, for example, the interface unit 120 shown in FIG.
  • the communication device 913 is a communication interface formed by a communication device or the like for connecting to the network 920, for example.
  • the communication device 913 is, for example, a communication card for wired or wireless LAN (Local Area Network), LTE (Long Term Evolution), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 913 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communication, or the like.
  • the communication device 913 can transmit and receive signals and the like according to a predetermined protocol such as TCP / IP, for example, with the Internet and other communication devices.
  • the communication device 913 may form, for example, the communication unit 130 illustrated in FIG. 3, the communication unit 310 illustrated in FIG. 4, and the communication unit 410 illustrated in FIG.
  • the network 920 is a wired or wireless transmission path for information transmitted from a device connected to the network 920.
  • the network 920 may include a public line network such as the Internet, a telephone line network, and a satellite communication network, various LANs including the Ethernet (registered trademark), a wide area network (WAN), and the like.
  • the network 920 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).
  • IP-VPN Internet Protocol-Virtual Private Network
  • the sensor 915 is various sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, a sound sensor, a distance measuring sensor, and a force sensor.
  • the sensor 915 acquires information on the state of the information processing apparatus 900 itself, such as the posture and movement speed of the information processing apparatus 900, and information on the surrounding environment of the information processing apparatus 900, such as brightness and noise around the information processing apparatus 900.
  • Sensor 915 may also include a GPS sensor that receives GPS signals and measures the latitude, longitude, and altitude of the device.
  • the sensor 915 can form, for example, the sensor unit 110 shown in FIG.
  • each of the above components may be realized using a general-purpose member, or may be realized by hardware specialized for the function of each component. Therefore, it is possible to change the hardware configuration to be used as appropriate according to the technical level at the time of carrying out this embodiment.
  • a computer program for realizing each function of the information processing apparatus 900 according to the present embodiment as described above can be produced and mounted on a PC or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • the sensor device 10 senses information related to the object, and the attachment position information where the attachment portion 12 that is detachably attached to any one or more attachment positions provided on the object is attached. To get. Since the sensor device 10 automatically acquires the attachment position information, the user can perform measurement while freely changing the attachment position of the sensor device 10 without performing a troublesome input operation such as setting the attachment position. Is possible. Thus, the sensor device 10 according to the present embodiment can more flexibly execute the measurement for visualizing the motion of the object.
  • the sensor device 10 performs setting according to the feature of the sensor information for each mounting position by the sensor setting function. Thereby, the sensing system 1 can automatically acquire appropriate sensor information corresponding to the mounting position of the sensor device 10. Specifically, the sensing system 1 can acquire sensor information with an appropriate dynamic range and resolution by an appropriate type of sensor according to the object and the operation of the object.
  • the sensor device 10 transmits sensor information and attachment position information to another device by an information transmission function.
  • the sensor apparatus 10 can transmit data using the compression system and / or communication system according to the attachment position.
  • the sensor device 10 can efficiently use the bandwidth in consideration of the data amount that may vary depending on the attachment position.
  • the sensor device 10 has been described as having a sensor setting function, but the present technology is not limited to such an example.
  • another device such as the smartphone 30 or the server 40 may have a sensor setting function and remotely perform sensor setting according to the attachment position information received from the sensor device 10. The same applies to the functions of the compression method setting unit 145 and the communication method setting unit 147.
  • a sensor unit for sensing information about the object An attachment part detachably attached to any one or more attachment positions provided on the object; An acquisition unit for acquiring information indicating the attachment position to which the attachment unit is attached;
  • a sensor device comprising: (2) The sensor device according to (1), further including a sensor setting unit configured to set the sensor unit. (3) The sensor device according to (2), wherein the sensor setting unit performs setting based on information indicating the attachment position acquired by the acquisition unit. (4) The sensor device according to (2) or (3), wherein the sensor setting unit sets at least one of execution / stop of sensing by the sensor unit, a dynamic range, and resolution.
  • the sensor device performs setting based on at least one of the object or an operation performed by the object.
  • the sensor setting unit acquires an operation performed by the object based on a user instruction.
  • the sensor device further includes a communication unit that transmits sensor information sensed by the sensor unit and information indicating the attachment position acquired by the acquisition unit to another device. The sensor device according to any one of the above.
  • the sensor device according to (8) further including a compression method setting unit that sets a compression method of data transmitted by the communication unit according to a setting content by the sensor setting unit.
  • (11) The sensor device according to any one of (1) to (10), wherein the acquisition unit acquires information indicating the attachment position based on electrical characteristics of the attachment position to which the attachment unit is attached. .
  • (12) The sensor device according to any one of (1) to (11), wherein the acquisition unit acquires information indicating the attachment position based on a physical shape of the attachment position to which the attachment unit is attached. .
  • the sensor device according to any one of (1) to (12), wherein the object is a living organism.
  • the sensor device according to any one of (1) to (12), wherein the object is an object used by a living thing.
  • Sensing information about the object Obtaining information indicating the attachment position, to which an attachment portion that is detachably attached to any one or more attachment positions provided on the object is attached;
  • a sensing method executed by a sensor device including: (16) An acquisition unit configured to acquire sensor information and information indicating the attachment position to which the sensor device is attached, acquired by a sensor device that is detachably attached to any one or more attachment positions provided on the object; , A processing unit that processes the sensor information acquired by the acquisition unit based on information indicating the attachment position;
  • An information processing apparatus comprising:
  • Sensing system 1 10 Sensor device 10 DESCRIPTION OF SYMBOLS 11 Main body part 12 Mounting part 13 Terminal 14 Switch 110 Sensor part 120 Interface part 130 Communication part 140 Control part 141 Acquisition part 143 Sensor setting part 145 Compression method setting part 147 Communication method setting part 20 Sensor installation equipment 21 Sensor attachment 22 Terminal 23 uneven part 30 smart phone 310 communication unit 320 input unit 330 output unit 340 storage unit 350 control unit 351 acquisition unit 353 processing unit 355 output control unit 40 server 410 communication unit 440 storage unit 450 control unit 451 acquisition unit 453 processing unit 455 output control Part

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】対象物の動きを可視化するための測定をより柔軟に実行することが可能なセンサ装置、センシング方法及び情報処理装置を提供する。 【解決手段】対象物に関する情報をセンシングするセンサ部と、前記対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられる取付部と、前記取付部が取り付けられた前記取り付け位置を示す情報を取得する取得部と、を備えるセンサ装置。

Description

センサ装置、センシング方法及び情報処理装置
 本開示は、センサ装置、センシング方法及び情報処理装置に関する。
 近年、様々な分野において、情報処理技術を適用する試みが行われている。その一例として、スポーツの分野において、競技者の身体の動きを可視化する技術が挙げられる。競技者は、多様なセンサ装置を用いて自身の身体の動きを測定・記録することで、スポーツに応じた動作が円滑に行われているか否かを確認することが可能となる。それにより、競技者は、可視化された身体の動きを参考に容易にフォーム改善等を行うことが可能である。
 身体の動きを可視化する技術には、モーションキャプチャー含め多様な方法がある。例えば、下記特許文献1では、競技者の手に装着された加速度センサにより加速度を測定し、測定結果に基づいて競技者がスイングする競技用具の先端の速度を算出する技術が開示されている。
特開2012-200540号公報
 しかし、上記特許文献1に記載された技術は、特定の競技における特定の部位の加速度を測定するための技術であるので、任意の部位の加速度を測定することは困難であった。さらに、競技の種類が変われば好ましい測定対象や測定部位が異なることも考えられるので、身体の動きを可視化するための測定をより柔軟に実行可能になることが望ましい。そこで、本開示では、対象物の動きを可視化するための測定をより柔軟に実行することが可能な、新規かつ改良されたセンサ装置、センシング方法及び情報処理装置を提案する。
 本開示によれば、対象物に関する情報をセンシングするセンサ部と、前記対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられる取付部と、前記取付部が取り付けられた前記取り付け位置を示す情報を取得する取得部と、を備えるセンサ装置が提供される。
 また、本開示によれば、対象物に関する情報をセンシングすることと、前記対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられる取付部が取り付けられた、前記取り付け位置を示す情報を取得することと、を含むセンサ装置により実行されるセンシング方法が提供される。
 また、本開示によれば、対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられたセンサ装置により取得された、センサ情報及び前記センサ装置が取り付けられた前記取り付け位置を示す情報を取得する取得部と、前記取得部により取得された前記センサ情報を前記取り付け位置を示す情報に基づいて処理する処理部と、を備える情報処理装置が提供される。
 以上説明したように本開示によれば、対象物の動きを可視化するための測定をより柔軟に実行することが可能である。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本実施形態に係るセンシングシステムの概要を説明するための図である。 本実施形態に係るセンサ装置及びセンサ取付具の外観構成の一例を説明するための図である。 本実施形態に係るセンサ装置の論理的な構成の一例を示すブロック図である。 本実施形態に係るスマートフォンの論理的な構成の一例を示すブロック図である。 本実施形態に係るサーバの論理的な構成の一例を示すブロック図である。 ゴルフにおける取り付け位置ごとのセンサ情報の特徴の一例を示す図である。 本実施形態に係るセンサ装置において実行されるセンシング処理の流れの一例を示すフローチャートである。 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の要素を、必要に応じてセンサ装置10A、10B及び10Cのように区別する。ただし、実質的に同一の機能構成を有する複数の要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、センサ装置10A、10B及び10Cを特に区別する必要が無い場合には、単にセンサ装置10と称する。
 なお、説明は以下の順序で行うものとする。
  1.概要
   1.1.全体構成
   1.2.技術的課題
  2.構成例
   2.1.センサ装置の外観構成例
   2.2.センサ装置の機能構成例
   2.3.スマートフォンの機能構成例
   2.4.サーバの機能構成例
  3.機能詳細
   3.1.取り付け位置情報取得機能
   3.2.センサ設定機能
   3.3.情報送信機能
   3.4.サービス提供機能
  4.動作処理例
  5.ハードウェア構成例
  6.まとめ
 <<1.概要>>
  <1.1.全体構成>
 まず、図1を参照して、本開示の一実施形態に係るセンシングシステムの概要を説明する。
 図1は、本実施形態に係るセンシングシステム1の概要を説明するための図である。図1に示すように、センシングシステム1は、センサ装着用装備20に取り付けられたひとつ以上のセンサ装置10(10A~10D)、情報処理装置30及び40を含む。
 センサ装置10は、各種データをセンシングする装置である。センサ装置10は、センサ装着用装備20が有するセンサ取付具21に取り付けられ、対象物の動きを対象としたセンシングを行う。対象物は、人間、犬、猫その他の生物であってもよいし、ロボット等の無生物であってもよい。図1に示した例では、対象物はユーザ(人間)である。また、対象物は、生物により使用される物体であってもよい。例えば、対象物は、ゴルフクラブやテニスラケット、ボール、スキー板、スキーブーツ、ゴール、バット等の競技のために使用される道具であってもよい。また、対象物は、義手や車椅子等の生活のために使用される道具であってもよい。また、対象物は、首輪や馬蹄等の動物に使用される装具であってもよい。センサ装置10は、情報処理装置30との間で無線接続を確立して、取得したデータを情報処理装置30に送信し、また情報処理装置30からの指示を受信する。
 センサ装置10は、単体で又は他のセンサ装置10との組み合わせにより、多様なデータを測定することが可能である。センサ装置10は、例えば加速度センサやジャイロセンサ等の慣性センサを含み得る。その場合、1つのセンサ装置10により、取り付け位置の傾きを測定することができる。また、2つのセンサ装置10により、2つのセンサ装置10で挟まれた関節の曲がり度合いを測定することができる。また、複数のセンサ装置10により、それぞれの取り付け位置における角速度の最大値の時間軸順序の測定を行うことができる。なお、センサ装置10によるセンシング結果(センサ情報)からこれらの情報を算出する処理は、例えば情報処理装置30及び40により行われ得る。
 センサ装着用装備20は、対象物にセンサ装置10を固定するための装備である。図1に示すように、センサ装着用装備20は、センサ装置10を着脱可能に取り付けるための取り付け位置(センサ取付具21)をひとつ以上備え、その一部又は全部にセンサ装置10を取り付け可能である。センサ装着用装備20は、ユーザの体幹や手足等の一部又は全部を覆う形状であってもよく、その場合はユーザの動きを妨げないために伸縮可能な素材により形成されることが望ましい。また、取り付けられたセンサ装置10が対象物と離隔していてもよく、センサ装着用装備20は、例えばヘルメットやプロテクター等のような厚みを持っていてもよい。他にも、センサ装着用装備20は、ゴルフクラブやテニスラケット、スキー板等の物体に装着され、又は物体と一体的に形成されてもよい。ユーザは、測定したい部位に位置するセンサ取付具21に、センサ装置10を取り付けることができる。ユーザは、複数のセンサ装置10を取り付けてもよく、またその取り付け位置は任意であるので、柔軟な測定が実現される。
 情報処理装置30及び40は、センサ装置10から出力された情報を処理する装置である。情報処理装置30及び40は、スマートフォン、タブレット端末、PC又はサーバ等により実現され得る。図1に示した例では、情報処理装置30はスマートフォンであり、情報処理装置40はサーバである。例えば、スマートフォン30及びサーバ40は、センサ装置10により取得されたセンサ情報を可視化してユーザにフィードバックしたり、競技上達のためのアドバイス又は商品推薦等の各種サービスを提供したりする。
  <1.2.技術的課題>
 ここで、人間は一般的に200本以上の骨を有しており、全身の動きを一度に測定しようとすると、17カ所にセンサ装置10を取り付けて測定する必要があるとする試算がある。しかし、例えばゴルフのスイング等のひとつの動作を確認するためには、それほど多くの箇所での測定は必須ではないと考えられる。また、無線通信の制限により、同時にセンシング可能なセンサ装置10の個数が限られる場合がある。例えば、Bluetooth(登録商標)の1つのドングルでは最大7つの子機まで通信可能であるので、同時にセンシングすることが可能なセンサ装置10の上限は7つとなる。
 上記事情から、ユーザがセンサ装置10の取り付け位置を変えながら測定することが現実的であると考えられる。その場合、多数のセンサ装置10は必要でないので、対費用面でも効果的である。ユーザがセンサ装置10の取り付け位置を変えながら測定することを考慮すると、センシングシステム1がセンサ装置10の取り付け位置を自動的に把握可能になることが、ユーザの利便性の観点から望ましい。
 そこで、上記事情を一着眼点にして本開示の一実施形態に係るセンシングシステム1を創作するに至った。本実施形態によるセンサ装置10は、自身の取り付け位置を自動的に把握することが可能である。以下、図2~図8を参照して、本実施形態に係るセンシングシステム1について詳細に説明する。
 <<2.構成例>>
 以下では、図2~図5を参照して、本実施形態に係るセンシングシステム1に含まれる各装置の構成例を順に説明する。
  <2.1.センサ装置の外観構成例>
 図2は、本実施形態に係るセンサ装置10及びセンサ取付具21の外観構成の一例を説明するための図である。図2に示すように、センサ装置10は、本体部11及び取付部12を含む。本体部11は、例えばセンサを含む。取付部12は、ユーザ(センサ装着用装備20)に設けられたひとつ以上のセンサ取付具21のいずれかに着脱可能に取り付けられる。例えば、取付部12は、円筒の面に沿って溝が設けられており、センサ取付具21に螺合される。
 センサ装置10には、端子13が設けられている。センサ取付具21にも端子22が設けられている。例えば、センサ装置10がセンサ取付具21に取り付けられると、端子13と端子22とが接し、電気信号のやり取りが可能となる。
 センサ装置10には、スイッチ14が設けられている。センサ取付具21には、凹凸部23が設けられている。例えば、センサ装置10がセンサ取付具21に螺合される際に、凹凸部23の凸部分がスイッチ14を順に押下する。図2に示した例では、凹凸部23の3つの凸部分は、センサ装置10がセンサ取付具21に螺合される際に、スイッチ14を順番に押すことができるように、スイッチ14の軌道に沿って円弧状に等間隔で1列に並んでいるが、本技術はかかる例に限定されない。例えば、凸部分は任意の数であってもよいし、任意の間隔であってもよいし、複数列であってもよい。なお、凸部分が複数列に設けられる場合、スイッチ14も複数列に設けられることが望ましい。
  <2.2.センサ装置の機能構成例>
 図3は、本実施形態に係るセンサ装置10の論理的な構成の一例を示すブロック図である。図3に示すように、センサ装置10は、センサ部110、インタフェース部120、通信部130及び制御部140を有する。
 センサ部110は、対象物に関する情報をセンシングする機能を有する。例えば、センサ部110は、加速度センサ及びジャイロセンサ等の慣性センサにより実現される。他にも、センサ部110は、筋電センサ、神経センサ、脈拍センサ及び体温センサ等の生体センサを含んでいてもよい。また、センサ部110は、振動センサ、地磁気センサ等を含んでいてもよい。センサ部110は、センサ情報を、制御部140へ出力する。
 インタフェース部120は、センサ装置10が取り付けられたセンサ取付具21とのインタフェースである。例えば、インタフェース部120は、端子13及びスイッチ14を含む。例えば、インタフェース部120は、端子13と端子22との間で流れる電気信号に関する情報を、制御部140へ出力する。また、インタフェース部120は、凹凸部23によるスイッチ14の押下に関する情報を、制御部140へ出力する。
 通信部130は、外部機器との間でデータの送受信を行う通信モジュールである。例えば、通信部130は、スマートフォン30との間でデータの送受信を行う。通信部130は、例えば無線LAN(Local Area Network)、Wi-Fi(Wireless Fidelity、登録商標)、赤外線通信、Bluetooth等の方式で、スマートフォン30と直接的に、又はネットワークアクセスポイント等の他の通信ノードを経由して間接的に通信する。通信部130は、有線LAN等の方式で、外部機器と有線通信してもよい。
 制御部140は、演算処理装置および制御装置として機能し、各種プログラムに従ってセンサ装置10内の動作全般を制御する。図3に示すように、制御部140は、取得部141、センサ設定部143、圧縮方式設定部145及び通信方式設定部147として機能する。取得部141は、取付部12が取り付けられた取り付け位置(センサ取付具21)を示す情報を取得する機能を有する。取り付け位置を示す情報を、以下では取り付け位置情報とも称する。センサ設定部143は、センサ部110の設定を行う機能を有する。圧縮方式設定部145は、通信部130により外部機器へ送信されるデータの圧縮方式を設定する機能を有する。通信方式設定部147は、通信部130により外部機器へデータが送信される際に用いられる通信方式を設定する機能を有する。
  <2.3.スマートフォンの機能構成例>
 図4は、本実施形態に係るスマートフォン30の論理的な構成の一例を示すブロック図である。図4に示すように、スマートフォン30は、通信部310、入力部320、出力部330、記憶部340及び制御部350を有する。
 通信部310は、外部機器との間でデータの送受信を行う通信モジュールである。例えば、通信部310は、センサ装置10及びサーバ40との間でデータの送受信を行う。通信部310は、例えば無線LAN、Wi-Fi、赤外線通信、Bluetooth、有線LAN等の方式で、センサ装置10又はサーバ40と直接的に、又はネットワークアクセスポイント等の他の通信ノードを経由して間接的に通信する。
 入力部320は、ユーザによる操作を受け付ける機能を有する。例えば、入力部320は、キーボード、マウス等により実現される。また、入力部320は、表示装置(出力部330)と一体的に形成されるタッチパネルにより実現されてもよい。
 出力部330は、映像、画像、音声などによって、ユーザへ情報を出力する機能を有る。出力部330は、例えばCRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(Liquid Crystal Display)装置、スピーカー等により実現される。
 記憶部340は、所定の記録媒体に対してデータの記録再生を行う部位である。例えば、記憶部340は、通信部310によりセンサ装置10から受信されたデータを記憶する。
 制御部350は、演算処理装置および制御装置として機能し、各種プログラムに従ってスマートフォン30内の動作全般を制御する。図4に示すように、制御部350は、取得部351、処理部353及び出力制御部355として機能する。取得部351は、センサ装置10により取得されたセンサ情報及び取り付け位置情報を、通信部310を経由して取得する機能を有する。処理部353は、取得部351により取得されたセンサ情報を、取り付け位置情報に基づいて処理する機能を有する。出力制御部355は、出力部330を制御して情報を出力させる機能を有する。
  <2.4.サーバの機能構成例>
 図5は、本実施形態に係るサーバ40の論理的な構成の一例を示すブロック図である。図5に示すように、サーバ40は、通信部410、記憶部440及び制御部450を有する。
 通信部410は、外部機器との間でデータの送受信を行う通信モジュールである。例えば、通信部410は、スマートフォン30との間でデータの送受信を行う。通信部410は、例えば無線LAN、Wi-Fi、赤外線通信、Bluetooth、有線LAN等の方式で、スマートフォン30と直接的に、又はネットワークアクセスポイント等の他の通信ノードを経由して間接的に通信する。
 記憶部440は、所定の記録媒体に対してデータの記録再生を行う部位である。例えば、記憶部440は、通信部410によりスマートフォン30から受信されたデータを記憶する。
 制御部450は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ40内の動作全般を制御する。図5に示すように、制御部450は、取得部451、処理部453及び出力制御部455として機能する。取得部451は、センサ装置10により取得されたセンサ情報及び取り付け位置情報を、通信部410を経由して取得する機能を有する。処理部453は、取得部451により取得されたセンサ情報を、取り付け位置情報に基づいて処理する機能を有する。出力制御部455は、スマートフォン30の出力部330により出力される情報を制御する機能を有する。
 以上、本実施形態に係るセンシングシステム1に含まれる各装置の構成例を説明した。続いて、本実施形態に係るセンシングシステム1が有する機能を詳細に説明する。
 <<3.機能詳細>>
  <3.1.取り付け位置情報取得機能>
 センサ装置10(例えば、取得部141)は、センサ装置10がセンサ取付具21に取り付けられた場合に、取り付け位置情報を取得する。取り付け位置情報は、ユーザの手首、肩又は胸といった具体的な部位を示す情報であってもよい。他にも、取り付け位置情報は、センサ取付具21の識別情報であってもよく、センサ装着用装備20における各センサ取付具21の位置及び識別情報が既知であれば、センシングシステム1は具体的な位置を特定可能である。
 例えば、取得部141は、取付部12が取り付けられたセンサ取付具21の電気的特性に基づいて、取り付け位置情報を取得してもよい。例えば、取得部141は、接した端子13と端子22との間で電流を流すことで得た抵抗値を、取り付け位置情報として取得する。センシングシステム1は、取得部141により取得された抵抗値から、取付部12が取り付けられたセンサ取付具21を特定してもよい。
 例えば、取得部141は、取付部12が取り付けられたセンサ取付具21の物理的形状に基づいて、取り付け位置情報を取得してもよい。例えば、取得部141は、センサ装置10がセンサ取付具21に螺合される際に、凹凸部23により押下されたスイッチ14により得た凹凸部23の凹凸パターン(凸部分の数や間隔、高さ等)を、取り付け位置情報として取得する。センシングシステム1は、取得部141により取得された凹凸パターンから、取付部12が取り付けられたセンサ取付具21を特定してもよい。
 いずれの方式にしろ、センシングシステム1は、センサ装置10をセンサ取付具21に取り付けられることで、取り付け位置情報を自動的に取得可能である。例えば、ユーザによる取り付け位置情報の入力等が要されないので、ユーザの利便性が向上する。
 取得部141は、上記仕組みを用いて多様な情報を取得し得る。
 例えば、センサ取付具21の端子22及び/又は凹凸部23に、チームにおける個人を識別するための設定が行われてもよい。その場合、取得部141は、いずれのチームのユーザに取り付けられたか、どのポジション(オフェンス又はディフェンス等)のユーザに取り付けられたか、及びユーザの背番号は何番か、といった情報を抵抗値及び/又は凹凸パターンから取得してもよい。
 他にも、例えば、取得部141は、取り付けられていないことを示す情報を取得してもよい。また、取得部141は、取り付けられた対象物を示す情報を取得してもよい。例えば、取得部141は、ユーザ、ゴルフクラブ等の道具、充電器、センサ装置10のキャリブレーション用の装置、又は工場における出荷検査機等に取り付けられたことを示す情報を取得してもよい。
  <3.2.センサ設定機能>
 センサ装置10(例えば、センサ設定部143)は、取得部141により取得された取り付け位置情報に基づいて、センサ部110の設定を行う。これにより、センシングシステム1は、取り付け位置ごとのセンサ情報の特徴に応じた設定を用いてセンシングされたセンサ情報を取得することができる。以下、図6を参照して、取り付け位置ごとのセンサ情報の特徴に応じたセンサ設定機能について説明する。
 図6は、ゴルフにおける取り付け位置ごとのセンサ情報の特徴の一例を示す図である。図6では、縦軸を角速度とし、横軸を加速度として、ゴルフをスイングする動作における取り付け位置ごとのセンサ情報を示している。符号510は、手の甲に取り付けられたセンサ装置10により取得されたセンサ情報を示している。符号520は、肩に取り付けられたセンサ装置10により取得されたセンサ情報を示している。符号530は、腰に取り付けられたセンサ装置10により取得されたセンサ情報を示している。符号510に示したように、体幹から遠くの位置、例えば手の甲又は手首等に取り付けられたセンサ装置10においては、高い値の角速度及び加速度まで測定可能であることが望ましい。また、符号520に示したように、体幹から近い位置、例えば腰、肩又は背中等に取り付けられたセンサ装置10においては、高い分解能で角速度及び加速度を測定可能であることが望ましい。また、バットやゴルフクラブ等の打具又は打具を持つ手など、振動が発生する対象物に取り付けられるセンサ装置10においては、振動センサによる測定が可能であることが望ましい。
 そこで、センサ設定部143は、センサ部110によるセンシングの実行/停止、ダイナミックレンジ又は分解能(サンプリング周波数)の少なくともいずれかを設定してもよい。例えば、センサ装置10の取り付け位置が打具又は打具に近い手の甲である場合、センサ設定部143は、振動センサをONにしてセンシングを実行させ、慣性センサのダイナミックレンジを広く分解能を低く設定してもよい。図6に示した例においては、センサ設定部143は、ダイナミックレンジを符号540の範囲に設定してもよい。これにより、センシングシステム1は、振動情報の解析及びダイナミックレンジが広い前提での角速度及び加速度の解析を行うことができる。一方で、センサ装置10の取り付け位置が体幹に近い腰又は背中である場合、センサ設定部143は、振動センサをOFFにしてセンシングを停止させ、慣性センサのダイナミックレンジを狭く分解能を高く設定してもよい。図6に示した例においては、センサ設定部143は、ダイナミックレンジを符号550の範囲に設定してもよい。これにより、センシングシステム1は、不要な振動情報の解析を省略し、ダイナミックレンジが狭い前提での角速度及び加速度の解析を行うことができる。
 センサ設定部143は、対象物又は対象物が行う動作の少なくともいずれかに基づいて設定を行ってもよい。センサ設定部143は、例えば対象物がユーザであるか、ユーザが利用する道具であるかによって異なる設定を行ってもよい。同じ動作であっても、センサ装置10がユーザに取り付けられるのか道具に取り付けられるのかによって、例えば加速度及び角速度の最小値及び最大値が異なる場合があるためである。また、センサ設定部143は、対象物が行う動作が、例えばゴルフであるか、野球であるか、及び野球であれば打撃動作であるか投球動作であるかに応じて異なる設定を行ってもよい。動作の種類によって、例えば加速度及び角速度の最小値及び最大値が異なる場合があるためである。
 センサ設定部143は、ユーザ指示に基づいて対象物が行う動作を知得してもよい。例えば、センサ設定部143は、ユーザがどの競技のどの動作を行うかを示す情報を、スマートフォン30を経由したユーザ指示により知得してもよい。これにより、センサ設定部143は、上述した動作に応じた設定を行うことが可能となる。
 他にも、センサ設定部143は、センサ部110によりセンシングされたセンサ情報及び取得部141により取得された取り付け位置情報に基づいて対象物が行う動作を推定してもよい。例えば、手の甲に取り付けられたセンサ装置10のセンサ設定部143は、振動の有無や加速度、角速度の大きさに基づいて、ユーザが行っている動作が野球の打撃動作であるのか投球動作であるのかを推定してもよい。これにより、センサ設定部143は、上述した動作に応じた設定を行うことが可能となる。
 なお、対象物を示す情報は、取得部141により取得される取り付け位置情報に含まれ得る。もちろん、センサ設定部143は、ユーザ指示により、又はセンサ情報及び取り付け位置情報に基づいて、対象物を示す情報を取得してもよい。
  <3.3.情報送信機能>
 センサ装置10(例えば、通信部130)は、センサ部110によりセンシングされたセンサ情報及び取得部141により取得された取り付け位置情報を他の装置(例えば、スマートフォン30)へ送信する。これにより、スマートフォン30及びサーバ40は、取り付け位置情報に対応付けられたセンサ情報を、センサ装置10の各々から取得することが可能となる。
 ここで、センサ装置10の取り付け位置によって、各種センサのON/OFFやダイナミックレンジ、サンプリング周波数等が異なり得るため、センサ装置10から送信されるデータ量が動的に変わり得る。
 そこで、圧縮方式設定部145は、通信部130により送信されるデータの圧縮方式をセンサ設定部143による設定内容に応じて設定してもよい。例えば、圧縮方式設定部145は、例えば多くのセンサがONになる、サンプリング周波数が高い、又は量子化ビット数が多い等のセンサ情報の情報量が多くなる設定内容の場合、より高い圧縮率となる圧縮方式を設定してもよい。一方で、圧縮方式設定部145は、例えば多くのセンサがOFFになる、サンプリング周波数が低い、又は量子化ビット数が少ない等のセンサ情報の情報量が少なくなる設定内容の場合、より低い圧縮率となる圧縮方式を設定してもよい。圧縮方式の設定は、圧縮アルゴリズムの選択により行われてもよいし、生データを送るのか加工したデータを送るのかの選択により行われてもよい。例えば、通信部130は、角速度データをそのまま送信するのではなく、角速度データから推定した姿勢情報を、より少ないサンプリング周波数を用いて圧縮してから送信してもよい。このように、圧縮方式設定部145は、センサ装置10の取り付け位置に応じて送信されるデータ量を調節することが可能である。
 また、通信方式設定部147は、通信部130により用いられる通信方式をセンサ設定部143による設定内容に応じて設定してもよい。例えば、通信方式設定部147は、センサ情報の情報量が多くなる設定内容の場合、Classic Bluetooth等の帯域の広い通信方式を用いるよう設定してもよい。一方で、通信方式設定部147は、センサ情報の情報量が少なくなる設定内容の場合、Bluetooth LE等の帯域の狭い通信方式を用いるよう設定してもよい。このように、通信方式設定部147は、センサ装置10の取り付け位置に応じた適切な通信方式を採用することが可能である。
  <3.4.サービス提供機能>
 センシングシステム1(例えば、スマートフォン30及び/又はサーバ40)は、センサ装置10により取得された情報を用いた多様なサービスを提供し得る。例えば、センシングシステム1は、センサ情報及び取り付け位置情報を解析等することにより、ユーザにとって適切なサービスを提供する。
 例えば、スマートフォン30は、スマートフォン30を経由して情報をサーバ40に送信し、サーバ40内部のアルゴリズムにより生成された他のユーザと比較した上達支援のアドバイスを表示してもよい。また、スマートフォン30は、過去に取得された情報を蓄積して、ユーザ個人のスキルの変化を表示したり、上達に応じた商品の推薦を行ったりしてもよい。また、スマートフォン30は、センサ装置10から受信した情報を解析して、リアルタイムに情報を表示する、音を鳴らす又は他の機器に設けられたアクチュエータを動かす等のフィードバックを行ってもよい。リアルタイムのフィードバックは、フォームの改善や、取り付け位置の指示等に効果的である。また、スマートフォン30は、例えばユーザがコーチの指示の元で実現した良いフォームのスイング動作に関する情報を記憶しておき、個人練習の際に同様の情報が取得された場合に良いフォームが再現されたことをフィードバックしてもよい。
 以上、本実施形態に係るセンシングシステム1が有する機能の詳細を説明した。続いて、図7を参照して、本実施形態に係るセンサ装置10の動作処理例を説明する。
 <<4.動作処理例>>
 図7は、本実施形態に係るセンサ装置10において実行されるセンシング処理の流れの一例を示すフローチャートである。
 図7に示すように、まず、取得部141は、取り付け位置情報を取得する(ステップS102)。次いで、センサ設定部143は、対象物及び対象物が行う動作を示す情報を取得する(ステップS104)。次に、センサ設定部143は、取り付け位置情報、対象物、及び対象物が行う動作を示す情報に基づいて、センサ部110の設定を行う(ステップS106)。
 そして、センサ部110は、センサ設定部143によりされた設定に従って、各種センシングを行う(ステップS108)。次いで、圧縮方式設定部145は、取り付け位置情報に応じて送信データの圧縮方式を設定する(ステップS110)。また、通信方式設定部147は、取り付け位置情報に応じて通信方式を設定する(ステップS112)。次に、通信部130は、圧縮方式設定部145により設定された圧縮方式を用いて、取り付け位置情報及び/又はセンサ情報を含む送信データを生成する(ステップS114)。そして、通信部130は、通信方式設定部147により設定された通信方式を用いて、送信データを送信する(ステップS116)。
 <<5.ハードウェア構成例>>
 最後に、図8を参照して、本実施形態に係る情報処理装置のハードウェア構成について説明する。図8は、本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図8に示す情報処理装置900は、例えば、図3~図5にそれぞれ示したセンサ装置10、スマートフォン30又はサーバ40を実現し得る。本実施形態に係るセンサ装置10、スマートフォン30又はサーバ40による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図8に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、通信装置913、及びセンサ915を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図3に示す制御部140や、図4に示す制御部350、図5に示す制御部450を形成し得る。
 CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。入力装置906は、例えば、図4に示す入力部320を形成し得る。
 出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。上記表示装置及び上記音声出力装置は、例えば、図4に示す出力部330を形成し得る。
 ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図4に示す記憶部340、図5に示す記憶部440を形成し得る。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。接続ポート911は、例えば、図3に示すインタフェース部120を形成し得る。
 通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図3に示す通信部130、図4に示す通信部310、図5に示す通信部410を形成し得る。
 なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
 センサ915は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサ、測距センサ、力センサ等の各種のセンサである。センサ915は、情報処理装置900の姿勢、移動速度等、情報処理装置900自身の状態に関する情報や、情報処理装置900の周辺の明るさや騒音等、情報処理装置900の周辺環境に関する情報を取得する。また、センサ915は、GPS信号を受信して装置の緯度、経度及び高度を測定するGPSセンサを含んでもよい。センサ915は、例えば、図3に示すセンサ部110を形成し得る。
 以上、本実施形態に係る情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上述のような本実施形態に係る情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 <<6.まとめ>>
 以上、図1~図8を参照して、本開示の一実施形態について詳細に説明した。上記説明したように、センサ装置10は、対象物に関する情報をセンシングすると共に、対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられる取付部12が取り付けられた取り付け位置情報を取得する。センサ装置10が自動的に取り付け位置情報を取得するので、ユーザは、センサ装置10の取り付け位置を自由に変えながら測定することを、取り付け位置を設定する等の面倒な入力作業を行うことなく実現可能である。このように、本実施形態に係るセンサ装置10は、対象物の動作を可視化するための測定をより柔軟に実行することが可能である。
 本実施形態に係るセンサ装置10は、センサ設定機能により、取り付け位置ごとのセンサ情報の特徴に応じた設定を行う。これにより、センシングシステム1は、センサ装置10の取り付け位置に応じた適切なセンサ情報を、自動的に取得することができる。詳しくは、センシングシステム1は、対象物及び対象物の動作に応じて、適切な種別のセンサによる適切なダイナミックレンジ及び分解能のセンサ情報を取得することができる。
 本実施形態に係るセンサ装置10は、情報送信機能により、センサ情報及び取り付け位置情報を他の装置へ送信する。その際、センサ装置10は、取り付け位置に応じた圧縮方式及び/又は通信方式を用いてデータを送信することができる。これにより、センサ装置10は、取り付け位置に応じて異なり得るデータ量を考慮して、帯域を効率的に利用することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、センサ装置10がセンサ設定機能を有するものとして説明したが、本技術はかかる例に限定されない。例えば、スマートフォン30又はサーバ40等の他の装置が、センサ設定機能を有し、センサ装置10から受信した取り付け位置情報に応じて遠隔的にセンサ設定を行ってもよい。圧縮方式設定部145及び通信方式設定部147の機能についても同様である。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 対象物に関する情報をセンシングするセンサ部と、
 前記対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられる取付部と、
 前記取付部が取り付けられた前記取り付け位置を示す情報を取得する取得部と、
を備えるセンサ装置。
(2)
 前記センサ装置は、前記センサ部の設定を行うセンサ設定部をさらに備える、前記(1)に記載のセンサ装置。
(3)
 前記センサ設定部は、前記取得部により取得された前記取り付け位置を示す情報に基づいて設定を行う、前記(2)に記載のセンサ装置。
(4)
 前記センサ設定部は、前記センサ部によるセンシングの実行/停止、ダイナミックレンジ又は分解能の少なくともいずれかを設定する、前記(2)又は(3)に記載のセンサ装置。
(5)
 前記センサ設定部は、前記対象物又は前記対象物が行う動作の少なくともいずれかに基づいて設定を行う、前記(2)~(4)のいずれか一項に記載のセンサ装置。
(6)
 前記センサ設定部は、ユーザ指示に基づいて前記対象物が行う動作を知得する、前記(5)に記載のセンサ装置。
(7)
 前記センサ設定部は、前記センサ部によりセンシングされたセンサ情報及び前記取得部により取得された前記取り付け位置を示す情報に基づいて前記対象物が行う動作を推定する、前記(5)に記載のセンサ装置。
(8)
 前記センサ装置は、前記センサ部によりセンシングされたセンサ情報及び前記取得部により取得された前記取り付け位置を示す情報を他の装置へ送信する通信部をさらに備える、前記(2)~(7)のいずれか一項に記載のセンサ装置。
(9)
 前記センサ装置は、前記通信部により送信されるデータの圧縮方式を前記センサ設定部による設定内容に応じて設定する圧縮方式設定部をさらに備える、前記(8)に記載のセンサ装置。
(10)
 前記センサ装置は、前記通信部により用いられる通信方式を前記センサ設定部による設定内容に応じて設定する通信方式設定部をさらに備える、前記(8)又は(9)に記載のセンサ装置。
(11)
 前記取得部は、前記取付部が取り付けられた前記取り付け位置の電気的特性に基づいて前記取り付け位置を示す情報を取得する、前記(1)~(10)のいずれか一項に記載のセンサ装置。
(12)
 前記取得部は、前記取付部が取り付けられた前記取り付け位置の物理的形状に基づいて前記取り付け位置を示す情報を取得する、前記(1)~(11)のいずれか一項に記載のセンサ装置。
(13)
 前記対象物は生物である、前記(1)~(12)のいずれか一項に記載のセンサ装置。
(14)
 前記対象物は生物により使用される物体である、前記(1)~(12)のいずれか一項に記載のセンサ装置。
(15)
 対象物に関する情報をセンシングすることと、
 前記対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられる取付部が取り付けられた、前記取り付け位置を示す情報を取得することと、
を含むセンサ装置により実行されるセンシング方法。
(16)
 対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられたセンサ装置により取得された、センサ情報及び前記センサ装置が取り付けられた前記取り付け位置を示す情報を取得する取得部と、
 前記取得部により取得された前記センサ情報を前記取り付け位置を示す情報に基づいて処理する処理部と、
を備える情報処理装置。
 1   センシングシステム1
 10  センサ装置10
 11  本体部
 12  取付部
 13  端子
 14  スイッチ
 110  センサ部
 120  インタフェース部
 130  通信部
 140  制御部
 141  取得部
 143  センサ設定部
 145  圧縮方式設定部
 147  通信方式設定部
 20  センサ装着用装備
 21  センサ取付具
 22  端子
 23  凹凸部
 30  スマートフォン
 310  通信部
 320  入力部
 330  出力部
 340  記憶部
 350  制御部
 351  取得部
 353  処理部
 355  出力制御部
 40  サーバ
 410  通信部
 440  記憶部
 450  制御部
 451  取得部
 453  処理部
 455  出力制御部

Claims (16)

  1.  対象物に関する情報をセンシングするセンサ部と、
     前記対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられる取付部と、
     前記取付部が取り付けられた前記取り付け位置を示す情報を取得する取得部と、
    を備えるセンサ装置。
  2.  前記センサ装置は、前記センサ部の設定を行うセンサ設定部をさらに備える、請求項1に記載のセンサ装置。
  3.  前記センサ設定部は、前記取得部により取得された前記取り付け位置を示す情報に基づいて設定を行う、請求項2に記載のセンサ装置。
  4.  前記センサ設定部は、前記センサ部によるセンシングの実行/停止、ダイナミックレンジ又は分解能の少なくともいずれかを設定する、請求項2に記載のセンサ装置。
  5.  前記センサ設定部は、前記対象物又は前記対象物が行う動作の少なくともいずれかに基づいて設定を行う、請求項2に記載のセンサ装置。
  6.  前記センサ設定部は、ユーザ指示に基づいて前記対象物が行う動作を知得する、請求項5に記載のセンサ装置。
  7.  前記センサ設定部は、前記センサ部によりセンシングされたセンサ情報及び前記取得部により取得された前記取り付け位置を示す情報に基づいて前記対象物が行う動作を推定する、請求項5に記載のセンサ装置。
  8.  前記センサ装置は、前記センサ部によりセンシングされたセンサ情報及び前記取得部により取得された前記取り付け位置を示す情報を他の装置へ送信する通信部をさらに備える、請求項2に記載のセンサ装置。
  9.  前記センサ装置は、前記通信部により送信されるデータの圧縮方式を前記センサ設定部による設定内容に応じて設定する圧縮方式設定部をさらに備える、請求項8に記載のセンサ装置。
  10.  前記センサ装置は、前記通信部により用いられる通信方式を前記センサ設定部による設定内容に応じて設定する通信方式設定部をさらに備える、請求項8に記載のセンサ装置。
  11.  前記取得部は、前記取付部が取り付けられた前記取り付け位置の電気的特性に基づいて前記取り付け位置を示す情報を取得する、請求項1に記載のセンサ装置。
  12.  前記取得部は、前記取付部が取り付けられた前記取り付け位置の物理的形状に基づいて前記取り付け位置を示す情報を取得する、請求項1に記載のセンサ装置。
  13.  前記対象物は生物である、請求項1に記載のセンサ装置。
  14.  前記対象物は生物により使用される物体である、請求項1に記載のセンサ装置。
  15.  対象物に関する情報をセンシングすることと、
     前記対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられる取付部が取り付けられた、前記取り付け位置を示す情報を取得することと、
    を含むセンサ装置により実行されるセンシング方法。
  16.  対象物に設けられたひとつ以上の取り付け位置のいずれかに着脱可能に取り付けられたセンサ装置により取得された、センサ情報及び前記センサ装置が取り付けられた前記取り付け位置を示す情報を取得する取得部と、
     前記取得部により取得された前記センサ情報を前記取り付け位置を示す情報に基づいて処理する処理部と、
    を備える情報処理装置。
PCT/JP2015/084065 2015-02-23 2015-12-03 センサ装置、センシング方法及び情報処理装置 WO2016136073A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/543,483 US10952647B2 (en) 2015-02-23 2015-12-03 Sensor device, sensing method, and information processing device
EP15883363.2A EP3263029A4 (en) 2015-02-23 2015-12-03 Sensor device, sensing method, and information processing device
JP2017501855A JP6699651B2 (ja) 2015-02-23 2015-12-03 センサ装置、センシング方法及び情報処理装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-032466 2015-02-23
JP2015032466 2015-02-23

Publications (1)

Publication Number Publication Date
WO2016136073A1 true WO2016136073A1 (ja) 2016-09-01

Family

ID=56789343

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/084065 WO2016136073A1 (ja) 2015-02-23 2015-12-03 センサ装置、センシング方法及び情報処理装置

Country Status (4)

Country Link
US (1) US10952647B2 (ja)
EP (1) EP3263029A4 (ja)
JP (1) JP6699651B2 (ja)
WO (1) WO2016136073A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114073517A (zh) * 2020-08-18 2022-02-22 丰田自动车株式会社 运动状态监视系统、训练支持系统、运动状态监视方法及计算机可读介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220879A (ja) * 2015-05-29 2016-12-28 セイコーエプソン株式会社 運動計測装置、運動計測システム、運動計測方法、及び運動計測プログラム
US20220406206A1 (en) * 2021-06-17 2022-12-22 Akinori MINAZUKI Recording medium recorded with cardiopulmonary resuscitation training program, cardiopulmonary resuscitation training method, apparatus, and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004065803A (ja) * 2002-08-09 2004-03-04 Casio Comput Co Ltd データ送受信システム
JP2014183931A (ja) * 2013-03-22 2014-10-02 Sony Corp 情報処理装置、センサ装置、情報処理システムおよび記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5906369A (en) * 1997-06-25 1999-05-25 Hasbro, Inc. Electronic matching game apparatus including sound generating means and method of game play using the same
JP2004264060A (ja) * 2003-02-14 2004-09-24 Akebono Brake Ind Co Ltd 姿勢の検出装置における誤差補正方法及びそれを利用した動作計測装置
US8512221B2 (en) * 2003-02-28 2013-08-20 Consolidated Research Of Richmond, Inc. Automated treatment system for sleep
US7942824B1 (en) * 2005-11-04 2011-05-17 Cleveland Medical Devices Inc. Integrated sleep diagnostic and therapeutic system and method
US9119568B2 (en) * 2009-05-20 2015-09-01 Koninklijke Philips N.V. Sensing device for detecting a wearing position
US20130131465A1 (en) * 2010-07-26 2013-05-23 Sharp Kabushiki Kaisha Biomeasurement device, biomeasurement method, control program for a biomeasurement device, and recording medium with said control program recorded thereon
JP2012200540A (ja) 2011-03-28 2012-10-22 Nagano Oki Denki Kk スイング解析システムおよびスイング解析装置
WO2013186769A1 (en) * 2012-06-11 2013-12-19 Seebo Interactive Ltd. Toy connective recognition arrangement
US10318708B2 (en) * 2013-03-14 2019-06-11 Nike, Inc. System and method for monitoring athletic activity from multiple body locations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004065803A (ja) * 2002-08-09 2004-03-04 Casio Comput Co Ltd データ送受信システム
JP2014183931A (ja) * 2013-03-22 2014-10-02 Sony Corp 情報処理装置、センサ装置、情報処理システムおよび記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3263029A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114073517A (zh) * 2020-08-18 2022-02-22 丰田自动车株式会社 运动状态监视系统、训练支持系统、运动状态监视方法及计算机可读介质

Also Published As

Publication number Publication date
JP6699651B2 (ja) 2020-05-27
US10952647B2 (en) 2021-03-23
US20180008170A1 (en) 2018-01-11
EP3263029A4 (en) 2018-10-24
EP3263029A1 (en) 2018-01-03
JPWO2016136073A1 (ja) 2017-11-30

Similar Documents

Publication Publication Date Title
US20210197059A1 (en) Sports competition server hosting games between remote opponents using physical sports implements in real-time
US7980998B2 (en) Training and instructing support device
JP6539272B2 (ja) コンピュータにより実現される方法、非一時的かつコンピュータが読み取り可能な媒体、および単一装置
KR101687252B1 (ko) 맞춤형 개인 트레이닝 관리 시스템 및 방법
US20150081067A1 (en) Synchronized exercise buddy headphones
US20140135960A1 (en) Wearable device, display device, and system to provide exercise service and methods thereof
KR200417280Y1 (ko) 스윙자세 교정 장치
US20070190506A1 (en) Online interactive multimedia system and the transmission method thereof
CN107961523B (zh) 基于心率检测的人体训练系统和智能健身系统
JP2004534583A (ja) スイング・タイプに基づいたゴルフ・クラブ選択のための自動化された方法及びシステム
US9248361B1 (en) Motion capture and analysis systems for use in training athletes
EP3186599B1 (en) Feedback provision system
US9407883B2 (en) Method and system for processing a video recording with sensor data
JP6699651B2 (ja) センサ装置、センシング方法及び情報処理装置
US11857840B2 (en) Momentum measurement device, momentum measurement system including the same, and momentum measurement method using the same
US10313868B2 (en) Athletic data aggregation and display system
JP2009153856A (ja) ゴルフ改善支援システム
WO2014125424A1 (en) Suspension training tracking device
TW201900108A (zh) 運動記錄裝置及運動記錄系統
WO2017056661A1 (ja) センシングシステム、センサ装置、及びセンサ取付具
KR102217120B1 (ko) 생체신호 전송기
KR20120010018A (ko) 그립 장치를 이용한 그립 악력 및 움직임 분석 시스템
US20200388188A1 (en) Audible feedback system for muscle training
KR20240011273A (ko) Ict 기반 상지 재활 훈련 장치 및 시스템
JP2021089539A (ja) 情報処理装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15883363

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017501855

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15543483

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015883363

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE