WO2020213301A1 - 情報処理装置及び情報処理システム - Google Patents

情報処理装置及び情報処理システム Download PDF

Info

Publication number
WO2020213301A1
WO2020213301A1 PCT/JP2020/010397 JP2020010397W WO2020213301A1 WO 2020213301 A1 WO2020213301 A1 WO 2020213301A1 JP 2020010397 W JP2020010397 W JP 2020010397W WO 2020213301 A1 WO2020213301 A1 WO 2020213301A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
skill level
information
information processing
users
Prior art date
Application number
PCT/JP2020/010397
Other languages
English (en)
French (fr)
Inventor
伊藤 鎮
猛史 荻田
洋平 福馬
山野 郁男
諒 横山
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/602,007 priority Critical patent/US20220152468A1/en
Publication of WO2020213301A1 publication Critical patent/WO2020213301A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B2071/0675Input for modifying training controls during workout
    • A63B2071/0677Input by image recognition, e.g. video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Definitions

  • This disclosure relates to an information processing device and an information processing system.
  • the method of setting the handy gap as described above only affects the outcome of the game and directly affects the physical sensation of the player (user), thereby changing the state of the play itself and the difference in ability (skill). It does not fill the level difference).
  • the first said user acquired in at least one of a performance performed by the movement of at least a part of the user's body and another performance performed in the past with respect to the performance.
  • the difference in skill level between the first user and the second user based on the sensing data for the first user and the sensing data for the second user whose skill level is lower than that of the first user.
  • the skill level for reducing the difference in skill level with respect to at least one of the first and second users based on the difference between the skill level difference detection unit that detects the above and the detected skill level.
  • An information processing apparatus is provided that includes a presentation unit that dynamically changes and presents difference suppression information during the performance.
  • a plurality of firsts acquired in at least one of a performance performed by the movement of at least a part of the user's body and another performance performed in the past with respect to the performance.
  • a skill level difference detection unit that detects the difference in skill level between the first group and the second group, and at least the first and second groups based on the detected difference in skill level.
  • An information processing device is provided for any one of them, comprising a presenting unit that dynamically changes and presents skill level difference suppression information for reducing the skill level difference during the performance.
  • the first performance acquired by the movement of at least a part of the user's body and at least one of the other performances performed in the past with respect to the performance.
  • the skill level between the first user and the second user A skill level for reducing the difference in skill level for at least one of the first and second users based on the difference between the skill level detecting device for detecting the difference and the detected skill level.
  • An information processing system includes a presentation device that dynamically changes and presents difference suppression information during the performance.
  • a plurality of components having substantially the same or similar functional configurations may be distinguished by adding different numbers after the same reference numerals. However, if it is not necessary to distinguish each of a plurality of components having substantially the same or similar functional configurations, only the same reference numerals are given.
  • similar components of different embodiments may be distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the similar components, only the same reference numerals are given.
  • a person who uses the service provided by the embodiment of the present disclosure described later is referred to as a user.
  • the present inventors fill in the difference in ability between players by directly affecting the physical sensation of the player itself, and impair whether the player is an elderly person, a child, or a healthy person.
  • the two players themselves are different from the case where the difference in ability is filled by the handicap related to the judgment of only the result of victory or defeat. It will be possible to enjoy sports and compete with each other.
  • the present embodiment since information that hinders the exertion of the actual skill level of the player is presented to the player having a high skill level, a certain load is applied to the player during the competition. It becomes. Then, according to the present embodiment, the skill level of the player can be improved by continuing the competition under such a load.
  • performance means a competition performed by the movement of at least a part of the user's body such as sports. Therefore, in addition to sports, the performance may include, for example, board games (chess, shogi, etc.), card games (card games, Hyakunin Isshu, etc.), video games, etc., in which the user's hands operate. ..
  • the skill level refers to the degree of proficiency in performance classified or quantified according to a predetermined number of stages.
  • FIG. 1 is an explanatory diagram illustrating a configuration example of the information processing system 10 according to the present embodiment.
  • FIG. 2 is an explanatory diagram illustrating an example of the appearance of the AR glass 210 according to the present embodiment.
  • the information processing system 10 can be divided into two main blocks, a server side unit 100 and a user side unit 200.
  • the server-side unit 100 is installed in a remote location or a vicinity of the user, and mainly executes information processing according to the present embodiment.
  • the user-side unit 200 is provided on the user side, and mainly collects sensing data about the user and provides the user with information obtained by the above-mentioned information processing.
  • the detailed configurations of the server-side unit 100 and the user-side unit 200 according to the present embodiment will be sequentially described below.
  • the server-side unit 100 is installed in a remote location of the user or the like, and mainly executes information processing according to the present embodiment.
  • the server-side unit 100 mainly includes a server 102, a data input device 104, a meteorological observation device 106, an external camera 108, a storage device 110, and a wireless module 112. Each device included in the server-side unit 100 will be described below.
  • the server 102 collects sensing data and the like related to a plurality of users, performs information processing (analysis of performance skill level, situation analysis, etc.) according to the present embodiment based on the collected sensing data, and obtains the information processing.
  • the obtained information can be provided to the user side unit 200.
  • the server 102 is realized by hardware such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), for example. The details of the server 102 will be described later.
  • the data input device 104 is realized by a touch panel, a keyboard, or the like, and receives data and command inputs to the server 102.
  • the server 102 can acquire a user profile (profile information) which is information about the user.
  • the user profile includes, for example, user attribute information (age, gender, height, weight, arm length, leg length, visual acuity, viewing angle, basic athletic ability (running speed, endurance, instantaneous power). , Jumping power, etc.) level, etc.), user's skill level (good movement, weak movement, etc.), information on the user's physical condition, etc. can be included.
  • the user profile may include information on the user's daily schedule (wake-up time, sleep time, meal time, meal content, etc.). Further, when a plurality of users are divided into several groups (teams), the user profile may also include information on the group to which each user belongs.
  • the meteorological observation device 106 is realized by a temperature sensor, a barometric pressure sensor, a humidity sensor, a wind direction / wind speed sensor, a sunshine sensor, a precipitation sensor, etc. Output to 102.
  • the meteorological observation device 106 may include an oxygen concentration sensor that measures the oxygen concentration of the surrounding environment.
  • the external camera 108 acquires an image by condensing light emitted from the target space, forming an optical image on the imaging surface, and converting the optical image formed on the imaging surface into an electrical image signal, for example. It is composed of an image pickup unit (for example, an image pickup optical system such as a photographing lens and a zoom lens that collects light emitted from a subject, and an image pickup element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Sensor). ) (Not shown) and a recording unit (not shown) for storing captured images (moving images, still images).
  • an image pickup unit for example, an image pickup optical system such as a photographing lens and a zoom lens that collects light emitted from a subject
  • an image pickup element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Sensor).
  • a recording unit not shown for storing captured images (moving images, still images).
  • the external camera 108 captures an image for analyzing the condition of the ground or the like where the user is located (whether it is wet, the growth condition of the turf, the undulations of the surface, etc.) as information on the surrounding environment of the user (ambient environment information). Then, it may be output to the server 102. Further, the external camera 108 may function as a camera that captures a moving image for detecting the movement (trajectory) of a ball, racket, club, or the like.
  • the server-side unit 100 may be provided with a TOF (Time of Flight) sensor (not shown) in addition to the meteorological observation device 106 and the external camera 108.
  • shape information depth information
  • shape information depth information
  • shape information depth information
  • Storage device 110 is realized by a RAM, a storage device, or the like, and stores an information processing program and various databases according to the present embodiment. In addition to these data, the storage device 110 may appropriately store various parameters that need to be stored when performing some processing, the progress of the processing, and the like.
  • the wireless module 112 is an interface with the user-side unit 200, and is realized by a communication device such as a communication antenna, a transmission / reception circuit, and a port. Specifically, the wireless module 112 is connected to a device included in the user-side unit 200 in a wireless communication network (not shown) such as a wireless LAN (Local Area Network), WiFi (registered trademark), Bluetooth (registered trademark), etc. It is connected so that it can communicate via. In the present embodiment, any method can be applied to the communication method used in the wireless communication network, but it is desirable to use a communication method capable of maintaining stable operation.
  • a wireless communication network not shown
  • any method can be applied to the communication method used in the wireless communication network, but it is desirable to use a communication method capable of maintaining stable operation.
  • the server-side unit 100 may further include a microphone (not shown) that collects sounds around the user, and is not particularly limited.
  • the server-side unit 100 is provided on the user side, and mainly collects sensing data related to the user, and provides the user with information obtained by information processing according to the present embodiment.
  • the user-side unit 200 includes a processing module 202, a biometric information sensor 204, a motion sensor 206, a microphone (hereinafter referred to as a microphone) 208, an AR (augmented reality) glass 210, and a speaker 212.
  • Mainly has a motion sensor (force sensor) 214 and a wireless module 222.
  • Each device included in the user-side unit 200 will be described below.
  • a part or all of the device included in the user side unit 200 is a wearable device that can be attached to a part of the user's body (earlobe, neck, arm, wrist, ankle, etc.), or is inserted into the user's body. It can be an implant device. More specifically, the wearable device includes, for example, HMD (Head Mounted Display) type, eyeglass type, ear device type, anklet type, bracelet (wristband) type, collar type, eyewear type, pad type, batch type, etc. It can be a wearable device of various types such as a clothing type. Further, a part or all of the devices included in the user-side unit 200 may be provided in the equipment (racket, bat, etc.) used by the user. Further, a part or all of the devices included in the user-side unit 200 may be devices installed around the user.
  • HMD Head Mounted Display
  • eyeglass type eyeglass type
  • ear device type anklet type
  • bracelet bracelet
  • collar type eyewear type
  • the processing module 202 is sensing from various sensors (bioinformation sensor 204, motion sensor 206, microphone 208) acquired in the performance (including not only the performance currently performed but also the performance performed in the past). Data can be collected and provided to the server-side unit 100. Further, the processing module 202 can output the information obtained from the server side unit 100 to the user via various output devices (AR glass 210, speaker 212, force sense device 214). Specifically, the processing module 202 is realized by hardware such as a CPU, ROM, and RAM, has a built-in clock mechanism (not shown) for grasping an accurate time, and transfers the sensing data to sensing data acquired from various sensors. The acquired time may be linked. The details of the processing module 202 will be described later.
  • the biometric information sensor 204 is, for example, a biometric information sensor such as a myoelectric sensor, a heartbeat sensor, a pulse sensor (blood flow sensor (including a blood pressure sensor), a respiratory sensor, a brain wave sensor, a skin temperature sensor, a skin conductivity sensor, and a sweating sensor. It is realized by the above and acquires the sensing data related to the biometric information of the user.
  • a biometric information sensor such as a myoelectric sensor, a heartbeat sensor, a pulse sensor (blood flow sensor (including a blood pressure sensor), a respiratory sensor, a brain wave sensor, a skin temperature sensor, a skin conductivity sensor, and a sweating sensor. It is realized by the above and acquires the sensing data related to the biometric information of the user.
  • an electromyographic sensor measures the myoelectric potential generated by an electric signal generated in a muscle fiber when a muscle such as an arm contracts by a plurality of electrodes attached to the user's arm or the like and propagates to the body surface.
  • the amount of muscle activity of the muscle can be detected quantitatively.
  • the heartbeat sensor is a sensor that detects a heartbeat, which is a beat in the user's heart.
  • the pulse sensor detects the pulse, which is the pulse of the artery that appears on the surface of the body or the like due to a change in pressure on the inner wall of the artery due to the blood being sent to the whole body through the artery by the beat (heartbeat) in the heart.
  • the blood flow sensor is a sensor that radiates infrared rays to the body and detects the blood flow rate by reflecting the infrared rays.
  • the respiratory sensor can be a respiratory flow meter that detects changes in respiratory volume.
  • the electroencephalogram sensor is a sensor that detects electroencephalograms by attaching a plurality of electrodes to the user's scalp and extracting periodic waves by removing noise from fluctuations in the measured potential difference between the electrodes.
  • the skin temperature sensor is a sensor that detects the user's body temperature
  • the skin conductivity sensor is a sensor that detects the user's skin electrical resistance.
  • the sweating sensor is a sensor that is attached to the user's skin and detects a voltage or resistance between two points on the skin that changes due to sweating.
  • the biological information sensor 204 is realized from an imaging device (second imaging device) that captures the user's facial expression and both eyes of the user as an imaging range, and the position of the user's eyeball, the position of the pupil, the direction of the line of sight, and the direction of the line of sight. It may include a line-of-sight sensor that detects eye movements (eye movements) and the like.
  • the image pickup device may be provided on the AR glass 210 described later.
  • Motion sensor 206 indicates, for example, the state (momentum, form, etc.) of each movement element performed by each part of the user's body or the posture of the user by being attached to a part of the user's body or a tool used by the user. Sensing data can be acquired.
  • the motion sensor 206 is realized by one or more sensor devices such as a 3-axis acceleration sensor, a 3-axis angular velocity sensor, a gyro sensor, a geomagnetic sensor, a position sensor, a vibration sensor, and a bending sensor, and each part of the user's body.
  • the sensor device can also function as a posture sensor that detects not only the state of each motion element performed by the user but also the posture of the user.
  • the sensor device as described above detects changes in acceleration, angular velocity, etc. given by the motion element, and generates a plurality of sensing data indicating the detected changes. Further, the sensing data obtained by the motion sensor 206 is output to the processing module 202.
  • the bending sensor is, for example, a sensor using an element whose resistance value changes non-linearly according to the bending amount when bent.
  • the bending angle of the joint can be adjusted. Can be detected.
  • the sensor device as described above to each joint of the user's arm, leg, body, etc., the posture (tilt) of the finger or arm in the space, the moving speed, and the joint It is possible to quantitatively detect the bending angle and the like.
  • the motion sensor 206 may be an image pickup device (first image pickup device) that images a user.
  • a marker made of an LED (Light Emitting Diode) or the like is attached to the user's joint or finger, and the movement of the marker is captured by a high-speed photographing camera (imaging device) to determine the position of the user's joint.
  • the movement may be detected quantitatively.
  • an imaging device may function as a camera that captures a moving image for detecting the movement (trajectory) of a ball, racket, club, or the like used by the user.
  • the microphone 208 is realized from a sound sensor that detects a user's uttered voice or a sound (cheers, etc.) generated around the user. Further, in the present embodiment, the extraction result obtained by extracting a specific voice (for example, a specific wording spoken by the user) from the sound detected from the microphone 208 may be used as sensing data.
  • the microphone 208 may be provided on the AR glass 210 described later.
  • the AR glass 210 is an example of the display device in the present embodiment, and can display the skill level difference suppression information described later in the form of visual information. More specifically, as shown in FIG. 2, the AR glass 210 is realized by, for example, a spectacle-shaped HMD worn on the user's head. Specifically, the display unit 230 corresponding to the spectacle lens portion located in front of the user's eyes at the time of wearing is a transmissive type capable of visually recognizing the outside of the spectacle lens portion, or cannot visually recognize the outside of the spectacle lens portion. It may be a non-transparent display. In the following description, the HMD having the display unit 230 of the transmissive display is referred to as "smart eyeglass".
  • the AR glasses 210 can present the virtual object in front of the user by displaying the virtual object on the display unit 230.
  • the virtual object means a virtual object that can be perceived by the user as if it were a real object existing in the real space.
  • the HMD is not limited to the form of displaying the virtual object to both eyes of the user, and has a form of displaying the virtual object only to one eye of the user. You may.
  • the AR glass 210 has a pair of display units 230 for the left eye and a right eye arranged in front of the user's eyes. It has a structure that can be used. Then, for example, a transmissive display is used for the display unit 230, and the processing module 202 capable of controlling the display unit 230 controls the transmittance of the transmissive display to pass the display through, that is, It can be transparent or translucent. Further, since the display unit 230 is in the through state, the user can perceive the surrounding real space even when the AR glasses 210 are always worn like glasses, so that the user can usually perceive the surrounding real space. It does not interfere with your life.
  • the display unit 230 can display an image such as a text or a figure in the through state, that is, can display a virtual object superimposed on the real space as augmented reality (AR).
  • AR augmented reality
  • a transmissive display for example, a half mirror or a transparent light guide plate is used to hold a virtual image optical system composed of a transparent light guide portion or the like in front of the user's eyes, and a virtual object is placed inside the virtual image optical system. Display it.
  • the display unit 230 displays the captured image in the real space captured by the outward camera 232 provided on the AR glass 210, and the display unit 230 is said to be the same.
  • a virtual object may be superimposed and displayed on a captured image in real space.
  • the display unit 230 may be realized as an LED (Light Emitting Diode) light source or the like that directly projects an image onto the user's retina. That is, the AR glass 210 may be realized as a projection type HMD.
  • LED Light Emitting Diode
  • the form of the AR glass 210 is not limited to the example shown in FIG. 2, and for example, a headband type HMD or a helmet type (for example, the visor portion of the helmet corresponds to the display). ) May be the HMD.
  • the above-mentioned headband type means a type worn by a band that goes around the entire circumference of the user's head. Further, the headband type includes a case where a band passing through not only the user's temporal region but also the crown is provided.
  • the speaker 212 is an example of the audio output device in the present embodiment, and can output the skill level difference suppression information described later in the form of auditory information.
  • the speaker 212 is a device for outputting voice to the user, for example, a headphone speaker worn on the user's ear (not shown) or a speaker provided near the user (not shown). You may.
  • the speaker 212 provides individual voices (for example, voice information optimized for each user) to one or both of the two users, or a part or all of the plurality of users. It may be a directional speaker installed around the user to be provided.
  • the force sense device 214 is an example of the force sense (tactile) device in the present embodiment, and can present (output) the skill level difference suppression information described later in the form of force sense (tactile) information.
  • the force sense device 214 is a device that transmits a force sense such as applying a force to a part (joint or the like) of the user's body based on the control from the processing module 202.
  • the force sensory device 214 can be a glove-type wearable device worn on the user's hand.
  • the glove-type wearable device is a mechanism called a finger exoskeleton robot and composed of a plurality of exoskeleton members (not shown) and actuators (electric actuators, pneumatic actuators, etc.) that move each exoskeleton member (not shown). Omitted).
  • the glove-type wearable device applies force to the user's fingers and joints by operating the exoskeleton member by the actuator.
  • the force sense device 214 is not limited to the glove-type wearable device as described above, and for example, a part of the user's body or a tool used by the user is vibrated to cause the user. It may be a vibrating device that suppresses the smooth operation of the device or intoxicates the user. Further, for example, the force sensory device 214 may be a stimulator using electric muscle stimulation that stimulates the user's muscles. That is, in the present embodiment, the force sense device 214 is not particularly limited as long as it is a device capable of giving a tactile stimulus to a part of the user's body.
  • the wireless module 222 is an interface with the server-side unit 100, and is realized by a communication device such as a communication antenna, a transmission / reception circuit, and a port. Specifically, the wireless module 222 can communicate with the device included in the server-side unit 100 via a wireless communication network (not shown) such as a wireless LAN, WiFi (registered trademark), or Bluetooth (registered trademark). Connected to.
  • a wireless communication network such as a wireless LAN, WiFi (registered trademark), or Bluetooth (registered trademark).
  • the user-side unit 200 may include a positioning sensor (position sensor) (not shown) that detects the user's position information.
  • the positioning sensor is a sensor that is attached to the user and detects the position of the user. Specifically, it can be a GNSS (Global Navigation Satellite System) receiver or the like. In this case, the positioning sensor can generate sensing data indicating the latitude and longitude of the user's current location based on the signal from the GNSS satellite. Further, in the present embodiment, for example, it is possible to detect the relative positional relationship of the user from information such as RFID (Radio Frequency Identification), Wi-Fi access point, and radio base station. It is also possible to use the communication device as the positioning sensor.
  • RFID Radio Frequency Identification
  • Wi-Fi access point Wireless Fidelity
  • radio base station radio base station
  • the user-side unit 200 may include a pressure sensor or the like provided in a tool (racket or the like) used by the user.
  • the server 102 of the server side unit 100 and the processing module 202 of the user side unit 200 may be configured as an integrated device.
  • the integrated device is connected to the server-side unit 100 and the other devices included in the user-side unit 200 via wireless communication.
  • FIG. 3 is a block diagram showing a functional configuration of the server 102 according to the present embodiment.
  • the server 102 according to the present embodiment mainly includes, for example, a data acquisition unit 120, a skill level estimation unit 122, a skill level difference detection unit 124, and an output control unit 126. The details of each functional unit of the server 102 according to the present embodiment will be described below.
  • the data acquisition unit 120 acquires information such as a user profile, weather information, and surrounding environment information from the above-mentioned data input device 104, meteorological observation device 106, external camera 108, and the like, and outputs the information to the skill level estimation unit 122, which will be described later. Further, the data acquisition unit 120 acquires sensing data from various sensors (biological information sensor 204, motion sensor 206, microphone 208) of the user side unit 200, and outputs the acquired sensing data to the skill level estimation unit 122.
  • the skill level estimation unit 122 estimates the skill level of each user based on various information (user profile, etc.) and various sensing data output from the data acquisition unit 120, and the skill level difference detection unit 124, which will be described later, estimates the estimation result. Output to.
  • the estimated skill level may be presented to the user, and by doing so, the user can recognize his / her own skill level.
  • the type of sensing data related to the motor element that is important when performing a task (for example, sports) given to the user is grasped in advance, and the sensing data of the type is used. Create a database of the relationship with the skill level in advance. Then, the skill level estimation unit 122 may estimate the skill level of the user by comparing the database with the newly acquired sensing data of the user.
  • a plurality of sensing data of users of various skill levels and information of corresponding skill levels are input to a learning device provided in the server 102, and the learning device is made to perform machine learning in advance.
  • the server 102 is provided with a supervised learner such as a support vector regression or a deep neural network. Then, by inputting the sensing data and the skill level into the learning device as an input signal and a teacher signal (label), respectively, the learning device performs machine learning on the relationship between these information according to a predetermined rule and performs sensing.
  • the relationship between data and skill level can be created in advance as a database.
  • the skill level estimation unit 122 may estimate the skill level of the user based on the database and the newly acquired sensing data of the user.
  • the above-mentioned learning device may perform machine learning with a learning device with a semi-teacher or a weak teacher.
  • the above-mentioned machine learning can also be used when generating skill level difference suppression information in the output control unit 126, which will be described later.
  • skill level difference suppression information For example, by creating a database of the relationship between the user's skill level and skill level difference suppression information by machine learning, information for raising the skill level (skill level improvement guidance information) and information for lowering the skill level (skill level lowering guidance) It can be used when generating information).
  • the machine learning as described above may be used for estimating the trajectory of the ball, the next attack motion, the preferred motion, and the like.
  • the skill level difference detection unit 124 detects a skill level difference (skill level difference) between a plurality of users based on the estimation result output from the skill level estimation unit 122 described above, and outputs control of the detection result described later. Output to unit 126.
  • the skill level of user A first user
  • 5 out of 5 here, the larger the number, the higher the degree of proficiency
  • user B It is assumed that the skill level of (second user) is 2.
  • the skill level difference detection unit 124 outputs to the output control unit 126, which will be described later, assuming that the skill level difference between the user A and the user B is 3.
  • the output control unit 126 not only the value of the skill level difference is output to the output control unit 126, but also the skill level itself of the user A and the user B is output to the output control unit 126.
  • the output control unit 126 which will be described later, can output the difference in skill levels between the user A and the user B and suitable skill level difference suppression information according to each skill level.
  • the detected skill level difference may be presented to the user, and in this way, the user can recognize the skill level difference.
  • the output control unit 126 dynamically changes the skill level difference suppression information for reducing the skill level difference during the user's performance based on the skill level difference detected by the skill level difference detection unit 124 described above. Is output to the processing module 202.
  • the skill level difference suppression information is information for reducing the skill level difference between the user A and the user B, for example, when two users are competing against each other.
  • the skill level difference suppression information can be skill level reduction guidance information that induces the skill level of the user A having a high skill level to be lowered. Specifically, by presenting the information to the user A, the user It means the information of A that interferes with the operation during performance.
  • the skill level difference suppression information can be skill level improvement guidance information that guides the user B having a low skill level to improve the skill level, and specifically, by presenting the information to the user B. , Means information that improves the accuracy and speed of operation of user B during performance.
  • the skill level difference suppression information includes not only the information itself to be presented (output) but also information such as which user is to be output at what timing and by what means. In the present embodiment, by doing so, it is possible to present the skill level difference suppression information to the user at a suitable timing by means corresponding to a more suitable sensory modality, and thus more effectively between the users. It is possible to reduce the skill level difference.
  • the output control unit 126 may dynamically change the information to be output (for example, the display of a virtual object, etc.) according to the skill level difference suppression information that changes during the performance (play). Further, the output control unit 126 acquires information such as a user profile, meteorological information, and surrounding environment information from the above-mentioned data input device 104, meteorological observation device 106, external camera 108, etc., and suppresses the skill level difference based on these. Information may be generated. Further, the output control unit 126 may also output the skill level of the user, the result of the situation analysis for the performance (play), and the like to the processing module 202 and present it to the user.
  • FIG. 4 is a block diagram showing a functional configuration of the processing module 202 according to the present embodiment.
  • the processing module 202 according to the present embodiment mainly includes, for example, a data acquisition unit 240 and an output control unit (presentation unit) 242. The details of each functional unit of the processing module 202 according to the present embodiment will be described below.
  • the data acquisition unit 240 acquires sensing data from the biological information sensor 204, the motion sensor 206, the microphone 208, and the like, and outputs the acquired sensing data to the server 102 described above. Further, the data acquisition unit 240 acquires skill level difference suppression information from the above-mentioned server 102 and outputs it to the output control unit 242 described later.
  • the output control unit 242 controls the means corresponding to any of the preferred sensory modality of the AR glass 210, the speaker 212, and the force sensory device 214 based on the skill level difference suppression information described above, and controls a plurality of users. Skill level difference suppression information is dynamically changed and presented to at least one of the users during the performance of the user.
  • FIG. 5 is a sequence diagram illustrating an example of the information processing method according to the present embodiment.
  • the information processing method according to the present embodiment includes a plurality of steps from step S101 to step S113. The details of each step included in the information processing method according to the present embodiment will be described below.
  • the server-side unit 100 acquires information such as a user profile, weather information, and surrounding environment information.
  • Step S103 The user-side unit 200 acquires various sensing data and transmits the acquired various sensing data to the server-side unit 100 described above.
  • Step S105 The user-side unit 200 acquires various sensing data.
  • Step S107 The server-side unit 100 estimates the skill level of each user based on various information (user profile, etc.) and various sensing data.
  • Step S109 The server-side unit 100 detects a skill level difference between a plurality of users based on the skill level of each user estimated in step S107 described above. For example, when two users are competing against each other, the skill level difference between the user A and the user B is detected.
  • Step S111 The server-side unit 100 generates skill level difference suppression information based on the skill level difference detected in step S109 described above, and transmits the skill level difference suppression information to the user-side unit 200.
  • the server-side unit 100 may generate skill level difference suppression information based on information such as the user profile, weather information, and surrounding environment information acquired in step S101 described above.
  • the server-side unit 100 may change the content of the skill level difference suppression information according to the user's characteristic information (easy to get drunk, lack of concentration, easy to get nervous, etc.) included in the user profile.
  • Step S113 Based on the skill level difference suppression information described above, the user-side unit 200 controls the means corresponding to any of the preferred sensory modality of the AR glass 210, the speaker 212, and the force sensory device 214 described above, and these means. Skill level difference suppression information is presented to at least one of a plurality of users via. At this time, the user-side unit 200 may present by combining or switching a plurality of means according to the skill level difference suppression information. Further, it is preferable that the user-side unit 200 presents the skill level difference suppression information to the user at an effective timing based on the skill level difference suppression information described above.
  • the skill level difference between the plurality of users also changes according to the skill level of each user that changes during the performance of the plurality of users. Therefore, in the present embodiment, since the skill level difference changes, the skill level difference suppression information presented to the user also changes dynamically.
  • the difference in skill level among a plurality of users can be reduced by repeating the sequence shown in FIG. 5 during the user's performance and performing machine learning, feedback, and the like. ..
  • Example 1 First, as Example 1, when the above-described embodiment of the present disclosure is applied to kendo or fencing in which two users (user A and user B) compete against each other, see FIGS. 6 and 7. explain. 6 and 7 are explanatory views for explaining the first embodiment.
  • the above-mentioned AR glass 210 is provided on the surface (kendo armor worn on the head), and the “gauntlet” is provided.
  • Kendo armor such as a glove that covers the hand
  • a force sense device 214 composed of a vibrating device.
  • the above-mentioned AR glass 210 is provided on the mask portion used for fencing, and the glove portion is a force sensory device composed of a vibrating device. 214 is provided.
  • a display that narrows the viewing angle of the user A with the AR glass 210 a display that the floor is shaking, or a display that the floor is shaking, Display the bamboo sword or sword so that it feels shorter than it actually is. Further, it may be displayed to the user A via the AR glass 210 that there is a feint (actually, an attack not received from the other party). Further, in this embodiment, the user A may be vibrated by the force sense device 214 during an attacking action or a defensive action.
  • the AR glass 210 and the force sense device 214 present the skill level lowering guidance information to the user A
  • the user A may be erroneously recognized as having a kinesthetic sense or a sense of balance, or may have a physical adjustment function. Can be disturbed. Therefore, in this embodiment, since the skill level of the user A is lowered, it is possible to reduce the skill level difference between the user A and the user B.
  • the attack of the opponent user A is estimated, and the result of the above estimation is displayed to the user B having a low skill level via the AR glass 210 as skill level improvement guidance information. Further, in the present embodiment, the user B may be notified of a suitable attack timing via the force sensor device 214 based on the above estimation result. As described above, in this embodiment, since the skill level improvement guidance information is presented to the user B by the AR glass 210 and the force sense device 214, the user B can improve the skill level. Therefore, in this embodiment, since the skill level of the user B is improved, it is possible to reduce the skill level difference between the user A and the user B.
  • a force may be applied to the user B forcibly to make a preferable movement through the force sensory device 214 which is the glove type wearable device described above, or the movement to the user A. You may apply the force to forcibly fix.
  • the embodiment of the present disclosure is applied to kendo and fencing, but for example, it may be applied to boxing.
  • a display that makes it difficult to see the punch of the opponent on the AR glass 210 or a glove of user B of the opponent is shown as large skill level reduction guidance information.
  • Such display or the like may be performed.
  • Example 2 Next, as Example 2, an example in which the above-described embodiment of the present disclosure is applied to golf will be described with reference to FIG.
  • FIG. 8 is an explanatory diagram for explaining the second embodiment.
  • the AR glass 210 is attached in front of the user's face, and the force sense device 214 made of a vibrating device is attached to the user's wrist.
  • the user A having a high skill level is displayed with a green having undulations different from the actual one via the AR glass 210 as the skill level lowering guidance information.
  • the user A is erroneously recognized as having a sense of movement or a sense of balance, and the skill level of the user A is lowered.
  • the user A may be subjected to vibration via the force sense device 214 during the swing operation, and by doing so, the user A may have a sense of motion or a sense of balance. Misrecognition can occur, and the skill level of user A can be lowered.
  • the skill level improvement guidance information via the AR glass 210.
  • Display display of the target point (for example, display 800 in FIG. 8), display of the line-of-sight position that user B should see when performing a suitable swing, and display of the line-of-sight position of the user A having a high skill level. You may. Further, in the present embodiment, a suitable swing for flying the ball to the target hole may be estimated, and the estimation result may be presented to the user B as skill level improvement guidance information.
  • a suitable swing force may be notified to the user B by vibrating the force sensory device 214. That is, in this embodiment, the skill level improvement guidance information is presented to the user B by the AR glass 210 and the force sense device 214, so that the user B can improve the skill level.
  • Example 3 an example in which the above-described embodiment of the present disclosure is applied to skiing (dual time race) will be described with reference to FIG.
  • FIG. 9 is an explanatory diagram for explaining the third embodiment.
  • the AR glass 210 described above is provided on the face portion of the helmet worn by the user, and the wrist and knee joints of the user are provided with a force composed of a vibrating device.
  • the sensory device 214 is attached.
  • the ski board used by the user is also provided with the force sense device 214 made of a vibrating device.
  • the AR glass 210 displays a display that narrows the viewing angle and the gliding course of the user A, and undulations different from the actual ones.
  • the course to be held may be displayed, or the snow surface having a hump having a shape that the user A is not good at may be displayed.
  • the ski may be vibrated by the force sense device 214 to the user A during the gliding, and by doing so, the snow surface actually slid down to the user A.
  • the force sensation device 214 worn on the body of the user A may be a stimulator using electric muscle stimulation, and such a force sensation device 214 provides the user A with an electrical stimulus.
  • the user A may be erroneously recognized as having a kinesthetic sense or a sense of balance. In this embodiment, by doing so, not only the skill level of the user A is lowered in the near future, but also the skiing is continued by continuously applying the load to the skiing user A in the future. It can be expected that the skill level of the user A himself will be improved, such as the accuracy of board control will be improved.
  • the display of a course suitable for the user B to slide down on the sliding snow surface is displayed via the AR glass 210.
  • the ski may be vibrated by the force sensor device 214 for the user B during the gliding, and by doing so, the user B is given the user A and the user B. You may notify the difference in skill level between.
  • Example 4 In the examples described so far, an example applied mainly to sports in which one-on-one users compete against each other has been described, but in the embodiment of the present disclosure, a plurality of users (first user, second user) It is also possible to apply to sports in which a plurality of teams (first group, second group) competing with each other. Therefore, as Example 4, an example in which the above-described embodiment of the present disclosure is applied to volleyball will be described with reference to FIG. FIG. 10 is an explanatory diagram for explaining the fourth embodiment.
  • an AR glass 210 is attached in front of each user's face, and a force sensory device 214 made of a vibrating device is attached to each user's wrist.
  • the AR glass 210 displays a size different from the actual size (displayed smaller than the actual size) as the skill level reduction guidance information. ), Amplitude (has a larger amplitude than the actual one), speed (displays slower than the actual one), etc. Further, in this embodiment, the user A may be vibrated by the force sense device 214 at the moment of attack. In this embodiment, by doing so, the user A can be erroneously recognized as having a kinesthetic sense or a sense of balance, and the skill level of the user A can be lowered.
  • the attack course, serve course, etc. of the team to which the user A belongs may be estimated. Then, in this embodiment, for the user B having a low skill level or the user B belonging to a team having a low skill level, the attack course, the serve course, etc. estimated via the AR glass 210 as the skill level improvement guidance information. Is displayed. Further, in the present embodiment, the force sense device 214 may give the user B a vibration on the wrist, and by doing so, the user B may be notified of the block timing.
  • Example 5 an example in which the above-described embodiment of the present disclosure is applied to basketball will be described with reference to FIG.
  • FIG. 11 is an explanatory diagram for explaining the fifth embodiment.
  • an AR glass 210 is attached in front of the user's face, and a force sensory device 214 made of a vibrating device is attached to the user's wrist.
  • the AR glass 210 is used as information for inducing a decrease in skill level, and a dummy of an opponent at a position or number different from the actual one is used. 802 may be displayed or the like. Further, in the present embodiment, the user A may be vibrated by the force sensation device 214 at the moment of dribbling, and by doing so, the user A is erroneously recognized as having a sense of motion or a sense of balance. It can be caused and the skill level of the user A is lowered.
  • the position of each user of the team to which the user A belongs is detected, and the AR glass 210 is used as skill level improvement guidance information for the user B having a low skill level or the user B belonging to the team having a low skill level.
  • the detected position may be displayed via.
  • the position of the user of the team to which the user B belongs is detected, and the position of the user in the free state is detected for the user B via the AR glass 210 as skill level improvement guidance information. It may be displayed.
  • the force sense device 214 may give the user B a vibration on the wrist, and by doing so, the user B can be notified of the pass timing.
  • Example 6 An example in which the above-described embodiment of the present disclosure is applied to soccer will be described with reference to FIGS. 12 and 13.
  • FIG. 12 is an explanatory diagram for explaining the sixth embodiment according to the present embodiment
  • FIG. 13 is a sequence diagram for explaining an example of the information processing method of the sixth embodiment according to the present embodiment.
  • the AR glass 210 is attached in front of each user's face. Further, although not shown in FIG. 12, it is assumed that each user is equipped with a positioning sensor.
  • the information processing method according to this embodiment includes a plurality of steps from step S201 to step S233. The details of each step included in the information processing method according to this embodiment will be described below.
  • Step S201 The motion sensor 206 attached to the user A detects the situation in which the user A has received the pass and transmits the situation to the server 102. At this time, the positioning sensor (not shown) attached to the user A transmits the position information of the user A to the server 102.
  • Step S203, Step S205 The server 102 is attached to a positioning sensor (not shown) attached to the user B and the user C in order to confirm the positions of the user B who is the ally of the user A and the user C who is the enemy of the user A. Notify to return the position information (position).
  • Step S207, Step S209 Each positioning sensor (not shown) attached to the user B and the user C transmits the position information of the user B and the user C as a response to the server 102.
  • Step S211 The server 102 analyzes the situation in the game based on the position information of the users A, B, and C, and estimates a suitable position (position) that the user A and the user B should take next.
  • Step S213, Step S215) Based on the estimation result of step S211 described above, the server 102 gives the AR glasses 210 of the user A and the user B the instruction information which is the information of the suitable position (target position) that the user A and the user B should take next. To send.
  • Step S217, Step S219) When each positioning sensor (not shown) attached to the user A and the user B detects that the user A and the user B have reached the positions transmitted in the above steps S213 and S215, the positioning sensor with respect to the server 102. In response, it sends information that it has arrived.
  • Step S221) The server 102 analyzes the situation in the game based on the position information of the users A and B, and estimates the position (position) at which the user A and the user B issue or receive a suitable path to be taken next. Further, the server 102 estimates the timing at which the user A and the user B issue a suitable path to be taken next, or the timing at which the user B runs to receive the path.
  • Step S223, Step S225 Based on the estimation result of step S221 described above, the server 102 is a position (target position) at which the user A and the user B give or receive a suitable path to be taken next with respect to the AR glass 210 of the user A and the user B.
  • Send instruction information which is information.
  • Step S227, Step S229) Based on the estimation result of step S221 described above, the server 102 runs to receive the timing or pass for the AR glasses 210 of user A and user B to issue a suitable path to be taken next by user A and user B. Sends instruction information, which is information on the timing of loading.
  • Step S231 The motion sensor 206 attached to the user A detects the situation in which the user A has issued a pass and transmits the situation to the server 102. At this time, the positioning sensor (not shown) attached to the user A transmits the position information of the user A to the server 102.
  • Step S233 The motion sensor 206 attached to the user B detects the situation in which the user B has received the pass and transmits the situation to the server 102. At this time, the positioning sensor (not shown) attached to the user B transmits the position information of the user B to the server 102.
  • the skill level is strengthened by presenting the positions of enemies and allies, the timing of suitable movements, etc. to the users of the team with a low skill level through the AR glass 210. It is possible to improve the skill level of users of low teams.
  • the user of the team having a high skill level is prevented from cooperating with the team by outputting noise (for example, pseudo cheering) with the earphone speaker attached to the user's ear. May be good.
  • the cooperation of the team may be strengthened by outputting the voice of an ally with an earphone speaker attached to the user's ear. At this time, the position of the ally and the position of the line of sight may be presented via the AR glass 210. By doing so, it becomes easy to recognize the game plan of the ally team and the cooperation is strengthened. It will be.
  • the form of presenting information to each user may be dynamically changed according to, for example, the skill level of each user (for example, advanced to a user with a high skill level). Give instructions for various actions (positions that are disadvantageous for receiving a pass, etc.), and give instructions for easy actions to users with low skill levels).
  • the remaining physical strength of the user is determined from the endurance (user profile) and the momentum (sensing data by the motion sensor 206) of the user. May be estimated and dynamically changed according to the estimation result.
  • the earphone speaker attached to the user's ear may output a cheer to cheer the user.
  • the present embodiment when it is estimated that it is difficult for the user to visually recognize the display through the AR glass 210 due to sunlight based on the above-mentioned ambient environment information, for example, from a vibration device attached to the user. Information may be presented via the force sensor 214.
  • Example 7 Next, as Example 7, an example in which the above-described embodiment of the present disclosure is applied to tennis and squash will be described with reference to FIGS. 14 to 17.
  • FIG. 14 is an explanatory diagram for explaining the seventh embodiment according to the present embodiment
  • FIG. 15 is a flowchart illustrating an example of the information processing method of the seventh embodiment according to the present embodiment.
  • 16 and 17 are explanatory views for explaining an example of the display of the seventh embodiment according to the present embodiment.
  • an AR glass 210 is attached in front of the user's face, and a force sensory device 214 made of a vibrating device is attached to the user's wrist.
  • a motion sensor 206 and a positioning sensor (not shown).
  • the racket (tool) used by the user may also be provided with an impact sensor (not shown) for detecting that the ball has been hit.
  • the information processing method according to this embodiment will be described with reference to FIG.
  • the user A has a lower skill level than the opponent user B, and in order to improve the skill level of the user A, the information processing system 10 according to the present embodiment supports the user A. Will be described.
  • the information processing method according to the present embodiment includes a plurality of steps from step S301 to step S317. The details of each step included in the information processing method according to this embodiment will be described below.
  • Step S301 The motion sensor 206 mounted on the user A detects that the user A hits the ball with a racket and transmits it to the server 102. At this time, the positioning sensor (not shown) attached to the user A transmits the position information of the user A to the server 102.
  • Step S303 The external camera 108 images the ball hit by the user A, and the server 102 follows the trajectory of the ball based on the captured image.
  • Step S305 The external camera 108 images the user B who is the opponent of the user A, and the server 102 detects the position and motion (motion) of the user B based on the captured image.
  • Step S307 The server 102 estimates the trajectory (return course) of the ball returned by the user B based on the operation of the user B detected in step S305 described above.
  • Step S309 The positioning sensor (not shown) attached to the user A detects the current position of the user A and transmits the position information of the user A to the server 102.
  • Step S311 Based on the return course estimated in step S307 described above and the position information of user A detected in step S309 described above, the server 102 determines a suitable hitting point position to be taken next by user A, the timing of hitting the ball, and the swing. Estimate the size of.
  • Step S313 Based on the estimation result of step S311 described above, the server 102 causes the AR glass 210 of the user A to display the position of the next hit point to be taken by the user A.
  • Step S315) Based on the estimation result of step S311 described above, the server 102 causes the AR glass 210 of the user A to display the timing of hitting the ball to be taken next by the user A.
  • Step S317) Based on the estimation result of step S311 described above, the server 102 gives the user A a vibration on the wrist by the force sense device 214, and presents the size of the swing that the user A should take next to hit the ball.
  • an arrow-shaped display 808 indicates whether the user A should move left or right or back and forth. May be indicated by.
  • the display 808 may display the ball type or the like of the returned ball in color, or may display the speed of the returned ball by the length or width of the display 808.
  • the trajectory of the returned ball may be displayed on the display 810, or the position of the next hit point to be taken by the user A may be displayed on the display 814.
  • the server 102 may estimate the trajectory of the ball in advance and display the falling point and the passing point of the ball by the display 810. Further, as shown in FIG. 16B, the standing position that the user A should take next may be displayed on the display 816, and the direction in which the user should hit the ball is displayed on the arrow-shaped display 812. May be good.
  • the hitting point may be emphasized and displayed as shown in the display 822, or the trajectory of the ball may be displayed by the display 820. Good.
  • the position to be taken next by the user A may be displayed by the display 824 as shown in FIG. 16 (d).
  • the display of the hitting point to be taken next by the user A based on the estimation result is based on the timing when the ball should be hit next to the user A. It may be presented with a countdown. By doing so, the user A can more easily take the timing of hitting the ball.
  • the hitting points may be displayed pinpointly, or may be displayed together with the locus as shown in FIG. 17, so that the user can easily grasp the hitting points according to the user. It is preferable to select and display.
  • Example 8> The embodiment of the present disclosure is not limited to the application to the sports as described above, and may be applied to, for example, a board game or a card game.
  • the AR glass 210 displays a display that narrows the field of view of user A with a high skill level, and visually recognizes the card mark, color, value, type of piece, tile mark, value, etc. It may be difficult to do. By doing so, the user A having a high skill level will play by relying on his / her own memory.
  • the information hidden in the above display is dynamically changed according to the game situation and the skill level of the user, such as how many fronts (from one front to several hands) and how many fronts or more (from the first to several fronts). You may. Further, in the case of a video game, the reaction speed to the operation of the avatar operated by the user A having a high skill level may be reduced.
  • the songs read by the reader may be heard with a time lag according to the skill level.
  • the user A having a high skill level may hear the sound later than the timing actually read by the reader.
  • the number of cards placed in front of you may be limited according to the skill level of the user. For example, user A with a high skill level may be able to see all the cards, and user B with a low skill level may be able to see only a few cards including the card corresponding to the next card read by the reader. .. By doing so, the user B having a low skill level can easily find the correct tag.
  • the display by the AR glass 210 or the like may be changed to a color that is easier to see so that even a handicapped person with a disability can enjoy the display, and the contrast is made clearer. You may try to do it. Further, in such a case, in order to make it more difficult for a healthy person to recognize the senses and lower the skill level, the vibration of the force sense device 214 composed of the vibration device is reduced, or the sound output by the speaker 212 is produced. May be reduced.
  • FIG. 18 is an explanatory diagram showing an example of the hardware configuration of the information processing apparatus 900 according to the present embodiment.
  • the information processing apparatus 900 shows an example of the hardware configuration of the server 102 described above.
  • the information processing device 900 has, for example, a CPU (Central Processing Unit) 950, a ROM (Read Only Memory) 952, a RAM (Random Access Memory) 954, a recording medium 956, and an input / output interface 958. Further, the information processing device 900 has an operation input device 960, a display device 962, a voice output device 964, a communication interface 968, and a sensor 980. Further, the information processing apparatus 900 connects each component by, for example, a bus 970 as a data transmission path.
  • a bus 970 as a data transmission path.
  • the CPU 950 is composed of, for example, one or more processors composed of arithmetic circuits such as a CPU, various processing circuits, and the like, and functions as a main control unit that controls the entire information processing apparatus 900.
  • the ROM 952 stores control data such as programs and calculation parameters used by the CPU 950.
  • the RAM 954 temporarily stores, for example, a program executed by the CPU 950.
  • the ROM 952 and the RAM 954 perform the function of the above-mentioned storage device 110 in the information processing device 900, for example.
  • the recording medium 956 functions as the storage device 110 described above, and stores, for example, various data such as data related to the information processing method according to the present embodiment and various applications.
  • examples of the recording medium 956 include a magnetic recording medium such as a hard disk and a non-volatile memory such as a flash memory. Further, the recording medium 956 may be detachable from the information processing device 900.
  • the input / output interface 958 connects, for example, an operation input device 960, a display device 962, an audio output device 964, and the like.
  • Examples of the input / output interface 958 include a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (High-Definition Multimedia Interface) (registered trademark) terminal, and various processing circuits.
  • the operation input device 960 functions as, for example, the above-mentioned data input device 104, and is connected to the input / output interface 958 inside the information processing device 900.
  • Examples of the operation input device 960 include buttons, direction keys, rotary selectors such as jog dials, touch panels, and combinations thereof.
  • the display device 962 is provided on the information processing device 900, for example, and is connected to the input / output interface 958 inside the information processing device 900.
  • Examples of the display device 962 include a liquid crystal display and an organic EL display (Organic Electro-Luminence Display Display).
  • the audio output device 964 is provided on the information processing device 900, for example, and is connected to the input / output interface 958 inside the information processing device 900. Examples of the audio output device 964 include speakers, headphones, and the like.
  • the input / output interface 958 can be connected to an external device such as an external operation input device (for example, a keyboard, a mouse, etc.) or an external display device of the information processing device 900.
  • an external operation input device for example, a keyboard, a mouse, etc.
  • an external display device of the information processing device 900 for example, a liquid crystal display, a liquid crystal display, etc.
  • the communication interface 968 is a communication means included in the information processing device 900 that functions as a communication unit 360, and is for communicating wirelessly or by wire with an external device via a network (not shown) (or directly). It functions as a communication unit (not shown).
  • examples of the communication interface 968 include a communication antenna and an RF (Radio Frequency) circuit (wireless communication), an IEEE802.5.1 port and a transmission / reception circuit (wireless communication), an IEEE802.11 port and a transmission / reception circuit (wireless communication). ), LAN (Local Area Network) terminal, transmission / reception circuit (wired communication), and the like.
  • the sensor 980 functions as the above-mentioned biological information sensor 204, motion sensor 206, and the like, and is various sensors.
  • the information processing device 900 includes a communication interface 968 when communicating with an external device or the like via a connected external communication device or when the information processing device 900 is configured to perform processing in a stand-alone manner. It does not have to be.
  • the communication interface 968 may have a configuration capable of communicating with one or more external devices by a plurality of communication methods.
  • the information processing device may be applied to a system including a plurality of devices, which is premised on connection to a network (or communication between each device), such as cloud computing. .. That is, the information processing device according to the present embodiment described above can be realized as, for example, an information processing system that performs processing related to the information processing method according to the present embodiment by a plurality of devices.
  • the above is an example of the hardware configuration of the information processing device 900.
  • Each of the above-mentioned components may be configured by using general-purpose members, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed depending on the technical level at the time of implementation.
  • the embodiment of the present disclosure described above may include, for example, a program for making a computer function as an information processing device according to the present embodiment, and a non-temporary tangible medium in which the program is recorded. Further, the program may be distributed via a communication line (including wireless communication) such as the Internet.
  • each step in the processing of the embodiment of the present disclosure described above does not necessarily have to be processed in the order described.
  • each step may be processed in an appropriately reordered manner.
  • each step may be partially processed in parallel or individually instead of being processed in chronological order.
  • the processing method of each step does not necessarily have to be processed according to the described method, and may be processed by another method by another functional unit, for example.
  • the following configurations also belong to the technical scope of the present disclosure.
  • (1) The performance performed by the movement of at least a part of the user's body, and the sensing data regarding the first user acquired in at least one of the other performances performed in the past for the performance, and A skill level difference that detects a difference in skill level between the first user and the second user based on sensing data about the second user whose skill level is lower than that of the first user.
  • the detector Based on the detected skill level difference, at least one of the first and second users is dynamically provided with skill level difference suppression information for reducing the skill level difference during the performance.
  • the presentation part that changes to and presents Information processing device equipped with.
  • the skill level difference suppression information includes skill level reduction guidance information that induces the first user to lower the skill level.
  • the skill level reduction guidance information is presented to the first user.
  • the skill level difference suppression information includes skill level improvement guidance information that induces the second user to improve the skill level.
  • the skill level improvement guidance information is presented to the second user.
  • the display device is a transmissive display.
  • the presentation unit dynamically changes the display of the virtual object according to the skill level difference suppression information.
  • the information processing device (7) The information processing device according to (5) or (6) above, wherein the display device is included in a wearable device worn on the head of at least one of the first and second users.
  • the skill level difference suppression information is output as auditory information by a voice output device.
  • the audio output device is a wearable device worn on the head of at least one of the first and second users, or an implant inserted into at least one part of the body of the first and second users.
  • the information processing device which is a device or a directional speaker that provides voice to at least one of the first and second users.
  • the information processing device according to any one of (1) to (9) above, wherein the skill level difference suppression information is output as force sense information by the force sense device.
  • the force sense device The information according to (10) above, which is attached to at least one body part of the first and second users, or provided on a tool used by at least one of the first and second users. Processing equipment.
  • the sensing data is provided by a motion sensor that detects the movements of the first and second users.
  • the motion sensor includes a first imaging device that detects the movements of the first and second users.
  • the sensing data is provided by a posture sensor that detects the postures of the first and second users.
  • the sensing data is provided by a biometric information sensor that detects biometric information of the first and second users.
  • the biometric information sensor includes a second imaging device that detects eye movements of the first and second users.
  • the sensing data is provided by a position sensor that detects the position information of the first and second users.
  • the sensing data is any one of (1) to (17) above, which includes at least one of the profile information of the first and second users and information on the surrounding environment of the first and second users.
  • the information processing device according to one. (19) A first including a plurality of first users acquired in at least one of a performance performed by the movement of at least a part of the user's body and other performances performed in the past for the performance. The first group and the second group are based on the sensing data relating to the first group and the sensing data relating to the second group including the plurality of second users and having a lower skill level than the first group.
  • Skill level difference detector that detects the difference in skill level between the group and Based on the detected skill level difference, skill level difference suppression information for reducing the skill level difference is dynamically generated during the performance for at least one of the first and second groups.
  • the presentation part that changes to and presents Information processing device equipped with. (20) The performance performed by the movement of at least a part of the user's body, and the sensing data regarding the first user acquired in at least one of the other performances performed in the past with respect to the performance, and the said.
  • a skill level detection device that detects a difference in skill level between the first user and the second user based on sensing data about the second user whose skill level is lower than that of the first user.
  • at least one of the first and second users is dynamically provided with skill level difference suppression information for reducing the difference in skill level during the performance.
  • a presentation device that changes to and presents Information processing system, including.
  • Information processing system 100 Server side unit 102 Server 104 Data input device 106 Meteorological observation device 108 External camera 110 Storage device 112, 222 Wireless module 120, 240 Data acquisition unit 122 Skill level estimation unit 124 Skill level difference detection unit 126, 242 Output Control unit 200 User side unit 202 Processing module 204 Biometric information sensor 206 Motion sensor 208 Microphone 210 AR glass 212 Speaker 214 Power sense device 230 Display unit 232 External camera 800, 808, 810, 812, 814, 816, 818, 820, 822, 824, 830 Display 802 Dummy 804 Display screen 900 Information processing device 950 CPU 952 ROM 954 RAM 956 Recording medium 958 Input / output interface 960 Operation input device 962 Display device 964 Audio output device 968 Communication interface 970 Bus 980 Sensor

Abstract

ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス等において取得された、第1の前記ユーザに関するセンシングデータ、及び、前記第1のユーザに比べて技能レベルが低い第2の前記ユーザに関するセンシングデータに基づいて、前記第1のユーザと前記第2のユーザとの間の前記技能レベルの差を検出する技能レベル差検出部と、検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のユーザのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示部と、を備える情報処理装置を提供する。

Description

情報処理装置及び情報処理システム
 本開示は、情報処理装置及び情報処理システムに関する。
 従来、対戦型のスポーツ(パフォーマンス)において実力差(技能レベル差)のあるプレーヤ(ユーザ)が対戦する場合、ゴルフ、ボウリング等で知られているように、ハンディキャップを設けて実力差を埋めることにより、両プレーヤが楽しく競うことができるようにする場合がある。
特開2008-29646号公報
 しかしながら、上述のようなハンディギャップを設定する方法は、勝敗結果を左右するだけで、プレーヤ(ユーザ)の身体感覚自体に直接的に影響を与えることによりプレー自体の状態を変えて実力差(技能レベル差)を埋めるものではない。
 そこで、本開示では、ユーザの身体感覚自体に直接的に影響を与えることによりユーザ間の技能レベル差を小さくすることで、様々な技能レベルを持つユーザがパフォーマンスを競うことを楽しむことを可能にする、新規且つ改良された情報処理装置及び情報処理システムを提案する。
 本開示によれば、ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、第1の前記ユーザに関するセンシングデータ、及び、前記第1のユーザに比べて技能レベルが低い第2の前記ユーザに関するセンシングデータに基づいて、前記第1のユーザと前記第2のユーザとの間の前記技能レベルの差を検出する技能レベル差検出部と、検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のユーザのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示部とを備える、情報処理装置が提供される。
 また、本開示によれば、ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、複数の第1の前記ユーザを含む第1のグループに関するセンシングデータ、及び、複数の第2の前記ユーザを含み、前記第1のグループに比べて技能レベルが低い第2のグループに関するセンシングデータに基づいて、前記第1のグループと前記第2のグループとの間の前記技能レベルの差を検出する技能レベル差検出部と、検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のグループのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示部と、を備える、情報処理装置が提供される。
 さらに、本開示によれば、ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、第1の前記ユーザに関するセンシングデータ、及び前記第1のユーザに比べて技能レベルが低い第2の前記ユーザに関するセンシングデータに基づいて、前記第1のユーザと前記第2のユーザとの間の前記技能レベルの差を検出する技能レベル検出装置と、検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のユーザのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示装置と、を含む、情報処理システムが提供される。
本開示の実施形態に係る情報処理システム10の構成例を説明する説明図である。 同実施形態に係るARグラス210の外観の一例を説明する説明図である。 同実施形態に係るサーバ102の機能的構成を示すブロック図である。 同実施形態に係る処理モジュール202の機能的構成を示すブロック図である。 同実施形態に係る情報処理方法の一例を説明するシーケンス図である。 同実施形態に係る実施例1を説明するための説明図(その1)である。 同実施形態に係る実施例1を説明するための説明図(その2)である。 同実施形態に係る実施例2を説明するための説明図である。 同実施形態に係る実施例3を説明するための説明図である。 同実施形態に係る実施例4を説明するための説明図である。 同実施形態に係る実施例5を説明するための説明図である。 同実施形態に係る実施例6を説明するための説明図である。 同実施形態に係る実施例6の情報処理方法の一例を説明するシーケンス図である。 同実施形態に係る実施例7を説明するための説明図である。 同実施形態に係る実施例7の情報処理方法の一例を説明するフローチャートである。 同実施形態に係る実施例7の表示の一例を説明する説明図(その1)である。 同実施形態に係る実施例7の表示の一例を説明する説明図(その2)である。 同実施形態に係る情報処理装置900のハードウェア構成の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、以下の説明においては、後述する本開示の実施形態により提供されるサービスを利用する者をユーザと呼ぶ。
 なお、説明は以下の順序で行うものとする。
 1.本開示に係る実施形態を創作するに至るまでの経緯
 2.実施形態
   2.1 本開示の実施形態に係る情報処理システム10の概要
   2.2 サーバ102の機能的構成
   2.3 処理モジュール202の機能的構成
   2.4 情報処理方法
 3.実施例
   3.1 実施例1
   3.2 実施例2
   3.3 実施例3
   3.4 実施例4
   3.5 実施例5
   3.6 実施例6
   3.7 実施例7
   3.8 実施例8
 4.まとめ
 5.ハードウェア構成について
 6.補足
 <<1. 本開示に係る実施形態を創作するに至るまでの経緯>>
 まず、本開示に係る実施形態を説明する前に、本発明者らが本開示に係る実施形態を創作するに至る経緯について説明する。
 先に説明したように、従来、対戦型のスポーツ(パフォーマンス)において実力差(技能レベル差)のあるプレーヤ(ユーザ)が対戦する場合、ゴルフ、ボウリング等で知られているように、ハンディキャップを設けて実力差を埋めることにより、両プレーヤが楽しく競うことができるようにする場合がある。しかしながら、上述のようなハンディギャップを設定する方法は、勝敗結果を左右するだけで、プレーヤの身体感覚自体に直接的に影響を与えることによりプレー自体の状態を変えて実力差を埋めるものではない。
 このような状況において、本発明者らは、プレーヤの身体感覚自体に直接的に影響を与えることにより、プレーヤ間の実力差を埋め、老人であろうと子供であろうと、健常者であろうと障害者であろうと、全ての人々がスポーツを競うことを楽しむことができるアプリケーションについて鋭意検討を重ね、本開示の実施形態を創作するに至った。
 詳細には、本発明者らが創作した本開示の実施形態においては、剣道、テニス等の二人で対戦するスポーツにおいて両者の間に実力差が存在しても、視覚情報や触覚情報等を両者又は一方に提示することにより上記実力差を小さくし、両者が競うことを楽しむように誘導することができる。また、本実施形態においては、複数のプレーヤ同士が対戦する団体スポーツであっても、視覚情報等をプレーヤに提示することにより両チームの実力差を小さくし、両チームのプレーヤが競うことを楽しむように誘導することができる。より具体的には、本実施形態においては、技能レベルの高いプレーヤには、技能レベルを下げるような情報(技能レベル差抑制情報)を提示し、技能レベルの低いプレーヤには、技能レベルを向上させるような情報(技能レベル差抑制情報)を提示することにより、上記実力差(技能レベル差)を小さくすることができる。
 また、本実施形態によれば、スポーツ競技中に上記実力差を埋めることが可能となるため、勝敗結果のみの判定に関わるハンディキャップで実力差を埋めるのとは異なり、両プレーヤ自身がそれぞれの実力においてスポーツを楽しみ、競い合うことが可能となる。さらに、本実施形態においては、技術レベルの高いプレーヤに対して、自身の実際の技能レベルの発揮を妨げられるような情報を提示することから、当該プレーヤには競技中に一定の負荷がかかることとなる。そして、本実施形態によれば、このような負荷がかかる中、競技を続けることにより、当該プレーヤの技能レベルの向上につながることとなる。以下、このような本開示の実施形態を順次詳細に説明する。
 本明細書においては、パフォーマンスとは、スポーツ等のユーザの身体の少なくとも一部が動作することによって行われる競技を意味するものとする。従って、当該パフォーマンスには、スポーツ以外にも、例えば、ユーザの手が動作する、ボードゲーム(チェス、将棋等)、カードゲーム(トランプゲーム、百人一首等)、ビデオゲーム等が含まれていてもよい。また、以下の説明において技能レベルとは、パフォーマンスにおける習熟の度合いを、所定の数の段階別に分類に、又は、数値化したもののことをいう。
 なお、以下の説明においては、本開示の実施形態をスポーツに適用した場合を例に説明する。しかしながら、本実施形態は、先に説明したように、スポーツへの適用されることに限定されるものではなく、ボードゲーム等の各種のパフォーマンスに適用してもよい。
 <<2. 実施形態>>
 <2.1 本開示の実施形態に係る情報処理システム10の概要>
 まずは、本開示の実施形態に係る情報処理システム(情報処理装置)10の概要について、図1及び図2を参照して説明する。図1は、本実施形態に係る情報処理システム10の構成例を説明する説明図である。図2は、本実施形態に係るARグラス210の外観の一例を説明する説明図である。
 図1に示すように、本実施形態に係る情報処理システム10は、サーバ側ユニット100と、ユーザ側ユニット200との主に2つのブロックに分けることができる。詳細には、サーバ側ユニット100は、ユーザの遠隔地又は近傍等に設置され、主に本実施形態に係る情報処理を実行する。また、ユーザ側ユニット200は、ユーザ側に設けられ、主にユーザに関するセンシングデータを収集したり、上記情報処理により得られた情報をユーザに提供したりする。以下に、本実施形態に係るサーバ側ユニット100及びユーザ側ユニット200の詳細構成について順次説明する。
 (サーバ側ユニット100)
 サーバ側ユニット100は、先に説明したように、ユーザの遠隔地等に設置され、主に本実施形態に係る情報処理を実行する。詳細には、図1に示すように、サーバ側ユニット100は、サーバ102、データ入力装置104、気象観測装置106、外部カメラ108、記憶装置110、及び無線モジュール112を主に有する。以下に、サーバ側ユニット100に有する各装置について説明する。
 ~サーバ102~
 サーバ102は、複数のユーザに関するセンシングデータ等を収集し、収集したセンシングデータに基づいて本実施形態に係る情報処理(パフォーマンスの技能レベルの分析、状況分析等)を実施し、当該情報処理により得られた情報をユーザ側ユニット200に提供することができる。サーバ102は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等のハードウェアにより実現される。なお、サーバ102の詳細については後述する。
 ~データ入力装置104~
 データ入力装置104は、タッチパネル、キーボード等により実現され、サーバ102へのデータ、コマンドの入力を受け付ける。例えば、ユーザは、データ入力装置104に対して入力操作を行うことにより、サーバ102は、ユーザに関する情報であるユーザプロファイル(プロファイル情報)を取得することができる。ユーザプロファイルは、例えば、ユーザの属性情報(年齢、性別、身長、体重、腕の長さ、脚の長さ、視力、視野角、基本的な運動能力(走行の速さ、持久力、瞬発力、跳躍力等)のレベル等)や、ユーザの技能レベル(得意な動作、苦手な動作等)、ユーザの身体コンデジションの情報等を含むことができる。さらに、上記ユーザプロファイルは、ユーザの日々のスケジュール(起床時間、睡眠時間、食事時間、食事内容等)の情報を含んでもよい。また、上記ユーザプロファイルは、複数のユーザがいくつかのグループ(チーム)に分けられている場合には、各ユーザの属するグループの情報をも含んでもよい。
 ~気象観測装置106~
 気象観測装置106は、温度センサ、気圧センサ、湿度センサ、風向風速センサ、日照センサ、降水量センサ等により実現され、ユーザの周囲環境に関する情報(周囲環境情報)として気象情報等を取得し、サーバ102に出力する。また、気象観測装置106は、周囲環境の酸素濃度を計測する酸素濃度センサを含んでいてもよい。
 ~外部カメラ108~
 外部カメラ108は、例えば、対象空間から発せられる光を集光して撮像面に光像を形成し、撮像面に形成された光像を電気的な画像信号に変換することにより画像を取得する撮像部(例えば、被写体から発せられる光を集光する撮影レンズ及びズームレンズなどの撮像光学系、および、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子等で構成される)(図示省略)と、撮像した画像(動画、静止画)を保存する記録部(図示省略)とによって実現される。外部カメラ108は、ユーザの周囲環境に関する情報(周囲環境情報)としてユーザの位置するグランド等の状況(濡れているのか、芝の生育状況、表面の起伏等)等を解析するための画像を撮像し、サーバ102に出力してもよい。また、外部カメラ108は、ボール、ラケット、クラブ等の動き(軌跡)を検出するための動画像を撮像するカメラとして機能してもよい。
 また、本実施形態においては、サーバ側ユニット100には、気象観測装置106や外部カメラ108の他にも、TOF(Time of Flight)センサ(図示省略)が設けられていてもよい。詳細には、本実施形態においては、TOFセンサを用いて現実物体からの反射光の戻り時間を計測することにより、TOFセンサと現実物体との間の距離及び凹凸等の形状情報(デプス情報)を認識することができる。
 ~記憶装置110~
 記憶装置110は、RAMやストレージ装置等により実現され、本実施形態に係る情報処理プログラムや各種データベースが格納される。また、記憶装置110には、これらのデータ以外にも、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等を適宜格納してもよい。
 ~無線モジュール112~
 無線モジュール112は、ユーザ側ユニット200とのインタフェースであり、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。詳細には、無線モジュール112は、ユーザ側ユニット200に含まれる装置との間で、無線LAN(Local Area Network)、WiFi(登録商標)、Bluetooth(登録商標)等の無線通信ネットワーク(図示省略)を介して通信可能に接続される。なお、本実施形態においては、上記無線通信ネットワークで用いられる通信方式は、任意の方式を適用することができるが、安定した動作を維持することができる通信方式を用いることが望ましい。
 また、本実施形態においては、サーバ側ユニット100は、ユーザの周囲の音声を収音するマイクロフォン(図示省略)がさらに含まれていてもよく、特に限定されるものではない。
 (ユーザ側ユニット200)
 サーバ側ユニット100は、先に説明したように、ユーザ側に設けられ、主にユーザに関するセンシングデータを収集したり、本実施形態に係る情報処理により得られた情報をユーザに提供したりする。詳細には、図1に示すように、ユーザ側ユニット200は、処理モジュール202、生体情報センサ204、モーションセンサ206、マイクロフォン(以下、マイクと称す)208、AR(拡張現実)グラス210、スピーカ212、力覚デバイス(力覚装置)214及び無線モジュール222を主に有する。以下に、ユーザ側ユニット200に有する各装置について説明する。
 なお、ユーザ側ユニット200に含まれる装置の一部又は全部は、ユーザの身体の一部(耳たぶ、首、腕、手首、足首等)に装着可能なウェアラブル装置、もしくは、ユーザの身体に挿入されたインプラント装置であることができる。より具体的には、ウェアラブル装置は、例えば、HMD(Head Mounted Display)型、眼鏡型、イヤーデバイス型、アンクレット型、腕輪(リストバンド)型、首輪型、アイウェア型、パッド型、バッチ型、衣服型等の各種の方式のウェアラブルデバイスであることができる。さらに、ユーザ側ユニット200に含まれる装置の一部又は全部は、ユーザが使用する用具(ラケット、バット等)に設けられてもよい。また、ユーザ側ユニット200に含まれる装置の一部又は全部は、ユーザの周囲に設置される装置であってもよい。
 ~処理モジュール202~
 処理モジュール202は、パフォーマンス(現時点で行われているパフォーマンスだけでなく、過去に行われたパフォーマンスも含む)において取得された各種のセンサ(生体情報センサ204、モーションセンサ206、マイク208)からのセンシングデータを収集して、サーバ側ユニット100に提供することができる。さらに、処理モジュール202は、サーバ側ユニット100から得られた情報を、各種の出力装置(ARグラス210、スピーカ212、力覚デバイス214)を介してユーザに出力することができる。詳細には、処理モジュール202は、CPU、ROM、RAM等のハードウェアにより実現され、正確な時刻を把握する時計機構(図示省略)を内蔵し、各種センサから取得したセンシングデータに当該センシングデータを取得した時刻を紐づけてもよい。なお、処理モジュール202の詳細については後述する。
 ~生体情報センサ204~
 生体情報センサ204は、例えば、筋電センサ、心拍センサ、脈拍センサ(血流センサ(血圧センサも含む)、呼吸センサ、脳波センサ、皮膚温度センサ、皮膚導電率センサ、発汗センサ等の生体情報センサにより実現され、ユーザの生体情報に係るセンシングデータを取得する。
 例えば、筋電センサは、ユーザの腕等に装着された複数の電極によって、腕等の筋が収縮する際に筋線維において発生し、身体表面に伝播する電気信号による筋電位を測定することにより、筋の筋活動量を定量的に検出することができる。また、心拍センサは、ユーザの心臓における拍動である心拍を検出センサである。そして、脈拍センサは、心臓における拍動(心拍)により、動脈を通じ全身に血液が送られることにより、動脈内壁に圧力の変化が生じ、体表面等に現れる動脈の拍動である脈拍を検出するセンサである。さらに、血流センサは、身体に赤外線を放射し、その赤外光の反射により血流量を検出するセンサである。
 また、呼吸センサは、呼吸量の変化を検出する呼吸流量計であることができる。脳波センサは、ユーザの頭皮に複数の電極を装着し、測定した電極間の電位差の変動から雑音を除去することにより周期性のある波を抽出することにより脳波を検出するセンサである。皮膚温度センサは、ユーザの体温を検出するセンサであり、皮膚導電率センサは、ユーザの皮膚電気抵抗を検出するセンサである。発汗センサは、ユーザの皮膚に装着され、発汗により変化する当該皮膚上の2点間の電圧又は抵抗を検出するセンサである。
 さらに、生体情報センサ204は、ユーザの表情やユーザの両眼を撮像範囲として撮像する撮像装置(第2の撮像装置)から実現され、ユーザの眼球の位置、瞳孔の位置、視線の向き、及び眼球の動き(眼球運動)等を検出する視線センサを含んでいてもよい。例えば、上記撮像装置は、後述するARグラス210に設けられていてもよい。
 ~モーションセンサ206~
 モーションセンサ206は、例えば、ユーザの身体の一部又はユーザの使用する用具に装着することにより、ユーザの身体の各部分が行う各運動要素の状態(運動量、フォーム等)やユーザの姿勢を示すセンシングデータを取得することができる。例えば、モーションセンサ206は、3軸加速度センサ、3軸角速度センサ、ジャイロセンサ、地磁気センサ、位置センサ、振動センサ、曲げセンサ等の1つ又は複数のセンサデバイスにより実現され、ユーザの身体の各部分が行う各運動要素の状態だけでなく、ユーザの姿勢を検出する姿勢センサとしても機能することができる。上述のようなセンサデバイスは、運動要素によって与えられる加速度や角速度等の変化を検出し、検出された変化を示す複数のセンシングデータを生成する。さらに、モーションセンサ206によって得られたセンシングデータは、処理モジュール202に出力される。
 なお、ここで、曲げセンサとは、例えば、曲げると曲げ量に応じて非線形に抵抗値が変化する素子を利用したセンサであり、例えば、ユーザの関節に装着することで、関節の曲げ角度を検出することができる。本実施形態においては、ユーザの腕や脚、胴体等の各関節等に、上述のようなセンサデバイスを装着することにより、空間内での手指や腕の姿勢(傾き)や、移動速度、関節の曲げ角度等を定量的に検出することができる。
 また、本実施形態においては、モーションセンサ206は、ユーザを撮像する撮像装置(第1の撮像装置)であってもよい。具体的には、ユーザの関節や手指等にLED(Light Emitting Diode)等からなるマーカを装着し、高速撮影カメラ(撮像装置)によって上記マーカの動きをキャプチャすることにより、ユーザの関節の位置や動きを定量的に検出してもよい。また、このような撮像装置は、ユーザが使用するボール、ラケット、クラブ等の動き(軌跡)を検出するための動画像を撮像するカメラとして機能してもよい。
 ~マイク208~
 マイク208は、ユーザの発話音声、又は、ユーザの周囲で発生した音(歓声等)を検出するサウンドセンサから実現される。また、本実施形態においては、マイク208から検出された音から特定の音声(例えば、ユーザが発話した特定の文言)を抽出することによって得られた抽出結果をセンシングデータとして用いてもよい。なお、マイク208は後述するARグラス210に設けられていてもよい。
 ~ARグラス210~
 ARグラス210は、本実施形態における表示装置の一例であり、後述する技能レベル差抑制情報を視覚情報の形態で表示することができる。詳細には、図2に示すように、ARグラス210は、例えば、ユーザの頭部に装着される眼鏡型のHMDにより実現される。詳細には、装着時にユーザの眼前に位置する眼鏡レンズ部分に相当する表示部230は、眼鏡レンズ部分の外側を視認することができる透過型、又は、眼鏡レンズ部分の外側を視認することができない非透過型ディスプレイであってもよい。なお、以下の説明においては、透過型ディスプレイの表示部230を持つHMDを「スマートアイグラス」と呼ぶ。
 ARグラス210は、表示部230に仮想オブジェクトを表示することにより、ユーザの眼前に仮想オブジェクトを提示することができる。なお、以下の説明においては、仮想オブジェクトとは、ユーザによって実空間に存在する現実物体のように知覚することができる仮想物体のことを意味する。さらに、本実施形態においては、上記HMDは、ユーザの両眼に対して仮想オブジェクトを表示する形態に限定されるものではなく、ユーザの片眼に対してのみ仮想オブジェクトを表示する形態を持っていてもよい。
 例えば、ARグラス210がスマートアイグラスである場合を例に説明すると、ARグラス210は、図2に示すように、ユーザの眼前に、左眼用と右眼用の一対の表示部230が配置されるような構成を持つ。そして、表示部230には、例えば透過型ディスプレイが用いられ、表示部230を制御することが可能な処理モジュール202は、当該透過型ディスプレイの透過率を制御することで、表示をスルー状態、すなわち透明又は半透明の状態にできる。また、表示部230がスルー状態となることで、ARグラス210を眼鏡のように常時装着する場合であっても、ユーザは周囲の実空間を知覚することが可能であるため、ユーザの通常の生活に支障を与えることはない。さらに、表示部230は、スルー状態のまま、テキストや図等の画像を表示することができ、すなわち、拡張現実(AR)として、実空間に仮想オブジェクトを重畳して表示することができる。このような透過型ディスプレイは、例えば、ハーフミラーや透明な導光板を用いて、透明な導光部等からなる虚像光学系をユーザの眼前に保持し、当該虚像光学系の内側に仮想オブジェクトを表示させる。
 なお、本実施形態においては、非透過型ディスプレイを用いた場合には、表示部230は、ARグラス210に設けられた外向きカメラ232で撮像された実空間の撮像画像を表示しつつ、当該実空間の撮像画像に仮想オブジェクトを重畳表示してもよい。
 さらに、本実施形態においては、表示部230は、ユーザの網膜に直接的に映像を投影するLED(Light Emitting Diode)光源等として実現されてもよい。すなわち、ARグラス210は、プロジェクション型のHMDとして実現されてもよい。
 なお、本実施形態においては、ARグラス210の形態は図2に示す例に限定されるものではなく、例えば、ヘッドバンド型のHMDや、ヘルメットタイプ(例えば、ヘルメットのバイザー部分がディスプレイに相当する)のHMDであってもよい。なお、上述のヘッドバンド型は、ユーザの頭部の全周を回るバンドで装着されるタイプのことを意味する。また、当該ヘッドバンド型には、ユーザの側頭部だけでなく頭頂部を通るバンドを設ける場合も含まれる。
 ~スピーカ212~
 スピーカ212は、本実施形態における音声出力装置の一例であり、後述する技能レベル差抑制情報を、聴覚情報の形態で出力することができる。詳細には、スピーカ212は、ユーザに音声出力するためのデバイスであり、例えば、ユーザに耳に装着されたヘッドフォンスピーカ(図示省略)や、ユーザの近傍に設けられたスピーカ(図示省略)であってもよい。さらに、本実施形態においては、スピーカ212は、二人のユーザの一方もしくは両方、又は、複数のユーザの一部もしくは全部に、個別の音声(例えば、各ユーザに最適化された音声情報)を提供する、ユーザの周囲に設置された指向性スピーカであってもよい。
 ~力覚デバイス214~
 力覚デバイス214は、本実施形態における力覚(触覚)装置の一例であり、後述する技能レベル差抑制情報を力覚(触覚)情報の形態で提示(出力)することができる。詳細には、力覚デバイス214は、処理モジュール202からの制御に基づいて、ユーザの身体の一部(関節等)に力を印加する等の力覚を伝える装置である。例えば、力覚デバイス214は、ユーザの手に装着されたグローブ型ウェアラブルデバイスであることができる。詳細には、グローブ型ウェアラブルデバイスは、手指外骨格ロボットと呼ばれ複数の外骨格部材からなる機構(図示省略)と、当該各外骨格部材を可動させるアクチュエータ(電動アクチュエータ、空気圧アクチュエータ等)(図示省略)とで構成される。グローブ型ウェアラブルデバイスは、上記アクチュエータによって、外骨格部材を動作させることにより、ユーザの手指や関節に力を印加する。
 また、本実施形態においては、力覚デバイス214は、上述のようなグローブ型ウェアラブルデバイスに限定されるものではなく、例えば、ユーザの身体の一部やユーザが使用する用具に振動を与え、ユーザのスムーズな動作を抑制したり、ユーザを酔わせたりする振動装置であってもよい。また、例えば、力覚デバイス214は、ユーザの筋肉に刺激を与える電気筋肉刺激を利用した刺激装置であってもよい。すなわち、本実施形態においては、力覚デバイス214は、ユーザの身体の一部に触覚刺激を与えることができる装置あれば、特に限定されるものではない。
 ~無線モジュール222~
 無線モジュール222は、サーバ側ユニット100とのインタフェースであり、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。詳細には、無線モジュール222は、サーバ側ユニット100に含まれる装置との間で、無線LAN、WiFi(登録商標)、Bluetooth(登録商標)等の無線通信ネットワーク(図示省略)を介して通信可能に接続される。
 さらに、ユーザ側ユニット200は、ユーザの位置情報を検出する測位センサ(位置センサ)(図示省略)を含んでいてもよい。測位センサは、ユーザに装着されて、ユーザの位置を検出するセンサであり、具体的には、GNSS(Global Navigation Satellite System)受信機等であることができる。この場合、測位センサは、GNSS衛星からの信号に基づいて、ユーザの現在地の緯度・経度を示すセンシングデータを生成することができる。また、本実施形態においては、例えば、RFID(Radio Frequency Identification)、Wi-Fiのアクセスポイント、無線基地局の情報等からユーザの相対的な位置関係を検出することが可能なため、このような通信装置を上記測位センサとして利用することも可能である。
 また、ユーザ側ユニット200は、ユーザが使用する用具(ラケット等)に設けられた圧力センサ等を含んでいてもよい。
 なお、本実施形態においては、サーバ側ユニット100のサーバ102と、ユーザ側ユニット200の処理モジュール202とは、一体の装置として構成されてもよい。そのような場合、上記一体の装置は、サーバ側ユニット100及びユーザ側ユニット200に含まれる他の各装置とは、無線通信を介して接続されることとなる。
 <2.2 サーバ102の機能的構成>
 以上、本実施形態に係る情報処理システム10の概要について説明した。続いて、図3を参照して、本実施形態に係るサーバ102の機能的構成の一例について説明する。図3は、本実施形態に係るサーバ102の機能的構成を示すブロック図である。図3に示すように、本実施形態に係るサーバ102は、例えば、データ取得部120と、技能レベル推定部122と、技能レベル差検出部124と、出力制御部126とを主に含む。以下に、本実施形態に係るサーバ102の各機能部の詳細について説明する。
 (データ取得部120)
 データ取得部120は、上述したデータ入力装置104、気象観測装置106及び外部カメラ108等からユーザプロファイル、気象情報、周囲環境情報等の情報を取得し、後述する技能レベル推定部122に出力する。また、データ取得部120は、ユーザ側ユニット200の各種センサ(生体情報センサ204、モーションセンサ206、マイク208)からセンシングデータを取得し、取得したセンシングデータを技能レベル推定部122に出力する。
 (技能レベル推定部122)
 技能レベル推定部122は、データ取得部120から出力された各種情報(ユーザプロファイル等)や各種センシングデータに基づいて、各ユーザの技能レベルを推定し、推定結果を後述する技能レベル差検出部124に出力する。なお、本実施形態においては、推定した技能レベルをユーザに提示してもよく、このようにすることで、ユーザは自身の技能レベルを認識することができる。
 詳細には、本実施形態においては、例えば、ユーザに与えられた課題(例えば、スポーツ)をこなす場合に重要となる運動要素に関連するセンシングデータの種別を予め把握し、当該種別のセンシングデータと技能レベルとの関係を予めデータベース化しておく。そして、技能レベル推定部122は、当該データベースと、新たに取得されたユーザのセンシングデータとを比較することにより、ユーザの技能レベルを推定してもよい。
 また、本実施形態においては、様々な技能レベルのユーザの複数のセンシングデータ及び対応する技能レベルの情報等をサーバ102に設けられた学習器に入力し、当該学習器に予め機械学習を行わせてもよい。詳細には、例えば、サーバ102には、サポートベクターレグレッションやディープニューラルネットワーク等の教師付き学習器が備わっているものとする。そして、上記学習器にセンシングデータと技能レベルとをそれぞれ入力信号及び教師信号(ラベル)として入力することにより、当該学習器は、所定の規則に従ってこれら情報の間の関係について機械学習を行い、センシングデータと技能レベルとの関係を予めデータベース化することができる。そして、技能レベル推定部122は、当該データベースと、新たに取得されたユーザのセンシングデータとに基づいて、ユーザの技能レベルを推定してもよい。なお、上記学習器は、半教師付き、弱教師付き学習器等による機械学習を行ってもよい。
 なお、本実施形態においては、上述のような機械学習を、後述する出力制御部126における技能レベル差抑制情報を生成する際にも利用することができる。例えば、ユーザの技能レベルと技能レベル差抑制情報との関係を機械学習によってデータベース化しておくことにより、技能レベルを上げるための情報(技能レベル向上誘導情報)や下げるための情報(技能レベル低下誘導情報)を生成する際に利用することができる。さらには、本実施形態においては、上述のような機械学習を、ボールの軌跡、次の攻撃動作、好適な動作等の推定に用いてもよい。
 (技能レベル差検出部124)
 技能レベル差検出部124は、上述した技能レベル推定部122から出力された推定結果に基づいて、複数のユーザ間の技能レベルの差(技能レベル差)を検出し、検出結果を後述する出力制御部126に出力する。例えば、特定のパフォーマンス(スポーツ等)において、ユーザA(第1のユーザ)の技能レベルが5段階中の5であり(ここでは、数字が大きいほど習熟の度合いが高いものとする)、ユーザB(第2のユーザ)の技能レベルが2であるとする。このような場合、技能レベル差検出部124は、ユーザAとユーザBとの間の技能レベル差は3であるものとして、後述する出力制御部126に出力する。なお、本実施形態においては、技能レベル差の値のみを出力制御部126に出力するだけでなく、ユーザA及びユーザBの技能レベル自体も出力制御部126に出力する。このようにすることで、後述する出力制御部126は、ユーザA及びユーザBの技能レベルの差及びそれぞれの技能レベルに応じた好適な技能レベル差抑制情報を出力することができる。さらに、本実施形態においては、検出した技能レベル差をユーザに提示してもよく、このようにすることで、ユーザは技能レベルの差を認識することができる。
 (出力制御部126)
 出力制御部126は、上述した技能レベル差検出部124で検出した技能レベル差に基づいて、当該技能レベル差を小さくするための技能レベル差抑制情報を、ユーザのパフォーマンス中に動的に変化させて処理モジュール202へ出力する。技能レベル差抑制情報は、例えば、二人のユーザが対戦している場合には、ユーザAとユーザBとの間の技能レベル差を小さくするための情報である。例えば、技能レベル差抑制情報は、技能レベルの高いユーザAの技能レベルを低下させるように誘導する技能レベル低下誘導情報であることができ、具体的には、ユーザAに提示することにより、ユーザAの、パフォーマンス中の動作を妨げるような情報のことを意味する。また、例えば、技能レベル差抑制情報は、技能レベルの低いユーザBの技能レベルを向上させるように誘導する技能レベル向上誘導情報であることができ、具体的には、ユーザBに提示することにより、ユーザBの、パフォーマンス中の動作の精度や速度等を向上させるような情報のことを意味する。なお、技能レベル差抑制情報には、提示(出力)する情報そのものだけでなく、どのユーザにどのようなタイミングで、どのような手段で出力するか等の情報をも含まれるものとする。本実施形態においては、このようにすることによって、より好適な感覚モダリティに対応する手段によって、好適なタイミングで技能レベル差抑制情報をユーザに提示することができることから、より効果的にユーザ間の技能レベル差を小さくすることが可能である。また、出力制御部126は、パフォーマンス(プレー)中に変化する技能レベル差抑制情報に応じて、出力する情報(例えば、仮想オブジェクトの表示等)を動的に変化させてもよい。さらに、出力制御部126は、上述したデータ入力装置104、気象観測装置106及び外部カメラ108等からユーザプロファイル、気象情報、周囲環境情報等の情報を取得し、これらに基づいて、技能レベル差抑制情報を生成してもよい。さらに、出力制御部126は、ユーザの技能レベルや、パフォーマンス(プレー)に対する状況分析をした結果等についても、処理モジュール202へ出力し、ユーザに提示してもよい。
 <2.3 処理モジュール202の機能的構成>
 以上、本実施形態に係るサーバ102の機能的構成の一例について説明した。続いて、図4を参照して、本実施形態に係る処理モジュール202の機能的構成の一例について説明する。図4は、本実施形態に係る処理モジュール202の機能的構成を示すブロック図である。図4に示すように、本実施形態に係る処理モジュール202は、例えば、データ取得部240と、出力制御部(提示部)242とを主に含む。以下に、本実施形態に係る処理モジュール202の各機能部の詳細について説明する。
 (データ取得部240)
 データ取得部240は、生体情報センサ204、モーションセンサ206、及びマイク208等からセンシングデータを取得し、取得したセンシングデータを上述したサーバ102へ出力する。また、データ取得部240は、上述したサーバ102から技能レベル差抑制情報を取得し、後述する出力制御部242に出力する。
 (出力制御部242)
 出力制御部242は、上述した技能レベル差抑制情報に基づいて、上述したARグラス210、スピーカ212及び力覚デバイス214のいずれかの好適な感覚モダリティに対応する手段を制御して、複数のユーザの少なくとも一人に対して技能レベル差抑制情報を当該ユーザのパフォーマンス中に動的に変化させて提示する。
 <2.4 情報処理方法>
 以上、本実施形態に係る情報処理システム10、及び当該情報処理システム10に含まれ各装置の構成について詳細に説明した。次に、本実施形態に係る情報処理方法について、図5を参照して説明する。図5は、本実施形態に係る情報処理方法の一例を説明するシーケンス図である。図5に示すように、本実施形態に係る情報処理方法には、ステップS101からステップS113までの複数のステップが含まれている。以下に、本実施形態に係る情報処理方法に含まれる各ステップの詳細を説明する。
 (ステップS101)
 サーバ側ユニット100は、ユーザプロファイル、気象情報、周囲環境情報等の情報を取得する。
 (ステップS103)
 ユーザ側ユニット200は、各種センシングデータを取得し、取得した各種センシングデータを上述したサーバ側ユニット100へ送信する。
 (ステップS105)
 ユーザ側ユニット200は、各種センシングデータを取得する。
 (ステップS107)
 サーバ側ユニット100は、各種情報(ユーザプロファイル等)や各種センシングデータに基づいて、各ユーザの技能レベルを推定する。
 (ステップS109)
 サーバ側ユニット100は、上述したステップS107で推定された各ユーザの技能レベルに基づいて、複数のユーザ間の技能レベル差を検出する。例えば、二人のユーザが対戦している場合には、ユーザAとユーザBとの間の技能レベル差を検出する。
 (ステップS111)
 サーバ側ユニット100は、上述したステップS109で検出した技能レベル差に基づいて、技能レベル差抑制情報を生成し、ユーザ側ユニット200へ送信する。この際、サーバ側ユニット100は、上述したステップS101で取得したユーザプロファイル、気象情報、周囲環境情報等の情報に基づいて、技能レベル差抑制情報を生成してもよい。例えば、サーバ側ユニット100は、ユーザプロファイルに含まれるユーザの特性情報(酔いやすい、集中力ない、緊張しやすい等)に応じて、技能レベル差抑制情報の内容を変えてもよい。
 (ステップS113)
 ユーザ側ユニット200は、上述した技能レベル差抑制情報に基づいて、上述したARグラス210、スピーカ212及び力覚デバイス214のいずれかの好適な感覚モダリティに対応する手段を制御して、これらの手段を介して、複数のユーザの少なくとも一人に対して技能レベル差抑制情報を提示する。この際、ユーザ側ユニット200は、技能レベル差抑制情報に応じて、複数の手段を組み合わせたり、切り替えたりして提示してもよい。さらに、ユーザ側ユニット200は、上述した技能レベル差抑制情報に基づいて、当該技能レベル差抑制情報を効果的なタイミングでユーザに提示することが好ましい。
 本実施形態によれば、ユーザの身体感覚自体に直接的に影響を与えることによりユーザ間の技能レベル差を小さくすることができることから、様々な技能レベルを持つユーザがスポーツを競うことを楽しむことが可能となる。
 なお、本実施形態においては、複数のユーザのパフォーマンス中において変化する各ユーザの技能レベルに応じて、複数のユーザ間の技能レベル差も変化する。従って、本実施形態においては、上記技能レベル差が変化することから、ユーザに提示される技能レベル差抑制情報も動的に変化することとなる。
 また、本実施形態においては、ユーザのパフォーマンス中に、図5に示されるシーケンスを繰り返し、機械学習やフィードバック等を行うことにより、複数のユーザ間の技能レベルの差を小さくしていくことができる。
 <<3.本開示の実施形態に係る実施例>>
 以上、本開示の実施形態における情報処理方法の詳細について説明した。次に、具体的な実施例を示しながら、本開示の実施形態に係る情報処理の例についてより具体的に説明する。なお、以下に示す実施例は、本開示の実施形態のあくまでも一例であって、本開示の実施形態が下記の例に限定されるものではない。
 <3.1 実施例1>
 まずは、実施例1として、上述した本開示の実施形態を2人のユーザ(ユーザA、ユーザB)が対戦する剣道やフェンシングに適用した場合の実施例を、図6及び図7を参照して説明する。図6及び図7は、本実施例1を説明するための説明図である。
 例えば、本実施例においては、図6に示すように、剣道に用いる剣道防具のうち、面(頭に装着する剣道防具)の部分には、上述したARグラス210が設けられており、「篭手」(手を覆うグローブのような剣道防具)の部分には、振動装置からなる力覚デバイス214が設けられている。
 また、例えば、本実施例においては、図7に示すように、フェンシングに用いるマスクの部分には、上述したARグラス210が設けられており、手袋の部分には、振動装置からなる力覚デバイス214が設けられている。
 本実施例においては、技能レベルの高いユーザAに対して、技能レベル低下誘導情報として、ARグラス210で当該ユーザAの視野角を狭めるような表示や、床が揺れているような表示や、竹刀や剣が実際よりも短く感じられるような表示等を行う。さらに、当該ユーザAに対して、ARグラス210を介して、フェイント(実際には、相手から受けていない攻撃)があった旨の表示をしてもよい。さらに、本実施例においては、当該ユーザAに対して、攻撃動作や防御動作の際に、力覚デバイス214で振動を与えてもよい。本実施例においては、ARグラス210や力覚デバイス214によって、ユーザAに技能レベル低下誘導情報を提示することから、ユーザAに、運動感覚や平衡感覚の誤認識が生じさせたり、身体調整機能を乱したりすることができる。従って、本実施例においては、ユーザAの技能レベルの低下が生じることから、ユーザAとユーザBとの間の技能レベル差を小さくすることが可能である。
 本実施例においては、対戦相手のユーザAの攻撃を推定し、技能レベルの低いユーザBに対して、技能レベル向上誘導情報としてARグラス210を介して上記推定の結果を表示する。また、本実施例においては、上記推定結果に基づいて、好適な攻撃のタイミングをユーザBに力覚デバイス214を介して通知してもよい。このように、本実施例においては、ARグラス210や力覚デバイス214によって、ユーザBに技能レベル向上誘導情報を提示することから、ユーザBは技能レベルを向上させることができる。従って、本実施例においては、ユーザBの技能レベルの向上が生じることから、ユーザAとユーザBとの間の技能レベル差を小さくすることが可能である。
 なお、本実施例においては、上述したグローブ型ウェアラブルデバイスである力覚デバイス214を介して、ユーザBに強制的に好ましい動きにするような力を印加してもよく、もしくは、ユーザAに動きを強制的に固定する力を印可してもよい。
 また、上述の説明では、本開示の実施形態を剣道やフェンシングに適用した例であったが、例えば、ボクシングにも適用してもよい。このような場合、技能レベルの高いユーザAに対して、技能レベル低下誘導情報として、ARグラス210で対戦相手のパンチを視認し難くするような表示や、対戦相手のユーザBのグローブを大きく見せるような表示等を行ってもよい。このようにすることで、ユーザAの技能レベルの低下が生じるだけでなく、ユーザAが素早くパンチをよけたり、大きくパンチをよける動作を誘導することから、ユーザAの技能レベルの向上にもつながることとなる。
 <3.2 実施例2>
 次に、実施例2として、上述した本開示の実施形態をゴルフに適用した場合の実施例を、図8を参照して説明する。図8は、本実施例2を説明するための説明図である。
 例えば、本実施例においては、図8に示すように、ユーザの顔前にARグラス210が装着され、ユーザの手首には、振動装置からなる力覚デバイス214が装着される。
 本実施例においては、技能レベルの高いユーザAに対して、技能レベル低下誘導情報として、ARグラス210を介して、実際とは異なる起伏をもつグリーンの表示等を行う。このようにすることで、ユーザAに運動感覚や平衡感覚の誤認識が生じさせ、ユーザAの技能レベルの低下を生じさせる。さらに、本実施例においては、当該ユーザAに対して、スイング動作時に、力覚デバイス214を介して振動を与えてもよく、このようにすることで、ユーザAに、運動感覚や平衡感覚の誤認識が生じさせ、ユーザAの技能レベルの低下を生じさせることができる。
 また、本実施例においては、技能レベルの低いユーザBに対して、技能レベル向上誘導情報として、ARグラス210を介して、実際のグリーンの起伏(凹凸)の詳細情報や、風向き及び風速の情報の表示、目標地点の表示(例えば、図8の表示800)、好適なスイングを行う際にユーザBが見るべき視線の位置の表示、技能レベルの高い上記ユーザAの視線の位置の表示を行ってもよい。また、本実施例においては、目標のホールまでボールを飛ばすための好適なスイングを推定し、推定結果を技能レベル向上誘導情報として上記ユーザBに対して提示してもよい。詳細には、本実施例においては、好適なスイングの力を、ユーザBに対して力覚デバイス214を振動させることにより通知してもよい。すなわち、本実施例においては、ARグラス210や力覚デバイス214によって、ユーザBに技能レベル向上誘導情報を提示することから、ユーザBは技能レベルを向上させることができる。
 <3.3 実施例3>
 次に、実施例3として、上述した本開示の実施形態をスキー(デュアルタイムレース)に適用した場合の実施例を、図9を参照して説明する。図9は、本実施例3を説明するための説明図である。
 例えば、本実施例においては、図9に示すように、ユーザの装着するヘルメットの顔面部分には上述したARグラス210が設けられており、ユーザの手首やひざ関節には、振動装置からなる力覚デバイス214が装着されている。さらに、本実施例においては、ユーザが使用するスキー板にも、振動装置からなる力覚デバイス214が設けられている。
 本実施例においては、技能レベルの高いユーザAに対して、技能レベル低下誘導情報として、ARグラス210で、ユーザAの視野角や滑走するコースを狭めるような表示や、実際とは異なる起伏をもつコースの表示や、ユーザAが苦手な形状を持つこぶが存在する雪面の表示等を行ってもよい。さらに、本実施例においては、当該ユーザAに対して、滑走中に力覚デバイス214でスキー板に振動を与えてもよく、このようにすることで、ユーザAに、実際に滑降する雪面とは異なる雪面の凹凸の感触を提示して運動感覚や平衡感覚の誤認識が生じさせ、ユーザAの技能レベルの低下を生じさせることができる。また、本実施例においては、ユーザAの身体に装着した力覚デバイス214が電気筋肉刺激を利用した刺激装置であってもよく、このような力覚デバイス214で電気的な刺激をユーザAに与えることにより、ユーザAに運動感覚や平衡感覚の誤認識が生じさせてもよい。本実施例においては、このようにすることで、直近的にはユーザAの技能レベルの低下を生じさせるばかりでなく、将来的には、滑走中のユーザAに負荷をかけ続けることにより、スキー板のコントロールの精度が向上する等といったユーザA自身の技能レベルの向上が期待できる。
 また、本実施例においては、技能レベルの低いユーザBに対して、技能レベル向上誘導情報として、ARグラス210を介して、滑走する雪面においてユーザBが滑降するために好適なコースの表示を行う。さらに、本実施例においては、当該ユーザBに対して、滑走中に力覚デバイス214でスキー板に振動を与えてもよく、このようにすることで、ユーザBに、ユーザAとユーザBとの間の技能レベルの差を通知してもよい。
 <3.4 実施例4>
 これまで説明した実施例においては、主に一対一のユーザが対戦するスポーツに適用した例を説明してきたが、本開示の実施形態は、複数のユーザ(第1のユーザ、第2のユーザ)をそれぞれ含む複数のチーム(第1のグループ、第2のグループ)が対戦するスポーツに適用することも可能である。そこで、実施例4として、上述した本開示の実施形態をバレーボールに適用した場合の実施例を、図10を参照して説明する。図10は本実施例4を説明するための説明図である。
 例えば、本実施例においては、図10に示すように、各ユーザの顔前にARグラス210が装着され、各ユーザの手首には、振動装置からなる力覚デバイス214が装着される。
 本実施例においては、技能レベルの高いユーザAもしくは技能レベルの高いチームに属するユーザAに対して、技能レベル低下誘導情報として、ARグラス210で、実際とは異なる大きさ(実際よりも小さく表示する)、振幅(実際よりも大きな振幅を持つ)、速さ(実際よりも遅く表示する)を持つボールの表示等を行う。さらに、本実施例においては、当該ユーザAに対して、アタックする瞬間に力覚デバイス214で振動を与えてもよい。本実施例においては、このようにすることで、ユーザAに運動感覚や平衡感覚の誤認識が生じさせ、ユーザAの技能レベルの低下を生じさせることができる。また、本実施例においても、このようにすることで、直近的にはユーザAの技能レベルの低下を生じさせるばかりでなく、将来的には、プレー中のユーザAに負荷をかけ続けることにより、ボールの中心を捉えてアタックする精度が向上する等といったユーザA自身の技能レベルの向上が期待できる。
 また、本実施例においては、ユーザAの属するチームのアタックコースや、サーブコース等を推定してもよい。そして、本実施例においては、技能レベルの低いユーザBもしくは技能レベルの低いチームに属するユーザBに対して、技能レベル向上誘導情報として、ARグラス210を介して、推定したアタックコース、サーブコース等の表示を行う。さらに、本実施例においては、当該ユーザBに対して、力覚デバイス214で手首に振動を与えてもよく、このようにすることで、ユーザBにブロックのタイミングを通知してもよい。
 <3.5 実施例5>
 次に、実施例5として、上述した本開示の実施形態をバスケットボールに適用した場合の実施例を、図11を参照して説明する。図11は本実施例5を説明するための説明図である。
 例えば、本実施例においては、図11に示すように、ユーザの顔前にARグラス210が装着され、ユーザの手首には、振動装置からなる力覚デバイス214が装着される。
 本実施例においては、技能レベルの高いユーザAもしくは技能レベルの高いチームに属するユーザAに対して、技能レベル低下誘導情報として、ARグラス210で、実際とは異なる位置や人数の対戦相手のダミー802の表示等を行ってもよい。さらに、本実施例においては、当該ユーザAに対して、ドリブルする瞬間に力覚デバイス214で振動を与えてもよく、このようにすることで、ユーザAに運動感覚や平衡感覚の誤認識が生じさせ、ユーザAの技能レベルの低下を生じさせることができる。
 本実施例においては、ユーザAの属するチームの各ユーザの位置を検出し、技能レベルの低いユーザBもしくは技能レベルの低いチームに属するユーザBに対して、技能レベル向上誘導情報として、ARグラス210を介して、検出した位置の表示を行ってもよい。さらに、本実施例においては、ユーザBの属するチームのユーザの位置を検出し、ユーザBに対して、技能レベル向上誘導情報として、ARグラス210を介して、フリーの状態にあるユーザの位置の表示を行ってもよい。また、本実施例においても、当該ユーザBに対して、力覚デバイス214で手首に振動を与えてもよく、このようにすることで、ユーザBにパスのタイミングを通知することができる。
 <3.6 実施例6>
 次に、実施例6として、上述した本開示の実施形態をサッカーに適用した場合の実施例を、図12及び図13を参照して説明する。図12は、本実施形態に係る実施例6を説明するための説明図であり、図13は、本実施形態に係る実施例6の情報処理方法の一例を説明するシーケンス図である。
 例えば、本実施例においては、図12に示すように、各ユーザの顔前にARグラス210が装着される。また、図12において図示を省略しているものの、各ユーザには測位センサが装着されているものとする。
 次に、本実施例に係る情報処理方法について、図13を参照して説明する。以下に説明する例では、ユーザA及びユーザBは、技能レベルの低いチームAに属し、ユーザCは、技能レベルの高いチームBに属するものとする。さらに、以下においては、上記チームAの技能レベルを向上させるために、本実施形態に係る情報処理システム10によってチームAに支援を行う場合を例として説明する。
 図13に示すように、本実施例に係る情報処理方法には、ステップS201からステップS233までの複数のステップが含まれている。以下に、本実施例に係る情報処理方法に含まれる各ステップの詳細を説明する。
 (ステップS201)
 ユーザAに装着されたモーションセンサ206は、ユーザAがパスを受けたという状況を検出し、サーバ102に伝達する。この際、ユーザAに装着された測位センサ(図示省略)は、ユーザAの位置情報をサーバ102に送信する。
 (ステップS203、ステップS205)
 サーバ102は、ユーザAの味方であるユーザB、及び、ユーザAの敵であるユーザCのポジション(位置)を確認するために、ユーザB及びユーザCに装着された測位センサ(図示省略)に位置情報(ポジション)を返すように通知する。
 (ステップS207、ステップS209)
 ユーザB及びユーザCに装着された各測位センサ(図示省略)は、サーバ102に対する応答として、ユーザB及びユーザCの位置情報を送信する。
 (ステップS211)
 サーバ102は、ユーザA、B、Cの位置情報に基づき、ゲームにおける状況を分析し、ユーザA及びユーザBが次に取るべき好適な位置(ポジション)を推定する。
 (ステップS213、ステップS215)
 サーバ102は、上述したステップS211の推定結果に基づき、ユーザA及びユーザBのARグラス210に対して、ユーザA及びユーザBが次に取るべき好適な位置(目標ポジション)の情報である指示情報を送信する。
 (ステップS217、ステップS219)
 ユーザA及びユーザBに装着された各測位センサ(図示省略)は、上述のステップS213及びステップS215で送信された位置にユーザA及びユーザBが到達したことを検出した場合には、サーバ102に対する応答として、到達した旨の情報を送信する。
 (ステップS221)
 サーバ102は、ユーザA、Bの位置情報に基づき、ゲームにおける状況を分析し、ユーザA及びユーザBが次に取るべき好適なパスを出す位置又は受ける位置(ポジション)を推定する。さらに、サーバ102は、ユーザA及びユーザBが次に取るべき好適なパスを出すタイミング又はパスを受けるために走りこむタイミングを推定する。
 (ステップS223、ステップS225)
 サーバ102は、上述したステップS221の推定結果に基づき、ユーザA及びユーザBのARグラス210に対して、ユーザA及びユーザBが次に取るべき好適なパスを出す又は受ける位置(目標ポジション)の情報である指示情報を送信する。
 (ステップS227、ステップS229)
 サーバ102は、上述したステップS221の推定結果に基づき、ユーザA及びユーザBのARグラス210に対して、ユーザA及びユーザBが次に取るべき好適なパスを出すタイミング又はパスを受けるために走りこむタイミングの情報である指示情報を送信する。
 (ステップS231)
 ユーザAに装着されたモーションセンサ206は、ユーザAがパスを出したという状況を検出し、サーバ102に伝達する。この際、ユーザAに装着された測位センサ(図示省略)は、ユーザAの位置情報をサーバ102に送信する。
 (ステップS233)
 ユーザBに装着されたモーションセンサ206は、ユーザBがパスを受けたという状況を検出し、サーバ102に伝達する。この際、ユーザBに装着された測位センサ(図示省略)は、ユーザBの位置情報をサーバ102に送信する。
 本実施例においては、技能レベルの低いチームのユーザに、敵、味方の位置や好適な動作のタイミング等を、ARグラス210を介して提示することにより、味方同士の連携を強化し、技能レベルの低いチームのユーザの技能レベルを向上させることができる。
 また、本実施例においては、技能レベルの高いチームのユーザには、当該ユーザの耳に装着されたイヤーフォンスピーカでノイズ(例えば、疑似的声援)を出力することにより、当該チームの連携を妨げてもよい。一方、本実施例においては、技能レベルの低いチームのユーザには、当該ユーザの耳に装着されたイヤーフォンスピーカで味方の音声を出力することにより、当該チームの連携を強化いてもよい。この際、味方の位置や視線の位置を、ARグラス210を介して提示してもよく、このようにすることで、味方チームのゲームプラン等を認識することが容易となり、連携が強化されることとなる。
 また、本実施例においては、各ユーザへの情報の提示の形態については、例えば、当該各ユーザの技能レベルに応じて動的に変化させてもよい(例えば、技能レベルの高いユーザには高度な動作の指示等(パスを受けるには不利な位置等)を出し、技能レベルの低いユーザには容易な動作の指示を出す)。また、本実施例においては、各ユーザへの情報の提示の形態については、例えば、当該各ユーザの持久力(ユーザプロファイル)と運動量(モーションセンサ206によるセンシングデータ)とから当該ユーザの残りの体力を推定して、推定結果に応じて動的に変化させてもよい。また、本実施例においては、ユーザの体力の低下が推定される場合には、当該ユーザの耳に装着されたイヤーフォンスピーカで、当該ユーザを元気づける声援を出力してもよい。
 さらに、本実施例においては、上述した周囲環境情報に基づいて、ユーザが太陽光によりARグラス210を介した表示が視認し難いと推定される場合には、例えば、ユーザに装着した振動装置からなる力覚デバイス214を介して情報を提示してもよい。
 <3.7 実施例7>
 次に、実施例7として、上述した本開示の実施形態をテニス、スカッシュに適用した場合の実施例を、図14から図17を参照して説明する。図14は、本実施形態に係る実施例7を説明するための説明図であり、図15は、本実施形態に係る実施例7の情報処理方法の一例を説明するフローチャートである。また、図16及び図17は、本実施形態に係る実施例7の表示の一例を説明する説明図である。
 例えば、本実施例においては、図14に示すように、ユーザの顔前にARグラス210が装着され、ユーザの手首には、振動装置からなる力覚デバイス214が装着される。また、図14において図示を省略しているものの、ユーザにはモーションセンサ206及び測位センサ(図示省略)が装着されているものとする。さらに、本実施例においては、ユーザが利用するラケット(用具)にも、ボールを打ったことを検出する衝撃センサ(図示省略)が設けられていてもよい。
 次に、本実施例に係る情報処理方法について、図15を参照して説明する。以下に示す例では、ユーザAは、対戦相手であるユーザBに比べて技能レベルが低く、当該ユーザAの技能レベルを向上させるために、本実施形態に係る情報処理システム10によってユーザAに支援を行う場合を説明する。図15に示すように、本実施例に係る情報処理方法には、ステップS301からステップS317までの複数のステップが含まれている。以下に、本実施例に係る情報処理方法に含まれる各ステップの詳細を説明する。
 (ステップS301)
 ユーザAに装着されたモーションセンサ206は、ユーザAがボールをラケットで打ったことを検出し、サーバ102に伝達する。この際、ユーザAに装着された測位センサ(図示省略)は、ユーザAの位置情報をサーバ102に送信する。
 (ステップS303)
 外部カメラ108はユーザAが打ったボールを撮像し、サーバ102は、撮像画像に基づきボールの軌跡に追従する。
 (ステップS305)
 外部カメラ108は、ユーザAの対戦相手となるユーザBを撮像し、サーバ102は、撮像画像に基づきユーザBの位置や動作(モーション)を検出する。
 (ステップS307)
 サーバ102は、上述したステップS305で検出したユーザBの動作等に基づき、ユーザBの返したボールの軌跡(リターンコース)を推定する。
 (ステップS309)
 ユーザAに装着された測位センサ(図示省略)は、ユーザAの現在位置を検出し、ユーザAの位置情報をサーバ102に送信する。
 (ステップS311)
 サーバ102は、上述したステップS307で推定したリターンコースと、上述したステップS309で検出したユーザAの位置情報とに基づき、ユーザAが次に取るべき好適な打点の位置やボールを打つタイミングやスイングの大きさを推定する。
 (ステップS313)
 サーバ102は、上述したステップS311の推定結果に基づき、ユーザAのARグラス210に対して、ユーザAが次に取るべき打点の位置を表示させる。
 (ステップS315)
 サーバ102は、上述したステップS311の推定結果に基づき、ユーザAのARグラス210に対して、ユーザAが次に取るべきボールを打つタイミングを表示させる。
 (ステップS317)
 サーバ102は、上述したステップS311の推定結果に基づき、ユーザAに対して、力覚デバイス214で手首に振動を与えて、ユーザAが次に取るべきボールを打つスイングの大きさを提示する。
 以下に、本実施例におけるユーザAへの具体的な情報の表示について、図16を参照して説明する。
 まずは、本実施例においては、図16(a)に示すように、対戦相手のユーザBがボールを打ち返す直前においては、ユーザAが左右、前後どちらに動くべきであるのかを矢印状の表示808によって示してもよい。この際、表示808は、返球されるボールの球種等を色で表示してもよく、返球されるボールの速度を表示808の長さや幅によって表示してもよい。
 次に、図16(b)に示すように、返球されるボールの軌跡を表示810で表示してもよく、ユーザAが次に取るべき打点の位置を表示814で表示してもよい。なお、本実施例においては、サーバ102は、ボールの軌跡を予め推定し、ボールの落下点、通過点を上記表示810によって表示してもよい。さらに、図16(b)に示すように、ユーザAが次に取るべき立ち位置を表示816で表示してもよく、また、ユーザがボールを打ち返すべき方向を矢印状の表示812で表示してもよい。
 さらに、ユーザAがボールを打ち返すタイミングでは、図16(c)に示すように、表示822のように打点を強調して表示してもよく、また、ボールの軌跡を表示820によって表示してもよい。
 次に、ユーザAがボールを打ち終わった場合には、図16(d)に示すように、ユーザAが次に取るべき位置を表示824によって表示してもよい。
 本実施例においては、対戦相手となるユーザBの打点等が推定できた場合には、推定結果に基づくユーザAの次の取るべき打点の表示は、ユーザAの次にボールを打つべきタイミングに対するカウントダウンとともに提示してもよい。このようにすることで、ユーザAはより容易にボールを打つタイミングを取りやすくすることができる。
 また、本実施例においては、打点をピンポイントで表示してもよく、もしくは、図17に示すように軌跡とともに表示してもよく、ユーザに応じて、ユーザが容易に打点を把握しやすい形態を選択して表示することが好ましい。
 <3.8 実施例8>
 本開示の実施形態は、上述したようなスポーツに適用することに限定されるものではなく、例えば、ボードゲームやカードゲーム等に適用してもよい。
 例えば、ボードゲームやカードゲームにおいては、ARグラス210で、技能レベルの高いユーザAの視野を狭めるような表示を行い、カードのマーク、色、値や駒の種類、牌のマーク、値等を視認し難くしてもよい。このようにすることで、技能レベルの高いユーザAは、自身の記憶を頼りにプレーを行うこととなる。なお、上記表示で隠される情報は、何手前のみ(1手前から数手分)、何手前以上(初手から数手前まで)等、ゲームの状況、ユーザの技能レベルに応じて動的に変化させてもよい。また、ビデオゲームであれば、技能レベルの高いユーザAの操作するアバターの操作に対する反応速度を低下させてもよい。
 また、百人一首等のカルタにおいては、読み手が読み上げた歌を、技能レベルに応じて時間差で聞こえるようにしてもよい。例えば、技能レベルが高いユーザAには、読み手が実際に読んだタイミングよりも遅くして聞こえるようにしてもよい。さらに、目の前に置かれた札の数を、ユーザの技能レベルに応じて限定してもよい。例えば、技能レベルが高いユーザAには、全ての札が見えるようにし、技能レベルが低いユーザBには、次に読み手が読む札に対応する札を含む数枚のみを見えるようにしてもよい。このようにすることで、技能レベルが低いユーザBは、正しい札を容易にみつけることができるようになる。
 <<4.まとめ>>
 以上説明したように、上述した本開示の実施形態によれば、ユーザの身体感覚自体に直接的に影響を与えることによりユーザ間の技能レベル差を小さくすることで、様々な技能レベルを持つユーザがパフォーマンスを競うことを楽しむことができる。
 また、本開示の実施形態においては、ハンディキャップのある障害者でも楽しむことができるように、ARグラス210による表示等をより視認しやすい色彩に変更してもよく、コントラストをよりはっきりさせて表示するようにしてもよい。また、このような場合、健常者に対しては、より感覚の認識を難しくして技能レベルを下げるために、振動装置からなる力覚デバイス214の振動を小さくしたり、スピーカ212で出力する音声を小さくしてもよい。
 <<5.ハードウェア構成について>>
 図18は、本実施形態に係る情報処理装置900のハードウェア構成の一例を示す説明図である。図18では、情報処理装置900は、上述のサーバ102のハードウェア構成の一例を示している。
 情報処理装置900は、例えば、CPU(Central Processing Unit)950と、ROM(Read Only Memory)952と、RAM(Random Access Memory)954と、記録媒体956と、入出力インタフェース958とを有する。さらに、情報処理装置900は、操作入力デバイス960と、表示デバイス962と、音声出力デバイス964と、通信インタフェース968と、センサ980とを有する。また、情報処理装置900は、例えば、データの伝送路としてのバス970で各構成要素間を接続する。
 (CPU950)
 CPU950は、例えば、CPU等の演算回路で構成される、1又は2以上のプロセッサや、各種処理回路等で構成され、情報処理装置900全体を制御する主制御部として機能する。
 (ROM952及びRAM954)
 ROM952は、CPU950が使用するプログラムや演算パラメータ等の制御用データ等を記憶する。RAM954は、例えば、CPU950により実行されるプログラム等を一時的に記憶する。ROM952及びRAM954は、情報処理装置900において、例えば、上述の記憶装置110の機能を果たす。
 (記録媒体956)
 記録媒体956は、上述の記憶装置110として機能し、例えば、本実施形態に係る情報処理方法に係るデータや、各種アプリケーション等様々なデータを記憶する。ここで、記録媒体956としては、例えば、ハードディスク等の磁気記録媒体や、フラッシュメモリ等の不揮発性メモリが挙げられる。また、記録媒体956は、情報処理装置900から着脱可能であってもよい。
 (入出力インタフェース958、操作入力デバイス960、表示デバイス962、及び音声出力デバイス964)
 入出力インタフェース958は、例えば、操作入力デバイス960、表示デバイス962、及び音声出力デバイス964等を接続する。入出力インタフェース958としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路等が挙げられる。
 操作入力デバイス960は、例えば上述のデータ入力装置104として機能し、情報処理装置900の内部で入出力インタフェース958と接続される。操作入力デバイス960としては、例えば、ボタンや、方向キー、ジョグダイヤル等の回転型セレクター、タッチパネル、あるいは、これらの組み合わせ等が挙げられる。
 表示デバイス962は、例えば、情報処理装置900上に備えられ、情報処理装置900の内部で入出力インタフェース958と接続される。表示デバイス962としては、例えば、液晶ディスプレイや有機ELディスプレイ(Organic Electro-Luminescence Display)等が挙げられる。
 音声出力デバイス964は、例えば、情報処理装置900上に備えられ、情報処理装置900の内部で入出力インタフェース958と接続される。音声出力デバイス964としては、スピーカ、ヘッドフォン等が挙げられる。
 なお、入出力インタフェース958が、情報処理装置900の外部の操作入力デバイス(例えば、キーボードやマウス等)や外部の表示デバイス等の、外部デバイスと接続することも可能であることは、言うまでもない。
 (通信インタフェース968)
 通信インタフェース968は、通信部360として機能する情報処理装置900が備える通信手段であり、ネットワーク(図示省略)を介して(あるいは、直接的に)、外部装置と、無線又は有線で通信を行うための通信部(図示省略)として機能する。ここで、通信インタフェース968としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)等が挙げられる。
 (センサ部980)
 センサ980は、上述の生体情報センサ204、モーションセンサ206等として機能し、各種センサである。
 また、例えば、情報処理装置900は、接続されている外部の通信デバイスを介して外部装置等と通信を行う場合や、スタンドアローンで処理を行う構成である場合には、通信インタフェース968を備えていなくてもよい。また、通信インタフェース968は、複数の通信方式によって、1又は2以上の外部装置と通信を行うことが可能な構成を有していてもよい。
 また、本実施形態に係る情報処理装置は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置により本実施形態に係る情報処理方法に係る処理を行う情報処理システムとして実現することも可能である。
 以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 <<6.補足>>
 なお、先に説明した本開示の実施形態は、例えば、コンピュータを本実施形態に係る情報処理装置として機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
 また、上述した本開示の実施形態の処理における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理方法についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法で処理されていてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、第1の前記ユーザに関するセンシングデータ、及び、前記第1のユーザに比べて技能レベルが低い第2の前記ユーザに関するセンシングデータに基づいて、前記第1のユーザと前記第2のユーザとの間の前記技能レベルの差を検出する技能レベル差検出部と、
 検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のユーザのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示部と、
 を備える、情報処理装置。
(2)
 前記技能レベル差抑制情報は、前記第1のユーザの前記技能レベルを低下させるように誘導する技能レベル低下誘導情報を含み、
 前記技能レベル低下誘導情報は、前記第1のユーザに提示される、
 上記(1)に記載の情報処理装置。
(3)
 前記技能レベル差抑制情報は、前記第2のユーザの前記技能レベルを向上させるように誘導する技能レベル向上誘導情報を含み、
 前記技能レベル向上誘導情報は、前記第2のユーザに提示される、
 上記(1)又は(2)に記載の情報処理装置。
(4)
 前記技能レベル差抑制情報は、視覚情報として表示装置に表示される、上記(1)~(3)のいずれか1つに記載の情報処理装置。
(5)
 前記表示装置は透過型ディスプレイであって、
 前記表示装置は、前記視覚情報としての仮想オブジェクトを実空間に重畳して表示する、上記(4)に記載の情報処理装置。
(6)
 前記提示部は、前記技能レベル差抑制情報に応じて、前記仮想オブジェクトの表示を動的に変化させる、上記(5)に記載の情報処理装置。
(7)
 前記表示装置は、少なくとも前記第1及び第2のユーザの一方の頭部に装着されるウェアラブル装置に含まれる、上記(5)又は(6)に記載の情報処理装置。
(8)
 前記技能レベル差抑制情報は、聴覚情報として音声出力装置により出力される、上記(1)~(7)のいずれか1つに記載の情報処理装置。
(9)
 前記音声出力装置は、少なくとも前記第1及び第2のユーザの一方の頭部に装着されるウェアラブル装置、又は、少なくとも前記第1及び第2のユーザの一方の身体の一部に挿入されるインプラント装置、又は、少なくとも前記第1及び第2のユーザの一方に音声を提供する指向性スピーカである、上記(8)に記載の情報処理装置。
(10)
 前記技能レベル差抑制情報は、力覚情報として力覚装置により出力される、上記(1)~(9)のいずれか1つに記載の情報処理装置。
(11)
 前記力覚装置は、
 少なくとも前記第1及び第2のユーザの一方の身体の一部に装着される、又は、少なくとも前記第1及び第2のユーザの一方が使用する用具に設けられる、上記(10)に記載の情報処理装置。
(12)
 前記センシングデータは、前記第1及び第2のユーザの動作を検出するモーションセンサによって提供される、上記(1)~(11)のいずれか1つに記載の情報処理装置。
(13)
 前記モーションセンサには、前記第1及び第2のユーザの動作を検出する第1の撮像装置が含まれる、上記(12)に記載の情報処理装置。
(14)
 前記センシングデータは、前記第1及び第2のユーザの姿勢を検出する姿勢センサによって提供される、上記(1)~(13)のいずれか1つに記載の情報処理装置。
(15)
 前記センシングデータは、前記第1及び第2のユーザの生体情報を検出する生体情報センサによって提供される、上記(1)~(13)のいずれか1つに記載の情報処理装置。
(16)
 前記生体情報センサには、前記第1及び第2のユーザの眼球運動を検出する第2の撮像装置が含まれる、上記(15)に記載の情報処理装置。
(17)
 前記センシングデータは、前記第1及び第2のユーザの位置情報を検出する位置センサによって提供される、上記(1)~(16)のいずれか1つに記載の情報処理装置。
(18)
 前記センシングデータは、少なくとも、前記第1及び第2のユーザのプロファイル情報、及び前記第1及び第2のユーザの周囲環境に関する情報のいずれかを含む、上記(1)~(17)のいずれか1つに記載の情報処理装置。
(19)
 ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、複数の第1の前記ユーザを含む第1のグループに関するセンシングデータ、及び、複数の第2の前記ユーザを含み、前記第1のグループに比べて技能レベルが低い第2のグループに関するセンシングデータに基づいて、前記第1のグループと前記第2のグループとの間の前記技能レベルの差を検出する技能レベル差検出部と、
 検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のグループのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示部と、
 を備える、情報処理装置。
(20)
 ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、第1の前記ユーザに関するセンシングデータ、及び前記第1のユーザに比べて技能レベルが低い第2の前記ユーザに関するセンシングデータに基づいて、前記第1のユーザと前記第2のユーザとの間の前記技能レベルの差を検出する技能レベル検出装置と、
 検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のユーザのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示装置と、
 を含む、情報処理システム。
 10  情報処理システム
 100  サーバ側ユニット
 102  サーバ
 104  データ入力装置
 106  気象観測装置
 108  外部カメラ
 110  記憶装置
 112、222  無線モジュール
 120、240  データ取得部
 122  技能レベル推定部
 124  技能レベル差検出部
 126、242  出力制御部
 200  ユーザ側ユニット
 202  処理モジュール
 204  生体情報センサ
 206  モーションセンサ
 208  マイク
 210  ARグラス
 212  スピーカ
 214  力覚デバイス
 230  表示部
 232  外向きカメラ
 800、808、810,812、814、816、818、820、822、824、830  表示
 802  ダミー
 804  表示画面
 900  情報処理装置
 950  CPU
 952  ROM
 954  RAM
 956  記録媒体
 958  入出力インタフェース
 960  操作入力デバイス
 962  表示デバイス
 964  音声出力デバイス
 968  通信インタフェース
 970  バス
 980  センサ

Claims (20)

  1.  ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、第1の前記ユーザに関するセンシングデータ、及び、前記第1のユーザに比べて技能レベルが低い第2の前記ユーザに関するセンシングデータに基づいて、前記第1のユーザと前記第2のユーザとの間の前記技能レベルの差を検出する技能レベル差検出部と、
     検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のユーザのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示部と、
     を備える、情報処理装置。
  2.  前記技能レベル差抑制情報は、前記第1のユーザの前記技能レベルを低下させるように誘導する技能レベル低下誘導情報を含み、
     前記技能レベル低下誘導情報は、前記第1のユーザに提示される、
     請求項1に記載の情報処理装置。
  3.  前記技能レベル差抑制情報は、前記第2のユーザの前記技能レベルを向上させるように誘導する技能レベル向上誘導情報を含み、
     前記技能レベル向上誘導情報は、前記第2のユーザに提示される、
     請求項1に記載の情報処理装置。
  4.  前記技能レベル差抑制情報は、視覚情報として表示装置に表示される、請求項1に記載の情報処理装置。
  5.  前記表示装置は透過型ディスプレイであって、
     前記表示装置は、前記視覚情報としての仮想オブジェクトを実空間に重畳して表示する、請求項4に記載の情報処理装置。
  6.  前記提示部は、前記技能レベル差抑制情報に応じて、前記仮想オブジェクトの表示を動的に変化させる、請求項5に記載の情報処理装置。
  7.  前記表示装置は、少なくとも前記第1及び第2のユーザの一方の頭部に装着されるウェアラブル装置に含まれる、請求項5に記載の情報処理装置。
  8.  前記技能レベル差抑制情報は、聴覚情報として音声出力装置により出力される、請求項1に記載の情報処理装置。
  9.  前記音声出力装置は、少なくとも前記第1及び第2のユーザの一方の頭部に装着されるウェアラブル装置、又は、少なくとも前記第1及び第2のユーザの一方の身体の一部に挿入されるインプラント装置、又は、少なくとも前記第1及び第2のユーザの一方に音声を提供する指向性スピーカである、請求項8に記載の情報処理装置。
  10.  前記技能レベル差抑制情報は、力覚情報として力覚装置により出力される、請求項1に記載の情報処理装置。
  11.  前記力覚装置は、
     少なくとも前記第1及び第2のユーザの一方の身体の一部に装着される、又は、少なくとも前記第1及び第2のユーザの一方が使用する用具に設けられる、請求項10に記載の情報処理装置。
  12.  前記センシングデータは、前記第1及び第2のユーザの動作を検出するモーションセンサによって提供される、請求項1に記載の情報処理装置。
  13.  前記モーションセンサには、前記第1及び第2のユーザの動作を検出する第1の撮像装置が含まれる、請求項12に記載の情報処理装置。
  14.  前記センシングデータは、前記第1及び第2のユーザの姿勢を検出する姿勢センサによって提供される、請求項1に記載の情報処理装置。
  15.  前記センシングデータは、前記第1及び第2のユーザの生体情報を検出する生体情報センサによって提供される、請求項1に記載の情報処理装置。
  16.  前記生体情報センサには、前記第1及び第2のユーザの眼球運動を検出する第2の撮像装置が含まれる、請求項15に記載の情報処理装置。
  17.  前記センシングデータは、前記第1及び第2のユーザの位置情報を検出する位置センサによって提供される、請求項1に記載の情報処理装置。
  18.  前記センシングデータは、少なくとも、前記第1及び第2のユーザのプロファイル情報、及び前記第1及び第2のユーザの周囲環境に関する情報のいずれかを含む、請求項1に記載の情報処理装置。
  19.  ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、複数の第1の前記ユーザを含む第1のグループに関するセンシングデータ、及び、複数の第2の前記ユーザを含み、前記第1のグループに比べて技能レベルが低い第2のグループに関するセンシングデータに基づいて、前記第1のグループと前記第2のグループとの間の前記技能レベルの差を検出する技能レベル差検出部と、
     検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のグループのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示部と、
     を備える、情報処理装置。
  20.  ユーザの身体の少なくとも一部が動作することによって行われるパフォーマンス、及び、前記パフォーマンスに対する過去に行われた他のパフォーマンスのうちの少なくとも一方において取得された、第1の前記ユーザに関するセンシングデータ、及び前記第1のユーザに比べて技能レベルが低い第2の前記ユーザに関するセンシングデータに基づいて、前記第1のユーザと前記第2のユーザとの間の前記技能レベルの差を検出する技能レベル検出装置と、
     検出した前記技能レベルの差に基づいて、少なくとも前記第1及び第2のユーザのいずれか一方に対して、前記技能レベルの差を小さくするための技能レベル差抑制情報を前記パフォーマンス中に動的に変化させて提示する提示装置と、
     を含む、情報処理システム。
PCT/JP2020/010397 2019-04-16 2020-03-10 情報処理装置及び情報処理システム WO2020213301A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/602,007 US20220152468A1 (en) 2019-04-16 2020-03-10 Information processing apparatus and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-077784 2019-04-16
JP2019077784 2019-04-16

Publications (1)

Publication Number Publication Date
WO2020213301A1 true WO2020213301A1 (ja) 2020-10-22

Family

ID=72837450

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/010397 WO2020213301A1 (ja) 2019-04-16 2020-03-10 情報処理装置及び情報処理システム

Country Status (2)

Country Link
US (1) US20220152468A1 (ja)
WO (1) WO2020213301A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002516121A (ja) * 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
JP2005027950A (ja) * 2003-07-08 2005-02-03 Konami Co Ltd 振分装置、振分方法、ならびに、プログラム
JP2011217763A (ja) * 2010-04-02 2011-11-04 Taito Corp マッチングプログラム、マッチングサーバ及びゲームシステム
JP2018535705A (ja) * 2015-09-08 2018-12-06 ホン インターナショナル コーポレーション ダーツゲームのレッスンモードを提供する方法、装置及びコンピューター読み取り可能な媒体に保存されたコンピュータープログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4097240B2 (ja) * 1998-10-26 2008-06-11 株式会社バンダイナムコゲームス ゲームシステム及び情報記憶媒体
US20050113164A1 (en) * 2003-07-11 2005-05-26 The Edugaming Corporation Method and system for dynamically leveling game play in electronic gaming environments
US8475274B2 (en) * 2007-04-26 2013-07-02 Sony Computer Entertainment America Llc Method and apparatus for dynamically adjusting game or other simulation difficulty
US8092288B2 (en) * 2008-10-31 2012-01-10 International Business Machines Corporation Managing multi-player video game input
US9616341B2 (en) * 2015-06-24 2017-04-11 International Business Machines Corporation Multiple user single avatar video game input system
US20170252656A1 (en) * 2016-03-03 2017-09-07 Victor Jr David Uy Statistical modifiers for de-randomization in an augmented reality gaming environment
US10632389B1 (en) * 2017-07-21 2020-04-28 Outplayed, Inc. Performance measurement in a multi-player computer gaming environment
US10828572B1 (en) * 2017-12-27 2020-11-10 Disney Enterprises, Inc. Systems and method for dynamic content unlock and adaptive control
US10705596B2 (en) * 2018-05-09 2020-07-07 Neurolofical Rehabilitation Virtual Reality, LLC Systems and methods for responsively adaptable virtual environments
US11065549B2 (en) * 2019-03-15 2021-07-20 Sony Interactive Entertainment Inc. AI modeling for video game coaching and matchmaking
EP4110485A4 (en) * 2020-02-28 2024-03-13 Univ California METHODS AND SYSTEMS FOR DIFFICULTY-ADJUSTED MULTI-PARTICIPANT INTERACTIVITY
US11351464B2 (en) * 2020-04-02 2022-06-07 Electronic Arts Inc. Automated coaching for online gaming
US11478716B1 (en) * 2020-11-05 2022-10-25 Electronic Arts Inc. Deep learning for data-driven skill estimation
US20230230011A1 (en) * 2022-01-14 2023-07-20 Pes University Skill-gap analysis and recommender system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002516121A (ja) * 1998-03-03 2002-06-04 アリーナ, インコーポレイテッド 多次元空間における運動技術を追跡し、そして評価するためのシステムおよび方法
JP2005027950A (ja) * 2003-07-08 2005-02-03 Konami Co Ltd 振分装置、振分方法、ならびに、プログラム
JP2011217763A (ja) * 2010-04-02 2011-11-04 Taito Corp マッチングプログラム、マッチングサーバ及びゲームシステム
JP2018535705A (ja) * 2015-09-08 2018-12-06 ホン インターナショナル コーポレーション ダーツゲームのレッスンモードを提供する方法、装置及びコンピューター読み取り可能な媒体に保存されたコンピュータープログラム

Also Published As

Publication number Publication date
US20220152468A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
US10446051B2 (en) Interactive cognitive-multisensory interface apparatus and methods for assessing, profiling, training, and improving performance of athletes and other populations
US11033453B1 (en) Neurocognitive training system for improving visual motor responses
US10715759B2 (en) Athletic activity heads up display systems and methods
US10478698B2 (en) Interactive cognitive-multisensory interface apparatus and methods for assessing, profiling, training, and/or improving performance of athletes and other populations
US9046919B2 (en) Wearable user interface device, system, and method of use
CN106575164B (zh) 检测装置、检测方法、控制装置和控制方法
US20170229041A1 (en) Coordinated physical and sensory training
US20160275805A1 (en) Wearable sensors with heads-up display
US11341776B2 (en) Method, electronic apparatus and recording medium for automatically configuring sensors
US10610143B2 (en) Concussion rehabilitation device and method
US9407883B2 (en) Method and system for processing a video recording with sensor data
Yeo et al. Augmented learning for sports using wearable head-worn and wrist-worn devices
WO2020213301A1 (ja) 情報処理装置及び情報処理システム
JP7020479B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2023055308A1 (en) An enhanced tactile information delivery system
JP2023113275A (ja) 所定対象の視認性を調整する動作支援装置、システム、プログラム及び方法
CN107050825A (zh) 常规动作训练装置及其方法
WITKOWSKA S&D. Integration of sport and design for innovative systems. Application to a swimmer wearable integrated monitoring system For innovative training

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20792046

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20792046

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP