WO2018062535A1 - 移動体情報提供システム及び移動体情報提供プログラム - Google Patents

移動体情報提供システム及び移動体情報提供プログラム Download PDF

Info

Publication number
WO2018062535A1
WO2018062535A1 PCT/JP2017/035649 JP2017035649W WO2018062535A1 WO 2018062535 A1 WO2018062535 A1 WO 2018062535A1 JP 2017035649 W JP2017035649 W JP 2017035649W WO 2018062535 A1 WO2018062535 A1 WO 2018062535A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
mobile body
data
body information
time
Prior art date
Application number
PCT/JP2017/035649
Other languages
English (en)
French (fr)
Inventor
山田 貴之
雄一 藤本
敏彦 小山
幸弘 南
Original Assignee
アジア航測株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アジア航測株式会社 filed Critical アジア航測株式会社
Priority to JP2018542965A priority Critical patent/JP6707654B2/ja
Priority to EP17856482.9A priority patent/EP3520684A4/en
Priority to US16/338,326 priority patent/US11400342B2/en
Priority to CN201780060858.9A priority patent/CN109788910B/zh
Publication of WO2018062535A1 publication Critical patent/WO2018062535A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1112Global tracking of patients, e.g. by using GPS
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • G01C22/006Pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • G01S19/19Sporting applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/43Determining position using carrier phase measurements, e.g. kinematic positioning; using long or short baseline interferometry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/10Athletes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B2243/00Specific ball sports not provided for in A63B2102/00 - A63B2102/38
    • A63B2243/0025Football

Definitions

  • the present invention relates to a mobile information providing system.
  • the living body information monitoring system of Patent Document 1 causes a subject to wear a living body information transmitting terminal that detects and transmits living body information and a current position, and a living body information measuring device at a remote location detects the living body information and the current position. It is disclosed that these are received and displayed in association with each other (see paragraphs [0050] to [0054] and [0059]).
  • the position detection interval by the GPS receiver is 1 second, and a subject whose movement speed is high moves several meters to several tens of meters in 1 second.
  • the biological information monitoring system described in Patent Document 1 transmits the current position and biological information from the biological information transmitting terminal at intervals of 1 second, and the biological information measuring device receives them and displays them on the screen. Are displayed in association with each other.
  • Patent Document 1 has a problem that it is impossible to grasp the condition of the subject between the previous position and the current position. For example, when the subject moves quickly, the situation during that time cannot be grasped in detail.
  • the present invention has been made in view of such circumstances, and a moving body that can grasp at a glance a detailed situation between the previous position and the current position of the moving body detected by a GPS receiver.
  • the purpose is to obtain an information provision system.
  • the mobile information providing system of the present invention is A mobile body information detection terminal that is mounted on a mobile body and detects a state of the mobile body and a mobile body information analysis device, and is wirelessly connected between the mobile body information analysis device and the mobile body information detection terminal.
  • a mobile information providing system for performing communication The mobile body information detection terminal is A position obtained based on the system time synchronized with the raw data of the GNSS data that is the origin of the position detection or the system time and the raw data after performing the initial time adjustment with the time of the mobile information analyzer Means for generating a set of data as mobile information, Means for transmitting the mobile body information to the mobile body information analyzer,
  • the mobile body information analyzer is A storage unit for position calculation data; (A).
  • the mobile body information analysis apparatus displays on the screen in real time a finer interval position than the position detected by the GNSS module, what kind of movement the mobile body next moves to the user watching the screen. It can be made to grasp in detail.
  • the fine position and position data are positions based on correction data from the RTK reference station, the precision is high and this precision can always be maintained.
  • the mobile body information analyzing apparatus when the mobile body is a living body, the biological information is displayed in association with the minute interval positions, so that the user viewing the screen can see the living body of the moving body at the minute interval positions. It can be grasped at a glance.
  • the mobile body information analysis device includes mobile body state information such as biological information, posture, and acceleration in the mobile body information from the mobile body information detection terminal
  • the mobile body information analysis device moves with the biological information. Display on the screen in association with body condition information.
  • the moving body information analyzing apparatus determines at what point the player was moving, It is possible to grasp the situation of each of the detected positions.
  • the analysis result providing apparatus displays the mobile body biological information and mobile body state information from the desired mobile body information detection terminal in association with the screen of the mobile terminal. Can do. Therefore, it is possible to provide more situations (current conditions) such as biological information and moving body state information of moving bodies in real time.
  • FIG. 1 is a schematic configuration diagram of a mobile information providing system according to the first embodiment.
  • FIG. 2 is an explanatory diagram of device management in the display device (tablet).
  • FIG. 3 is an explanatory diagram of the association between a user and a wearable device.
  • FIG. 4 is a flowchart showing the initial operation of the wearable device.
  • FIG. 5 is a flowchart when the wearable device transmits to the tablet.
  • FIG. 6 is a flowchart when the wearable device retransmits to the tablet.
  • FIG. 7 is a flowchart of processing in the tablet.
  • 8 (a) to 8 (c) are for explaining a specific example of step T29 in FIG. 7.
  • FIG. 8 (a) shows position information including the position acquisition time immediately before the game time.
  • FIG. 8 (a) shows position information including the position acquisition time immediately before the game time.
  • FIG. 8B is an explanatory diagram in the case of associating the position data of the position information including the position acquisition time immediately after the game time with FIG. 8C.
  • FIG. 8C is an explanatory diagram in the case of associating position data between position data of position information including the immediately preceding position acquisition time and position data of position information including the immediately following position acquisition time to the game time.
  • 9 (a) to 9 (c) are for explaining a specific example of step T31 in FIG. 7.
  • FIG. 9 (a) shows the movement including the previous sensor data acquisition time with respect to the game time.
  • FIG. 9B is an explanatory diagram in the case of associating the sensor data of the mobile body information including the immediately following sensor data acquisition time with the game time.
  • FIG. 10 is a diagram showing an example of wearing a wearable device in the mobile information provision system according to the second embodiment.
  • FIG. 11 is a schematic configuration diagram illustrating a specific example of the mobile information providing system.
  • FIG. 12 is a diagram illustrating an example of mobile object information.
  • FIG. 13 is a diagram illustrating an example of mobile object information request information.
  • FIG. 14 is a diagram illustrating an example of position-attached moving body information analysis result display control data.
  • FIG. 15 is a diagram illustrating an example of the moving body analysis result information.
  • FIG. 16 is a diagram illustrating a display example of a mode selection screen on a tablet.
  • FIG. 17A is a diagram showing an example of actual participant input information
  • FIG. 17B is a diagram showing an example of actual participant user pairing information
  • FIG. It is a figure which shows an example of user communication preparation registration completion information
  • FIG.17 (d) is a figure which shows an example of basic information according to a competition actual participating user.
  • 18A and 18B show an example of user basic registration information.
  • FIG. 18A shows a display example of a registration screen for a user list (user manager basic information).
  • FIG. 18B is a diagram showing a display example of a registration screen for user basic information.
  • FIG. 19 is a diagram illustrating a display example of the input screen for requesting moving body information.
  • FIG. 20 is a diagram illustrating an example of mobile body information analysis request input information.
  • FIG. 21 is a diagram illustrating an example of a transmission pattern.
  • FIG. 22 is a diagram illustrating a display example of a fine position.
  • FIG. 23 is a block diagram illustrating the concept of operation of the wearable device.
  • FIG. 24 is a schematic configuration diagram illustrating a specific example of an analysis result providing apparatus.
  • FIG. 25 is a diagram illustrating an example of the fine position data information.
  • FIG. 26 is a diagram illustrating a display example of the analysis screen.
  • FIG. 27 is a schematic diagram showing the format configuration of the analysis data memory.
  • FIG. 28 is a sequence diagram for explaining the overall operation of the mobile information providing system (part 1).
  • FIG. 28 is a sequence diagram for explaining the overall operation of the mobile information providing system (part 1).
  • FIG. 28 is a sequence diagram for explaining the overall operation of the mobile information providing system (part 1).
  • FIG. 28 is a sequence diagram for explaining the
  • FIG. 29 is a sequence diagram for explaining the overall operation of the mobile information provision system (part 2).
  • FIG. 30 is a sequence diagram for explaining the overall operation of the mobile information providing system (part 3).
  • FIG. 31 is a flowchart for explaining processing of the mobile information receiving server.
  • FIG. 32 is a flowchart for explaining the fine position data record generation processing.
  • FIG. 33 is a flowchart for explaining the fine position calculation processing (part 1).
  • FIG. 34 is a flowchart for explaining the fine position calculation processing (part 2).
  • FIG. 35 is a flowchart for explaining processing in the mobile information report associating unit.
  • FIG. 36 is a diagram illustrating a display example of the analysis result.
  • FIG. 37 is a schematic configuration diagram illustrating a specific example of a wearable device.
  • FIG. 37 is a schematic configuration diagram illustrating a specific example of a wearable device.
  • FIG. 38 is a schematic diagram illustrating functional blocks of a control unit in the main control module of the wearable device.
  • FIG. 39 is a timing chart for explaining the operation of the wearable device.
  • FIG. 40 is a schematic configuration diagram of the mobile object information providing system according to the third embodiment.
  • FIG. 41 is a schematic configuration diagram of an RTK reference station in the mobile information providing system.
  • FIG. 42 is a schematic program configuration diagram of the control unit of the RTK wearable device.
  • FIG. 43 is a schematic configuration diagram of an analysis result providing apparatus for RTK.
  • FIG. 44 is a diagram illustrating a mounting example of a collection device applicable to the mobile body information providing system.
  • FIG. 45 is a schematic diagram showing another configuration example of the wearable device in the mobile information provision system.
  • a mobile body information detection terminal mounted on a moving non-living body such as a drone, a robot, or a heavy machine such as an agricultural machine or a construction machine
  • a description will be given of a mobile body information providing system including a display device that is close to the mobile body information detection terminal and an analysis result providing device that is a remote location with respect to the mobile body information detection terminal and the display device.
  • the display device and the analysis result providing device are collectively referred to as a moving body information analysis device (external device).
  • the aforementioned living body and non-living body are collectively referred to as a moving body.
  • the living body is preferably a marathon player, rugby player, soccer player, table tennis player, athlete such as a bicycle race, or an animal.
  • FIG. 1 is a schematic configuration diagram of a mobile information providing system according to the first embodiment.
  • the mobile body information providing system includes a band-type mobile body information detection terminal (hereinafter referred to as “wearable device 1”) attached to a player SPi (mobile body) that is a living body, and a portable personal computer.
  • a tablet 2 will be used in the embodiment.
  • the wearable device 1 described above performs wireless communication with the tablet 2 according to a wireless communication standard, for example.
  • the tablet 2 can communicate with the analysis result providing apparatus 3 arranged in the cloud or the like via the Internet network N.
  • Wearable device 1 is worn by each of a plurality of athletes SPi.
  • the wearable device 1 is used by being worn on the wrist of each player SPi, for example.
  • a player SPi who competes in the field wears the wearable device 1 and performs a competition or practice.
  • the wearable device 1 includes a wireless communication module (hereinafter referred to as “wireless module 11”), a battery module 12, a main control module 13, and an output module 14. Further, a plurality of sensor modules are provided.
  • wireless module 11 a wireless communication module
  • battery module 12 a battery module 12
  • main control module 13 a main control module 13
  • output module 14 a plurality of sensor modules are provided.
  • These sensor modules include, for example, a position sensor 15 (also referred to as a GNSS (Global Navigation System) module, which is a highly sensitive position information detection sensor), a biological information detection sensor 16, an environmental information detection sensor 17, and a moving body state information. It consists of a detection sensor 18 and the like.
  • GNSS Global Navigation System
  • the position sensor 15 is a satellite positioning system module such as GPS (Global Positioning System) that performs positioning using a GNSS satellite AS1 described later.
  • GPS Global Positioning System
  • the biological information detection sensor 16 includes various sensors such as a heart rate sensor and a pulse sensor that detect biological information such as a heart rate and a pulse rate of the athlete SPi.
  • the environmental information detection sensor 17 includes various sensors such as an atmospheric pressure sensor and a temperature sensor that acquire ambient information such as atmospheric pressure and temperature around the player SPi.
  • the moving body state information detection sensor 18 is a 9-axis sensor (also referred to as a moving body state detection module) that detects the posture, speed, etc. of the player SPi.
  • the 9-axis sensor includes a gyro sensor (3 axes), an acceleration sensor (3 axes), a geomagnetic sensor (3 axes), and the like.
  • the main control module 13 includes a storage unit 131 (also referred to as a device-side position calculation data storage unit (330)), a control unit 132, and an interface (not shown) that connects the two.
  • a storage unit 131 also referred to as a device-side position calculation data storage unit (330)
  • a control unit 132 also referred to as a device-side position calculation data storage unit (330)
  • an interface not shown
  • the output module 14 includes, for example, an LED lamp, a vibrator, a sound reproducing device (speaker or buzzer), and the like.
  • the battery module 12 includes a battery and a battery.
  • the tablet 2 is, for example, a tablet-type computer (mobile phone) used by the team manager MG or coach who wants to grasp the position of the athlete SPi and the fatigue condition in the vicinity of the athlete SPi (in front of the bench, etc.). Terminal).
  • a tablet-type computer mobile phone used by the team manager MG or coach who wants to grasp the position of the athlete SPi and the fatigue condition in the vicinity of the athlete SPi (in front of the bench, etc.). Terminal).
  • the tablet 2 includes a tablet-side wireless module 21, a collection analysis application unit 22, a mobile data communication unit 23, and a storage unit (hereinafter referred to as “tablet-side storage unit 24”).
  • the tablet-side storage unit 24 is also referred to as a first position calculation data storage unit (330).
  • the tablet 2 can be connected to the Internet network N by the mobile data communication unit 23 via an antenna installed by a communication carrier.
  • the analysis result providing apparatus 3 can also be connected to the Internet network N. Thereby, the tablet 2 and the analysis result providing apparatus 3 can communicate with each other.
  • the analysis result providing device 3 is, for example, an application service unit that provides information for performance measurement of the athlete SPi, sensor correction, SNS (social networking service), human resource matching, medical care of the athlete SPi, training of the athlete SPi, etc. 31 and a database 32 that stores personal data, team data, environmental data, and analysis data of the athlete SPi.
  • FIG. 2 is an explanatory diagram of device management in the tablet 2.
  • the tablet 2 detects the wearable device 1 on the transmission side (step S1), and the tablet 2 with respect to the user interface (UI) of the wearable device 1 Is connected (step S3).
  • the tablet 2 has information unique to the wearable device 1 (in the case of Bluetooth (registered trademark), or in the case of device address, Wi-Fi (registered trademark), or MAC address, and information unique to the wireless module).
  • a profile unique to the software of wearable device 1 is acquired (step S5).
  • the device address, MAC address, and unique profile, which are the above-mentioned unique information, are collectively referred to as wearable device identification information.
  • step S7 the unique information is displayed in a list on a screen (not shown) (step S7), and the wearable device 1 is selected as a registration candidate for the user interface (UI) of the wearable device 1. Notification is made (step S9).
  • step S11 the supervisor MG visually checks the list (step S11) and inputs a user judgment as to whether or not to register (step S13). If registration is input (step S15: YES), the wearable device 1 is registered (step S17). At this time, as information on the wearable device 1, unique information and a device name (arbitrary name) are registered in the cloud (step S19), and the user interface (UI) of the wearable device 1 is notified of the completion of registration (step S19). S21).
  • FIG. 3 is an explanatory diagram of the association between a user and a wearable device.
  • the tablet 2 acquires a user information list and a device information list from the analysis result providing apparatus 3 installed in the cloud (step S31).
  • step S33 the user information list and the device information list are displayed on a screen (not shown) (step S33), and the user of the tablet 2, for example, the supervisor MG visually confirms (step S35), and the user of the tablet 2 performs the association? A user judgment as to whether or not is entered (step S37).
  • step S41 When the user judgment to perform the association is input (step S39: YES), the association process is performed (step S41). At that time, the user ID and the wearable device ID are registered in the cloud as association information (step S43), and when the wearable device 1 and the tablet 2 are connected, the user interface (UI) of the wearable device 1 is The completion of association is notified (step S45).
  • FIG. 4 is a flowchart showing the initial operation of the wearable device 1.
  • the control unit 132 When the wearable device 1 is activated, the control unit 132 requests date / time information from the position sensor 15 (step S51). Thereby, the position sensor 15 outputs a response to the control unit 132 with, for example, Raw data or GNSS data in the form of NMEA (NationalNMarine Electronics Association) (T1).
  • NMEA NationalNMarine Electronics Association
  • control unit 132 determines the presence / absence of date / time information in the response (step S55). If there is no date / time information, the control unit 132 waits for a response to be output next and receives the response. (Step S53).
  • control unit 132 performs a checksum in the GNSS data format (step S57), and if the checksum is NG, waits for and receives the next response (step S53).
  • control unit 132 checks the syntax of the GNSS data (step S59). If the syntax check is NG, the control unit 132 waits for and receives the next response (step S53).
  • the control unit 132 extracts date and time information from the response (step S61), and determines whether or not the date and time information is a GNSS time (date and time that is not 1980, that is, the current date and time) (step S63). . If it is not the GNSS time, the next response is waited for and received (step S53).
  • GNSS time date and time that is not 1980, that is, the current date and time
  • the control unit 132 determines whether the three digits below the decimal point (1 sec or less) are an integer multiple of 000 or 100 (step S65). If the three digits after the decimal point are neither 000 nor an integer multiple of 100, the next response is waited for and received (step S53).
  • the control unit 132 matches the time (referred to as the system time) of the internal timer (132i) that the control unit 132 has as the system clock with the GNSS time (step S67). .
  • the processing time from step S53 to step S67 is about 10 and several msec.
  • control unit 132 receives the frame header output from the position sensor 15 (step S71), and determines whether or not the header includes a 1PPS signal (clock waveform once per second) (step S73). ). If the 1PPS signal is not included, the next signal is waited for and received (step S71).
  • control unit 132 sets all the decimal points (less than 1 sec) of the system time to zero, adds 1 sec to the system time (step S75), and finishes the initial operation.
  • step S71 to step S75 The processing time of step S71 to step S75 is about less than 1 msec.
  • the GNSS time transmitted together with the position data from the position sensor 15 will always coincide with the system time at the time of reception.
  • FIG. 5 is a flowchart when the wearable device 1 transmits mobile body information, position information, and ID to the tablet 2.
  • the control unit 132 of the main control module 13 requests position data from the position sensor 15 (step S81). Thereby, the position sensor 15 transmits the position data and the GNSS time to the control unit 132 every 1 sec.
  • the control unit 132 uses the GNSS time as the position acquisition time, generates position information including the position data and the ID indicating the player SPi wearing the wearable device 1. In association with (identification information), for example, it is stored in the storage unit 131 (step S85). Further, the position information and ID are transmitted to the tablet 2 (step S87).
  • sensor data (SDi) of moving body information such as biological information, environmental information, and moving body state information is transmitted from the sensors other than the position sensor 15 to the control unit 132 at a specific timing.
  • control unit 132 acquires the system time (step S91) and receives the atmospheric pressure (step S92), the control unit 132 generates environment information including the sensor data of the atmospheric pressure and the system time when the atmospheric pressure is acquired, and stores the environment information in the ID.
  • the data are associated and stored in the storage unit 131 (step S93).
  • environment information and ID are transmitted to the tablet 2 (step S94).
  • this system time is also referred to as sensor data acquisition time.
  • control unit 132 obtains the system time (step S95), and receives the attitude value (step S96), the sensor data of this attitude value and the system time (sensor data acquisition time) at which the sensor data was obtained. Is generated and associated with the ID and stored in the storage unit 131 (step S97). Moreover, mobile body state information and ID are transmitted to the tablet 2 (step S98).
  • the control unit 132 acquires the system time (step S99) and receives the acceleration (step S100), the control unit 132 obtains the sensor data of the acceleration and the system time (sensor data acquisition time) that acquired the acceleration.
  • the mobile body state information is generated and stored in the memory area 131a of the storage unit 131 in association with the ID (step S101). Moreover, mobile body state information and ID are transmitted to the tablet 2 (step S102).
  • the posture value, acceleration, direction, and the like described above are referred to as moving body state information.
  • control unit 132 acquires the system time (step S103), and if the heart rate is received (step S104), the sensor data of the heart rate and the system time (sensor data acquisition time) of acquiring the sensor data. Is generated and associated with the ID and stored in the storage unit 131 (step S105). Moreover, biometric information and ID are transmitted to the tablet 2 (step S106).
  • control unit 132 acquires the system time (step S107), and if the temperature is received (step S108), the sensor data of the temperature and the system time (sensor data acquisition time) that acquired the temperature are obtained.
  • the environmental information including is generated and stored in the storage unit 131 in association with the ID (step S109). Moreover, environment information and ID are transmitted to the tablet 2 (step S110).
  • control unit 132 acquires the system time (step S111), and if the pulse rate is received (step S112), the sensor data of the pulse rate and the system time (sensor data acquisition time) at which the pulse rate is acquired. Is generated and associated with the ID and stored in the storage unit 131 (step S113). Moreover, biometric information and ID are transmitted to the tablet 2 (step S114), and it returns to step S83.
  • the biological information, the environment information, and the moving body state information (9 axes) are collectively referred to as moving body information.
  • FIG. 6 is a flowchart when the wearable device 1 retransmits the mobile body information, the position information, and the ID that the tablet 2 could not receive to the tablet 2.
  • the tablet 2 transmits a request designating a period during which the mobile object information, the position information, and the ID cannot be received to the wearable device 1 (T10). For example, when the length of the period (for example, 1 sec interval) is determined in advance, the start time of the period is designated.
  • the length of the period for example, 1 sec interval
  • step S131 If the control unit 132 of the main control module 13 of the wearable device 1 receives the request (step S131: YES), the mobile unit information including the system time (sensor data acquisition time) included in the period specified in the request and the ID In addition, the position information including the position acquisition time included in the period and the ID are read from the storage unit 131 (step S133), and the mobile object information, the position information, and the ID are transmitted to the tablet 2 (step S135). Return to S131.
  • the tablet 2 can acquire the mobile body information and ID and the position information and ID that could not be received due to a communication failure or the like.
  • FIG. 7 is a flowchart of processing in the tablet 2.
  • the tablet-side wireless module 21 of the tablet 2 receives position information and ID from the wearable device 1 (step T11), receives environment information and ID including atmospheric pressure (step T12), and mobile body state information including posture value and ID is received (step T13), mobile body state information including acceleration and ID are received (step T14), biological information including heart rate and ID are received (step T15), environmental information including temperature and ID are received. It receives (step T16), and receives the biological information including the pulse rate and the ID (step T17).
  • the collection analysis application unit 22 of the tablet 2 performs the following processing for each ID when a game such as soccer is completed.
  • a record including the game time is generated in the tablet storage unit 24 for each time in 100 msec units (hereinafter referred to as game time) during the game, that is, for each preset time (step T21). .
  • the position acquisition time of the received position information and the sensor data acquisition time of the received moving body information are rounded to 100 msec (step T23). You may calculate the time difference before and after rounding.
  • position information including the same position acquisition time as the game time is searched for each record, position data is read from the position information, and stored in the record (step T25).
  • position data is stored for each record that does not include position data (referred to as a target record) (step T29).
  • a record that includes position data and that has a game time that is earlier than the game time of the target record and that is closest to the game time of the target record is searched, and is the same as the position data of the searched record Store the position data in the target record. That is, the position data of the position information including the immediately preceding position acquisition time is associated with the game time.
  • the game time of the target record is YYYY / MM / DD: HH: MM: 01.200
  • the game time of the retrieved record is YYYY / MM / DD: HH: MM: If it is 01.100 and includes latitude E1 and longitude N1, latitude E1 and longitude N1 are stored in the target record.
  • a record including position data and having a game time later than the game time of the target record and including the game time closest to the game time of the target record is searched, and the same position data as the position data of the searched record is obtained.
  • the position data of the position information including the position acquisition time immediately after the game time is associated with the game time.
  • the game time of the target record is YYYY / MM / DD: HH: MM: 01.200
  • the game time of the retrieved record is YYYY / MM / DD: HH: MM: If it is 01.300 and includes latitude E2 and longitude N2, latitude E2 and longitude N2 are stored in the target record.
  • a record including position data and having a game time earlier than the game time of the target record and including a game time closest to the game time of the target record is searched, the position data is included, and the game time of the target record
  • a record including a game time which is the latest game time and closest to the game time of the target record is searched, and position data indicating a position between positions indicated by position data of the two searched records is stored in the target record. . That is, position data between the position data of the position information including the immediately preceding position acquisition time and the position data of the position information including the immediately following position acquisition time is associated with the game time.
  • the game time of the target record is YYYY / MM / DD: HH: MM: 01.200
  • the game time of one of the retrieved records is YYYY / MM / DD: HH: MM: 01.100, which includes latitude E1, longitude N1
  • the match time of the other record searched is YYYY / MM / DD: HH: MM: 01.300, and includes latitude E2, longitude N2,
  • the position data stored in the record having no position data is an average of the position data of the position information including the immediately preceding position acquisition time and the position data of the position information including the immediately following position acquisition time. Note that the process shown in FIG. 8C may be omitted if unnecessary.
  • sensor data is stored for each record (referred to as a target record) that does not include sensor data (step T31).
  • a record that includes sensor data and that has a game time earlier than the game time of the target record and includes a game time that is closest to the game time of the target record is searched, and the same sensor data as the sensor data of the searched record is the target record Remember me. That is, the sensor data of the moving body information including the previous sensor data acquisition time is associated with the game time.
  • the game time of the target record is YYYY / MM / DD: HH: MM: 01.200
  • the game time of the retrieved record is YYYY / MM / DD: HH: MM: If it is 01.100 and includes the heart rate “54”, the heart rate “54” is stored in the target record.
  • a record that includes sensor data and that has a game time that is later than the game time of the target record and that includes a game time that is closest to the game time of the target record is searched, and the same sensor data as the sensor data of the searched record is obtained.
  • the sensor data of the moving body information including the immediately following sensor data acquisition time is associated with the game time.
  • the game time of the target record is YYYY / MM / DD: HH: MM: 01.200
  • the game time of the retrieved record is YYYY / MM / DD: HH: MM: If it is 01.300 and includes the heart rate “63”, the target record stores the heart rate “63”.
  • a record including sensor data and having a game time earlier than the game time of the target record and including the game time closest to the game time of the target record is searched, the sensor data is included, and the game time of the target record
  • a record including a game time that is the latest game time and closest to the game time of the target record is retrieved, and sensor data between the sensor data of the two retrieved records is stored in the target record. That is, sensor data between the sensor data of the moving body information including the immediately preceding sensor data acquisition time and the sensor data of the moving body information including the immediately following sensor data acquisition time are associated with the game time.
  • the game time of the target record is YYYY / MM / DD: HH: MM: 01.200
  • the game time of one of the retrieved records is YYYY / MM / DD: HH: If MM: 01.100, including heart rate “54”, the match time of the other record searched is YYYY / MM / DD: HH: MM: 01.300, and including heart rate “63”
  • the sensor data stored in the record having no sensor data is an average of the sensor data of the mobile object information including the immediately preceding sensor data acquisition time and the sensor data of the mobile object information including the immediately following sensor data acquisition time. Note that the process shown in FIG. 9C may be omitted if unnecessary.
  • all records include position data and sensor data. That is, the position data and sensor data at the same time are obtained for the game time of each record.
  • the collection analysis application unit 22 transmits information of all records to the analysis result providing device 3 via the mobile data communication unit 23, for example.
  • the application service unit 31 of the analysis result providing apparatus 3 receives information on all records and performs various information analysis.
  • the player SPi is a soccer player SPai
  • position data and acceleration (sensor data) at the same time are obtained for a certain same ID (same soccer player SPai). If a lot of relatively high acceleration is linked to specific position data (for example, the position before the enemy team goal), the soccer player SPai has excellent instantaneous power at the position before the enemy team goal, and the forward It can be judged that it is suitable for the position.
  • a relatively high heart rate or pulse rate is associated with specific position data (for example, the position before the own team goal) regardless of the ID, the team is required before the own team goal. It can be determined that there is a possibility of being upset.
  • the soccer player SPai It can be judged that there is little contact with the enemy player in the vicinity and that it is suitable for the position of the side back.
  • the application service unit 31 of the analysis result providing apparatus 3 transmits the analysis result to the tablet 2, and the tablet 2 displays the analysis result on a display unit or the like.
  • the manager MG or coach who sees this can use the analysis result to change the player or change the strategy.
  • the ID is used for distinguishing the players. However, when the distinction is unnecessary, the ID is not necessary. For example, when obtaining position data and sensor data at the same time for a single player (biological body) who performs a track competition, an ID is not necessary. Further, the rounding process in steps T25 and T27 may be omitted.
  • the mobile body information providing system includes the wearable device 1 attached to the mobile body and the tablet 2 that can communicate with the wearable device 1, and the wearable device 1 is a mobile device.
  • a position sensor 15 that acquires body position data
  • a biological information detection sensor 16 that acquires biological information of the moving body
  • an environmental information detection sensor 17 that acquires environmental information such as atmospheric pressure and temperature around the moving body
  • movement And a moving body state information detection sensor 18 for acquiring moving body state information such as the posture and speed of the body.
  • main information for sequentially transmitting position information including position data and position acquisition time when the position data is acquired, and mobile body information including sensor data and sensor data acquisition time when the sensor data is acquired to the tablet 2
  • a control module 13 is provided.
  • the tablet 2 includes a collection analysis application unit 22.
  • the collection analysis application unit 22 includes sensor data acquisition time immediately before or after the time (game time) with respect to a preset time (game time in the above example).
  • the sensor data of the moving body information is associated (step T31).
  • the position data of the position information including the position acquisition time immediately before or after the time (game time) is associated with the time (game time) (step T29). Therefore, the position data and sensor data of the moving body at substantially the same time can be obtained from each record in the above example.
  • the collection analysis application unit 22 detects the sensor data between the sensor data of the mobile body information including the sensor data acquisition time immediately before the time (game time) and the sensor data of the mobile body information including the sensor data acquisition time immediately after. (Step T31). In addition, position data between the position data of the position information including the position acquisition time immediately before the time (game time) and the position data of the position information including the position acquisition time immediately after the time is associated (step T29). Therefore, the position data and sensor data of the moving body at substantially the same time can be obtained from each record in the above example.
  • the sensor data between the sensor data of the mobile object information including the immediately preceding sensor data acquisition time and the sensor data of the mobile object information including the immediately following sensor data acquisition time is the mobile object information including the immediately preceding sensor data acquisition time. Is the average of the sensor data of the moving body information including the sensor data and the immediately following sensor data acquisition time. Therefore, sensor data (average) can be stored in each record of the above example, and thereby, the position data and sensor data of the moving body at substantially the same time can be obtained.
  • the position data between the position data of the position information including the immediately preceding position acquisition time and the position data of the position information including the immediately following position acquisition time are the position data of the position information including the immediately preceding position acquisition time It is the average of the position data of the position information including the position acquisition time. Therefore, position data (average) can be stored in each record of the above example, and thereby, position data and sensor data of the moving body at substantially the same time can be obtained.
  • the tablet 2 is a communication device capable of communicating with the wearable device 1 attached to the mobile object, and the collection analysis application unit 22 acquires the position data of the mobile object and the position data from the wearable device 1.
  • the mobile body information including the positional information including the acquisition time, the sensor data indicating the mobile body or the surrounding state, and the sensor data acquisition time when the sensor data was acquired is received (steps T11 to T17).
  • the sensor data of the mobile body information including the sensor data acquisition time immediately before or after the time (game time) is associated with the preset time (game time in the above example) (step T31).
  • the position data of the position information including the position acquisition time immediately before or after the time (game time) is associated with (game time) (step T29). Therefore, the position data and sensor data of the moving body at substantially the same time can be obtained from each record in the above example.
  • the computer program for causing the computer to function as the wearable device 1 or the tablet 2 can be recorded on a computer-readable recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, a magnetic tape, and the like. It can be distributed widely through transmission via a communication network.
  • a computer-readable recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, a magnetic tape, and the like. It can be distributed widely through transmission via a communication network.
  • the wireless communication protocol may be Wi-Fi (registered trademark) or Bluetooth (registered trademark), but in the second embodiment, it will be described as Bluetooth (registered trademark).
  • the mobile body information providing system analyzes, for example, the situation of soccer players SPai (SPa1, SPa2,%) Of a plurality of soccer fields Ai, and provides the analysis results to the tablet 2, the external member terminal D, and the like.
  • SPai soccer players
  • SPa2 soccer players
  • FIG. 11 a single soccer field Ai will be described as an example.
  • the cloud will be described as an analysis result providing device 3 of an analysis center C connected to the Internet network N.
  • FIG. 11 is a schematic configuration diagram showing a specific example of the mobile object information providing system according to the second embodiment.
  • the mobile body information providing system includes a plurality of wearable devices 1 respectively attached to the wrists of soccer players SPai (SPa1, SPa2,...) Of a soccer field Ai, and a tablet carried by a manager MG or the like. 2 and an analysis result providing device 3 of the analysis center C. Further, the analysis result of the analysis result providing device 3 of the analysis center C may be browsed by a plurality of member terminals D, for example. .
  • the analysis result providing apparatus 3 of the analysis center C and the tablet 2 are connected by the Internet N, and each wearable device 1 and the tablet 2 are wirelessly communicated such as Bluetooth (registered trademark) or Wi-Fi (registered trademark). Connected with protocol.
  • the tablet 2 and the analysis result providing device 3 of the analysis center C are collectively referred to as a moving body information analyzing device 30.
  • the wearable device 1 may be mounted on, for example, the uniform UF of each soccer player SPai.
  • the sensor data SDi that can be sensed is referred to as biological information SEJi and moving body state information.
  • the biological information SEJi is a heart rate, a pulse rate, a body temperature, and so on.
  • the moving body state information is information such as an attitude value, acceleration, and direction detected by the 9-axis sensor (moving body state information detection sensor) (shows movement).
  • 9-axis sensor moving body state information detection sensor
  • “moving body state information” will be described as 9-axis sensor information eJi.
  • Embodiment 2 will be described assuming that a shooting camera 40 for shooting a soccer field Ai is provided at an appropriate location on the soccer field Ai, for example, as shown in FIG.
  • a plurality of the photographing cameras 40 are preferable, and each of the photographing cameras 40 is installed at an appropriate place where the soccer field Ai is photographed from the top, the side, the slant, and the like.
  • a pseudo-planar image (illustration) of the soccer field Ai is used.
  • the position sensor 15 will be described as a GNSS module (GPS module).
  • the wearable device 1 performs biometric information SEJi (heart rate, body temperature, etc. And 9-axis sensor information eJi (acceleration, posture value) acquired at regular intervals after performing initial time synchronization processing, pairing initial setting processing, and the like.
  • Direction is associated with position data (latitude Ei, longitude Ni) of the position sensor 15 which is a GNSS module, system time STi, and the like.
  • the wireless module 11 transmits it to the tablet 2 using the Bluetooth (registered trademark) protocol.
  • the position data is referred to as a detection position Pi.
  • the mobile body information DSJi is transmitted to the tablet 2 in a pattern based on a transmission pattern PTi from the tablet 2 described later.
  • the mobile object information DSJi includes a wearable device ID, a tablet ID, a name (name code), a detection position Pi, a system time STi, biological information SEJi, 9-axis sensor information eJi, and the like.
  • the map position GPi is used as the detection position Pi.
  • system time STi is set to match the internal timer (not shown) of the analysis center C and the tablet 2 with the initial time.
  • Biological information SEJi and 9-axis sensor information eJi are collectively referred to as sensor data SDi (see FIG. 12).
  • the mobile body information DSJi may include the detection position Pi, its acquisition (detection) time, and the like.
  • the system time STi is preferably, for example, an interval of 100 msec.
  • the detection positions Pi in the 1PPS signal are output at intervals of 1 sec, for example.
  • the sensor data SDi is all of heart rate, pulse rate, body temperature,..., Any combination thereof, or any one of them that can be acquired at the present time.
  • the 9-axis sensor information eJi is all the posture values, accelerations, and directions that the wearable device 1 can acquire at the present time, or any combination thereof, or any one of them.
  • the biological information SEJi and the 9-axis sensor information eJi may include an acquisition time at the time of detection.
  • the acquisition time is preferably the system time STi.
  • the tablet 2 After performing pairing initial setting processing and the like with each wearable device 1, the tablet 2 sends mobile body information request information YDJi (see FIG. 13) for requesting the mobile body information DSJi to each of the wearable devices 1. Send at the same time.
  • mobile body information DSJi (see FIG. 12) corresponding to this mobile body information request information YDJi (see FIG. 13) is acquired, and the obtained mobile body information DSJi (see FIG. 12) is analyzed by the Internet protocol.
  • the tablet 2 receives the display control data PKJi (including the camera image CGi) transmitted from the analysis result providing apparatus 3 shown in FIG. 14 using the Internet protocol, and displays them on the screen.
  • the display control data PKJi including the camera image CGi
  • the analysis result providing device 3 of the analysis center C receives the mobile body information DSJi (see FIG. 12) from the tablet 2 and, for example, based on the mobile body information DSJi and the past mobile body information DSJi, The current situation of the players SPa1, SPa2, SPa3,... Is analyzed.
  • the analysis result providing device 3 is based on the moving body information analysis result information KDJi (see FIG. 15) that summarizes the analysis results, and the positions (for example, detection) of the soccer players SPa1, SPa2, SPa3,.
  • Display control data PKJi (simply referred to as control data) to which the position Pi) is added is generated and transmitted to the tablet 2 via the Internet network N.
  • the tablet 2 can display the moving body information DSJi (see FIG. 12) from the wearable device 1 and the detection position Pi at the same time in association with each other. It is possible to inform the manager MG in real time of the current situation (position, living body, movement, etc.) of the soccer players SPa1, SPa2, SPa3,.
  • the collection analysis application unit 22 of the tablet 2 includes a mode determination unit 221, a communication initial connection setting unit 223, a communication terminal side user list creation unit 224, a mobile object information transmission / reception unit 225, and an analysis.
  • the result display processing unit 226 and the like are included. Further, a description will be given assuming that a collection analysis application icon (not shown) indicating that the collection analysis application unit 22 is installed is displayed on the screen.
  • the above-mentioned tablet-side storage unit 24 includes a communication terminal-side user list memory 241, an actual participating user pairing information memory 242, a mobile object information memory 243, an analysis result receiving memory 246, and the like. Become.
  • the mode determination unit 221 displays a mode selection screen MGi on the screen when a position-attached mobile information providing tablet icon (not shown) on the screen is selected (see FIG. 16).
  • the communication initial connection setting unit 223 transmits pairing request information (tablet ID, model, manufacturer, time, etc.) to each wearable device 1 to perform pairing with each other, and pairing information PJi (see FIG. 13). To get.
  • pairing request information tablet ID, model, manufacturer, time, etc.
  • the communication initial connection setting unit 223 waits for output of mobile body information request information YDJi from the mobile body information transmitting / receiving unit 225 described later.
  • the actual participation user pairing information RPJi (see FIG. 17B) having the pairing information PJi included in the mobile body information request information YDJi is displayed.
  • pairing setting is performed using the Bluetooth (registered trademark) protocol.
  • the communication initial connection setting unit 223 is preferably activated immediately before entering the soccer field Ai, for example, when the soccer player SPai turns on the wearable device 1.
  • the communication initial connection setting unit 223 sequentially outputs the pairing information PJi to the communication terminal side user list creation unit 224.
  • the communication initial connection setting unit 223 includes a plurality of channels, and can simultaneously communicate with, for example, several wearable devices 1 at a time.
  • the wearable device ID refers to a soccer field name (code), a place name (code), a unique device number of the wearable device 1, a group name (code), a place (code), a random number, and the like.
  • the wearable device identification code that identifies which organization is the wearable device 1 that is used by which party.
  • the communication initial connection setting unit 223 is included in the mobile unit information DSJi. If the actual participating user pairing information RPJi (see FIG. 17B) having the wearable device ID is already registered in the actual participating user pairing information memory 242, this is accepted.
  • the communication initial connection setting unit 223 outputs the mobile body information DSJi to the mobile body information transmission / reception unit 225 and causes the analysis result providing apparatus 3 to transmit the mobile body information DSJi.
  • the communication terminal side user list creation unit 224 displays user registration information including the player name of the soccer player SPai and the wearable device ID of the wearable device 1 for enabling the provision of this service when activated.
  • user basic registration information UJi (see FIGS. 18A and 18B) is transmitted in advance to the analysis result providing apparatus 3 via the Internet N and registered.
  • the user basic registration information UJi may be registered in advance on the center side.
  • the communication terminal side user list creation unit 224 adds the name and the like to the pairing information PJi between the wearable device 1 and the tablet 2 worn by the soccer player SPai who actually participates in the competition.
  • User pairing information RPJi (see FIG. 17B) is registered in advance in the analysis result providing device 3 (may be during the competition).
  • the communication terminal side user list creation unit 224 displays the figure.
  • the real participant input screen ZGi shown in 17 (a) is displayed.
  • the communication terminal side user list creation unit 224 converts the information input on the real participant input screen ZGi in accordance with the selection of the completion button MGg on the real participant input screen ZGi into the real participant input information ZGJi (FIG. 17 ( a) see) is transmitted to the analysis result providing apparatus 3 via the Internet N.
  • the pairing information PJi held by the communication initial connection setting unit 223 is read from the communication initial connection setting unit 223 as the pairing information PJi having the wearable device ID and the tablet ID included in the basic information CDUJi for each actually participating user.
  • the basic information CDUJi by actual participating user includes a face photo of the soccer player SPai who actually participates in the competition, a wearable device ID of the wearable device 1 worn by the soccer player SPai, and the like.
  • the above-mentioned basic information CDUJi by actual participating user is preferably arranged in the order of team name and name.
  • the received pairing information PJi is associated with the received basic information for each participating user CDUJi, and the above-mentioned actual participating user pairing information RPJi of the soccer player SPai who is actually participating in the competition at present (see FIG. 17 (b)) is stored in the memory 242 for actual participating user pairing information.
  • the communication terminal side user list creation unit 224 reads the actual participating user pairing information memory 242 and displays the actual participating user pairing information RPJi on the screen.
  • the user of the tablet 2 (for example, the manager MG) can determine which soccer player SPai is currently paired with his / her name and face photo.
  • an actual participation user registration completion button (not shown) is selected.
  • the actual participation user communication preparation registration completion information REJi (see FIG. 17C) indicating that the communication preparation registration of the actual participation user is completed is output to the mobile body information transmitting / receiving unit 225.
  • the mobile body information transmission / reception unit 225 temporarily stores the actual participation user communication preparation registration completion information REJi (see FIG. 17C) when input from the communication terminal side user list creation unit 224. Then, it is determined whether or not the moving body information acquisition button MGf shown in FIG. 16 has been selected (in the moving body information acquisition mode).
  • the mobile body information transmitting / receiving unit 225 reads the camera image CGi from the analysis result providing apparatus 3 when the actual participation user communication preparation registration completion information REJi (see FIG. 17C) is input, and displays the screen of the tablet 2. You may make it perform the process displayed on. In order to acquire the camera image CGi, for example, a camera image display button (not shown) is displayed on the screen and is selected.
  • location name location code: soccer field name
  • organization name organization code
  • camera image designation information CPJi (tablet ID, soccer field, group name,%) With the date and time added thereto is generated and transmitted to the analysis result providing apparatus 3 via the Internet network N.
  • thumbnail image of the soccer field Ai from the analysis result providing device 3 for the camera image designation information CPJi is received via the Internet network N, and this is output and displayed on a screen (browser) (not shown).
  • the thumbnail image preferably has a camera number or camera ID.
  • the selected thumbnail image is set as camera image selection information CSJi (selected camera number, date, time) that includes the camera number, tablet ID, date, time, etc., via the Internet network N. And transmitted to the analysis result providing apparatus 3.
  • camera image selection information CSJi selected camera number, date, time
  • the camera image CGi corresponding to this camera image selection information CSJi is displayed in order on the camera image window on the screen.
  • the mobile body information transmitting / receiving unit 225 stores the actual participation user communication preparation registration completion information REJi (see FIG. 17C) from the communication terminal side user list creation unit 224 in the mobile body information memory 243.
  • Basic soccer body information analysis request input information KBJi (refer to FIG. 20) that determines what display is to be made, which soccer player is requested for the mobile body information DSJi (see FIG. 12) until what time (date and time zone Wti). It is determined whether or not is stored.
  • the mobile body information analysis request input information KBJi (see FIG. 20) is not stored in the mobile body information memory 243, the mobile body information request input screen KBGc shown in FIG. 19 is displayed on the screen.
  • this mobile body information request input screen KBGc includes an organization name (team name), an input field for a name field (wearable device ID), a date / time zone Wti (Wtpo to Wtri), and sensor acquisition. It consists of input fields such as type ki (all or selected), position display type Gki, and image type (camera or pseudo image).
  • the name column takes about three people as an example.
  • the mobile body information transmitting / receiving unit 225 creates the mobile body information analysis request input information KBJi using all wearable device IDs input to the mobile body information request input screen KBGc as wearable device ID parts.
  • the mobile body information transmitting / receiving unit 225 converts each set of information input to the mobile body information request input screen KBGc with the selection of a completion button (not shown) into the mobile body information analysis request input information KBJi (see FIG. 20). ) To the analysis result providing apparatus 3 via the Internet N and stored in the storage server 322 (to be described later) and stored in the mobile object information memory 243.
  • the mobile body information transmitting / receiving unit 225 includes as many areas (for sensor data) as the sensor acquisition types ki included in the mobile body information analysis request input information KBJi (see FIG. 20), the detection position Pi, and the system.
  • a transmission format having each area for writing the time STi and the like is generated as a transmission pattern PTi (see FIG. 21) for causing the wearable device 1 to create a transmission format.
  • a command for adding the acquired sensor data as a number (numerical string) is added to the transmission pattern PTi. That is, the real-time property is improved by shortening the communication time by preventing unnecessary items from being transmitted from the wearable device 1 side.
  • the mobile body information transmission / reception part 225 is a wearable device ID part and sensor acquisition classification ki (all or selection) only during the time zone Wti included in the mobile body information analysis request input information KBJi (see FIG. 20). And mobile body information request information YDJi (see FIG. 13) in which each information such as tablet ID is grouped.
  • the mobile body information transmitting / receiving unit 225 receives the mobile body information DSJi (see FIG. 12) corresponding to the mobile body information request information YDJi from the communication initial connection setting unit 223 every time it inputs from the wearable device 1.
  • the body information DSJi is received and transmitted to the analysis result providing apparatus 3 via the Internet network N.
  • the transmission of the mobile unit information request information YDJi and the mobile unit information DSJi is continued until the line connection is disconnected.
  • the analysis result display processing unit 226 requests what kind of sensor data SDi should be analyzed over what time (date and time zone Wti) of each information input on the input screen KBGc for requesting moving body information.
  • the body information analysis request input information KBJi (see FIG. 20) is transmitted to the analysis result providing apparatus 3 by the Internet protocol.
  • the analysis result display processing unit 226 displays a detection position Pi, moving body information DSJi (moving body information DSJi: refer to FIG. 12), etc., on the soccer field Ai of a soccer player SPai described later from the analysis result providing apparatus 3 on the screen.
  • the display control data PKJi (see FIG. 14) is waiting.
  • the display control data PKJi is stored in the analysis result receiving memory 246 of the tablet-side storage unit 24, and is output to the browser and displayed on the screen (see FIG. 22).
  • the wearable device 1 includes the GNSS time (Raw data) of the position sensor 15 that is a GNSS module when the wearable device 1 is started up, and the control unit 132 in the main control module 13 of the wearable device 1 ( Synchronization is performed with the system time STi of the internal timer 132i (which may be a program timer) of the microcomputer.
  • GNSS time Raw data
  • the control unit 132 in the main control module 13 of the wearable device 1 Synchronization is performed with the system time STi of the internal timer 132i (which may be a program timer) of the microcomputer.
  • the sensing results (sensor data SDi) of the biological information detection sensor 16 the environment information detection sensor 17, and the moving body state information detection sensor 18 are read.
  • the biological information detection sensor 16, the environmental information detection sensor 17, and the moving body state information detection sensor 18 output each sensor data SDi for each of the various sensors at a different timing.
  • the main control module 13 reads the sensor data SDi of the biological information detection sensor 16, the environment information detection sensor 17, and the moving body state information detection sensor 18.
  • the sensor type included in the mobile body information request information YDJi is read.
  • a set of system time STi (including position information) and sensor data SDi (biological or 9-axis) corresponding to the sensor type collected at this time is read, and these are simultaneously read with the mobile body information request information YDJi.
  • the format of the transmitted transmission pattern PTi is set. And this is transmitted from the wireless module 11 as mobile body information DSJi.
  • the position is calculated using Raw data synchronized with the signal. This position is referred to as a detection position Pi or position data.
  • the wearable device 1 matches the system time STi or the system time STi and the raw data that are synchronized with the raw data of the GNSS data that is the position detection source by performing the initial time adjustment at the time of the mobile body information analysis device 30. And position data are generated as mobile body information (hereinafter referred to as mobile body information DSJi) and transmitted to the tablet 2.
  • mobile body information DSJi mobile body information
  • FIG. 24 is a specific configuration diagram of the analysis result providing apparatus 3. As shown in FIG. 24, the analysis result providing apparatus 3 is preferably composed of a plurality of servers.
  • these servers include a DB server 321, a storage server 322, a mobile body information receiving server 323, a mobile body position related information generation server 324, and the like.
  • the storage server 322 stores a camera image CGi, a pseudo image (illustration) of the soccer field Ai, moving body information DSJi, and the like.
  • the DB server 321 includes a soccer field map memory unit 321a (area diagram storage units: 321a1, 321a2,...) Storing a soccer field map AHi (defined by plane rectangular coordinates) as an area diagram, and a user from the tablet 2
  • User basic registration information memory unit 321b (321b1, 321b2,7)
  • basic registration information UJi see FIGS. 18A and 18B
  • actual participating user pairing information RPJi from the tablet 2
  • FIG. 17B has a center-side actual participating user memory unit 321c and the like stored for history management. The process of registering various information in each memory unit will be described below.
  • the DB server 321 inputs a group name (by group code), a soccer field code, and a soccer field map AHi input by the person in charge, according to the group name (by group code), and the soccer field code.
  • the map AHi is associated and stored in the soccer field map memory unit 321a (321a1, 321a2,).
  • soccer field map memory 321ai (321a1, 321a2,).
  • the DB server 321 receives the basic user registration information UJi (see FIGS. 18A and 18B) from the user list providing unit 324a of the moving body location related information generation server 324, and this basic user registration information UJi. Is already stored in the user basic registration information memory unit 321b, the tablet 2 is informed that it has already been registered. If not registered, the user basic registration information memory 321bi (321b1, 321b2,...) Added with the organization name, soccer field name, etc. included in the user basic registration information UJi is used as the user basic registration information memory. Generate and register in the unit 321b.
  • the mobile body position related information generation server 324 receives the actual participant input information ZGJi with a tablet ID from the user list providing unit 324a of the mobile body position related information generation server 324, and participates in the competition having the wearable device ID included in the actual participant input information ZGJi. It is determined whether there is a user basic registration information memory 321bi (321b1, 321b2,%) That stores the user basic information registration information UUJi (see FIG. 18B) of the prospective person. If it does not exist, an error is transmitted to the tablet 2 via the user list providing unit 324a.
  • a director name and a tablet ID included in UMJi are added. At this time, it is preferable to add a date and time.
  • the information is sent to the user list providing unit 324a of the mobile body position related information generation server 324.
  • the basic information CDUJi for each actual participating user is registered in the memory area i for each actual participating user in the center side actual participating user memory section 321c (not shown) for history management.
  • the actual participation user memory 321ci with the wearable device ID is generated in the center side actual participation user memory unit 321c, and the received actual participation user pairing information RPJi (see FIG. 17B) is received. Store for history.
  • the DB server 321 also stores the camera parameter ( ⁇ i) of the camera 40 for each camera number, place name (soccer field name), and group name, and the camera parameter memory 321di (321d1, 321d2, ...) remember. These are registered in advance by the person in charge of the analysis center C.
  • the camera image CGi (year / month / day, time, camera number, soccer field name, camera image CGi, year / month / day time,...) From the photographing camera 40 is the place name (soccer field name) and camera number.
  • a memory area generated for each soccer field name and camera number is referred to as a camera image memory 322ai (322a1, 322a2,).
  • the soccer field name may be an ID.
  • a memory area generated for each wearable device 1 in the center side mobile body information memory unit 322b is referred to as a center side mobile body information memory 322bi (322b1, 322b2,).
  • the memory area 322e (322e1, 322e2, 322e1, 322e2, and so on) is generated by classifying the wearable device ID, the location name, and the date / time zone into the wearable device ID, the location name, and the date / time zone. .
  • the storage server 322 Each time the camera image CGi is input from the photographing camera 40 (preferably an internet camera), the storage server 322 creates a camera image memory 322ai having the camera number of the camera image CGi in the camera image memory unit 322a. If not, a memory area of a camera image memory 322ai (322a1, 322a2,...) Having a camera number or the like is generated in the camera image memory unit 322a.
  • the camera image selection information CSJi (camera number, date, time) of the selected thumbnail image is received from the tablet 2 and the camera image CGi corresponding to the camera image selection information CSJi is transmitted to the tablet 2.
  • the storage server 322 has the center side mobile body information having the wearable device ID of the center side mobile body information CDSJi. It is determined whether the center side mobile object information memory 322bi (322b1, 322b2,%) Of the memory unit 322b has not been generated.
  • the center side mobile body information memory unit 322b If not generated, the center side mobile body information memory unit 322b generates the center side mobile body information memory 322bi (322b1, 322b2,7) In association with the wearable device ID of the center side mobile body information CDSJi. . If it is generated, it is stored in the center side mobile body information memory 322bi (322b1, 322b2,).
  • the storage server 322 stores the mobile body information analysis result information KDJi, which will be described later, from the mobile body information analysis server 325 in the analysis data copy memory unit 322e (322e1, 322e2,7) For each wearable device ID. .
  • the memory area for each wearable device ID is referred to as an analysis data copy memory 322ei (322e1, 322e2,.
  • the camera image selection information CSJi selected camera number, date, time, etc.
  • the moving body position related information generation server 324 receives and outputs the camera image selection information CSJi (selected camera number, date, time, etc.) from the tablet 2 and output to the moving body position related information generation server 324.
  • a memory area (hereinafter referred to as mobile unit information memory 326ai (326a1, 326a2,...)) Having this wearable device ID. Is temporarily stored in the mobile information memory unit 326a. If it has not been generated, this mobile object information memory 326ai (326a1, 326a2,%) Is generated.
  • the mobile body information DSJi (see FIG. 12) is information in which the corresponding data is stored in the area according to the transmission pattern PTi (see FIG. 21).
  • the mobile body information receiving server 323 reads the detected position Pi included in the mobile body information DSJi, converts it based on the plane rectangular coordinate conversion parameter ⁇ i stored in advance (map position GPi), Is stored in the mobile body information memory 326ai (326a1, 326a2,...) Of the corresponding mobile body information memory unit 326a as the center side mobile body information CDSJi (see FIG. 12). Then, the center side mobile unit information CDSJi is output to the storage server 322 and stored for history use.
  • the mobile body position related information generation server 324 and the mobile body information which will be described later are used as the mobile body information analysis request input information KBJi. Transmit to the analysis server 325.
  • connection disconnection information (with a wearable device ID) is input from the tablet 2 via the Internet N, the mobile information memory 326ai having the wearable device ID included in the connection disconnection information is cleared.
  • the moving body position related information generation server 324 includes a user list providing unit 324a, an area image providing unit 324b, a moving body information association unit 324c, a position calculating unit 324d, and the like.
  • the user list providing unit 324a receives the user basic registration information UJi (see FIGS. 18A and 18B) from the tablet 2 via the Internet network N. This is output to the DB server 321 and registered.
  • the user list providing unit 324a receives the actual participant input information ZGJi (with tablet ID: FIG. 17 (a)) from the tablet 2. Then, this is output to the DB server 321.
  • the basic information CDUJi (see FIG. 17D) for each real participant for the real participant input information ZGJi is received from the DB server 321, it is immediately transmitted to the tablet 2.
  • the user list providing unit 324a receives the actual participating user pairing information RPJi (see FIG. 17B) from the tablet 2, and outputs this to the DB server 321, and the center side actual participating user memory unit The actual participation user memory 321ci of 321c is stored.
  • the area image providing unit 324b inputs the camera image selection information CSJi (selected camera number, date, time, etc.) from the mobile information receiving server 323, and temporarily stores it.
  • CSJi selected camera number, date, time, etc.
  • a camera parameter memory unit 321d having a camera number included in the image selection information CSJi (selected camera number, date, time, etc.) and a camera parameter ( ⁇ i) corresponding to the camera image selection information CSJi.
  • the address of the camera parameter memory 321di (321d1, 321d2,...) Is output to the position calculation unit 324d.
  • the image type included in the moving body information analysis request input information KBJi indicates a pseudo image (including a soccer field code)
  • the corresponding soccer field map AHi is stored.
  • the address of the soccer field map memory unit 321a (321a1, 321a2,...) Of the DB server 321 is output to the mobile body information association unit 324c. These addresses are collectively referred to as display area image type storage address information.
  • ⁇ Moving object information association unit 324c Each time the mobile body information association unit 324c receives mobile body information analysis result information KDJi from the mobile body information analysis server 325, the mobile body information association unit 324c temporarily stores it.
  • every time fine position data information RDJi with wearable device ID (RDJ1, RDJ2,...: See FIG. 25) is received from the position calculation unit 324d, it is temporarily stored. Furthermore, the center side mobile body information CDSJi (see FIG. 12) from the mobile body information receiving server 323 is temporarily stored.
  • the wearable device ID included in the center side mobile body information CDSJi match these wearable device IDs, they are included in the center side mobile body information CDSJi. Associate the name code with the face photo.
  • templates for a plurality of windows WUi registered in advance are read.
  • This template includes, for example, a plurality of windows WUi (see FIG. 27).
  • the horizontal axis is defined by, for example, the minimum unit (for example, 100 msec) of the system time STi.
  • window numbers are associated with the sensor acquisition type ki (heart rate, body temperature,..., 9 axes).
  • the display control data PKJi shown in FIG. 14 is generated and transmitted to the tablet 2.
  • the screen of FIG. 26 is displayed on the tablet 2, and the fine position PWbi shown in FIG. 22 is displayed in the real position display window RWi.
  • the manager MG will know at a glance in real time what the current situation and how the soccer player SPai is moving.
  • the position calculation unit 324d performs a fine position data record generation process, a fine position calculation process, a fine position calculation process on the display image, and the like.
  • a position calculation data storage unit 330 and the like are connected to the position calculation unit 324d.
  • a position calculation data memory 330ai (330a1, 330a2,7) For storing the fine position PWbi (Xi, Yi) and the like for each system time STi is generated. (See FIG. 25).
  • the minute position data records RDi (RD1,%) For the number divided by the minute time di (for example, 100 msec) of the system time STi. RD2, 7) is generated.
  • the position calculation data memory 330ai (330a1, 330a2,...) Having the position display type Gki (fine gdi, normal gi) and the wearable device ID included therein is generated in the position calculation data storage unit 330. Determine if you are. If it has not been generated, it is generated in the position calculation data storage unit 330.
  • the record number kji for dividing the date / time zone Wti by the unit of the system time STi for example, 100 msec.
  • the position calculation data memory 330ai (330a1, 330a2,...) Having the fine position data record RDi is generated in the position calculation data storage unit 330 (see FIG. 25).
  • the fine position data record RDi includes an area for storing the system time STi, an area for storing the fine position PWbi (Xi, Yi), an area for storing the 9-axis sensor information eJi, and the like. Consists of.
  • an area for storing the position of the transmission pattern PTi constituting the current center-side moving body information CDSJi is read, and it is determined whether or not a map position GPi (position data) exists. That is, it is determined whether or not the map position GPi (position data) is included in the current center-side moving body information CDSJi.
  • the wearable device ID included in the current center-side mobile information CDSJi is read. Then, the position calculation data memory 330ai (330a1 or 330a2,...) Having this wearable device ID is allocated from the position calculation data storage unit 330.
  • the system time STi included in the current center side mobile body information CDSJi is stored in the fine position data record RDi generated. (See FIG. 25).
  • the system time STi, fine position PWbi, 9-axis sensor information eJi, wearable device ID, and the like of the assigned fine position data record RDi are collectively referred to as fine position data information RDJi.
  • the above-mentioned allocation may be performed for all the fine position data records RDi in which the fine position data information RDJi having the same wearable device ID is stored, or only for the latest system time STi.
  • the fine position data information RDJi and the like stored in the assigned fine position data record RDi are read as the previous fine position data information RDJi.
  • the system time STi included in the current fine position data information RDJi is read, the position at the current system time STi is set as the current fine position PWbi, and the system time STi of the previous center-side moving body information CDSJi and the minute It is obtained based on the position PWbi, 9-axis sensor information eJi and the like.
  • the obtained current fine position PWbi, the 9-axis sensor information eJi, the wearable device ID, and the system time STi included in the current fine position data information RDJi are combined with the current fine position data information RDJi (device ID, The fine position or 9-axis sensor information eJi...) Is output to the display image fine position calculation process.
  • the current fine position data information RDJi is output after the obtained current fine position PWbi is updated to the fine position PWbi ′ by the later-described fine position calculation process on the display image.
  • the fine position data record RDi of the position calculation data memory 330ai (330a1 or 330a2,...) Stores the fine position PWbi in association with the fine position PWbi (see FIG. 25).
  • the fine position data record RDi corresponding to the system time STi included in the current fine position data information RDJi is allocated, and stored in the fine position data record RDi as the previous fine position data information RDJi.
  • the map position GPi included in the map position GPi (position data) is included in the previous fine position data information (RDJi).
  • the 9-axis sensor information eJi At the system time STi and the 9-axis sensor information eJi.
  • the obtained fine position PWbi and 9-axis sensor information eJi are associated with the system time STi and the like, and this is obtained as the previous fine position data information RDJi.
  • the fine position data record RDi of the position calculation data memory 330ai (330a1, 330a2,8) Corresponding to the system time STi of the previous fine position data information RDJi is allocated, and the obtained previous fine data is assigned to this record.
  • the position data information RDJi is stored.
  • Display image fine position calculation process In the display image fine position calculation processing, display area image type storage address information (camera or pseudo image) from the area image providing unit 324b is determined.
  • the display area image type storage address information (camera or pseudo image) indicates the address of the camera parameter memory 321di (321d1 or 321d2,...) Of the DB server 321, this camera parameter memory 321di (321d1 or 321d2, ..) Is read.
  • the fine position PWbi ′ of the previous fine position data information RDJi of the fine position data record RDi of the position calculation data memory 330ai (330a1, 330a2,...) Is updated to the fine position PWbi ′ (see FIG. 25).
  • this fine position data information RDJi (RDJ1, RDJ2,...: With wearable device ID) is output to the moving body information association unit 324c. Therefore, the fine position PWbi is displayed on the screen of the tablet 2 as shown in FIG.
  • the display area image type storage address information (camera or pseudo image) indicates the address of the soccer field map memory unit 321a (321a1, 321a2,...) Of the DB server 321 storing the soccer field map AHi. Converts the fine position PWbi included in the fine position data information RDJi (device ID, fine position or 9-axis sensor information eJi%) From the fine position calculation process based on the coordinates of the soccer field map AHi. This converted fine position is defined as a fine position PWbi ′ at the system time STi in the soccer field Ai.
  • the fine position PWbi ′ of the previous fine position data information RDJi of the fine position data record RDi in the position calculation data memory 330ai (330a1, 330a2,8) Is updated to the fine position PWbi ′.
  • this fine position data information RDJi (RDJ1, RDJ2,...: With wearable device ID) is output to the moving body information association unit 324c. Therefore, the fine position PWbi is displayed on the screen of the tablet 2 as shown in FIG.
  • the mobile body information analysis server 325 includes an analysis data memory unit 325a, analyzes mobile body information, and provides the tablet 2 with the mobile body information association unit 324c of the mobile body position related information generation server 324. .
  • Analysis data memory 325ai (for example, 325a1, 325a2,..., 325ai) is generated in advance in the analysis data memory unit 325a.
  • a heart rate analysis data memory 325a1, a body temperature analysis data memory 325a2,..., A 9-axis analysis data memory 325a3, and the like are generated.
  • the format configuration of these analysis data memories 325ai associates the sensor acquisition type (heart rate (kai), body temperature (kbi),...) Ki with the wearable device ID and the date and time zone Wti.
  • a sensor data storage area RSi (RS1, RS2,%) That stores sensor data SDi (heart rate, body temperature,..., 9 axes) every 100 msec, for example, is formatted in the acquisition type ki.
  • the sensor acquisition type ki has a structure in which a determination result area hski for storing the determination result hki of the sensor data SDi stored every 100 msec stored in the sensor data storage area RSi is generated.
  • the wearable device ID and date / time zone Wti included therein and the sensor acquisition type (heart rate (kai), body temperature ( Analysis data memory 325ai (for example, 325a1, 325a2, etc. having kbi),..., ki, etc. is generated in the analysis data memory unit 325a.
  • sensor data SDi of all sensor acquisition types ki (heart rate, body temperature,..., 9 axes or combinations thereof) in the center-side moving body information CDSJi are sequentially read to obtain the sensor acquisition type ki (heart rate, body temperature). ,..., 9 axes or a combination thereof) is stored in the corresponding sensor data storage area RSi (see FIG. 27).
  • the moving body information associating unit 324c uses, as moving body information analysis result information KDJi, the sensor data SDi stored in the sensor data storage area RSi of the date and time zone Wti for each acquisition type ki and the determination result hki of the determination result area hski. Output to. This is copied and stored in the analysis data copy memory 322ei (322e1, 322e2,. Therefore, the past moving body information analysis result information KDJi can be easily provided.
  • the position sensor 15 that is a GNSS module is turned on when the power is turned on, the position calculation initial processing is performed, and various sensors that output at different timings receive sensor data SDi (digital It is determined whether or not (data) is output, and if it is output, the sensor data SDi (heart rate, body temperature,..., 9 axes) is overwritten and stored in the sensor data storage area 131c (step d0).
  • sensor data SDi digital It is determined whether or not (data) is output, and if it is output, the sensor data SDi (heart rate, body temperature,..., 9 axes) is overwritten and stored in the sensor data storage area 131c (step d0).
  • the position-attached mobile information providing tablet icon (not shown) on the screen is selected by the supervisor MG or the person in charge, the position-attached mobile information providing tablet program is activated, and the following processing is performed. Do.
  • the mode determination unit 221 displays the mode selection screen MGi shown in FIG. 16 on the screen (d1).
  • this mode selection screen MGi includes a user list registration button MGa, a communication initial connection setting button MGb, an actual participant registration button MGd, a mobile body information acquisition button MGf, and the like.
  • this mode selection screen MGi when the communication initial connection setting button MGb is selected, the communication initial connection setting unit 223 is activated, and when the user list registration button MGa or the real participant registration button MGd is selected, communication is performed.
  • the terminal-side user list creation unit 224 is activated.
  • the mobile body information transmitting / receiving unit 225 is activated.
  • the mode determination part 221 determines a mode from the button selected in the mode selection screen MGi (d3).
  • the communication terminal side user list creation unit 224 displays the user administrator basic information registration screen UMGi shown in FIG. 18 (a) and the user basics shown in FIG. 18 (b).
  • the information registration screen UUGi is displayed on the screen, and a user list creation process is executed (step d5).
  • the user administrator basic information registration screen UMGi shown in FIG. 18A includes an organization name (team name), an organization name code (team code), a place name (location), a company name, a company code, and an administrator name ( Director name).
  • the information input on the user administrator basic information registration screen UMGi is referred to as user administrator basic registration information UMJi, and is temporarily stored in the communication terminal side user list memory 241 of the tablet side storage unit 24.
  • the above-described user basic information registration screen UUGi includes an organization name (team name), name (name code), face photo, age, height, weight, wearable device ID, and so on.
  • Information input to the user basic information registration screen UUGi is referred to as user basic information registration information UUJi (see FIG. 18B).
  • the communication terminal side user list creation unit 224 temporarily stores the user basic information registration information UUJi (see FIG. 18B) in the communication terminal side user list memory 241 of the tablet side storage unit 24 (step d7i).
  • the communication terminal side user list creation unit 224 adds the user basic information registration information UUJi, the tablet ID, and the creation to the administrator basic registration information UMJi (see FIG. 18A) of the user in the communication terminal side user list memory 241. Date and time are added, and this is transmitted as the above-mentioned user basic registration information UJi to the analysis result providing apparatus 3 via the Internet N (step d7a).
  • the user list providing unit 324a of the analysis result providing apparatus 3 receives the user basic registration information UJi (see FIGS. 18A and 18B) from the tablet 2, the DB list 321 is received. Are registered in the user basic registration information memory unit 321b (step d9a).
  • This actual participant input screen ZGi has input fields for name, team name, place (soccer field), group name, date, time, etc., as shown in FIG.
  • Step d7b the information in each input column of the actual participant input screen ZGi is transmitted to the analysis result providing apparatus 3 by the Internet N as the actual participant input information ZGJi.
  • the user list providing unit 324 a of the analysis result providing apparatus 3 receives the actual participant input information ZGJi from the tablet 2 and stores the user basic registration of the user stored in the user basic registration information memory unit 321 b of the DB server 321. Information UMJi (see FIG. 18A) is read.
  • the basic information CDUJi for each participating user who actually participates in the competition with the director name, tablet ID, face photo, etc. included in this, and the date and time are also added (see FIG. 17 (d)).
  • the user list providing unit 324a of the analysis result providing apparatus 3 transmits the basic information CDUJi (see FIG. 17D) for each actually participating user to the tablet 2 (d9c).
  • the communication terminal side user list creation unit 224 of the tablet 2 receives the basic information CDUJi (see FIG. 17D) for each actually participating user and stores it in a temporary storage memory (not shown). Then, it enters a state of waiting for pairing with the wearable device 1.
  • the communication initial connection setting unit 223 of the tablet 2 is activated by selecting the communication initial connection setting button MGb, and acquires the actual participation user pairing information RPJi (see FIG. 17B). Participating user pairing setting processing is performed (steps d12, d13, d14).
  • the communication initial connection setting unit 223 communicates with the analysis result providing apparatus 3 or a reference time service center (not shown) to acquire the current time, and starts an internal timer (not shown) at the current time. Set. That is, the initial time is set.
  • pairing request information (tablet ID, model, manufacturer, time, etc.) is transmitted to, for example, several wearable devices 1 and paired with each other to obtain pairing information PJi (see FIG. 13). And stored in a memory (not shown).
  • the communication initial connection setting unit 223 waits for output of mobile body information request information YDJi from the mobile body information transmitting / receiving unit 225 described later.
  • the wearable device 1 is described later based on the time included in the pairing request information (tablet ID, model, manufacturer, time, etc.) from the tablet 2 by the initial time setting unit 132j in FIG.
  • the internal time 132i of the wearable device 1 is set, and the 1PPS signal from the position sensor 15 which is a GNSS module, the raw data if the GNSS time is included, the system time STi (GNSS time> system Time STi) and the initial time of the system time STi is synchronized with the GNSS time (d14a).
  • the mobile object information DSJi (see FIG. 12) can be obtained from the wearable device 1.
  • the communication terminal-side user list creation unit 224 of the tablet 2 reads the pairing information PJi (see FIG. 13) stored in the communication initial connection setting unit 223 and associates it with the received basic information for each participating user CDUJi. This is actually stored in the actual participating user pairing information memory 242 as the actual participating user pairing information RPJi (see FIG. 17B) currently participating in the competition (step d7h).
  • the communication terminal side user list creation unit 224 reads the actual participating user pairing information memory 242 and displays the actual participating user pairing information RPJi on the screen (step d7d).
  • the user of the tablet 2 (for example, the manager MG) can determine which soccer player SPai is currently paired with his / her name and face photo.
  • the user of the tablet 2 selects the actual participation user registration completion button (not shown) when all the actual participation user pairing information RPJi (see FIG. 17B) is displayed.
  • the mobile information transmission / reception unit 225 is notified of the real participation user communication preparation registration completion information REJi (see FIG. 17C) indicating that the communication preparation registration of the real participation user has been completed (step d7j).
  • a message indicating that the preparation for actual participation user communication is completed is displayed on the screen to prompt selection of the mobile body information acquisition button MGf (see FIG. 16).
  • the real participation user communication preparation registration completion information REJi includes all wearable device IDs of the real participation user pairing information RPJi (see FIG. 17B) stored in the real participation user pairing information memory 242. And
  • the actual participation user pairing information RPJi is transmitted to the analysis result providing apparatus 3 for management (step d7k).
  • the user list providing unit 324a of the analysis result providing apparatus 3 receives the actual participating user pairing information RPJi (see FIG. 17B) from the tablet 2 and outputs it to the DB server 321 for the center side.
  • the actual participation user memory unit 321c stores the actual participation user memory 321ci (step d10).
  • the mobile body information transmitting / receiving unit 225 of the tablet 2 is activated in accordance with the selection of the mobile body information acquisition button MGf (see FIG. 16), and displays the mobile body information request input screen KBGc shown in FIG. (Step d21).
  • the mobile body information transmission / reception unit 225 of the tablet 2 receives the actual participation user communication preparation registration completion information REJi from the communication terminal side user list creation unit 224 (see FIG. 17C). ) Is entered.
  • the mobile body information analysis request that determines what kind of sensor data SDi and what time (date and time zone Wti) is requested to the wearable device 1 It is determined whether or not the input information KBJi (see FIG. 20) is stored in the mobile object information memory 243. That is, it is determined whether or not the mobile body information analysis request input information KBJi has been input.
  • the mobile body information request input screen KBGc shown in FIG. 19 is displayed on the screen.
  • the mobile body information request input screen KBGc includes an organization name (team name), a date / time zone Wti, a name (wearable device ID), a sensor acquisition type ki (all or selected), and a position. It consists of input fields such as a display type Gki (fine or normal) and an image type (camera or pseudo image).
  • the date / time zone Wti indicates a time zone for obtaining the mobile body information DSJi (see FIG. 12) acquired by the wearable device 1, and consists of input fields for the start time Wtpi and the end time Wtri.
  • YY year MM month DD day HH hour MM minute SS second can be input so that the position and the like can be analyzed in units of 100 msec.
  • name input field about several names can be entered.
  • the sensor acquisition type ki includes all designation items for designating all the various sensors (heart rate, body temperature,..., 9 axes) provided in the wearable device 1 and desired sensors (heart rate, body temperature,..., 9 axes). (Or a combination of these).
  • the mobile body information transmission / reception part 225 judges whether it is selection of the completion button which is not shown in figure (step d30).
  • the mobile body information request input screen KBGc (see FIG. 19) is used as mobile body information analysis request input information KBJi (see FIG. 20). (Step d31).
  • the mobile network information analysis request input information KBJi (see FIG. 20) is transmitted to the analysis result providing apparatus 3 through the Internet network N (step d32).
  • the mobile body information analysis request input information KBJi includes a wearable device ID portion, a date / time zone Wti, a sensor acquisition type ki, and the like as shown in FIG. That is, the mobile body information transmitting / receiving unit 225 creates all wearable device IDs input from the mobile body information requesting input screen KBGc (see FIG. 19) as wearable device ID parts.
  • the mobile body information receiving server 323 of the analysis result providing apparatus 3 receives the mobile body information analysis request input information KBJi from the tablet 2, and uses the mobile body information analysis request input information KBJi as the mobile body position related information generation server 324. And it transmits to the mobile body information analysis server 325 (step d34).
  • the mobile body information transmission / reception part 225 is a wearable device ID part and sensor acquisition classification ki (all or selection) only during the time zone Wti included in the mobile body information analysis request input information KBJi (see FIG. 20). Then, the mobile body information request information YDJi (see FIG. 13) in which each information such as the tablet ID is paired is generated (step d35).
  • the mobile body information transmission / reception unit 225 writes the area for various sensors corresponding to the sensor acquisition type ki included in the mobile body information analysis request input information KBJi, the detection position Pi, the system time STi, and the like.
  • a transmission pattern PTi (see FIG. 21) for forming a transmission format KSRi having each region is generated.
  • the transmission pattern PTi includes the wearable device ID and the tablet ID included in the mobile body information analysis request input information KBJi. Then, the transmission pattern PTi is transmitted to the wearable device 1 (step d37a).
  • the wearable device 1 Every time the wearable device 1 receives the transmission pattern PTi from the tablet 2, the wearable device 1 forms a transmission format based on the transmission pattern PTi in the storage unit 131 (step d37b).
  • the tablet 2 causes the communication initial connection setting unit 223 to transmit the mobile body information request information YDJi (see FIG. 13) to each wearable device 1 using the Bluetooth (registered trademark) protocol (step d38).
  • the wearable device 1 receives the mobile body information request information YDJi, the sensor data SDi (heart rate, body temperature,..., 9 axes) that various sensors can acquire at the present time are formatted on the transmission format KSRi, Various sensor information acquisition processing acquired as digital data (mobile body information DSJi) is performed (step d41).
  • the acquired mobile body information DSJi (see FIG. 12) is transmitted to the tablet 2 by the Bluetooth (registered trademark) protocol (step d43).
  • the tablet 2 receives the mobile body information DSJi from the wearable device 1 by the communication initial connection setting unit 223, and transmits it to the analysis result providing apparatus 3 via the Internet N by the Internet protocol. (Steps d45 and d46).
  • This transfer process is performed by the actual participation user pairing information RPJi having the wearable device ID included in the mobile body information DSJi from the wearable device 1 received by the communication initial connection setting unit 223 of the tablet 2 (FIG. 17B). Is received in the real participating user pairing information memory 242 (step d45).
  • the mobile body information DSJi is output to the mobile body information transmitting / receiving unit 225.
  • the mobile body information transmitting / receiving unit 225 transfers the mobile body information DSJi to the analysis result providing apparatus 3 via the Internet network N by the Internet protocol (step d46).
  • the mobile body information receiving server 323 of the analysis result providing apparatus 3 receives the mobile body information DSJi (see FIG. 12) from the tablet 2, the detection position Pi included in the mobile body information DSJi is planarized. Based on the rectangular coordinate conversion parameter ⁇ i (map position GPi), mobile body information collection processing is performed to generate this as center side mobile body information CDSJi (see FIG. 12) (step d48).
  • the center side mobile body information CDSJi (see FIG. 12) is stored in the corresponding mobile body information memory 326ai (326a1, 326a2,%) Of the mobile body information memory unit 326a.
  • the center side mobile body information CDSJi is output to the mobile body position related information generation server 324 and the mobile body information analysis server 325. Further, the data is output to the storage server 322 and stored for history use.
  • the tablet 2 enters a standby state for the display control data PKJi from the analysis result providing device 3 (step d53).
  • the position data calculation process is performed by the position calculation unit 324d. As shown in FIG. 30, the position data calculation process includes a fine position data record generation process (step d56), a fine position calculation process (step d57), and a conversion process (position conversion process) that defines a fine position on the area image. ) Is performed (d58). These processes will be described later using a flowchart.
  • step d60 every time mobile body information analysis request input information KBJi (see FIG. 20) is output from the mobile body information receiving server 323 in the mobile body information analysis server 325, mobile body information analysis described later is performed. Processing is performed (step d60).
  • the analysis result providing apparatus 3 activates the mobile body information associating unit 324c and, for example, wearable device ID and sensor acquisition type ki (heart rate (kai), body temperature (kbi),..., 9 axes or these
  • the display control data PKJi shown in FIG. 14 is generated by performing an associating process for associating the sensor data SDi for the date and time zone Wti for each combination) with the detection position Pi etc. with the system time STi (step d70).
  • the mobile body information associating unit 324c transmits the generated display control data PKJi to the tablet 2 using the Internet protocol (step d71).
  • the moving body information associating unit 324c reads the system time STi associated with the fine position PWbi of the fine position data record RDi into the moving body information analysis request input information KBJi, and an acceleration graph corresponding to the system time STi.
  • the vertical axis bar Bi (Ba, Bb, Bc,%) Is displayed in the acceleration graph, posture graph, and the like of the tablet 2 with respect to the time point of the fine position PWbi. Therefore, it is possible to grasp the situation, what kind of movement, and the like at the minute position PWbi at the minute position unit.
  • step d3 step d49.
  • the analysis result display processing unit 226 sends the display control data PKJi to the tablet.
  • the data is stored in the analysis result receiving memory 246 of the side storage unit 24, output to the browser, and displayed on the screen (step d73).
  • FIG. 31 is a flowchart for explaining processing of the mobile information receiving server 323.
  • the mobile body information receiving server 323 determines whether or not the mobile body information DSJi (see FIG. 12) sent from the tablet 2 is received via the Internet network N (step K20).
  • step K20 When the mobile body information DSJi is received (step K20: YES), the wearable device ID included in the mobile body information DSJi is read (step K22).
  • step K24 it is determined whether or not the mobile object information memory 326ai (326a1, 326a2,%) Having the wearable device ID is generated in the mobile object information memory unit 326a (step K24).
  • the mobile body information memory 326ai (326a1, 326a2,7) With the wearable device ID included in the mobile body information DSJi is stored in the mobile body information memory. Generated in the unit 326a (step K26).
  • the detected position Pi included in the moving body information DSJi is converted based on the plane rectangular coordinate conversion parameter ⁇ i stored in the camera parameter memory 321di of the DB server 321, and this is converted to the center side moving body.
  • Information CDSJi is stored in the corresponding mobile information memory 326ai (326a1, 326a2,%) (Step K28).
  • this center side moving body information CDSJi is output and stored (step K30).
  • step K32 the mobile information receiving server 323 activates position data calculation processing (details will be described later).
  • connection disconnection information (with wearable device ID) is input from the tablet 2 via the Internet N (step K34).
  • connection disconnection information is input (step K34: YES)
  • the mobile information memory 326ai having the wearable device ID included in the connection disconnection information is cleared (step K36), and the process is terminated.
  • step K34: NO If connection disconnection information (with wearable device ID) is not input (step K34: NO), the process returns to step K20.
  • step K24 If it is determined in step K24 that the mobile information memory 326ai having the wearable device ID included in the mobile information DSJi (see FIG. 12) has been generated (YES), the process proceeds to step K28. Transfer.
  • FIG. 32 is a flowchart for explaining the operation of the fine position data record generation processing.
  • step K1 it is determined whether or not the mobile body information analysis request input information KBJi (see FIG. 20) i is input from the tablet 2 (step K1).
  • step K3 If it is determined that the mobile body information analysis request input information KBJi has been input (step K1: YES), the position calculation data memory 330ai (330a1, 330a2, having the position display type Gki and wearable device ID included therein) Is determined in the position calculation data storage unit 330 (step K3).
  • step K3 If it has been generated (step K3: YES), the process is terminated as it is, and if it has not been generated (step K3: NO), the date / time zone Wti (for example, included in the mobile body information analysis request input information KBJi) 1 minute) and a fine position interval dKi (for example, 100 msec) are read (step K5).
  • Wti for example, included in the mobile body information analysis request input information KBJi
  • dKi for example, 100 msec
  • step K7 the number of records for fine position data kji, which is the number obtained by dividing the date and time zone Wti by the fine position interval dKi that is the output interval of the system time STi, is obtained (step K7).
  • a position calculation data memory 330ai having kji fine position data records RDi is generated in the position calculation data storage unit 330 (step K9), and the process is terminated.
  • “Fine position calculation process of position calculation unit 324d, fine position calculation process on display image” 33 and 34 are flowcharts for explaining the fine position calculation process and the display image fine position calculation process.
  • the center-side moving body information CDSJi does not include the map position GPi (position data).
  • the image type to be displayed will be described as a camera image.
  • the center side mobile body information CDSJi which is the mobile body information DSJi (see FIG. 12) sent from the tablet 2, is transmitted via the Internet N. S150).
  • the system time STi and system time STi are determined.
  • the wearable device ID included in the current center-side moving body information CDSJi is read, and the wearable device ID and system The fine position data record RDi having the time STi is read (S154).
  • the position calculation data memory 330ai (330a1 or 330a2,...) Having the wearable device ID is allocated from the position calculation data storage unit 330.
  • the system time STi included in the current center side mobile body information CDSJi is stored in the fine position data record RDi generated. Give what you have.
  • fine position data information RDJi The system time STi, fine position PWbi, 9-axis sensor information eJi, wearable device ID, and the like of the assigned fine position data record RDi are collectively referred to as fine position data information RDJi.
  • the above-mentioned allocation may be performed for all the fine position data records RDi in which the fine position data information RDJi having the same wearable device ID is stored, or only for the latest system time STi.
  • the fine position data information RDJi and the like stored in the assigned fine position data record RDi are read as the previous fine position data information RDJi (S156).
  • the position at the current system time STi is obtained as the current fine position PWbi (S157aa).
  • the current fine position PWbi, the 9-axis sensor information eJi, the wearable device ID, and the system time STi included in the current fine position data information RDJi are used as the current fine position data information RDJi (wearable device ID).
  • the fine position PWbi included in the fine position data information RDJi (wearable device ID, fine position or 9-axis sensor information eJi...) From the fine position calculation process is converted (PWbi ′) using the camera parameter ⁇ i (S158). ).
  • the fine position data information RDJi (RDJ1, RDJ2,...: With wearable device ID) is output to the moving body information association unit 324c and stored in the fine position data record RDi (S162).
  • the fine position PWbi is displayed on the screen of the tablet 2 as shown in FIG.
  • the moving body information associating unit 324c associates the fine position data information RDJi from the position calculating unit 324d with the moving body information analysis result information KDJi (biological information, analysis result,). Furthermore, the face photograph is associated with the name code, and the display control data PKJi shown in FIG. 14 including the corresponding window number is generated and transmitted to the tablet 2 (S173).
  • the screen of FIG. 26 or FIG. 36 is displayed on the tablet 2, and the fine position PWbi shown in FIG. 22 is displayed in the real position display window RWi.
  • the manager MG will know at a glance in real time what the current situation and how the soccer player SPai is moving.
  • the moving body information association unit 324c reads the fine position data information RDJi (RDJ1, RDJ2,%) With the wearable device ID from the position calculation unit 324d (step S181).
  • step S183 it is determined whether or not the mobile body information analysis result information KDJi (see FIG. 15) having the wearable device ID included in the center side mobile body information CDSJi is input (step S183).
  • step S183 If it is determined in step S183 that the moving body information analysis result information KDJi is input, the fine position data information RDJi is added to the moving body information analysis result information KDJi (step S185).
  • Display control data PKJi shown in FIG. 14 associated with KDJi is generated, and transmitted to the tablet 2 by the Internet protocol (step S187).
  • step S189: NO If the connection is not disconnected (step S189: NO), the process returns to step S181. If the connection is disconnected (step S189: YES), the process ends.
  • FIG. 36 shows an example of the screen display of the tablet 2 based on the above-described display control data PKJi (including the camera image CGi).
  • the analysis screen GKGi of the tablet 2 includes, for example, as shown in FIG. 36, a user face photo window WU 1 , a heartbeat window WU 2 , an acceleration window WU 3 , a posture window WU 4 , other windows WU 5 , And a real position display window RWi and the like.
  • the user face photograph window WU 1 includes, for example, profile pictures of paired soccer players SPa1, SPa2, SPa3,... GNSS positioning data (fine position PWbi) is displayed.
  • the heart rate for the window WU 2, soccer player SPa1, SPa2, SPa3, is ... the heart rate graph of, the acceleration for the window WU 3, the soccer player SPa1, SPa2, SPa3, is ... acceleration graph of, the attitude for the window WU 4 ,
  • the posture value graphs of the soccer players SPa1, SPa2, SPa3,... Are respectively displayed, and in the real position display window RWi, the soccer players SPa1, SPa2, SPa3,... On the camera image CGi are displayed.
  • the detection position Pi fine position PWbi
  • the horizontal axes of the heartbeat window WU 2 , the acceleration window WU 3 , the posture window WU 4 , and the other window WU 5 are defined by the minimum unit (for example, 100 msec) of the system time STi, and the fine position PWbi (PWb1 , PWb2, PWb3,...) Are displayed on the vertical axis Bi (Ba, Bb, Bc, Bd,%) (The soccer players SPa2, SPa3,... Are not shown).
  • the manager MG of the corresponding soccer team who is the user of the tablet 2 determines which soccer player SPai is in what kind of situation at the fine position PWbi and how it moves, etc. You will be able to grasp it.
  • the tablet 2 is provided with a transfer function for transferring the information detected by the wearable device 1 to the analysis result providing apparatus 3.
  • this transfer function can be used for the transfer communication in the vicinity of the soccer field Ai, for example. It may be provided as a device (not shown).
  • FIG. 36 is an example of the screen display of the tablet 2.
  • the current data of the same soccer player SPai is displayed so as to be compared with the past data, or the screen is displayed on the user face.
  • Only the photo window WU 1 can be used to display profile pictures of more soccer players SPai and GNSS positioning data (fine position PWbi).
  • FIG. 37 is a specific configuration diagram of the wearable device 1.
  • FIG. 37A is a plan view of the wearable device 1
  • FIG. 37B is a side view of the wearable device 1 in the AA direction
  • FIG. 37C is a side view of the wearable device 1 in the BB direction.
  • Each configuration is schematically shown.
  • the wearable device 1 may be an integrated IC, but is shown as a circuit configuration diagram in the present embodiment.
  • the position sensor 15 GNSS module
  • the biological information detection sensor 16 the environment information detection sensor 17, and the moving body state information detection sensor 18 (9-axis sensor) will be exemplified and described.
  • the biological information detection sensor 16, the environmental information detection sensor 17, and the moving body state information detection sensor 18 have a configuration that can be increased or decreased as necessary.
  • the wearable device 1 includes a wireless module 11 (wireless communication module), a battery module 12, a main control module 13, an output module 14, and a position sensor mounted on a mounting substrate 101 (also referred to as a base). 15, a biological information detection sensor 16, an environment information detection sensor 17, a USB hub 118 (Universal Serial Bus), a USB terminal 19 for charging and external connection, a moving body state information detection sensor 18, and the like.
  • a wireless module 11 wireless communication module
  • a battery module 12 a main control module 13, an output module 14, and a position sensor mounted on a mounting substrate 101 (also referred to as a base).
  • a mounting substrate 101 also referred to as a base
  • a biological information detection sensor 16 an environment information detection sensor 17
  • a USB hub 118 Universal Serial Bus
  • USB terminal 19 for charging and external connection
  • moving body state information detection sensor 18 and the like.
  • the wireless module 11 includes, for example, a BLE module 11a (Bluetooth (registered trademark) ⁇ Low Energy) module and a Wi-Fi module 11b, and is set by the main control module 13 when communicating with the tablet 2, which will be described later. Use the initial connection setting information to connect the line and continue communication.
  • BLE module 11a Bluetooth (registered trademark) ⁇ Low Energy) module
  • Wi-Fi module 11b Wi-Fi module
  • the position sensor 15 includes, for example, a GNSS reception antenna 15a and a GNSS reception module 15b.
  • the biological information detection sensor 16 is a sensor that detects biological information SEJi such as heart rate, pulse rate, body temperature,..., And outputs a sensing result acquired by each of the various sensors at a specific timing as sensor data SDi. That is, various biological information SEJi of the soccer player SPai is detected at a specific timing, and the detected value (sensing result) is output as sensor data SDi of the biological information SEJi.
  • biological information SEJi such as heart rate, pulse rate, body temperature,...
  • the environmental information detection sensor 17 is a sensor that detects environmental information SKJi such as atmospheric pressure, temperature (air temperature), humidity,..., And outputs a sensing result acquired by each of the various sensors at a specific timing as sensor data SDi. . That is, the environmental information SKJi around the soccer player SPai is detected at a specific timing, and the detected value (sensing result) is output as sensor data SDi of the environmental information SKJi of the moving body.
  • environmental information SKJi such as atmospheric pressure, temperature (air temperature), humidity,...
  • the moving body state information detection sensor 18 is a 9-axis sensor that detects the posture value, acceleration, and direction of the soccer player SPai.
  • the signal line 161 I 2 C (Inter-Integrated Circuit) / SPI (Serial Peripheral Interface) or the like
  • the main control module 13 That is, every time the attitude, acceleration, and direction of the soccer player SPai are detected, the detected value (sensing result) is output as sensor data SDi of the 9-axis sensor information eJi of the moving body.
  • the main control module 13 of the wearable device 1 includes a control unit 132 and a storage unit 131 (device-side position calculation data storage unit (330)).
  • the storage unit 131 may be an SD memory card or the like, and has a capacity of, for example, 16 gigabytes (GB) and is used as a storage for starting programs and data storage.
  • a memory area for storing sensor data SDi from the position sensor 15, the biological information detection sensor 16, the environment information detection sensor 17, and the moving body state information detection sensor 18 (hereinafter referred to as sensor data).
  • Storage area 131c) is generated in advance.
  • the sensor data storage area 131 c can also be configured using a RAM or the like provided in the control unit 132.
  • a USB hub 118 is connected to the main control module 13 via a USB bus (signal cable) 118g.
  • a USB bus signal cable
  • 11 Wi-Fi module 11b, battery module 12 via USB bus 118d, biometric information detection sensor 16 and environmental information detection sensor 17 via USB bus 118e, output module via USB bus 118f 14 are connected to the USB terminal 19 via the USB bus 118h.
  • the USB hub 118 monitors an input port (not shown) periodically (for example, in units of several milliseconds). If there is an input port to which a signal is input, the signal (position data, heart rate data,..., BLE). Data, Wi-Fi data, USB data, etc.) are output to the main control module 13. In addition, the USB hub 118 outputs a signal from the main control module 13 to the corresponding modules 11a, 11b and the like.
  • the GNSS receiving module 15b is connected to the GNSS receiving antenna 15a.
  • the GNSS receiving module 15b generates a 1PPS signal included in the frame header every 1 sec (clock waveform once per sec) and receives it via the GNSS receiving antenna 15a.
  • Raw data corresponding to the GNSS data from the GNSS satellite AS 1 is output to the main control module 13 via the USB hub 118.
  • the BLE module 11a is a wireless communication module that transmits and receives data using the Bluetooth (registered trademark) protocol.
  • the Wi-Fi module 11b is a wireless communication module for a wireless LAN (Local Area Network) certified by the Wi-Fi Alliance.
  • the output module 14 may be provided with, for example, an LED lamp, a vibrator, a buzzer, etc. (not shown) for notifying the remaining amount during charging or the like.
  • the USB terminal 19 is used for charging the battery module 12 and connecting to an external device (not shown) such as a personal computer.
  • the biological information detection sensor 16 is a heart rate sensor or the like.
  • the heart rate sensor acquires heart rate data of a fixed sensing cycle as sensor data SDi that is a digital value, and outputs the heart rate data at the time of acquisition to the USB hub 118.
  • the environmental information detection sensor 17 is a temperature sensor or the like.
  • the temperature sensor acquires temperature data of a certain sensing cycle as sensor data SDi that is a digital value, and outputs the temperature data at the time of acquisition to the USB hub 118.
  • the moving body state information detection sensor 18 is a gyro sensor or the like.
  • the gyro sensor acquires posture value data having a constant sensing cycle as sensor data SDi that is a digital value, and outputs the posture value data at the time of acquisition to the USB hub 118.
  • FIG. 38 shows a schematic program configuration (functional block) of the control unit 132 in the main control module 13 of the wearable device 1.
  • the control unit 132 initially synchronizes the system time STi of the internal timer 132i (system clock) with the GNSS time (Raw data), and biological information SEJi such as the heart rate, pulse rate, and body temperature of the soccer player SPai on the soccer field Ai. And the 9-axis sensor information eJi such as the posture value and acceleration of the soccer player SPai and the environmental information SKJi such as the atmospheric pressure around the soccer player SPai and the positional information (Raw data) of the position sensor 15 that is a GNSS module The mobile body information DSJi is transmitted.
  • the system time STi is arbitrary, but is preferably synchronized with the output timing of the sensor having the earliest detection timing below the GNSS time.
  • control unit 132 sets the system time STi of the internal timer 132i based on the reference time included in the pairing request information from the tablet 2.
  • the control unit 132 includes, for example, a USB input unit 132a, a USB output unit 132b, a wireless module initial setting unit 132d, a sensor information acquisition unit 132f, an initial acquisition format creation unit 132g, and an internal timer 132i.
  • An initial time synchronization unit 132j (also referred to as an initial synchronization matching unit), an association unit 132k, an output control unit 132m, a copy unit 132n, a retransmission unit 132p, a serial input unit 132r, and a position data calculation unit 132s and the like.
  • the USB input unit 132a takes in the output from the wireless module 11, the raw data of the GNSS receiving module 15b of the position sensor 15 which is a GNSS module, the sensing result of the biological information detection sensor 16 and the like via the USB hub 118. For example, a function for determining the type of the input is provided.
  • the USB input unit 132a receives the input signal (data), determines the content, and provides the signal to each unit according to the determination result.
  • the USB input unit 132a provides this to the wireless module initial setting unit 132d.
  • the USB input unit 132a provides it to the initial time unit 132j and the position data calculation unit 132s. To do.
  • the USB input unit 132a captures the sensor information. To the part 132f.
  • a retransmission request XRi from the tablet 2 it is provided to the retransmission unit 132p.
  • the sensor acquisition type for example, any one of the heart rate,..., 9 axes, or any one of the USB input unit 132 a according to the sensor data SDi captured by the tablet 2. Combination) ki is notified.
  • the serial input unit 132r captures the moving body state information (9-axis sensor information eJi) from the moving body state information detection sensor 18 as sensor data SDi, and captures the sensor data SDi. To the part 132f.
  • the wireless module initial setting unit 132d activates the wireless module 11 when the power is turned on.
  • connection initial setting information is set in the wireless module 11, for example. The connection initial setting information is stored until the connection is disconnected.
  • the transmission format KSRi based on the transmission pattern PTi is stored in the storage unit 131, for example. Generate.
  • the area of the transmission format KSRi generated in the storage unit 131 is also referred to as a transmission format pattern memory 131b.
  • control part 132 will be in the waiting state of the sensor acquisition classification ki from the tablet 2.
  • the initial acquisition format creation unit 132g When the sensor acquisition type ki is received, the initial acquisition format creation unit 132g generates a number of sensor data transmission areas corresponding to the sensor acquisition type ki at the subsequent stage of the transmission format KSRi.
  • the total length of the transmission format KSRi (total number of sensor data transmission areas) increases or decreases according to the sensor acquisition type ki from the tablet 2. Therefore, the smaller the sensor acquisition type ki from the tablet 2, the lighter the data to be transmitted.
  • the initial time setting unit 132j includes a 1PPS signal from the position sensor 15 (GNSS module) via the USB input unit 132a, raw data as original data such as a GNSS time, and a system time STi (from the internal timer 132i). (GNSS time> system time STi) is input, and the system time STi is synchronized with the GNSS time (Raw data).
  • the sensor information capturing unit 132f determines whether the sensor data SDi of the biological information detection sensor 16 or the sensor data SDi of the environment information detection sensor 17 is output from the USB input unit 132a. If output, the USB input unit 132a determines the sensor acquisition type ki. That is, it is determined that there is a sensor that has output the sensor data SDi, and the type is specified.
  • the sensor data SDi is overwritten and saved in the corresponding sensor data transmission area in the sensor data storage area 131c. That is, the sensor data SDi of the biological information SEJi and the environment information SKJi are output at different timings, but are stored until the next sensor data SDi is output.
  • the sensor information capturing unit 132f determines whether or not the sensor data SDi of the moving body state information detection sensor 18 is output from the serial input unit 132r. If the sensor data SDi is output, the sensor data SDi is sequentially output. Is overwritten and saved in the corresponding sensor data transmission area in the sensor data storage area 131c.
  • the sensor data storage area 131c even if the various sensors of the biological information detection sensor 16, the environment information detection sensor 17, and the moving body state information detection sensor 18 output the sensor data SDi at different timings, the next sensor Until the data SDi is output, the stored sensor data SDi is stored.
  • the position data calculation unit 132s periodically obtains and outputs the detection position Pi of the wearable device 1 based on the Raw data from the position sensor 15 that is a GNSS module, the synchronized system time STi, and the like. To do.
  • the association unit 132k When the association unit 132k receives the mobile unit information request information YDJi for requesting the mobile unit information DSJi from the tablet 2 via the wireless module 11 or the USB input unit 132a, the latitude Ei and longitude of the detection position Pi Ni and the system time STi at the time of acquisition are written as header information (position information) in the head portion of the transmission format KSRi in the transmission format pattern memory 131b.
  • each sensor data SDi (with different timing) in the sensor data storage area 131c at the time when the system time STi is acquired is read and written in the subsequent stage of the transmission format KSRi.
  • the associating unit 132k uses the sensor data SDi at the time when the obtained detection position Pi is output after the raw data as the original data of the detection position Pi is synchronized with the system time STi for sensor data.
  • the data is read from the storage area 131c and written to the transmission format KSRi of the transmission format pattern memory 131b (overwriting).
  • the associating unit 132k converts all data such as the system time STi and the detection position Pi into a numeric string in the transmission format KSRi. That is, since each format area of the transmission format KSRi is defined in advance by the sensor acquisition type ki, the tablet 2 or the analysis result providing device 3 can decode even if the transmission format KSRi is transmitted.
  • the amount of data that can be transmitted by the transmission format KSRi can be increased.
  • the output control unit 132m fills each sensor data transmission area of the transmission format KSRi in the transmission format pattern memory 131b every time the association process is completed, and uses this as mobile unit information DSJi via the USB output unit 132b.
  • the wireless module 11 transmits the data to the tablet 2.
  • the output control unit 132m discards (deletes) the sensor data transmission area in which the sensor data SDi is not formatted in the transmission format KSRi, and moves only in the sensor data transmission area in which the sensor data SDi is formatted.
  • Information DSJi is formed.
  • the copy unit 132n copies the mobile body information DSJi and stores it in the mobile body state detection information storage memory area 131d (also referred to as a copy area).
  • the retransmission unit 132p when the mobile body information request information YDJi (see FIG. 13) from the tablet 2 input to the USB input unit 132a includes a retransmission request, the movement corresponding to the mobile body information request information YDJi.
  • the body information DSJi is read from the mobile body state detection information storage memory area 131d and retransmitted to the tablet 2 via the USB output unit 132b.
  • FIG. 39 (a) shows the activation of the main control module 13
  • FIG. 39 (b) shows the activation of the position sensor 15 which is a GNSS module
  • FIG. 39 (c) shows the output timing of the detection position Pi.
  • FIG. 39 (d) shows the output timing of the internal timer 132i (system time STi)
  • FIG. 39 (e) shows the output timing of the 1PPS signal from the position sensor 15 which is a GNSS module.
  • FIG. 39 (f) shows the output timing of the heart rate sensor data SDi
  • FIG. 39 (g) shows the output timing of the sensor data SDi of the 9-axis sensor information eJi
  • FIG. 39 (h) shows the body temperature sensor. The output timing of data SDi is shown.
  • FIG. 39 (i) the transmission format KSRi when the heart rate sensor data SDi, the sensor data SDi of the nine-axis sensor information eJi, and the body temperature sensor data SDi coincide with the system time STi.
  • FIG. 39 (j) shows a format example of the transmission format KSRi when the sensor data SDi of the 9-axis sensor information eJi coincides with the system time STi in timing.
  • the output control unit 132m causes each data of the transmission format KSRi to be transmitted to the tablet 2 by the wireless module 11 through the USB output unit 132b as the mobile unit information DSJi.
  • the tablet 2 can display the heart rate, acceleration, posture value, and the like associated with the fine position PWbi of the soccer player SPai. For this reason, it is possible to grasp in detail, for each fine position PWbi, where and how the soccer player SPai was moving, the situation at that time, and the like.
  • ⁇ Embodiment 3> It has a function of collecting moving body information of a plurality of soccer players SPai simultaneously.
  • real-time kinematic (RTK) is used in order to always maintain position accuracy.
  • FIG. 40 is a schematic configuration diagram of the mobile body information providing system according to the third embodiment.
  • FIG. 40 the same reference numerals as those described above are omitted.
  • FIG. 41 is a specific hardware configuration diagram of the RTK reference station 50.
  • the mobile information providing system includes an RTK reference station 50 that is an access point.
  • the tablet 2 side includes a communication initial connection setting unit 223, a communication terminal side user list creation unit 224, an analysis result display processing unit 226, and the like similar to those of the second embodiment.
  • an RTK reference station 50 similar to that of the second embodiment, an AP-side mobile information transmitting / receiving unit 525, and the like are provided.
  • the pairing information PJi will be described as AP connection information.
  • the RTK reference station 50 which is an access point, includes the RTK reference station 50 similar to that of the second embodiment, the AP-side mobile information transmitting / receiving unit 525, and the like, the communication initial connection setting unit 223, the communication terminal
  • the processing of the side user list creation unit 224, the analysis result display processing unit 226, and the like will be slightly different, and will be described later.
  • the RTK reference station 50 includes an antenna 51, a wireless LAN access point 52 which is a wireless communication device, an external environment detection module 53 for detecting temperature, humidity and light intensity, a USB hub 54, a GNSS.
  • a receiving antenna 55, a GNSS receiving module 56 (GNSS Receiver), a drawing monitor 57, a box computer 58, and the like are provided.
  • an access point address or the like is set by the box computer 58.
  • the box computer 58 includes, for example, positioning data from the GNSS receiving module 56, reference data via a Wi-Fi router (or Bluetooth (registered trademark)), and position information of the wearable device 1 from the wireless LAN access point 52. And position correction data is generated based on the reference position. Then, the generated correction data is transmitted from the antenna 51 to any of the wearable device 1, the tablet 2, or the analysis result providing device 3 via the wireless LAN access point 52.
  • the tablet 2 has a function of receiving the mobile body information DSJi. In this case, the tablet 2 corrects the detection position Pi based on the correction data by the moving body information DSJi. It may be the system time.
  • the above-described box computer 58 includes the RTK reference station 50, the AP-side mobile information transmission / reception unit 525, and the like.
  • the communication initial connection setting unit 223 of the tablet 2 performs communication connection (Wi-Fi) with the RTK reference station 50 of the RTK reference station 50.
  • Mode determination unit 221 When the communication initial connection setting button MGb on the mode selection screen MGi shown in FIG. 16 is selected, the mode determination unit 221 activates the communication initial connection setting unit 223, and the user list registration button MGa or the real participant registration button MGd is displayed. If selected, the communication terminal side user list creation unit 224 is activated.
  • the mobile body information transmitting / receiving unit 225 is activated.
  • the communication initial connection setting unit 223 communicates with a reference time service center (not shown) to acquire the current time when activated, and sets an internal timer (not shown) at the current time. That is, the initial time is set.
  • AP connection information (tablet ID, model, manufacturer, time, etc.) is transmitted to the RTK reference station 50.
  • the communication terminal side user list creation unit 224 receives the user registration information including the player name of the soccer player SPai and the wearable device ID of the wearable device 1 for enabling the provision of the service as the user is activated. As basic registration information UJi (see FIG. 18), it is transmitted to the analysis result providing apparatus 3 via the RTK reference station 50 and registered in advance.
  • the name field of the mobile information request input screen KBGc (FIG. 19) is an input field for a plurality of people (for example, about 20 people). Therefore, communication with a plurality of wearable devices 1 is possible.
  • the analysis result display processing unit 226 requests what kind of sensor data SDi should be analyzed over what time (date and time zone Wti) of each information input on the input screen KBGc for requesting moving body information.
  • the body information analysis request input information KBJi (see FIG. 20) i is transmitted to the analysis result providing apparatus 3 via the RTK reference station 50.
  • the analysis result display processing unit 226 displays a detection position Pi, moving body information DSJi (moving body information DSJi: refer to FIG. 12), etc., on the soccer field Ai of a soccer player SPai described later from the analysis result providing apparatus 3 on the screen.
  • the display control data PKJi (see FIG. 14) is waiting.
  • the RTK reference station 50 of the RTK reference station 50 performs the same processing as the communication initial connection setting unit 223 of the tablet 2 of the second embodiment.
  • the RTK reference station 50 communicates with a reference time service center (not shown) to acquire the current time, and sets an internal timer (not shown) at this current time. That is, the initial time is set.
  • AP connection information (access point ID, model, manufacturer, time, etc.) is transmitted to each wearable device 1 to establish a connection state with each partner.
  • the box computer 52 of the RTK reference station 50 activates the wireless LAN access point 52, and the wireless LAN access point 52 transmits AP connection information via the antenna 51 using the Wi-Fi (registered trademark) protocol.
  • Wi-Fi registered trademark
  • the mobile body information request information YDJi is received from the tablet 2 via the wireless LAN access point 52, it is output to the AP side mobile body information transmitting / receiving unit 525.
  • the AP-side mobile body information transmitting / receiving unit 525 of the box computer 52 reads the mobile body information request information YDJi and transmits it to the wearable device 1 through the antenna 51 using the Wi-Fi (registered trademark) protocol by the wireless LAN access point 52. .
  • the box computer 52 transmits the mobile body information DSJi to the analysis result providing apparatus 3 by the Internet router.
  • the mobile body information analysis request input information KBJi from the tablet 2 is transmitted to the analysis result providing device 3.
  • the camera image CGi, the display control data PKJi (see FIG. 14), etc. from the analysis result providing device 3 are received via the wireless LAN access point 52, and these are transmitted to the tablet 2.
  • positioning data from the GNSS receiving module 56 from the RTK service center and reference data from the RTK service center via the Wi-Fi (registered trademark) router (or Bluetooth (registered trademark)) are preset.
  • Correction data for correcting the position based on the difference from the reference position is obtained, and this correction data is transmitted from the antenna 51 by the wireless LAN access point 52 to the analysis result providing apparatus 3 by the wearable device 1, the tablet 2, or the Internet router. To do.
  • the tablet 2 is not responsible for communication with each wearable device 1, but the RTK reference station 50 is responsible for all. For this reason, it is possible to simultaneously communicate with a plurality of wearable devices 1 as compared with the second embodiment.
  • the position (which may include the system time) is corrected with the correction data from the RTK reference station 50, the position accuracy can always be maintained. Therefore, the obtained fine position has high accuracy.
  • the control unit 132 in the main control module 13 further includes a position correction unit 132t as shown in FIG.
  • the position correction unit 132t takes in correction data from the RTK reference station 50 via the USB input unit 132a. Then, the position data calculation unit 132s corrects the calculated detected position Pi (latitude Ei, longitude Ni) of the wearable device 1 using the correction data received by the position correction unit 132t.
  • FIG. 43 shows an example in which correction data from the RTK reference station 50 is transmitted to the analysis result providing apparatus 3.
  • the same reference numerals as those in FIG. 43 are identical reference numerals as those in FIG. 43.
  • the moving body position related information generation server 324 fetches the correction data from the RTK reference station 50 into the position calculation unit 324d as shown in FIG. In the position calculation unit 324d, the calculated detection position Pi (latitude Ei, longitude Ni) of the wearable device 1 is corrected by the received correction data.
  • a collection device 60 may be further provided as shown in FIG.
  • the collection device 60 may be provided near the soccer field Ai.
  • FIG. 44 shows an example in which the collection device 60 is attached to the wrist of the manager MG.
  • the collection device 60 has a collection function, collects mobile body information DSJi from a plurality of wearable devices 1 at a time, and transmits this to the analysis result providing device 3 or the tablet 2.
  • the back wearable device 1A is attached to the uniform UF of the soccer player SPai, Wearing the leg wearable device 1B inside the stocking UST of the uniform UF (within the thin guard), providing the leg wearable device 1B with the moving body state information detection sensor 18 (9-axis sensor) and the wireless module 11, You may communicate with the tablet 2 which director MG has. In this way, the movement of the foot of the soccer player SPai is well understood, which is useful for instruction and analysis.
  • the initial time capture format creation unit 132g (see FIG. 38) generates a transmission format KSRi, for example, with the head portion for position and system time and the subsequent portion for sensor data. Then, the sensor acquisition type ki from the tablet 2 is waited.
  • the sensor acquisition type ki When the sensor acquisition type ki is received, the sensor acquisition type ki, for example, body temperature, 9 axes, heart rate, or any combination thereof, the subsequent part (area for sensor data) of the transmission format KSRi The number of sensor data transmission areas corresponding to the acquisition type ki is generated. That is, the overall length of the transmission format KSRi changes according to the sensor acquisition type ki from the tablet 2. Therefore, the smaller the sensor acquisition type ki from the tablet 2, the lighter the data to be transmitted.
  • the number of bits used per character (one number) is assumed to be 4 bits, for example, by assuming that the data to be transmitted is only numbers as much as possible. It is possible to transmit up to 64 bytes. In addition, it is possible to make it difficult to guess the contents by making the data for transmission as much as possible.
  • the arrangement pattern of transmission data (for example, a 64-byte numeric string) may be given regularity, that is, encryption may be performed by rearranging the numbers each time data is transmitted.
  • the present invention is not limited to transmitting the actual time as the system time, and for example, a time difference between the wearable device 1 and the tablet 2 may be transmitted.
  • the various sensors of the sensor module are not limited to heart rate sensors, 9-axis sensors, etc., for example, biological information such as pulse rate and sweating, environmental information such as illuminance, luminous intensity, humidity, wind speed, wind direction, and rainfall, or When the moving body is a non-living body such as a drone, a sensor for sensing vibration or the like can also be applied.
  • the wearable device 1 can be made inexpensive by making it possible to configure various sensors by diverting (converting) commercially available sensors.
  • the moving body is not limited to an athlete, and may be, for example, a child or an elderly person.
  • a child or a facility in a geofence such as an amusement park or a leisure land or a park. It can also be applied to caregivers of caregivers in hospitals.
  • monitoring of non-biological vibrations and sounds, altitude, water pressure, depth, weight, etc. not limited to living organisms such as athletes and animals, heavy machinery such as agricultural machinery and construction machinery, drones and robots that are thrown into disaster sites, etc.
  • it is also suitable for sensing water quality, gas concentration, etc. in places where humans cannot enter.
  • the processing circuit includes a programmed processor, electrical circuit, etc., and further, a device such as an application specific integrated circuit (ASIC), or circuit components arranged to perform the described functions Etc. are also included.
  • ASIC application specific integrated circuit
  • the program of the present invention may be recorded on a non-transitory computer-readable medium (a recording medium for recording information by an electrical or magnetic method).
  • the processor may execute the procedure described in the embodiments by executing an instruction or a program stored in a non-transitory computer-readable medium.
  • the mobile body information analysis apparatus displays on the screen in real time a finer interval position than the position detected by the GNSS module, what kind of movement the mobile body next moves to the user watching the screen. It can be made to grasp in detail. Further, since the fine position and the position data are positions based on the correction data from the RTK reference station, the precision is high and this precision can always be maintained. Further, in the mobile body information analyzing apparatus, when the mobile body is a living body, the biological information is displayed in association with the minute interval positions, so that the user viewing the screen can see the living body of the moving body at the minute interval positions. It can be grasped at a glance.
  • the mobile body information analysis device includes mobile body state information such as biological information, posture, and acceleration in the mobile body information from the mobile body information detection terminal
  • the mobile body information analysis device moves with the biological information. Display on the screen in association with body condition information.
  • the analysis result providing apparatus displays the mobile body biological information and mobile body state information from the desired mobile body information detection terminal in association with the screen of the mobile terminal. Can do. Therefore, it is possible to provide more situations (current conditions) such as biological information and moving body state information of moving bodies in real time.

Abstract

サッカー選手SPa1、SPa2、…に装着されて、サッカー選手SPa1、SPa2、…の状況を検出するウェアラブルデバイス1と移動体情報解析装置30とで構成される移動体情報提供システムであって、ウェアラブルデバイス1は、記憶部と、内部タイマと、位置センサと、複数種のセンサを有する移動体情報検出センサと、初期時刻合部と、位置データ算出部と、出力制御部と、通信モジュール等を備え、移動体情報解析装置30は、移動体情報送受部225や解析結果表示処理部226等を備えるタブレット2と、微細位置データ用記憶部や位置算出部等を備える解析センタCの解析結果提供装置3と、を有する。

Description

移動体情報提供システム及び移動体情報提供プログラム
 本発明は、移動体情報提供システムに関する。
 近年は、人又は動物等の被験体の生体情報を遠隔地点で取得することが可能となっている。
 例えば、特許文献1の生体情報モニターシステムは、被験体に生体情報と現在位置とを検出して送信する生体情報送信端末を装着させ、遠隔地点の生体情報計測装置が生体情報と現在位置とを受信し、これらを対応付て表示することが開示されている(段落[0050]~[0054]、[0059]参照)。
特開2008-272163号公報
 しかしながら、一般に、GPS受信器による位置検出間隔は、1秒間隔であり、移動時の速度が速い被験体では、1sec間に数m~十数mも移動する。
 これに対して、特許文献1に記載の生体情報モニターシステムは、生体情報送信端末から1秒間隔に現在位置と生体情報とを送信し、生体情報計測装置がこれを受信して、画面にこれらを対応付けて表示している。
 このため、特許文献1に記載の生体情報モニターシステムは、前回の位置と今回の位置との間の被験体の状況を把握させることができないという課題があった。例えば、被験体が素早く動いたときの、その間の状況を細かく把握させることができない。
 本発明は、このような事情に鑑みてなされたものであり、GPS受信器で検出した移動体の前回の位置と今回の位置との間の細かな状況を一目で把握させることがでる移動体情報提供システムを得ることを目的とする。
 上記課題を解決するために、本発明の移動体情報提供システムは、
 移動体に装着されて、前記移動体の状況を検出する移動体情報検出端末と移動体情報解析装置とで構成されて、前記移動体情報解析装置と前記移動体情報検出端末との間で無線通信を行う移動体情報提供システムであって、
 前記移動体情報検出端末は、
 前記移動体情報解析装置の時刻で初期時刻合せを行って、位置検出の元となるGNSSデータのRawデータと同期がとられたシステム時刻又は前記システム時刻と前記Rawデータとに基づいて得た位置データとの組を移動体情報として生成する手段と、
 前記移動体情報を前記移動体情報解析装置に送信する手段と
 を備え、
 前記移動体情報解析装置は、
 位置算出データ用記憶部を備え、さらに、
(A).前記移動体情報を受信する毎に、これに含まれているシステム時刻と前記位置データとを今回の微細位置データ情報として読み込む手段と、
(B).前記今回の微細位置データ情報の前記システム時刻の今回の微細位置を、このシステム時刻と前記位置算出データ用記憶部に格納されている前回の微細位置データ情報のシステム時刻及び微細位置とに基づいて算出する手段と、
(C).算出した今回の前記微細位置を、前記移動体に関連付て画面上に表示させる手段と、
(D).この今回の微細位置を前回の微細位置とし、この前回の微細位置と前記今回の微細位置データ情報に含まれているシステム時刻との組を前記前回の微細位置データ情報として、前記位置算出データ用記憶部に格納する手段と
 を備えることを要旨とする。
 本発明によれば、移動体情報解析装置がGNSSモジュールで検出した位置よりも微細な間隔位置をリアルタイムで画面に表示させるので、画面を見ているユーザに、次に移動体がどんな動きをするかを細かく把握させることができる。
 また、微細位置、位置データはRTK基準局からの補正データに基づいた位置であるので、精度が高いとともに、この精度を常に維持できる。
 また、移動体情報解析装置において、移動体が生体の場合は、微細な間隔位置に生体情報を関連付けて表示するので、画面を見ているユーザに、この微細な間隔位置における移動体の生体を一目で把握させることができる。
 さらに、移動体情報解析装置が、移動体情報検出端末からの移動体情報に生体情報、姿勢や加速度等の移動体状態情報が含まれている場合は、移動体情報解析装置が生体情報と移動体状態情報とを関連付けて画面に表示する。
 このため、例えば、移動体がサッカー選手であった場合には、移動体情報解析装置のユーザ(監督やコーチ等)は、その選手が、どの地点でどのような動きをしていたか、そのときの状況はどうであったかを、検出位置単位で把握できる。
 また、移動体情報検出端末が複数であっても、解析結果提供装置は、所望の移動体情報検出端末からの移動体の生体情報や移動体状態情報を携帯端末の画面に関連付けて表示させることができる。したがって、より多くの移動体の生体情報や移動体状態情報といった状況(現状)を、リアルタイムで提供できる。
図1は、本実施の形態1に係る移動体情報提供システムの概略構成図である。 図2は、表示装置(タブレット)におけるデバイス管理の説明図である。 図3は、ユーザとウェアラブルデバイスとの関連付けの説明図である。 図4は、ウェアラブルデバイスの初期動作を示すフローチャートである。 図5は、ウェアラブルデバイスがタブレットに送信する際のフローチャートである。 図6は、ウェアラブルデバイスがタブレットに再送信する際のフローチャートである。 図7は、タブレットにおける処理のフローチャートである。 図8(a)~図8(c)は、図7のステップT29の具体例を説明するためのもので、図8(a)は、試合時刻に対し、直前の位置取得時刻を含む位置情報の位置データを対応付ける場合の説明図であり、図8(b)は、試合時刻に対し、直後の位置取得時刻を含む位置情報の位置データを対応付ける場合の説明図であり、図8(c)は、試合時刻に対し、直前の位置取得時刻を含む位置情報の位置データと直後の位置取得時刻を含む位置情報の位置データとの間の位置データを対応付ける場合の説明図である。 図9(a)~図9(c)は、図7のステップT31の具体例を説明するためのもので、図9(a)は、試合時刻に対し、直前のセンサデータ取得時刻を含む移動体情報のセンサデータを対応付ける場合の説明図であり、図9(b)は、試合時刻に対し、直後のセンサデータ取得時刻を含む移動体情報のセンサデータを対応付ける場合の説明図であり、図9(c)は、試合時刻に対し、直前のセンサデータ取得時刻を含む移動体情報のセンサデータと直後のセンサデータ取得時刻を含む移動体情報のセンサデータとの間のセンサデータを対応付ける場合の説明図である。 図10は、本実施の形態2に係る移動体情報提供システムのウェアラブルデバイスの装着例を示す図である。 図11は、移動体情報提供システムの具体例を示す概略構成図である。 図12は、移動体情報の一例を示す図である。 図13は、移動体情報要求情報の一例を示す図である。 図14は、位置付移動体情報解析結果表示制御データの一例を示す図である。 図15は、移動体解析結果情報の一例を示す図である。 図16は、タブレットでのモード選択画面の表示例を示す図である。 図17(a)は、実参加者入力情報の一例を示す図であり、図17(b)は、実参加ユーザペアリング情報の一例を示す図であり、図17(c)は、実参加ユーザ通信準備登録完了情報の一例を示す図であり、図17(d)は、競技実参加ユーザ別基本情報の一例を示す図である。 図18(a)及び図18(b)は、ユーザ基本登録情報の一例を示すもので、図18(a)は、ユーザリスト(ユーザ管理者基本情報)の登録画面の表示例を示す図であり、図18(b)は、ユーザ基本情報の登録画面の表示例を示す図である。 図19は、移動体情報要求用入力画面の表示例を示す図である。 図20は、移動体情報解析要求入力情報の一例を示す図である。 図21は、送信パターンの一例を示す図である。 図22は、微細位置の表示例を示す図である。 図23は、ウェアラブルデバイスの動作の概念を説明するブロック図である。 図24は、解析結果提供装置の具体例を示す概略構成図である。 図25は、微細位置データ情報の一例を示す図である。 図26は、解析画面の表示例を示す図である。 図27は、解析データ用メモリのフォーマット構成を示す概略図である。 図28は、移動体情報提供システムの全体動作を説明するために示すシーケンス図である(その1)。 図29は、移動体情報提供システムの全体動作を説明するために示すシーケンス図である(その2)。 図30は、移動体情報提供システムの全体動作を説明するために示すシーケンス図である(その3)。 図31は、移動体情報受取サーバの処理を説明するフローチャートである。 図32は、微細位置データ用レコード生成処理を説明するフローチャートである。 図33は、微細位置算出処理を説明するフローチャートである(その1)。 図34は、微細位置算出処理を説明するフローチャートである(その2)。 図35は、移動体情報報関連付部での処理を説明するフローチャートである。 図36は、解析結果の表示例を示す図である。 図37は、ウェアラブルデバイスの具体例を示す概略構成図である。 図38は、ウェアラブルデバイスのメイン制御モジュールにおける制御部の機能ブロックを示す概略図である。 図39は、ウェアラブルデバイスの動作を説明するために示すタイミングチャートである。 図40は、本実施の形態3に係る移動体情報提供システムの概略構成図である。 図41は、移動体情報提供システムにおけるRTK用基準局の概略構成図である。 図42は、RTK用のウェアラブルデバイスの制御部の概略プログラム構成図である。 図43は、RTK用の解析結果提供装置の概略構成図である。 図44は、移動体情報提供システムに適用可能な収集装置の装着例を示す図である。 図45は、移動体情報提供システムにおいて、ウェアラブルデバイスの他の構成例を示す概略図である。
 以下、本実施の形態について図面を参照して説明する。
 なお、以下に示す実施の形態は、発明の技術的思想(構造、配置)を具体化するための装置や方法を例示したものであって、本発明の技術的思想は、下記のものに特定されるものではない。本発明の技術的思想は、特許請求の範囲に記載された事項の範囲内において、種々の変更を加えることができる。
 特に、図面は模式的なものであり、装置やシステムの構成等は現実のものとは異なることに留意すべきである。
 本実施の形態は、例えば、人間や動物等の移動する生体の他、ドローンやロボット又は農機や建機等の重機のような移動する非生体等に装着された移動体情報検出端末と、この移動体情報検出端末に対して近傍となる表示装置と、移動体情報検出端末及び表示装置に対して遠隔地点となる解析結果提供装置とで構成された移動体情報提供システムとして説明する。表示装置と解析結果提供装置とを総称して移動体情報解析装置(外部装置)と称する。
 前述の生体及び非生体を総称して移動体と称する。生体は、マラソン選手やラグビー選手、サッカー選手、卓球選手、自転車競技等の競技者、又は動物等が好ましい。
 以下の説明において、実施の形態1では、移動体情報提供システムの概要を説明し、実施の形態2では、この移動体情報提供システムの具体的な構成を例示して説明する。
 <実施の形態1>
 図1は、本実施の形態1に係る移動体情報提供システムの概略構成図である。
 移動体情報提供システムは、図1に示すように、生体である競技者SPi(移動体)に装着されたバンドタイプの移動体情報検出端末(以下、「ウェアラブルデバイス1」という)と、携帯パソコン、タブレット、スマートフォン等の通信機能を備えた表示装置と、解析センタCの解析結果提供装置3等で構成されている。
 この表示装置の一例として、実施の形態においては、タブレット2を用いて説明する。
 上述のウェアラブルデバイス1は、例えば無線通信規格によって、タブレット2と無線通信を行う。また、タブレット2は、インターネット網Nを介して、クラウド等に配置された解析結果提供装置3と通信可能となっている。
 ウェアラブルデバイス1は、複数の競技者SPiのそれぞれが装着する。ウェアラブルデバイス1は、例えば、各競技者SPiの手首に装着して使用される。フィールドで競技する競技者SPi(例えば、サッカー選手やラグビー選手等)が、ウェアラブルデバイス1を装着して競技や練習を行う。
 ウェアラブルデバイス1は、無線通信モジュール(以下、「無線モジュール11」という)と、電池モジュール12と、メイン制御モジュール13と、出力モジュール14とを備えている。さらに、複数のセンサモジュールを備えている。
 これらのセンサモジュールは、例えば、位置センサ15(高感度位置情報検出センサであるGNSS(Global Navigation Satellite System)モジュールともいう)と、生体情報検出センサ16と、環境情報検出センサ17、移動体状態情報検出センサ18等よりなる。
 位置センサ15は、例えば、後述するGNSS衛星AS1を用いて測位する、GPS(Global Positioning System)等の衛星測位システムモジュールである。
 生体情報検出センサ16は、競技者SPiの心拍数や脈拍数等の生体情報を検出する心拍センサや脈拍センサ等の各種センサを含む。
 環境情報検出センサ17は、競技者SPiの周囲の気圧や気温等の周囲情報を取得する気圧センサや温度センサ等の各種センサを含む。
 移動体状態情報検出センサ18は、競技者SPiがどんな姿勢か、どんな速度か等を検出する9軸センサ(移動体状態検出モジュールともいう)である。9軸センサは、ジャイロセンサ(3軸)、加速度センサ(3軸)、地磁気センサ(3軸)等よりなる。
 メイン制御モジュール13は、記憶部131(デバイス側位置算出データ用記憶部(330)ともいう)、制御部132、及び両者を繋ぐインタフェース(図示せず)を備える。
 出力モジュール14は、例えば、LEDランプ、バイブレータ、音声再生装置(スピーカやブザー)等により構成される。電池モジュール12は、バッテリや電池を含んで構成される。
 タブレット2は、例えば、競技者SPiの位置と疲れ具合の関係等を、競技者SPiに対して近傍(ベンチ前等)において、把握したいチームの監督MGやコーチが使用するタブレット型のコンピュータ(携帯端末)である。
 タブレット2は、図1に示すように、タブレット側無線モジュール21、収集解析アプリケーション部22、モバイルデータ通信部23、及び記憶部(以下、「タブレット側記憶部24」と称する)を備える。このタブレット側記憶部24を第1の位置算出データ用記憶部(330)とも称する。
 タブレット2は、モバイルデータ通信部23により、通信事業者が設置したアンテナを介して、インターネット網Nに接続可能である。一方、解析結果提供装置3も、インターネット網Nに接続可能である。これにより、タブレット2と解析結果提供装置3は互いに通信可能である。
 解析結果提供装置3は、例えば、競技者SPiのパフォーマンス計測、センサ補正、SNS(ソーシャルネットワーキングサービス)、人材マッチング、競技者SPiの医療、競技者SPiのトレーニング等を担う情報を提供するアプリケーションサービス部31と、競技者SPiの個人データ、チームデータ、環境データ、解析データを記憶するデータベース32とを備える。
 (デバイス管理)
 図2は、タブレット2におけるデバイス管理の説明図である。
 ウェアラブルデバイス1の無線モジュール11とタブレット側無線モジュール21とが接続すると、タブレット2では、送信側のウェアラブルデバイス1を探知し(ステップS1)、ウェアラブルデバイス1のユーザインタフェース(UI)に対し、タブレット2と接続中であることを通知する(ステップS3)。
 次に、タブレット2は、ウェアラブルデバイス1に固有の情報(Bluetooth(登録商標)の場合は、又はデバイスアドレス、Wi-Fi(登録商標)の場合、若しくはMACアドレス、無線モジュールに固有の情報がない場合は、ウェアラブルデバイス1のソフトウエアに固有のプロファイル)を取得する(ステップS5)。
 上述の固有の情報である、デバイスアドレス、MACアドレス、固有のプロファイルを総称して、ウェアラブルデバイス識別情報と称する。
 次に、その固有の情報を画面(図示省略)にリスト表示するとともに(ステップS7)、ウェアラブルデバイス1のユーザインタフェース(UI)に対し、登録候補として、このウェアラブルデバイス1が選択中であることを通知する(ステップS9)。
 次に、タブレット2のユーザ、例えば監督MGはリストを目視確認し(ステップS11)、登録するか否かのユーザ判断を入力する(ステップS13)。登録することが入力された場合は(ステップS15:YES)、ウェアラブルデバイス1を登録する(ステップS17)。その際、ウェアラブルデバイス1の情報として、固有の情報とデバイス名(任意の名前)とをクラウドに登録するとともに(ステップS19)、ウェアラブルデバイス1のユーザインタフェース(UI)に登録完了を通知する(ステップS21)。
 (ユーザとウェアラブルデバイスの関連付け)
 図3は、ユーザとウェアラブルデバイスとの関連付けの説明図である。
 まず、タブレット2は、クラウドに設置された解析結果提供装置3等からユーザ情報リストとデバイス情報リストとを取得する(ステップS31)。
 次に、ユーザ情報リストとデバイス情報リストとを図示せぬ画面に表示し(ステップS33)、タブレット2のユーザ、例えば監督MGが目視確認し(ステップS35)、タブレット2のユーザが関連付けを行うか否かのユーザ判断を入力する(ステップS37)。
 関連付けを行うとのユーザ判断が入力された場合(ステップS39:YES)、関連付け処理を行う(ステップS41)。その際、関連付け情報としてユーザIDとウェアラブルデバイスIDとをクラウドに登録し(ステップS43)、そのウェアラブルデバイス1とタブレット2とが接続中の場合は、ウェアラブルデバイス1のユーザインタフェース(UI)に対し、関連付け完了を通知する(ステップS45)。
 図4は、ウェアラブルデバイス1の初期動作を示すフローチャートである。
 制御部132は、ウェアラブルデバイス1が起動されると、位置センサ15に日時情報を要求する(ステップS51)。これにより、位置センサ15は、制御部132に対し、例えばRawデータ若しくはNMEA(National Marine Electronics Association)形式のGNSSデータで応答を出力する(T1)。
 制御部132は、応答を受信したら(ステップS53)、応答内の日時情報の有無を判定し(ステップS55)、日時情報がなければ、位置センサ15が次に出力する応答を待ち、これを受信する(ステップS53)。
 制御部132は、応答内に日時情報があれば、GNSSデータ形式のチェックサムを実施し(ステップS57)、チェックサムがNGなら、次の応答を待ち、受信する(ステップS53)。
 制御部132は、チェックサムがOKなら、GNSSデータの構文をチェックし(ステップS59)、構文のチェックがNGなら、次の応答を待ち、受信する(ステップS53)。
 制御部132は、構文のチェックがOKなら、応答から日時情報を抽出し(ステップS61)、日時情報がGNSS時刻(1980年でない日時、すなわち現在の日時)か否かを判定する(ステップS63)。GNSS時刻でないなら、次の応答を待ち、受信する(ステップS53)。
 制御部132は、GNSS時刻(現在の日時)なら、そのGNSS時刻の少数点以下(1sec以下)の3桁が000又は100の整数倍か否かを判定する(ステップS65)。少数点以下の3桁が000でもなく、100の整数倍でもない場合は、次の応答を待ち、受信する(ステップS53)。
 制御部132は、少数点以下の3桁が000又は100の整数倍の場合は、自身がシステム時計としてもつ内部タイマ(132i)の時刻(システム時刻という)をGNSS時刻に一致させる(ステップS67)。
 ステップS53~ステップS67までの処理時間は、およそ10数msec程度である。
 次に、制御部132は、位置センサ15が出力するフレームヘッダを受信し(ステップS71)、該ヘッダが1PPS信号(1秒に1回のクロック波形)を含むか否かを判定する(ステップS73)。1PPS信号を含まない場合は、次の信号を待ち、受信する(ステップS71)。
 制御部132は、ヘッダが1PPS信号を含むなら、システム時刻の少数点以下(1sec以下)を全てゼロにし、そのシステム時刻に1secを加算し(ステップS75)、初期動作を終える。
 ステップS71~ステップS75の処理時間は、およそ1msec未満程度である。
 以上の初期動作により、以降、位置センサ15から位置データとともに送信されるGNSS時刻は、その受信時のシステム時刻に常に一致することとなる。
 図5は、ウェアラブルデバイス1が移動体情報と位置情報とIDをタブレット2に送信する際のフローチャートである。
 初期動作後、メイン制御モジュール13の制御部132は、位置センサ15に位置データを要求する(ステップS81)。これにより、位置センサ15は、制御部132に対し、位置データとGNSS時刻とを1sec毎に送信する。
 制御部132は、位置データとGNSS時刻を受信したら(ステップS83)、GNSS時刻を位置取得時刻として、これと位置データを含む位置情報を生成し、ウェアラブルデバイス1を装着した競技者SPiを示すID(識別情報)に関連付けて、例えば記憶部131に記憶させる(ステップS85)。また、位置情報とIDをタブレット2に送信する(ステップS87)。
 一方、位置センサ15以外のセンサからは、特有のタイミングで、生体情報、環境情報、移動体状態情報等の移動体情報のセンサデータ(SDi)が制御部132に送信される。
 制御部132は、例えば、システム時刻を取得し(ステップS91)、気圧を受信したなら(ステップS92)、この気圧のセンサデータとそれを取得したシステム時刻とを含む環境情報を生成し、IDに関連付けて記憶部131に記憶させる(ステップS93)。また、環境情報とIDとをタブレット2に送信する(ステップS94)。実施の形態1では、このシステム時刻をセンサデータ取得時刻とも称する。
 次に、制御部132は、例えば、システム時刻を取得し(ステップS95)、姿勢値を受信したなら(ステップS96)、この姿勢値のセンサデータとそれを取得したシステム時刻(センサデータ取得時刻)とを含む移動体状態情報を生成し、IDに関連付けて記憶部131に記憶させる(ステップS97)。また、移動体状態情報とIDとをタブレット2に送信する(ステップS98)。
 次に、制御部132は、例えば、システム時刻を取得し(ステップS99)、加速度を受信したなら(ステップS100)、この加速度のセンサデータとそれを取得したシステム時刻(センサデータ取得時刻)とを含む移動体状態情報を生成し、IDに関連付けて記憶部131のメモリ領域131aに記憶させる(ステップS101)。また、移動体状態情報とIDとをタブレット2に送信する(ステップS102)。前述の姿勢値、加速度、方向等を移動体状態情報と称している。
 次に、制御部132は、例えば、システム時刻を取得し(ステップS103)、心拍数を受信したなら(ステップS104)、この心拍数のセンサデータとそれを取得したシステム時刻(センサデータ取得時刻)とを含む生体情報を生成し、IDに関連付けて記憶部131に記憶させる(ステップS105)。また、生体情報とIDとをタブレット2に送信する(ステップS106)。
 次に、制御部132は、例えば、システム時刻を取得し(ステップS107)、気温を受信したなら(ステップS108)、この気温のセンサデータとそれを取得したシステム時刻(センサデータ取得時刻)とを含む環境情報を生成し、IDに関連付けて記憶部131に記憶させる(ステップS109)。また、環境情報とIDとをタブレット2に送信する(ステップS110)。
 次に、制御部132は、例えば、システム時刻を取得し(ステップS111)、脈拍数を受信したなら(ステップS112)、この脈拍数のセンサデータとそれを取得したシステム時刻(センサデータ取得時刻)とを含む生体情報を生成し、IDに関連付けて記憶部131に記憶させる(ステップS113)。また、生体情報とIDをタブレット2に送信し(ステップS114)、ステップS83に戻る。
 本実施の形態1においては、生体情報、環境情報、及び、移動体状態情報(9軸)を総称して移動体情報とも称する。
 図6は、タブレット2が受信できなかった移動体情報と位置情報とIDとを、ウェアラブルデバイス1がタブレット2に再送信する際のフローチャートである。
 タブレット2は、移動体情報と位置情報とIDとを受信できなかった期間を指定したリクエストを、ウェアラブルデバイス1に送信する(T10)。例えば、期間の長さ(例えば、1sec間隔)が予め定められている場合は、期間の開始時刻が指定される。
 ウェアラブルデバイス1のメイン制御モジュール13の制御部132は、リクエストを受信したなら(ステップS131:YES)、リクエストに指定された期間に含まれるシステム時刻(センサデータ取得時刻)を含む移動体情報とID、並びに該期間に含まれる位置取得時刻を含む位置情報とIDとを記憶部131から読み出し(ステップS133)、移動体情報と位置情報とIDとを、タブレット2に送信し(ステップS135)、ステップS131に戻る。
 これにより、タブレット2は、通信障害等の理由で受信できなかった移動体情報とID並びに位置情報とIDを取得することができる。
 図7は、タブレット2における処理のフローチャートである。
 タブレット2のタブレット側無線モジュール21は、ウェアラブルデバイス1から位置情報とIDを受信し(ステップT11)、気圧を含む環境情報とIDを受信し(ステップT12)、姿勢値を含む移動体状態情報とIDを受信し(ステップT13)、加速度を含む移動体状態情報とIDを受信し(ステップT14)、心拍数を含む生体情報とIDを受信し(ステップT15)、気温を含む環境情報とIDを受信し(ステップT16)、脈拍数を含む生体情報とIDを受信する(ステップT17)。
 タブレット2の収集解析アプリケーション部22は、例えば、サッカー等の試合が終了したら、各IDについて以下のように処理を行う。
 まず、試合中の100msec単位の全ての時刻(以下、試合時刻という)のそれぞれについて、つまり、予め設定した各時刻について、その試合時刻を含むレコードをタブレット側記憶部24に生成する(ステップT21)。
 次に、受信した位置情報の位置取得時刻と受信した移動体情報のセンサデータ取得時刻とを100msec単位に丸める(ステップT23)。丸める前後の時刻差を計算しておいても良い。
 次に、各レコードにつき、試合時刻と同じ位置取得時刻を含む位置情報を検索し、位置情報から位置データを読み出し、レコードに記憶させる(ステップT25)。
 次に、各レコードにつき、試合時刻と同じセンサデータ取得時刻を含む移動体情報を検索し、移動体情報からセンサデータを読み出し、レコードに記憶させる(ステップT27)。
 次に、位置データを含まない各レコード(対象レコードという)に対し、位置データを記憶させる(ステップT29)。
 ここでは、例えば、位置データを含み、且つ対象レコードの試合時刻よりも早い試合時刻で、且つ最も対象レコードの試合時刻に近い試合時刻を含むレコードを検索し、検索されたレコードの位置データと同じ位置データを対象レコードに記憶させる。つまり、試合時刻に対し、直前の位置取得時刻を含む位置情報の位置データを対応付ける。
 例えば、図8(a)に示すように、対象レコードの試合時刻がYYYY/MM/DD:HH:MM:01.200であり、検索されたレコードの試合時刻がYYYY/MM/DD:HH:MM:01.100であり、緯度E1、経度N1を含んでいる場合は、対象レコードには、緯度E1、経度N1を記憶させる。
 または、位置データを含み、且つ対象レコードの試合時刻よりも遅い試合時刻で、且つ最も対象レコードの試合時刻に近い試合時刻を含むレコードを検索し、検索されたレコードの位置データと同じ位置データを対象レコードに記憶させる。つまり、試合時刻に対し、直後の位置取得時刻を含む位置情報の位置データを対応付ける。
 例えば、図8(b)に示すように、対象レコードの試合時刻がYYYY/MM/DD:HH:MM:01.200であり、検索されたレコードの試合時刻がYYYY/MM/DD:HH:MM:01.300であり、緯度E2、経度N2を含んでいる場合は、対象レコードには、緯度E2、経度N2を記憶させる。
 または、位置データを含み、且つ対象レコードの試合時刻よりも早い試合時刻で、且つ最も対象レコードの試合時刻に近い試合時刻を含むレコードを検索し、位置データを含み、且つ対象レコードの試合時刻よりも遅い試合時刻で、且つ最も対象レコードの試合時刻に近い試合時刻を含むレコードを検索し、検索された2つのレコードの位置データが示す位置の間の位置を示す位置データを対象レコードに記憶させる。つまり、試合時刻に対し、直前の位置取得時刻を含む位置情報の位置データと直後の位置取得時刻を含む位置情報の位置データとの間の位置データを対応付ける。
 例えば、図8(c)に示すように、対象レコードの試合時刻がYYYY/MM/DD:HH:MM:01.200であり、検索された一方のレコードの試合時刻がYYYY/MM/DD:HH:MM:01.100であり、緯度E1、経度N1を含み、検索された他方のレコードの試合時刻がYYYY/MM/DD:HH:MM:01.300であり、緯度E2、経度N2を含んでいる場合は、対象レコードには、緯度=(E1+E2)/2、経度=(N1+N2)/2を記憶させる。つまり、位置データがないレコードに記憶させる位置データは、直前の位置取得時刻を含む位置情報の位置データと直後の位置取得時刻を含む位置情報の位置データの平均である。なお、図8(c)に示す処理は不要であれば省略しても良い。
 次に、センサデータを含まない各レコード(対象レコードという)に対し、センサデータを記憶させる(ステップT31)。
 センサデータを含み、且つ対象レコードの試合時刻よりも早い試合時刻で、且つ最も対象レコードの試合時刻に近い試合時刻を含むレコードを検索し、検索されたレコードのセンサデータと同じセンサデータを対象レコードに記憶させる。つまり、試合時刻に対し、直前のセンサデータ取得時刻を含む移動体情報のセンサデータを対応付ける。
 例えば、図9(a)に示すように、対象レコードの試合時刻がYYYY/MM/DD:HH:MM:01.200であり、検索されたレコードの試合時刻がYYYY/MM/DD:HH:MM:01.100であり、心拍数「54」を含んでいる場合は、対象レコードには、心拍数「54」を記憶させる。
 または、センサデータを含み、且つ対象レコードの試合時刻よりも遅い試合時刻で、且つ最も対象レコードの試合時刻に近い試合時刻を含むレコードを検索し、検索されたレコードのセンサデータと同じセンサデータを対象レコードに記憶させる。つまり、試合時刻に対し、直後のセンサデータ取得時刻を含む移動体情報のセンサデータを対応付ける。
 例えば、図9(b)に示すように、対象レコードの試合時刻がYYYY/MM/DD:HH:MM:01.200であり、検索されたレコードの試合時刻がYYYY/MM/DD:HH:MM:01.300であり、心拍数「63」を含んでいる場合は、対象レコードには、心拍数「63」を記憶させる。
 または、センサデータを含み、且つ対象レコードの試合時刻よりも早い試合時刻で、且つ最も対象レコードの試合時刻に近い試合時刻を含むレコードを検索し、センサデータを含み、且つ対象レコードの試合時刻よりも遅い試合時刻で、且つ最も対象レコードの試合時刻に近い試合時刻を含むレコードを検索し、検索された2つのレコードのセンサデータの間のセンサデータを対象レコードに記憶させる。つまり、試合時刻に対し、直前のセンサデータ取得時刻を含む移動体情報のセンサデータと直後のセンサデータ取得時刻を含む移動体情報のセンサデータとの間のセンサデータを対応付ける。
 例えば、図9(c)に示すように、対象レコードの試合時刻がYYYY/MM/DD:HH:MM:01.200であり、検索された一方のレコードの試合時刻がYYYY/MM/DD:HH:MM:01.100であり、心拍数「54」を含み、検索された他方のレコードの試合時刻がYYYY/MM/DD:HH:MM:01.300であり、心拍数「63」を含んでいる場合は、対象レコードには、心拍数「58.5=(54+63)/2」を記憶させる。つまり、センサデータがないレコードに記憶させるセンサデータは、直前のセンサデータ取得時刻を含む移動体情報のセンサデータと直後のセンサデータ取得時刻を含む移動体情報のセンサデータの平均である。なお、図9(c)に示す処理は不要であれば省略しても良い。
 図7の処理により、全てのレコードが位置データとセンサデータとを含むことになる。つまり、各レコードの試合時刻について、同時刻の位置データとセンサデータとが得られたことになる。
 そして、収集解析アプリケーション部22は、例えばモバイルデータ通信部23を介して、全てのレコードの情報を解析結果提供装置3に送信する。
 解析結果提供装置3のアプリケーションサービス部31は、全てのレコードの情報を受信し、様々な情報解析を行う。
 例えば、競技者SPiをサッカー選手SPaiとした場合において、ある同一のID(同一のサッカー選手SPai)について、同時刻の位置データと加速度(センサデータ)とが得られる。特定の位置データ(例えば、敵陣ゴール前の位置)に対して比較的高い加速度が多く紐付けられている場合は、そのサッカー選手SPaiは、敵陣ゴール前の位置での瞬発力に優れ、フォワードのポジションに向いている等と判断できる。
 また、IDに関わらず、特定の位置データ(例えば、自陣ゴール前の位置)に対して比較的高い心拍数や脈拍数が多く紐付けられている場合は、そのチームは、自陣ゴール前では必要以上に動揺している可能性がある等と判断できる。
 また、ある同一のID(同一のサッカー選手SPai)について、特定の位置データ(例えば、サイドライン付近の位置)に紐付けられた姿勢値の変化が少ない場合は、そのサッカー選手SPaiは、サイドライン付近で敵の選手との接触が少なく、サイドバックのポジションに向いている等と判断できる。
 解析結果提供装置3のアプリケーションサービス部31は、こうして解析した結果をタブレット2に送信し、タブレット2は、解析結果を表示部等に表示する。これを見た監督MGやコーチは、解析結果を選手交代や作戦変更に利用することができる。
 なお、上記実施の形態1では、選手を区別するためにIDを用いたが、区別不要な場合はIDも不要である。例えば、トラック競技を行う唯一の自国選手(生体)における同時刻の位置データとセンサデータとを得る場合にはIDは不要である。また、ステップT25、T27の丸め処理は省略しても良い。
 以上のように、本実施の形態1の移動体情報提供システムは、移動体に装着するウェアラブルデバイス1及びこのウェアラブルデバイス1と通信可能なタブレット2を含むものであって、ウェアラブルデバイス1は、移動体の位置データを取得する位置センサ15と、移動体の生体情報を取得する生体情報検出センサ16と、移動体の周囲の気圧や温度等の環境情報を取得する環境情報検出センサ17と、移動体の姿勢や速度等の移動体状態情報を取得する移動体状態情報検出センサ18とを備える。また、位置データと該位置データを取得した位置取得時刻とを含む位置情報、及びセンサデータと該センサデータを取得したセンサデータ取得時刻とを含む移動体情報を、逐次、タブレット2に送信するメイン制御モジュール13を備える。
 タブレット2は、収集解析アプリケーション部22を備え、収集解析アプリケーション部22は、予め設定された時刻(上記例の試合時刻)に対し、時刻(試合時刻)の直前又は直後のセンサデータ取得時刻を含む移動体情報のセンサデータを対応付ける(ステップT31)。また、時刻(試合時刻)に対し、時刻(試合時刻)の直前又は直後の位置取得時刻を含む位置情報の位置データを対応付ける(ステップT29)。よって、上記例の各レコードで、実質的に同時刻における移動体の位置データとセンサデータとを得ることができる。
 例えば、収集解析アプリケーション部22は、時刻(試合時刻)の直前のセンサデータ取得時刻を含む移動体情報のセンサデータと直後のセンサデータ取得時刻を含む移動体情報のセンサデータとの間のセンサデータを対応付ける(ステップT31)。また、時刻(試合時刻)の直前の位置取得時刻を含む位置情報の位置データと直後の位置取得時刻を含む位置情報の位置データとの間の位置データを対応付ける(ステップT29)。よって、上記例の各レコードで、実質的に同時刻における移動体の位置データとセンサデータとを得ることができる。
 また、直前のセンサデータ取得時刻を含む移動体情報のセンサデータと直後のセンサデータ取得時刻を含む移動体情報のセンサデータとの間のセンサデータは、直前のセンサデータ取得時刻を含む移動体情報のセンサデータと直後のセンサデータ取得時刻を含む移動体情報のセンサデータの平均である。よって、上記例の各レコードにセンサデータ(平均)を記憶させることができ、これにより、実質的に同時刻における移動体の位置データとセンサデータとを得ることができる。
 また、直前の位置取得時刻を含む位置情報の位置データと直後の位置取得時刻を含む位置情報の位置データとの間の位置データは、直前の位置取得時刻を含む位置情報の位置データと直後の位置取得時刻を含む位置情報の位置データの平均である。よって、上記例の各レコードに位置データ(平均)を記憶させることができ、これにより、実質的に同時刻における移動体の位置データとセンサデータとを得ることができる。
 また、タブレット2は、移動体に装着するウェアラブルデバイス1と通信可能な通信装置であって、その収集解析アプリケーション部22は、ウェアラブルデバイス1から、移動体の位置データと該位置データを取得した位置取得時刻とを含む位置情報、及び移動体又は周囲の状態を示すセンサデータと該センサデータを取得したセンサデータ取得時刻とを含む移動体情報を受信する(ステップT11~T17)。そして、予め設定された時刻(上記例の試合時刻)に対し、時刻(試合時刻)の直前又は直後のセンサデータ取得時刻を含む移動体情報のセンサデータを対応付け(ステップT31)、また、時刻(試合時刻)に対し、時刻(試合時刻)の直前又は直後の位置取得時刻を含む位置情報の位置データを対応付ける(ステップT29)。よって、上記例の各レコードで、実質的に同時刻における移動体の位置データとセンサデータとを得ることができる。
 なお、ウェアラブルデバイス1やタブレット2としてコンピュータを機能させるためのコンピュータプログラムは、半導体メモリ、磁気ディスク、光ディスク、光磁気ディスク、磁気テープ等のコンピュータ読み取り可能な記録媒体に記録でき、また、インターネット等の通信網を介して伝送させて、広く流通させることができる。
 <実施の形態2>
 次に、本実施の形態2に係る移動体情報提供システムについて、より具体例を挙げて説明する。なお、実施の形態2においては、図10に示すように、競技者(生体)としてのサッカー選手SPai(移動体)の手首にウェアラブルデバイス1を装着した例として説明する。
 また、無線通信プロトコルは、Wi-Fi(登録商標)又はBluetooth(登録商標)等であっても良いが、本実施の形態2においてはBluetooth(登録商標)として説明する。
 また、移動体情報提供システムは、例えば、複数のサッカー場Aiのサッカー選手SPai(SPa1、SPa2、…)の状況を解析して、その解析結果をタブレット2や外部の会員端末D等に提供するシステムであっても良いが、この実施の形態2では、図11に示すように、1か所のサッカー場Aiを例示して説明する。
 また、クラウドは、インターネット網Nに接続された解析センタCの解析結果提供装置3として説明する。
 図11は、本実施の形態2に係る移動体情報提供システムの具体例を示す概略構成図である。
 図11に示すように、この移動体情報提供システムは、サッカー場Aiのサッカー選手SPai(SPa1、SPa2、…)の手首にそれぞれ装着された複数のウェアラブルデバイス1と、監督MG等が携帯するタブレット2と、解析センタCの解析結果提供装置3等からなる。また、解析センタCの解析結果提供装置3の解析結果を、例えば、複数の会員端末Dで閲覧可能としても良い。。
 また、解析センタCの解析結果提供装置3とタブレット2とはインターネット網Nで接続され、各々のウェアラブルデバイス1とタブレット2とはBluetooth(登録商標)やWi-Fi(登録商標)等の無線通信プロトコルで接続される。
 タブレット2と解析センタCの解析結果提供装置3とを総称して、移動体情報解析装置30という。
 また、ウェアラブルデバイス1は、例えば、それぞれのサッカー選手SPaiのユニフォームUF等に装着されても良い。
 また、本実施の形態2においては、センシング可能なセンサデータSDiを生体情報SEJi、移動体状態情報と称する。生体情報SEJiは、心拍数、脈拍数、体温、…である。
 移動体状態情報は、9軸センサ(移動体状態情報検出センサ)が検出した姿勢値、加速度、方向等の情報である(動きを示す)。実施の形態2では、「移動体状態情報」を9軸センサ情報eJiと称して説明する。
 実施の形態2は、例えば図11に示すように、サッカー場Aiを撮影する撮影カメラ40をサッカー場Aiの適当な個所に設けているとして説明する。この撮影カメラ40は、複数台が好ましく、サッカー場Aiを上、横、斜め等から撮影する適当な場所にそれぞれ設置されている。但し、撮影カメラ40を用いない場合は、サッカー場Aiの疑似平面画像(イラスト)を用いる。また、位置センサ15は、GNSSモジュール(GPSモジュール)として説明する。
 ウェアラブルデバイス1は、初期時刻同期処理やペアリング初期設定処理等を行った後に、一定時間毎に取得できた生体情報SEJi(心拍数、体温、…)と9軸センサ情報eJi(加速度、姿勢値、方向)とに対して、GNSSモジュールである位置センサ15の位置データ(緯度Ei、経度Ni)やシステム時刻STi等を関連付ける。
 そして、図12に示す移動体情報DSJiとして、例えば、無線モジュール11によりBluetooth(登録商標)プロトコルでタブレット2に送信する。また、実施の形態2では、位置データを検出位置Piと称する。
 この移動体情報DSJiは、後述するタブレット2からの送信パターンPTiに基づくパターンでタブレット2に送信する。
 また、移動体情報DSJiは、例えば図12に示すように、ウェアラブルデバイスIDとタブレットIDと氏名(氏名コード)と検出位置Piとシステム時刻STiと生体情報SEJiと9軸センサ情報eJi等からなる。但し、後述するセンタ側移動体情報CDSJiの場合は、検出位置Piは地図上位置GPiを用いる。
 また、システム時刻STiは解析センタCとタブレット2とが有する内部タイマ(図示せず)と初期時刻が時刻合わせされている。
 生体情報SEJiと9軸センサ情報eJiとを総称して、センサデータSDi(図12参照)ともいう。また、移動体情報DSJiとしては、検出位置Piやその取得(検出)時間等を含んでも良い。システム時刻STiは、例えば100msec間隔が好ましい。また、1PPS信号での検出位置Piは、例えば1sec間隔で出力されるのが好ましい。
 また、センサデータSDiは現時点で取得できた、心拍数、脈拍数、体温、…の全て、又は、これらのいずれかの組み合わせ、若しくはいずれか1つである。
 9軸センサ情報eJiは、ウェアラブルデバイス1が現時点で取得できた姿勢値、加速度、方向の全て、又は、これらのいずれかの組み合わせ、若しくはいずれか1つである。
 生体情報SEJiと9軸センサ情報eJiとには、それぞれが検出した時点での取得時間を含んでも良い。この取得時間はシステム時刻STiを用いるのが好ましい。
 タブレット2は、各々のウェアラブルデバイス1とペアリング初期設定処理等を行った後で、ウェアラブルデバイス1のそれぞれに対して、移動体情報DSJiを要求する移動体情報要求情報YDJi(図13参照)を同時に送信する。
 そして、この移動体情報要求情報YDJi(図13参照)に対応する移動体情報DSJi(図12参照)を取得するとともに、得られた移動体情報DSJi(図12参照)を、インターネットプロトコルによって解析結果提供装置3に送信する。
 そして、タブレット2では、図14に示す解析結果提供装置3から送信された表示制御データPKJi(カメラ画像CGiを含む)等をインターネットプロトコルで受信し、これらを画面に表示する。
 そして、解析センタCの解析結果提供装置3は、タブレット2からの移動体情報DSJi(図12参照)を受信し、例えば、この移動体情報DSJiと過去の移動体情報DSJiとに基づいて、サッカー選手SPa1、SPa2、SPa3、…の現状を解析する。
 そして、解析結果提供装置3は、その解析結果をまとめた移動体情報解析結果情報KDJi(図15参照)に基づいて、サッカー場Aiにおけるサッカー選手SPa1、SPa2、SPa3、…の位置(例えば、検出位置Pi)等を付加した表示制御データPKJi(単に、制御データとも称する)を生成し、インターネット網Nを介してタブレット2に送信する。
 なお、タブレット2では、ウェアラブルデバイス1からの移動体情報DSJi(図12参照)や、同時刻の検出位置Pi等を対応付けて表示でき、現場(例えば、サッカー場Aiのベンチ前)等において、サッカー選手SPa1、SPa2、SPa3、…の現状(位置、生体、動き等)をリアルタイムで監督MGに知らせることが可能である。
 (各部の構成)
 実施の形態2における各部の具体的構成について、タブレット2、ウェアラブルデバイス1、解析結果提供装置3の順で説明する。
 [タブレット2]
 タブレット2の収集解析アプリケーション部22は、図11に示すように、モード判定部221と、通信初期接続設定部223と、通信端末側ユーザリスト作成部224と、移動体情報送受部225と、解析結果表示処理部226等よりなる。また、収集解析アプリケーション部22がインストールされていることを示す収集解析アプリアイコン(図示せず)が画面に表示されているとして説明する。
 上述のタブレット側記憶部24(図1参照)は、通信端末側ユーザリスト用メモリ241と、実参加ユーザペアリング情報用メモリ242と、移動体情報用メモリ243、解析結果受信用メモリ246等よりなる。
 [[モード判定部221]]
 モード判定部221は、画面の位置付移動体情報提供タブレット用アイコン(図示せず)が選択されると、モード選択画面MGiを画面に表示する(図16参照)。
 [[通信初期接続設定部223]]
 通信初期接続設定部223は、ペアリング要求情報(タブレットID、機種、メーカ、時刻等)を各ウェアラブルデバイス1に送信してそれぞれの相手とペアリングを行い、ペアリング情報PJi(図13参照)を取得する。
 そして、通信初期接続設定部223は、後述する移動体情報送受部225からの移動体情報要求情報YDJiの出力を待つ状態となる。
 そして、移動体情報要求情報YDJiが出力された場合には、これに含まれているペアリング情報PJiを有する実参加ユーザペアリング情報RPJi(図17(b)参照)が、実参加ユーザペアリング情報用メモリ242に登録されている場合に、Bluetooth(登録商標)プロトコルでペアリング設定を行う。
 この通信初期接続設定部223は、サッカー場Aiに入る直前、例えばサッカー選手SPaiがウェアラブルデバイス1の電源を入れたときに起動させるのが好ましい。
 そして、通信初期接続設定部223は、このペアリング情報PJiを通信端末側ユーザリスト作成部224に順次出力する。
 また、通信初期接続設定部223は複数のチャネルを備えており、一度に、例えば数台のウェアラブルデバイス1と同時通信可能である。
 また、本実施の形態2において、ウェアラブルデバイスIDというのは、サッカー場名(コード)、場所名(コード)、ウェアラブルデバイス1の固有機器番号、団体名(コード)、場所(コード)、乱数等で生成したユニークコードであり、どこの団体が、どこの場所で、誰が使用するウェアラブルデバイス1であるのかを識別するウェアラブルデバイス識別コードである。
 そして、この移動体情報要求情報YDJi(図13参照)に対する移動体情報DSJi(図12参照)をウェアラブルデバイス1から受信する毎に、通信初期接続設定部223は、移動体情報DSJiに含まれているウェアラブルデバイスIDを有する実参加ユーザペアリング情報RPJi(図17(b)参照)が、実参加ユーザペアリング情報用メモリ242に既に登録されている場合に、これを受け付ける。
 そして、通信初期接続設定部223は、この移動体情報DSJiを移動体情報送受部225に出力し、解析結果提供装置3に送信させる。
 [[通信端末側ユーザリスト作成部224]]
 通信端末側ユーザリスト作成部224は、起動に伴って、本サービスを提供することを可能とするためのサッカー選手SPaiの選手名やウェアラブルデバイス1のウェアラブルデバイスID等よりなるユーザ登録情報を、図18に示すように、ユーザ基本登録情報UJi(図18(a)、図18(b)参照)として、事前にインターネット網Nを介して解析結果提供装置3に送信して登録させておく。このユーザ基本登録情報UJiは、センタ側で事前に登録しても構わない。
 また、通信端末側ユーザリスト作成部224は、実際に競技に参加するサッカー選手SPaiが装着しているウェアラブルデバイス1とタブレット2とのペアリング情報PJiに、氏名等を付加した、上述の実参加ユーザペアリング情報RPJi(図17(b)参照)を、事前に解析結果提供装置3に登録する(競技途中でも構わない)。
 具体的には、通信端末側ユーザリスト作成部224は、この実参加ユーザペアリング情報RPJiを事前に登録するために、図16に示した実参加者登録ボタンMGdが選択された場合に、図17(a)に示す実参加者入力画面ZGiを表示する。
 そして、通信端末側ユーザリスト作成部224は、実参加者入力画面ZGiの完了ボタンMGgの選択に伴って、実参加者入力画面ZGiに入力された情報を実参加者入力情報ZGJi(図17(a)参照)としてインターネット網Nを介して解析結果提供装置3に送信する。
 そして、この実参加者入力情報ZGJiに対しての実参加ユーザ別基本情報CDUJi(図17(d)参照)を解析結果提供装置3から受信した場合は、ペアリング待ち状態となる。
 そして、ペアリング後に、この実参加ユーザ別基本情報CDUJiに含まれるウェアラブルデバイスIDやタブレットIDを有するペアリング情報PJiを通信初期接続設定部223からが保持しているペアリング情報PJiを読み込む。
 実参加ユーザ別基本情報CDUJi(図17(d)参照)は、実際に競技に参加するサッカー選手SPaiの顔写真、及びサッカー選手SPaiが装着しているウェアラブルデバイス1のウェアラブルデバイスID等を含む。
 前述の実参加ユーザ別基本情報CDUJiは、先頭をチーム名、氏名の順にするのが好ましい。
 そして、読み込んだペアリング情報PJiに、受信した実参加ユーザ別基本情報CDUJiを関連付け、これを現在、実際に競技に参加しているサッカー選手SPaiの、上述の実参加ユーザペアリング情報RPJi(図17(b)参照)として、実参加ユーザペアリング情報用メモリ242に記憶する。
 そして、通信端末側ユーザリスト作成部224は、この実参加ユーザペアリング情報用メモリ242を読み込み、この実参加ユーザペアリング情報RPJiを画面に表示する。
 したがって、タブレット2のユーザ(例えば、監督MG)は、現在、どのサッカー選手SPaiと実際にペアリングがなされているかを、氏名や顔写真で判断できる。
 そして、全ての実参加ユーザペアリング情報RPJi(図17(b)参照)が表示されている場合は、実参加ユーザ登録完了ボタン(図示せず)を選択する。
 そして、実参加ユーザの通信準備登録が完了したことを示す実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)を移動体情報送受部225に出力する。
 [移動体情報送受部225]
 移動体情報送受部225は、通信端末側ユーザリスト作成部224から実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)が入力した場合に、これを一時記憶する。そして、図16に示した移動体情報取得ボタンMGfが選択されたか(移動体情報取得モードか)どうかを判断する。
 移動体情報取得ボタンMGfが選択された場合は、通信端末側ユーザリスト作成部224から実際に競技に参加する全てのサッカー選手SPaiのウェアラブルデバイス1との通信準備が完了したことを示す、実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)が入力しているかどうかを判断する。
 つまり、実際に競技に参加する全てのサッカー選手SPaiがペアリングされて、且つこれらのサッカー選手SPaiが装着しているウェアラブルデバイス1のウェアラブルデバイスID、氏名、顔写真等が、実参加ユーザペアリング情報用メモリ242に生成されているかどうかを判断する。
 また、移動体情報送受部225は、実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)が入力した場合は、カメラ画像CGiを解析結果提供装置3から読み込んで、タブレット2の画面に表示する処理を行うようにしても良い。このカメラ画像CGiの取得には、画面に例えばカメラ画像表示ボタン(図示せず)を表示して、これを選択させる。
 この選択に伴って、実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)に含まれている、場所名(場所コード:サッカー場名)や団体名(団体コード)を読み込む。
 そして、これに年月日や時刻等を付加したカメラ画像指定情報CPJi(タブレットID、サッカー場、団体名、…)を生成して、解析結果提供装置3にインターネット網Nを介して送信する。
 そして、インターネット網Nを介して、カメラ画像指定情報CPJiに対しての、解析結果提供装置3からのサッカー場Aiのサムネイル画像を受信し、これを図示せぬ画面(ブラウザ)に出力して表示させる。サムネイル画像はカメラ番号又はカメラID付であることが好ましい。
 そして、選択されたサムネイル画像を、そのカメラ番号、タブレットID、年月日、時刻等からなるカメラ画像選択情報CSJi(選択されたカメラ番号、年月日、時刻)とし、インターネット網Nを介して、解析結果提供装置3に送信する。
 そして、このカメラ画像選択情報CSJiに対するカメラ画像CGiを、画面のカメラ画像用のウインドウに順に表示させる。
 また、移動体情報送受部225は、通信端末側ユーザリスト作成部224からの実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)の入力に伴って、移動体情報用メモリ243に、どのサッカー選手に移動体情報DSJi(図12参照)を何時(日時帯Wti)まで要求する、どのような表示を行うかを決めた基本の移動体情報解析要求入力情報KBJi(図20参照)が記憶されているかどうかを判断する。
 移動体情報用メモリ243に、移動体情報解析要求入力情報KBJi(図20参照)が記憶されていない場合は、図19に示す、移動体情報要求用入力画面KBGcを画面に表示する。
 この移動体情報要求用入力画面KBGcは、図19に示すように、団体名(チーム名)と、氏名欄(ウェアラブルデバイスID)の入力欄と、日時帯Wti(Wtpo~Wtri)と、センサ取得種別ki(全部又は選択)と、位置表示種別Gkiと、画像種(カメラ又は疑似画像)等の入力欄よりなる。氏名欄は、3名程度を例としている。
 つまり、移動体情報送受部225は、移動体情報要求用入力画面KBGcに入力された全てのウェアラブルデバイスIDをウェアラブルデバイスID部として、移動体情報解析要求入力情報KBJiを作成している。
 そして、移動体情報送受部225は、図示しない完了ボタンの選択に伴って、移動体情報要求用入力画面KBGcに入力された各情報の組を、移動体情報解析要求入力情報KBJi(図20参照)として、インターネット網Nを介して解析結果提供装置3に送信し、後述するストレージサーバ322に記憶させる(履歴用)とともに、移動体情報用メモリ243に記憶する。
 そして、移動体情報送受部225は、移動体情報解析要求入力情報KBJi(図20参照)に含まれているセンサ取得種別kiの種類数分の領域(センサデータ用)と、検出位置Pi、システム時刻STi等を書き込むための各領域等を有した送信フォーマットをウェアラブルデバイス1に作成させるための送信パターンPTi(図21参照)として生成する。
 この送信パターンPTiには、取得したセンサデータが数字(数値列)として書き込まれるようにするためのコマンドを付加している。つまり、余計なものをウェアラブルデバイス1側から送信させないようにして、通信時刻を短縮させることで、リアルタイム性を向上させている。
 そして、移動体情報送受部225は、移動体情報解析要求入力情報KBJi(図20参照)に含まれている日時帯Wtiの間だけ、ウェアラブルデバイスID部と、センサ取得種別ki(全部又は選択)と、タブレットID等の各情報を組にした移動体情報要求情報YDJi(図13参照)を生成する。
 そして、これを通信初期接続設定部223によって、Bluetooth(登録商標)プロトコルで各々のウェアラブルデバイス1に同時に送信させる。このとき、送信パターンPTiを同時にウェアラブルデバイス1に送信している。
 そして、移動体情報送受部225は、通信初期接続設定部223からの移動体情報要求情報YDJiに対しての、移動体情報DSJi(図12参照)をウェアラブルデバイス1から入力する毎に、この移動体情報DSJiを受け付けるとともに、インターネット網Nを介して解析結果提供装置3に送信する。
 この移動体情報要求情報YDJi及び移動体情報DSJiの送信は、回線接続断にされるまで継続して行う。
 [解析結果表示処理部226]
 解析結果表示処理部226は、移動体情報要求用入力画面KBGcに入力された各情報を、どんなセンサデータSDiを、どの程度の時間(日時帯Wti)に渡って解析させるかを要求する、移動体情報解析要求入力情報KBJi(図20参照)として、解析結果提供装置3にインターネットプロトコルで送信する。
 そして、解析結果表示処理部226は、解析結果提供装置3からの後述するサッカー選手SPaiのサッカー場Aiにおける検出位置Piや移動体情報DSJi(移動体情報DSJi:図12参照)等を画面に表示するための、表示制御データPKJi(図14参照)の待ち受け状態となる。
 そして、表示制御データPKJiを受信する毎に、これをタブレット側記憶部24の解析結果受信用メモリ246に記憶するとともに、ブラウザに出力して画面に表示する(図22参照)。
 [ウェアラブルデバイス1]
 ウェアラブルデバイス1の具体的構成を説明する前に、まず、ウェアラブルデバイス1の動作の概念について、図23を用いて説明する。但し、タブレット2によって既に初期時刻合わせが終了しているとして説明する。
 すなわち、ウェアラブルデバイス1は、例えば図23に示すように、ウェアラブルデバイス1の起動時にGNSSモジュールである位置センサ15のGNSS時刻(Rawデータ)と、ウェアラブルデバイス1のメイン制御モジュール13における制御部132(マイコン)の内部タイマ132i(プログラムタイマーでも良い)のシステム時刻STiとで同期合わせを行う。
 そして、この同期合わせ後に、生体情報検出センサ16、環境情報検出センサ17、移動体状態情報検出センサ18のセンシング結果(センサデータSDi)を読み込む。
 一方、生体情報検出センサ16、環境情報検出センサ17、移動体状態情報検出センサ18は、各種センサ毎に、各々のセンサデータSDiを特有の異なるタイミングで出力している。
 そして、このシステム時刻STi毎に、メイン制御モジュール13が生体情報検出センサ16、環境情報検出センサ17、移動体状態情報検出センサ18のセンサデータSDiを読み込む。
 そして、タブレット2からの移動体情報要求情報YDJiの受信に伴って、これに移動体情報要求情報YDJiに含まれているセンサ種別を読み込む。そして、システム時刻STi(位置情報を含む)と、この時点で収集されているセンサ種別に該当するセンサデータSDi(生体又は9軸)等の組を読み込み、これらを移動体情報要求情報YDJiと同時に送信された送信パターンPTiのフォーマット構成にする。そして、これを移動体情報DSJiとして、無線モジュール11から送信している。
 このとき、GNSSモジュールから1PPS信号が出力された場合は、これに同期するRawデータを用いて位置を算出している。この位置を検出位置Pi又は位置データと称している。
 つまり、ウェアラブルデバイス1は、移動体情報解析装置30の時刻で、初期時刻合わせを行って位置検出の元となるGNSSデータのRawデータと同期がとられたシステム時刻STi又はシステム時刻STiとRawデータと位置データとの組を移動体情報(以下、移動体情報DSJiという)として生成し、これをタブレット2に送信している。このウェアラブルデバイス1の具体例については図39及び図40を用いて後述する。
 [解析結果提供装置3]
 図24は、解析結果提供装置3の具体的な構成図である。解析結果提供装置3は、図24に示すように、複数のサーバによって構成するのが好ましい。
 これらのサーバは、図24に示すように、DBサーバ321と、ストレージサーバ322と、移動体情報受取サーバ323と、移動体位置関連情報生成サーバ324等より構成されている。
 ストレージサーバ322は、カメラ画像CGiとサッカー場Aiの疑似画像(イラスト)と移動体情報DSJi等を記憶している。
 [[DBサーバ321]]
 DBサーバ321は、エリア図としてのサッカー場地図AHi(平面直角座標で定義)を記憶したサッカー場地図用メモリ部321a(エリア図用記憶部:321a1、321a2、…)と、タブレット2からのユーザ基本登録情報UJi(図18(a)、図18(b)参照)が記憶されるユーザ基本登録情報用メモリ部321b(321b1、321b2、…)と、タブレット2からの実参加ユーザペアリング情報RPJi(図17(b)参照)が履歴管理用として記憶されるセンタ側実参加ユーザ用メモリ部321c等を有する。以下に、各メモリ部の各種情報の登録の過程について説明する。
 [[サッカー場地図用メモリ部321a]]
 DBサーバ321は、担当者によって入力された、団体名別(団体コード別)、サッカー場コード、サッカー場地図AHiの入力に伴って、団体名別(団体コード別)、サッカー場コードにサッカー場地図AHiを関連付けてサッカー場地図用メモリ部321a(321a1、321a2、…)に記憶する。
 団体名別(団体コード別)、サッカー場コード別に記憶されるメモリ領域をサッカー場地図用メモリ321ai(321a1、321a2、…)と称する。
 [[ユーザ基本登録情報用メモリ部321b]]
 DBサーバ321は、移動体位置関連情報生成サーバ324のユーザリスト提供部324aからのユーザ基本登録情報UJi(図18(a)、図18(b)参照)を受信し、このユーザ基本登録情報UJiが既にユーザ基本登録情報用メモリ部321bに記憶されている場合は、登録済であることをタブレット2に知らせる。また、登録されていない場合は、ユーザ基本登録情報UJiに含まれている団体名、サッカー場名等を付加したユーザ基本登録情報用メモリ321bi(321b1、321b2、…)をユーザ基本登録情報用メモリ部321bに生成して登録する。
 また、移動体位置関連情報生成サーバ324のユーザリスト提供部324aからタブレットID付の実参加者入力情報ZGJiを受信し、この実参加者入力情報ZGJiに含まれているウェアラブルデバイスIDを有する競技参加予定者のユーザ基本情報登録情報UUJi(図18(b)参照)を記憶したユーザ基本登録情報用メモリ321bi(321b1、321b2、…)が存在するかどうかを判断する。存在しない場合は、エラーを、ユーザリスト提供部324aを介して、タブレット2に送信させる。
 存在する場合は、ユーザ基本登録情報用メモリ321bi(321b1、321b2、…)に記憶されている、この競技参加予定者のユーザ基本情報登録情報UUJiに関連付けられている、ユーザの管理者基本登録情報UMJi(図18(a)参照)に含まれている監督名及びタブレットID等を付加する。このとき、年月日や時刻も付加するのが好ましい。
 そして、これを実際に競技に参加するサッカー選手SPaiの、氏名(顔写真)やウェアラブルデバイスID等を示す競技に実際に参加する実参加ユーザ別基本情報CDUJi(図17(d)参照)として、移動体位置関連情報生成サーバ324のユーザリスト提供部324aに送出する。
 この実参加ユーザ別基本情報CDUJiをセンタ側実参加ユーザ用メモリ部321cの競技実参加ユーザ別用メモリ領域i(図示せず)に履歴管理用として登録する。
 [[センタ側実参加ユーザ用メモリ部321c]]
 DBサーバ321は、移動体位置関連情報生成サーバ324のユーザリスト提供部324aからの実参加ユーザペアリング情報RPJi(図17(b)参照)を受信した場合は、これに含まれているウェアラブルデバイスIDを有する実参加ユーザ用メモリ321ci(321c1、321c2、…)がセンタ側実参加ユーザ用メモリ部321cに存在しないかどうかを判断する。
 存在しない場合は、そのウェアラブルデバイスID付の実参加ユーザ用メモリ321ciをセンタ側実参加ユーザ用メモリ部321cに生成して、受信した実参加ユーザペアリング情報RPJi(図17(b)参照)を履歴用として記憶する。
 [[カメラパラメータ用メモリ部321d]]
 また、DBサーバ321は、カメラ番号、場所名(サッカー場名)、団体名毎の撮影カメラ40のカメラパラメータ(γi)を、カメラパラメータ用メモリ部321dのカメラパラメータ用メモリ321di(321d1、321d2、…)に記憶している。これらは、事前に解析センタCの担当者によって登録されている。
 [[ストレージサーバ322]]
 ストレージサーバ322は、撮影カメラ40からのカメラ画像CGi(年月日、時刻、カメラ番号、サッカー場名、カメラ画像CGi、年月日時刻、…)が、場所名(サッカー場名)及びカメラ番号別に記憶されるカメラ画像用メモリ部322aと、センタ側移動体情報CDSJi(図12参照)がウェアラブルデバイスID別(サッカー場、団体名別)に記憶されるセンタ側移動体情報用メモリ部322bと、日時帯場所別解析データコピー用メモリ部322e等を有する。
 カメラ画像用メモリ部322aに、サッカー場名及びカメラ番号毎に生成されるメモリ領域を、カメラ画像用メモリ322ai(322a1、322a2、…)と称する。サッカー場名はIDでも構わない。
 センタ側移動体情報用メモリ部322bにウェアラブルデバイス1毎に生成されるメモリ領域をセンタ側移動体情報用メモリ322bi(322b1、322b2、…)と称する。
 また、日時帯場所別解析データコピー用メモリ部322eにウェアラブルデバイスID、場所名及び日時帯毎に分類されて生成されるメモリ領域を、日時帯場所別解析データコピー用メモリ322ei(322e1、322e2、…)と称する。
 このストレージサーバ322は、カメラ画像CGiが撮影カメラ40(インターネットカメラが好ましい)から入力する毎に、このカメラ画像CGiのカメラ番号等を有するカメラ画像用メモリ322aiがカメラ画像用メモリ部322aに作成されていない場合は、カメラ画像用メモリ部322aに、カメラ番号等を有するカメラ画像用メモリ322ai(322a1、322a2、…)のメモリ領域を生成する。
 生成されている場合は、カメラ画像用メモリ部322aの、そのカメラ画像用メモリ322ai(322a1、322a2、…)に記憶する。
 そして、移動体情報受取サーバ323からカメラ画像指定情報CPJi(タブレットID、サッカー場、団体名、…)を入力した場合は、このカメラ画像指定情報CPJi(タブレットID、サッカー場、団体名、…)に該当するカメラ画像用メモリ322ai(322a1又は322a2、…)の各々のサムネイル画像をタブレット2に送信する。
 そして、タブレット2からのカメラ画像選択情報CSJi(選択されたサムネイル画像のカメラ番号、年月日、時刻)を受信し、このカメラ画像選択情報CSJiに対するカメラ画像CGiをタブレット2に送信する。
 また、ストレージサーバ322は、センタ側移動体情報CDSJi(図12参照)が移動体情報受取サーバ323から入力する毎に、このセンタ側移動体情報CDSJiのウェアラブルデバイスID等を有するセンタ側移動体情報用メモリ部322bのセンタ側移動体情報用メモリ322bi(322b1、322b2、…)が生成されていないかどうかを判断する。
 生成されていない場合は、センタ側移動体情報用メモリ部322bに、センタ側移動体情報用メモリ322bi(322b1、322b2、…)をセンタ側移動体情報CDSJiのウェアラブルデバイスID等を関連付けて生成する。生成されている場合は、そのセンタ側移動体情報用メモリ322bi(322b1、322b2、…)に記憶する。
 さらに、ストレージサーバ322は、移動体情報解析サーバ325からの後述する移動体情報解析結果情報KDJiをウェアラブルデバイスID別に日時帯場所別解析データコピー用メモリ部322e(322e1、322e2、…)に記憶する。
 ウェアラブルデバイスID別のメモリ領域を日時帯場所別解析データコピー用メモリ322ei(322e1、322e2、…)と称する。
 [[移動体情報受取サーバ323]]
 移動体情報受取サーバ323は、タブレット2からのカメラ画像指定情報CPJi(タブレットID、サッカー場、団体名、…)を受信した場合は、これをストレージサーバ322に出力する。
 また、タブレット2からのカメラ画像選択情報CSJi(選択されたカメラ番号、年月日、時刻等)を受信し、これを移動体位置関連情報生成サーバ324に出力する。
 そして、タブレット2からインターネット網Nを介して移動体情報DSJi(図12参照)を受信する毎に、このウェアラブルデバイスIDを有するメモリ領域(以下、移動体情報用メモリ326ai(326a1、326a2、…)という)が、移動体情報用メモリ部326aに生成されている場合は一時記憶する。生成されていない場合は、この移動体情報用メモリ326ai(326a1、326a2、…)を生成する。
 この移動体情報DSJi(図12参照)は、送信パターンPTi(図21参照)にしたがった領域に該当のデータを格納した情報となっている。
 また、移動体情報受取サーバ323は、この移動体情報DSJiに含まれている検出位置Piを読み込み、予め記憶されている平面直角座標変換パラメータβiに基づいて変換し(地図上位置GPi)、これをセンタ側移動体情報CDSJi(図12参照)として、該当の移動体情報用メモリ部326aの移動体情報用メモリ326ai(326a1、326a2、…)に記憶する。そして、このセンタ側移動体情報CDSJiをストレージサーバ322に出力して履歴用として記憶させる。
 また、タブレット2からの移動体情報解析要求入力情報KBJi(図20参照)iを受信する毎に、この移動体情報解析要求入力情報KBJiを後述する移動体位置関連情報生成サーバ324及び移動体情報解析サーバ325に送信する。
 そして、タブレット2からインターネット網Nを介して接続断情報(ウェアラブルデバイスID付)が入力する毎に、この接続断情報に含まれているウェアラブルデバイスIDを有する移動体情報用メモリ326aiをクリアする。
 [[移動体位置関連情報生成サーバ324]]
 移動体位置関連情報生成サーバ324は、ユーザリスト提供部324aと、エリア画像提供部324bと、移動体情報関連付部324cと、位置算出部324d等よりなる。
 ≪ユーザリスト提供部324a≫
 ユーザリスト提供部324aは、タブレット2からインターネット網Nを介してユーザ基本登録情報UJi(図18(a)、図18(b)参照)を受信する。そして、これをDBサーバ321に出力して登録させる。
 さらに、ユーザリスト提供部324aは、タブレット2からの実参加者入力情報ZGJi(タブレットID付:図17(a))を受信する。そして、これをDBサーバ321に出力する。そして、この実参加者入力情報ZGJiに対する実参加ユーザ別基本情報CDUJi(図17(d)参照)をDBサーバ321から受け取った場合は、これを直ちにタブレット2に送信する。
 また、ユーザリスト提供部324aは、タブレット2からの実参加ユーザペアリング情報RPJi(図17(b)参照)を受信し、これをDBサーバ321に出力して、センタ側実参加ユーザ用メモリ部321cの実参加ユーザ用メモリ321ciに記憶させる。
 ≪エリア画像提供部324b≫
 エリア画像提供部324bは、移動体情報受取サーバ323からのカメラ画像選択情報CSJi(選択されたカメラ番号、年月日、時刻等)を入力し、これを一時記憶する。
 また、タブレット2からの移動体情報受取サーバ323を介しての移動体情報解析要求入力情報KBJi(図20参照)の画像種を判断し、この画像種類がカメラ類を示している場合は、カメラ画像選択情報CSJi(選択されたカメラ番号、年月日、時刻等)に含まれているカメラ番号と、このカメラ画像選択情報CSJiに該当するカメラパラメータ(γi)を有するカメラパラメータ用メモリ部321dのカメラパラメータ用メモリ321di(321d1、321d2、…)のアドレス等を位置算出部324dに出力する。
 さらに、移動体情報解析要求入力情報KBJi(図20参照)に含まれている画像種が疑似画像(サッカー場コードを含む)を示している場合は、これに該当するサッカー場地図AHiを記憶しているDBサーバ321のサッカー場地図用メモリ部321a(321a1、321a2、…)のアドレスを移動体情報関連付部324cに出力する。これらのアドレスを総称して表示エリア画像種記憶アドレス情報と称する。
 ≪移動体情報関連付部324c≫
 移動体情報関連付部324cは、移動体情報解析サーバ325からの移動体情報解析結果情報KDJiを受け取る毎に、これを一時記憶する。
 また、位置算出部324dからのウェアラブルデバイスID付の微細位置データ情報RDJi(RDJ1、RDJ2、…:図25参照)を受け取る毎に一時記憶する。さらに、移動体情報受取サーバ323からのセンタ側移動体情報CDSJi(図12参照)を一時記憶する。
 そして、この移動体情報解析結果情報KDJi及び微細位置データ情報RDJi(ウェアラブルデバイスID、微細位置、システム時刻STi及び、9軸センサ情報eJi…)に含まれているウェアラブルデバイスIDが一致した場合に、この微細位置データ情報RDJi(RDJ1、RDJ2、…)と移動体情報解析結果情報KDJi(生体情報、解析結果、…)とを関連付ける。
 さらに、エリア画像提供部324bからのカメラ番号と、センタ側移動体情報CDSJiに含まれているウェアラブルデバイスIDが、これらのウェアラブルデバイスIDに一致した場合は、センタ側移動体情報CDSJiに含まれている顔写真と氏名コードを関連付ける。
 さらに、予め登録されている複数のウインドウWUi用のテンプレートを読み込む。このテンプレートは、例えば複数のウインドウWUiからなる(図27参照)。心拍用ウインドウWU、加速度用ウインドウWU、姿勢用ウインドウWUの部分は、横軸は例えばシステム時刻STiの最小単位(例えば、100msec)で定義されている。
 そして、これらウインドウ番号をセンサ取得種別ki(心拍数、体温、…、9軸)に関連付ける。
 すなわち、図14に示す表示制御データPKJiを生成して、これをタブレット2に送信する。
 これによって、図26の画面がタブレット2に表示されることになり、リアル位置表示用ウインドウRWiには図22に示す微細位置PWbiが表示されることになる。
 したがって、監督MGは、あのサッカー選手SPaiが今どんな状況か、そしてどのように移動しているかが、リアルタイムで、一目で分かることになる。
 ≪位置算出部324d≫
 位置算出部324dは、微細位置データ用レコード生成処理、微細位置算出処理、表示画像上微細位置算出処理等を行う。
 初めに位置算出部324dで用いる各メモリについて説明する。
 また、位置算出部324dには、位置算出データ用記憶部330等が接続されている。
 位置算出データ用記憶部330には、ウェアラブルデバイスID毎に、システム時刻STi毎の微細位置PWbi(Xi、Yi)等を記憶するための位置算出データ用メモリ330ai(330a1、330a2、…)が生成される(図25参照)。
 つまり、ウェアラブルデバイスID毎の位置算出データ用メモリ330aiには、図25に示すように、例えばシステム時刻STiの微細時間di(例えば100msec)で分割した個数分の微細位置データ用レコードRDi(RD1、RD2、…)が生成される。
 『位置データ用レコード生成処理』
 位置データ用レコード生成処理は、タブレット2からの移動体情報解析要求入力情報KBJi(図20参照)iを読み込む。
 そして、これに含まれている位置表示種別Gki(微細gdi、通常gi)及びウェアラブルデバイスIDを有する位置算出データ用メモリ330ai(330a1、330a2、…)が、位置算出データ用記憶部330に生成されているかどうかを判断する。生成されていない場合には、位置算出データ用記憶部330に生成する。
 例えば、移動体情報解析要求入力情報KBJiに含まれている位置表示種別Gkiが微細を示している場合は、日時帯Wtiをシステム時刻STiの単位(例えば、100msec)で割ったレコード数kji分の、微細位置データ用レコードRDiを有する位置算出データ用メモリ330ai(330a1、330a2、…)を位置算出データ用記憶部330に生成する(図25参照)。
 図25に示すように、微細位置データ用レコードRDiはシステム時刻STiが格納される領域と微細位置PWbi(Xi、Yi)とが格納される領域と、9軸センサ情報eJiが格納される領域等からなる。
 『微細位置算出処理』
 微細位置算出処理は、移動体情報受取サーバ323からのセンタ側移動体情報CDSJi(図12参照)を今回のセンタ側移動体情報CDSJiとして読み込む。
 そして、今回のセンタ側移動体情報CDSJiを構成する送信パターンPTiの位置を格納する領域を読み込み、これに地図上位置GPi(位置データ)が存在しているかどうかを判断する。つまり、今回のセンタ側移動体情報CDSJiに地図上位置GPi(位置データ)が含まれているかどうかを判断する。
 すなわち、今回の移動体情報DSJiに、地図上位置GPi(位置データ)が含まれているかどうかを判断している。
 地図上位置GPi(位置データ)が含まれていない場合は、今回のセンタ側移動体情報CDSJiに含まれているウェアラブルデバイスIDを読み込む。そして、このウェアラブルデバイスIDを有する位置算出データ用メモリ330ai(330a1又は330a2、…)を位置算出データ用記憶部330より引き当てる。
 そして、この位置算出データ用メモリ330ai(330a1又は330a2、…)に生成されている微細位置データ用レコードRDiの内で、今回のセンタ側移動体情報CDSJiに含まれているシステム時刻STiが格納されているものを引き当てる(図25参照)。この、引き当てた微細位置データ用レコードRDiのシステム時刻STiと微細位置PWbiと9軸センサ情報eJiとウェアラブルデバイスID等を総称して微細位置データ情報RDJiと称している。
 前述の引き当ては、同じウェアラブルデバイスIDを有する微細位置データ情報RDJiが格納されている全ての微細位置データ用レコードRDiでも良いし、最新のシステム時刻STiのものだけでも良い。
 そして、引き当てた微細位置データ用レコードRDiに格納されている微細位置データ情報RDJi等を前回の微細位置データ情報RDJiとして読み込む。
 そして、今回の微細位置データ情報RDJiに含まれているシステム時刻STiを読み込み、この今回のシステム時刻STiにおける位置を今回の微細位置PWbiとして、前回のセンタ側移動体情報CDSJiのシステム時刻STiと微細位置PWbiと9軸センサ情報eJi等に基づいて求める。
 そして、この求めた今回の微細位置PWbiと、今回の微細位置データ情報RDJiに含まれている9軸センサ情報eJiとウェアラブルデバイスIDとシステム時刻STiとを今回の微細位置データ情報RDJi(デバイスID、微細位置又は9軸センサ情報eJi…)として表示画像上微細位置算出処理に出力する。
 このとき、後述する表示画像上微細位置算出処理によって、求めた今回の微細位置PWbiが微細位置PWbi´に更新された後で、今回の微細位置データ情報RDJiを出力している。
 位置算出データ用メモリ330ai(330a1又は330a2、…)の微細位置データ用レコードRDiには、微細位置PWbiに微細位置PWbi´を関連付けて記憶する(図25参照)。
 そして、この今回の微細位置データ情報RDJiに含まれているシステム時刻STiに該当する微細位置データ用レコードRDiを引き当て、この微細位置データ用レコードRDiに前回の微細位置データ情報RDJiとして記憶する。
 前述の9軸センサ情報eJiが含まれていない場合は、前回の一定個数分の微細位置PWbiを用いて求める。
 一方、今回のセンタ側移動体情報CDSJiに地図上位置GPi(位置データ)が含まれている場合は、これに含まれている地図上位置GPi(位置データ)を前回の微細位置データ情報(RDJi)のシステム時刻STiにおける微細位置PWbi及び9軸センサ情報eJiとして得る。
 そして、得られた微細位置PWbi及び9軸センサ情報eJiをそのシステム時刻STi等に関連付け、これを前回の微細位置データ情報RDJiとして得る。
 そして、この前回の微細位置データ情報RDJiのシステム時刻STiに該当する位置算出データ用メモリ330ai(330a1又は330a2、…)の微細位置データ用レコードRDiを引き当て、このレコードに、得られた前回の微細位置データ情報RDJiを格納する。
 『表示画像上微細位置算出処理』
 表示画像上微細位置算出処理は、エリア画像提供部324bからの表示エリア画像種記憶アドレス情報(カメラ又は疑似画像)を判断する。
 表示エリア画像種記憶アドレス情報(カメラ又は疑似画像)がDBサーバ321のカメラパラメータ用メモリ321di(321d1又は321d2、…)のアドレスを示している場合は、このカメラパラメータ用メモリ321di(321d1又は321d2、…)に格納されているカメラパラメータγiを読み込む。
 そして、このカメラパラメータγiで微細位置算出処理からの微細位置データ情報RDJi(デバイスID、微細位置又は9軸センサ情報eJi…)に含まれている微細位置PWbiを変換(PWbi´)する。
 そして、この微細位置PWbi´に、位置算出データ用メモリ330ai(330a1又は330a2、…)の微細位置データ用レコードRDiの前回の微細位置データ情報RDJiの微細位置PWbiを更新する(図25参照)。
 そして、この微細位置データ情報RDJi(RDJ1、RDJ2、…:ウェアラブルデバイスID付)を移動体情報関連付部324cに出力する。したがって、図23に示すようにタブレット2の画面には微細位置PWbiが表示される。
 また、表示エリア画像種記憶アドレス情報(カメラ又は疑似画像)がサッカー場地図AHiを記憶しているDBサーバ321のサッカー場地図用メモリ部321a(321a1、321a2、…)のアドレスを示している場合は、このサッカー場地図AHiの座標に基づいて、微細位置算出処理からの微細位置データ情報RDJi(デバイスID、微細位置又は9軸センサ情報eJi…)に含まれている微細位置PWbiを変換する。この変換した微細位置をサッカー場Aiにおけるシステム時刻STiにおける微細位置PWbi´とする。
 そして、この微細位置PWbi´に、位置算出データ用メモリ330ai(330a1又は330a2、…)の微細位置データ用レコードRDiの前回の微細位置データ情報RDJiの微細位置PWbiを更新する。
 そして、この微細位置データ情報RDJi(RDJ1、RDJ2、…:ウェアラブルデバイスID付)を移動体情報関連付部324cに出力する。したがって、図23に示すようにタブレット2の画面には微細位置PWbiが表示される。
 [移動体情報解析サーバ325]
 移動体情報解析サーバ325は、解析データ用メモリ部325aを備えて移動体情報を解析し、これを移動体位置関連情報生成サーバ324の移動体情報関連付部324cを介してタブレット2に提供させる。
 解析データ用メモリ部325aには、解析データ用メモリ325ai(例えば、325a1、325a2、…、325ai)が予め生成されている。例えば、心拍数解析データ用メモリ325a1、体温解析データ用メモリ325a2、…、9軸用解析データ用メモリ325a3等が生成されている。
 これらの解析データ用メモリ325aiのフォーマット構成は、図27に示すように、ウェアラブルデバイスID及び日時帯Wtiにセンサ取得種別(心拍数(kai)、体温(kbi)、…)kiを関連付け、このセンサ取得種別kiに、例えば100msec毎のセンサデータSDi(心拍数、体温、…、9軸)を格納するセンサデータ格納領域RSi(RS1、RS2、…)がフォーマットされる構造になっている。
 さらに、センサ取得種別kiには、センサデータ格納領域RSiに格納された100msec毎のセンサデータSDiの判定結果hkiを格納する判定結果用領域hskiが生成される構造になっている。
 そして、移動体情報受取サーバ323から移動体情報解析要求入力情報KBJiが出力される毎に、これに含まれているウェアラブルデバイスID及び日時帯Wti並びにセンサ取得種別(心拍数(kai)、体温(kbi)、…)ki等を有する解析データ用メモリ325ai(例えば、325a1、325a2、…)を解析データ用メモリ部325aに生成する。
 そして、ストレージサーバ322のセンタ側移動体情報用メモリ部322bのセンタ側移動体情報用メモリ322bi(322b1、322b2、…)から、この移動体情報解析要求入力情報KBJiに含まれているウェアラブルデバイスID及びセンサ取得種別ki(心拍数、体温、…、9軸又はこれらの組み合わせ)、並びに、日時帯Wtiを満たすセンタ側移動体情報CDSJi(図12参照)を全て引き当てる。
 そして、これらのセンタ側移動体情報CDSJi内の全てのセンサ取得種別ki(心拍数、体温、…、9軸又はこれらの組み合わせ)のセンサデータSDiを順次読み込んでセンサ取得種別ki(心拍数、体温、…、9軸又はこれらの組み合わせ)の該当のセンサデータ格納領域RSiに格納する(図27参照)。
 そして、センタ側移動体情報用メモリ322bi(322b1、322b2、…)のウェアラブルデバイスIDと、日時帯Wtiと、センサ取得種別ki(心拍数、体温、…、9軸又はこれらの組み合わせ)と、センサ取得種別ki毎の日時帯Wtiのセンサデータ格納領域RSiに格納されているセンサデータSDiと、判定結果用領域hskiの判定結果hki等を移動体情報解析結果情報KDJiとして移動体情報関連付部324cに出力する。そして、これを日時帯場所別解析データコピー用メモリ322ei(322e1、322e2、…)にコピーして記憶する。したがって、過去の移動体情報解析結果情報KDJiを容易に提供できる。
 (全体動作説明)
 図28、図29、図30は、移動体情報提供システムの全体動作を説明するシーケンス図である。本実施の形態では、タブレット2には既に位置付移動体情報提供タブレット用プログラム(収集解析タブレット用アプリケーション)がインストールされているとして説明する。
 また、既にカメラ画像CGiがタブレット2の画面に表示されているとして説明する。
 図28に示すように、ウェアラブルデバイス1は、電源の投入によってGNSSモジュールである位置センサ15がオンにされて位置算出初期処理が行われ、互いに異なるタイミングで出力する各種センサがセンサデータSDi(デジタルデータ)を出力したどうかを判断し、出力した場合には、そのセンサデータSDi(心拍数、体温、…、9軸)をセンサデータ用記憶領域131cに上書き保存している(ステップd0)。
 タブレット2は、監督MG又は担当者によって画面の位置付移動体情報提供タブレット用アイコン(図示せず)が選択されると、位置付移動体情報提供タブレット用プログラムが起動して、以下の処理を行う。
 モード判定部221は、図16に示すモード選択画面MGiを画面に表示する(d1)。
 このモード選択画面MGiは、図16に示すように、ユーザリスト登録ボタンMGaと、通信初期接続設定ボタンMGbと、実参加者登録ボタンMGdと、移動体情報取得ボタンMGf等よりなる。
 そして、このモード選択画面MGiにおいて、通信初期接続設定ボタンMGbが選択された場合は通信初期接続設定部223を起動し、ユーザリスト登録ボタンMGa又は実参加者登録ボタンMGdが選択された場合は通信端末側ユーザリスト作成部224を起動する。
 また、移動体情報取得ボタンMGf(移動体情報取得モード)の選択時は、移動体情報送受部225を起動する。
 そして、モード判定部221は、モード選択画面MGiにおいて選択されたボタンからモードを判定する(d3)。
 『ユーザリスト登録ボタンMGaの選択』
 一方、通信端末側ユーザリスト作成部224は、ユーザリスト登録ボタンMGaが選択された場合には、図18(a)に示すユーザ管理者基本情報登録画面UMGiと図18(b)に示すユーザ基本情報登録画面UUGiを画面に表示し、ユーザリスト作成処理を実行する(ステップd5)。
 図18(a)に示すユーザ管理者基本情報登録画面UMGiは、団体名(チーム名)と、団体名コード(チームコード)と、場所名(所在地)、会社名、会社コード、管理者名(監督名)等よりなる。
 このユーザ管理者基本情報登録画面UMGiに入力された情報をユーザの管理者基本登録情報UMJiと称し、タブレット側記憶部24の通信端末側ユーザリスト用メモリ241に一時記憶させる。
 上述のユーザ基本情報登録画面UUGiは、団体名(チーム名)、氏名(氏名コード)、顔写真、年齢、身長、体重、ウェアラブルデバイスID、…等よりなる。このユーザ基本情報登録画面UUGiに入力された情報をユーザ基本情報登録情報UUJi(図18(b)参照)と称する。
 通信端末側ユーザリスト作成部224は、このユーザ基本情報登録情報UUJi(図18(b)参照)をタブレット側記憶部24の通信端末側ユーザリスト用メモリ241に一時記憶する(ステップd7i)。
 また、通信端末側ユーザリスト作成部224は、通信端末側ユーザリスト用メモリ241のユーザの管理者基本登録情報UMJi(図18(a)参照)に、ユーザ基本情報登録情報UUJi、タブレットID、作成日時等を付加し、これを上述のユーザ基本登録情報UJiとして、インターネット網Nによって、解析結果提供装置3に送信する(ステップd7a)。
 一方、解析結果提供装置3のユーザリスト提供部324aは、タブレット2からのユーザ基本登録情報UJi(図18(a)、図18(b)参照)を受信した場合には、これをDBサーバ321に出力して、ユーザ基本登録情報用メモリ部321bに登録させる(ステップd9a)。
 『実参加者登録ボタンMGdの選択』
 さらに、タブレット2の通信端末側ユーザリスト作成部224は、図16に示すモード選択画面MGiの実参加者登録ボタンMGdが選択された場合には、図17(a)に示す実参加者入力画面ZGiを画面に表示する(d7d)。
 この実参加者入力画面ZGiは、図17(a)に示すように、氏名、チーム名、場所(サッカー場)、団体名、年月日、時間等の入力欄を有する。
 そして、図示の完了ボタンMGgが選択された場合には、この実参加者入力画面ZGiの各入力欄の情報を、実参加者入力情報ZGJiとして、インターネット網Nによって解析結果提供装置3に送信する(ステップd7b)。
 解析結果提供装置3のユーザリスト提供部324aは、タブレット2からの実参加者入力情報ZGJiを受信し、DBサーバ321のユーザ基本登録情報用メモリ部321bに記憶されているユーザの管理者基本登録情報UMJi(図18(a)参照)を読み込む。
 そして、これに含まれている監督名及びタブレットID、顔写真等を付加し、さらに年月日や時刻も付加した競技に実際に参加する実参加ユーザ別基本情報CDUJi(図17(d)参照)を作成し、これをDBサーバ321のユーザ基本登録情報用メモリ321bi(321b1、321b2、…)に履歴用として記憶する(d9b)。
 そして、解析結果提供装置3のユーザリスト提供部324aは、この実参加ユーザ別基本情報CDUJi(図17(d)参照)をタブレット2に送信する(d9c)。
 タブレット2の通信端末側ユーザリスト作成部224は、実参加ユーザ別基本情報CDUJi(図17(d)参照)を受信し、これを図示しない一時記憶用メモリに記憶する。そして、ウェアラブルデバイス1とのペアリング待ち状態となる。
 『通信初期接続設定ボタンMGbの選択』
 タブレット2のユーザが通信初期接続設定ボタンMGbを選択する(ステップd11)。
 この選択に伴って、タブレット2の通信初期接続設定部223は、通信初期接続設定ボタンMGbの選択で起動して、実参加ユーザペアリング情報RPJi(図17(b)参照)を取得する、実参加ユーザペアリング設定処理を行う(ステップd12、d13、d14)。
 つまり、通信初期接続設定部223は、起動に伴って、解析結果提供装置3又は図示しない基準時刻サービスセンタと通信を行って現在時刻を取得し、この現在時刻で内部タイマ(図示せず)を設定する。すなわち、初期時刻を設定する。
 そして、ペアリング要求情報(タブレットID、機種、メーカ、時刻等)を例えば数台のウェアラブルデバイス1に送信してそれぞれの相手とペアリングを行い、ペアリング情報PJi(図13参照)を取得して、図示しないメモリに記憶する。
 そして、通信初期接続設定部223は、後述する移動体情報送受部225からの移動体情報要求情報YDJiの出力を待つ状態となる。
 このとき、ウェアラブルデバイス1は、後述する図38の初期時刻合部132jによって、タブレット2からのペアリング要求情報(タブレットID、機種、メーカ、時刻等)に含まれている時刻に基づいて、後述する内部タイマ132iを設定するとともに、ウェアラブルデバイス1の初期時刻合部132jが、GNSSモジュールである位置センサ15からの1PPS信号と、GNSS時刻を含むとRawデータと、システム時刻STi(GNSS時刻>システム時刻STi)とを取り込み、システム時刻STiの初期時刻をGNSS時刻に同期させる(d14a)。
 そして、各種のセンサをオン状態にして(d14b)、各種のセンサデータを一定時刻でメモリに格納させる処理(d14c)を行っている。
 ここまでの処理で、移動体情報DSJi(図12参照)をウェアラブルデバイス1から取得でる状態となる。
 一方、タブレット2の通信端末側ユーザリスト作成部224は、通信初期接続設定部223が記憶しているペアリング情報PJi(図13参照)を読み込み、受信した実参加ユーザ別基本情報CDUJiに関連付け、これを実際に現在、競技に参加している上述の実参加ユーザペアリング情報RPJi(図17(b)参照)として、実参加ユーザペアリング情報用メモリ242に記憶する(ステップd7h)。
 そして、通信端末側ユーザリスト作成部224は、この実参加ユーザペアリング情報用メモリ242を読み込み、この実参加ユーザペアリング情報RPJiを画面に表示する(ステップd7d)。
 したがって、タブレット2のユーザ(例えば、監督MG)は、現在、どのサッカー選手SPaiと実際にペアリングがなされているかを、氏名や顔写真で判断できる。
 タブレット2のユーザは、全ての実参加ユーザペアリング情報RPJi(図17(b)参照)が表示されている場合は、実参加ユーザ登録完了ボタン(図示せず)を選択する。
 そして、実参加ユーザの通信準備登録が完了したことを示す実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)を、移動体情報送受部225に知らせる(ステップd7j)。
 そして、画面に実参加ユーザ通信準備完了をメッセージ表示して、移動体情報取得ボタンMGf(図16参照)の選択を促す。
 この実参加ユーザ通信準備登録完了情報REJiは、実参加ユーザペアリング情報用メモリ242に記憶されている実参加ユーザペアリング情報RPJi(図17(b)参照)の、全てのウェアラブルデバイスIDを含むとする。
 また、実参加ユーザペアリング情報RPJiを管理用として解析結果提供装置3に送信する(ステップd7k)。
 一方、解析結果提供装置3のユーザリスト提供部324aは、タブレット2からの実参加ユーザペアリング情報RPJi(図17(b)参照)を受信し、これをDBサーバ321に出力して、センタ側実参加ユーザ用メモリ部321cの実参加ユーザ用メモリ321ciに記憶させる(ステップd10)。
 『移動体情報取得ボタンMGfの選択』
 一方、タブレット2の移動体情報送受部225は、移動体情報取得ボタンMGf(図16参照)の選択に伴って起動して、図19に示す移動体情報要求用入力画面KBGcを画面に表示する(ステップd21)。
 『『移動体情報取得ボタンMGfの選択』』
 タブレット2の移動体情報送受部225は、移動体情報取得ボタンMGfが選択された場合は、通信端末側ユーザリスト作成部224からの実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)が入力しているかどうかを判断する。
 実参加ユーザ通信準備登録完了情報REJiが入力している場合には、どんなウェアラブルデバイス1に、どんなセンサデータSDiを、何時(日時帯Wti)まで要求するか等を決めた、移動体情報解析要求入力情報KBJi(図20参照)が、移動体情報用メモリ243に記憶されているかどうかを判断する。つまり、移動体情報解析要求入力情報KBJiが入力されたかどうかを判断する。
 移動体情報解析要求入力情報KBJiが記憶されていない場合には、上述の図19に示す移動体情報要求用入力画面KBGcを画面に表示する。
 この移動体情報要求用入力画面KBGcは、図19に示すように、団体名(チーム名)、日時帯Wtiと、氏名(ウェアラブルデバイスID)と、センサ取得種別ki(全部又は選択)と、位置表示種別Gki(微細又は通常)と、画像種(カメラ又は疑似画像)等の入力欄よりなる。
 日時帯Wtiは、ウェアラブルデバイス1が取得する移動体情報DSJi(図12参照)を得るための時間帯を示すものであり、開始時刻Wtpi、終了時刻Wtriの入力欄よりなる。
 この開始時刻Wtpi及び終了時刻Wtriの入力欄は、例えば100msec単位で位置等を解析できるようにするために、YY年MM月DD日HH時MM分SS秒と入力可能にされている。また、氏名の入力欄は、数名程度の氏名が入力可能となっている。
 センサ取得種別kiは、ウェアラブルデバイス1に備えられている各種センサ(心拍数、体温、…、9軸)の全てを指定する全部指定項目と、所望のセンサ(心拍数、体温、…、9軸又はこれらの組み合わせ)を指定する選択の入力欄とよりなる。
 そして、図29に示すように、移動体情報送受部225は、図示しない完了ボタンの選択かどうかを判断する(ステップd30)。
 完了ボタンが選択された場合は、移動体情報要求用入力画面KBGc(図19参照)に入力された各情報の組を、移動体情報解析要求入力情報KBJi(図20参照)として、移動体情報用メモリ243に記憶する(ステップd31)。
 また、インターネット網Nによって移動体情報解析要求入力情報KBJi(図20参照)を解析結果提供装置3に送信する(ステップd32)。
 この移動体情報解析要求入力情報KBJiは、図20に示すように、ウェアラブルデバイスID部、日時帯Wti、センサ取得種別ki等からなる。つまり、移動体情報送受部225は、移動体情報要求用入力画面KBGc(図19参照)より入力された全てのウェアラブルデバイスIDをウェアラブルデバイスID部として作成している。
 一方、解析結果提供装置3の移動体情報受取サーバ323は、タブレット2からの移動体情報解析要求入力情報KBJiを受信し、この移動体情報解析要求入力情報KBJiを移動体位置関連情報生成サーバ324及び移動体情報解析サーバ325に送信する(ステップd34)。
 そして、移動体情報送受部225は、移動体情報解析要求入力情報KBJi(図20参照)に含まれている日時帯Wtiの間だけ、ウェアラブルデバイスID部と、センサ取得種別ki(全部又は選択)と、タブレットID等の各情報を組にした移動体情報要求情報YDJi(図13参照)を生成する(ステップd35)。
 このとき、移動体情報送受部225は、移動体情報解析要求入力情報KBJiに含まれているセンサ取得種別kiに応じた各種センサ分の領域と、検出位置Pi、システム時刻STi等を書き込むための各領域と、を有した送信フォーマットKSRiを形成させるための、送信パターンPTi(図21参照)を生成する。
 なお、この送信パターンPTiには、取得したデータを数値列で書き込むコマンドを付加している。つまり、余計なものをウェアラブルデバイス1側から送信させないようにして、通信時間を短縮させることで、リアルタイム性を向上させている。また、送信パターンPTiには、移動体情報解析要求入力情報KBJiに含まれているウェアラブルデバイスID、タブレットIDを含ませている。そして、この送信パターンPTiを、ウェアラブルデバイス1に送信する(ステップd37a)。
 ウェアラブルデバイス1は、タブレット2からの送信パターンPTiを受け取る毎に、この送信パターンPTiに基づく送信フォーマットを、記憶部131に形成する(ステップd37b)。
 また、タブレット2は、通信初期接続設定部223によって、移動体情報要求情報YDJi(図13参照)を、各ウェアラブルデバイス1に、Bluetooth(登録商標)プロトコルで送信させる(ステップd38)。
 ウェアラブルデバイス1は、移動体情報要求情報YDJiを受信する毎に、各種センサが現時点で取得できているセンサデータSDi(心拍数、体温、…、9軸)等を送信フォーマットKSRi上にフォーマットし、デジタルデータ(移動体情報DSJi)として取得する、各種センサ情報取得処理を行う(ステップd41)。
 そして、取得した移動体情報DSJi(図12参照)をBluetooth(登録商標)プロトコルでタブレット2に送信する(ステップd43)。
 一方、タブレット2は、ウェアラブルデバイス1からの移動体情報DSJiを通信初期接続設定部223で受信し、それを、インターネットプロトコルによりインターネット網Nを介して解析結果提供装置3に送信する、転送処理を行う(ステップd45、d46)。
 この転送処理は、タブレット2の通信初期接続設定部223で受信した、ウェアラブルデバイス1からの移動体情報DSJiに含まれているウェアラブルデバイスIDを有する実参加ユーザペアリング情報RPJi(図17(b)参照)が、実参加ユーザペアリング情報用メモリ242に既に登録されている場合に、これを受け付ける(ステップd45)。
 そして、この移動体情報DSJiを移動体情報送受部225に出力する。移動体情報送受部225は、移動体情報DSJiを入力する毎に、それを、インターネットプロトコルにより、インターネット網Nを介して解析結果提供装置3に転送する(ステップd46)。
 一方、解析結果提供装置3の移動体情報受取サーバ323は、タブレット2からの移動体情報DSJi(図12参照)を受信する毎に、この移動体情報DSJiに含まれている検出位置Piを平面直角座標変換パラメータβiに基づいて変換し(地図上位置GPi)、これをセンタ側移動体情報CDSJi(図12参照)として生成する、移動体情報収集処理を行う(ステップd48)。
 このセンタ側移動体情報CDSJi(図12参照)は、移動体情報用メモリ部326aの該当の移動体情報用メモリ326ai(326a1、326a2、…)に記憶する。
 そして、このセンタ側移動体情報CDSJiを、移動体位置関連情報生成サーバ324及び移動体情報解析サーバ325にに出力する。また、ストレージサーバ322に出力して履歴用として記憶させる。
 そして、タブレット2は、解析結果提供装置3からの表示制御データPKJiの待ち受け状態となる(ステップd53)。
 一方、図30に示すように、解析結果提供装置3の位置算出部324dは、タブレット2からの移動体情報解析要求入力情報KBJiを受信すると、図30に示すように位置データ算出処理を行う(ステップd55)。
 この位置データ算出処理は位置算出部324dが行う。位置データ算出処理は、図30に示すように、微細位置データ用レコード生成処理(ステップd56)と微細位置算出処理(ステップd57)と、エリア画像上に微細位置を定義する変換処理(位置変換処理)を行う(d58)。これらの処理についてはフローチャートを用いて後述する。
 そして、解析結果提供装置3では、移動体情報解析サーバ325において、移動体情報受取サーバ323から移動体情報解析要求入力情報KBJi(図20参照)が出力される毎に、後述する移動体情報解析処理を行う(ステップd60)。
 そして、解析結果提供装置3では、移動体情報関連付部324cを起動して、例えば、ウェアラブルデバイスIDと、センサ取得種別ki(心拍数(kai)、体温(kbi)、…、9軸又はこれらの組み合わせ)毎の日時帯Wti分のセンサデータSDiと、検出位置Pi等を、システム時刻STiに関連付ける関連付け処理を行って、図14に示す表示制御データPKJiを生成する(ステップd70)。
 そして、移動体情報関連付部324cは、生成した表示制御データPKJiを、タブレット2に向けて、インターネットプロトコルで送信させる(ステップd71)。
 また、移動体情報関連付部324cは、移動体情報解析要求入力情報KBJiに微細位置データ用レコードRDiの微細位置PWbiに関連付けされているシステム時刻STiを読み込み、このシステム時刻STiに該当する加速度グラフや姿勢グラフ等の時間軸上の座標を計算し、その座標値で縦軸バーBi(Ba、Bb、Bc、…)を表示させる表示制御データPKJiを作成しても良い。
 これにより、図36に示すように、タブレット2の加速度グラフや姿勢グラフ等には、微細位置PWbiの時点に対して縦軸バーBi(Ba、Bb、Bc、…)が表示されることになるので、その微細位置PWbiの時点で、どんな状況、どんな動きをしているか等を、微細位置単位で把握できる。
 そして、ステップd3に移行する(ステップd49)。
 一方、上記の待ち受け状態において、タブレット2は、解析結果提供装置3からの表示制御データPKJiの受信を判断すると(ステップd53:YES)、解析結果表示処理部226によって、その表示制御データPKJiをタブレット側記憶部24の解析結果受信用メモリ246に記憶してブラウザに出力して画面に表示する(ステップd73)。
 次に、フローチャートを用いて移動体情報受取サーバ323及び位置算出部324dの処理を詳細に説明する。
 [移動体情報受取サーバ323の処理]
 図31は、移動体情報受取サーバ323の処理を説明するフローチャートである。
 移動体情報受取サーバ323は、インターネット網Nを介して送られた、タブレット2からの移動体情報DSJi(図12参照)の受信かどうかを判断する(ステップK20)。
 移動体情報DSJiを受信した場合は(ステップK20:YES)、それに含まれているウェアラブルデバイスIDを読み込む(ステップK22)。
 そして、ウェアラブルデバイスIDを有する移動体情報用メモリ326ai(326a1、326a2、…)が、移動体情報用メモリ部326aに生成されているかどうかを判断する(ステップK24)。
 ステップK24で生成されていないと判断した場合(NO)は、移動体情報DSJiに含まれているウェアラブルデバイスID付の移動体情報用メモリ326ai(326a1、326a2、…)を、移動体情報用メモリ部326aに生成する(ステップK26)。
 次に、この移動体情報DSJiに含まれている検出位置Piを、DBサーバ321のカメラパラメータ用メモリ321diに記憶されている平面直角座標変換パラメータβiに基づいて変換し、これをセンタ側移動体情報CDSJiとして、該当の移動体情報用メモリ326ai(326a1、326a2、…)に記憶する(ステップK28)。
 そして、このセンタ側移動体情報CDSJiを出力して記憶させる(ステップK30)。
 この後、ステップK32において、移動体情報受取サーバ323とは、位置データ算出処理を起動させる(詳細は後述する)。
 そして、タブレット2からインターネット網Nを介して接続断情報(ウェアラブルデバイスID付)が入力したかどうかを判断する(ステップK34)。
 接続断情報が入力した場合は(ステップK34:YES)、この接続断情報に含まれているウェアラブルデバイスIDを有する移動体情報用メモリ326aiをクリアし(ステップK36)、処理を終了する。
 また、接続断情報(ウェアラブルデバイスID付)が入力しない場合は(ステップK34:NO)、処理をステップK20に戻す。
 また、ステップK24において、移動体情報DSJi(図12参照)に含まれているウェアラブルデバイスIDを有する移動体情報用メモリ326aiが生成されていると判断した場合(YES)は、処理をステップK28に移す。
 [位置算出部324dの微細位置データ用レコード生成処理]
 図32は微細位置データ用レコード生成処理の動作を説明するフローチャートである。
 微細位置データ用レコード生成処理は、図32に示すように、タブレット2からの移動体情報解析要求入力情報KBJi(図20参照)iの入力かどうかを判断する(ステップK1)。
 移動体情報解析要求入力情報KBJiが入力したと判断した場合は(ステップK1:YES)、これに含まれている位置表示種別Gki及びウェアラブルデバイスIDを有する位置算出データ用メモリ330ai(330a1、330a2、…)が、位置算出データ用記憶部330に生成されているかどうかを判断する(ステップK3)。
 生成されている場合は(ステップK3:YES)、そのまま処理を終了し、生成されてない場合は(ステップK3:NO)、移動体情報解析要求入力情報KBJiに含まれている日時帯Wti(例えば、1分)と、微細位置間隔dKi(例えば、100msec)とを読み込む(ステップK5)。
 そして、日時帯Wtiをシステム時刻STiの出力間隔である微細位置間隔dKiで割った個数である微細位置データ用レコード数kjiを求める(ステップK7)。
 そして、kji個の微細位置データ用レコードRDiを有する位置算出データ用メモリ330aiを、位置算出データ用記憶部330に生成し(ステップK9)、処理を終了する。
 『位置算出部324dの微細位置算出処理、表示画像上微細位置算出処理』
 図33、図34は微細位置算出処理、表示画像上微細位置算出処理を説明するフローチャートである。但し、センタ側移動体情報CDSJiに地図上位置GPi(位置データ)が含まれていない場合として説明する。また、表示する画像種はカメラ画像として説明する。
 位置算出部324dの微細位置算出処理は、インターネット網Nを介して送られた、タブレット2からの移動体情報DSJi(図12参照)であるセンタ側移動体情報CDSJiの受信かどうかを判断する(S150)。
 センタ側移動体情報CDSJiを受信した場合は、これに地図上位置GPi(位置データ)が含まれているかどうかを判断する(S152)。
 そして、地図上位置GPi(位置データ)が含まていないと判断した場合は、システム時刻STiとシステム時刻STiと判断する。
 システム時刻STiと判断した場合は、地図上位置GPi(位置データ)が含まれていない場合は、今回のセンタ側移動体情報CDSJiに含まれているウェアラブルデバイスIDを読み込み、このウェアラブルデバイスID及びシステム時刻STiを有する微細位置データ用レコードRDiを読み込む(S154)。
 具体的には、ウェアラブルデバイスIDを有する位置算出データ用メモリ330ai(330a1又は330a2、…)を位置算出データ用記憶部330より引き当てる。
 そして、この位置算出データ用メモリ330ai(330a1又は330a2、…)に生成されている微細位置データ用レコードRDiの内で、今回のセンタ側移動体情報CDSJiに含まれているシステム時刻STiが格納されているものを引き当てる。
 この、引き当てた微細位置データ用レコードRDiのシステム時刻STiと微細位置PWbiと9軸センサ情報eJiとウェアラブルデバイスID等を総称して微細位置データ情報RDJiと称している。
 前述の引き当ては、同じウェアラブルデバイスIDを有する微細位置データ情報RDJiが格納されている全ての微細位置データ用レコードRDiでも良いし、最新のシステム時刻STiのものだけでも良い。
 そして、引き当てた微細位置データ用レコードRDiに格納されている微細位置データ情報RDJi等を前回の微細位置データ情報RDJiとして読み込む(S156)。
 そして、前回のセンタ側移動体情報CDSJiのシステム時刻STiと微細位置PWbiと9軸センサ情報eJiを読み込む(S157a)。
 そして、これらの情報と、今回の微細位置データ情報RDJiのシステム時刻STiとに基づいて、この今回のシステム時刻STiにおける位置を今回の微細位置PWbiとして求める(S157aa)。
 そして、この求めた今回の微細位置PWbiと、今回の微細位置データ情報RDJiに含まれている9軸センサ情報eJiとウェアラブルデバイスIDとシステム時刻STiとを今回の微細位置データ情報RDJi(ウェアラブルデバイスID、微細位置又は9軸センサ情報eJi…)として表示画像上微細位置算出処理に出力する。
 表示画像上微細位置算出処理は、エリア画像提供部324bからの表示エリア画像種記憶アドレス情報に基づいてDBサーバ321のカメラパラメータ用メモリ321di(321d1又は321d2、…)に格納されているカメラパラメータγiを読み込む(S157b)。
 そして、このカメラパラメータγiで微細位置算出処理からの微細位置データ情報RDJi(ウェアラブルデバイスID、微細位置又は9軸センサ情報eJi…)に含まれている微細位置PWbiを変換(PWbi´)する(S158)。
 そして、この微細位置PWbi´に、位置算出データ用メモリ330ai(330a1又は330a2、…)の微細位置データ用レコードRDiの前回の微細位置データ情報RDJiの微細位置PWbiを更新する(S158)。
 そして、この微細位置データ情報RDJi(RDJ1、RDJ2、…:ウェアラブルデバイスID付)を移動体情報関連付部324cに出力するとともに、微細位置データ用レコードRDiに記憶する(S162)。
 したがって、図22に示すようにタブレット2の画面には微細位置PWbiが表示される。
 そして、移動体情報関連付部324cを起動させる。移動体情報関連付部324cは、位置算出部324dからの微細位置データ情報RDJiと移動体情報解析結果情報KDJi(生体情報、解析結果、…)とを関連付ける。さらに、顔写真と氏名コードを関連付け、該当のウインドウ番号を含む図14に示す表示制御データPKJiを生成して、これをタブレット2に送信する(S173)。
 そして、接続断かどうかを判断する(S174)。接続断ではない場合は、処理を図33のステップS150に戻す。
 これによって、図26又は図36の画面がタブレット2に表示されることになり、リアル位置表示用ウインドウRWiには図22に示す微細位置PWbiが表示されることになる。
 したがって、監督MGは、あのサッカー選手SPaiが今どんな状況か、そしてどのように移動しているかが、リアルタイムで、一目で分かることになる。
 [移動体情報関連付部324cの処理]
 図35のフローチャートを用いて、上記の移動体情報関連付部324cの処理を説明する。
 移動体情報関連付部324cは、位置算出部324dからのウェアラブルデバイスID付の微細位置データ情報RDJi(RDJ1、RDJ2、…)を読み込む(ステップS181)。
 次に、センタ側移動体情報CDSJiに含まれているウェアラブルデバイスIDを有する移動体情報解析結果情報KDJi(図15参照)の入力かどうかを判断する(ステップS183)。
 ステップS183で、移動体情報解析結果情報KDJiの入力と判定した場合は、この微細位置データ情報RDJiを移動体情報解析結果情報KDJiに付加する(ステップS185)。
 そして、予め登録されている複数のウインドウWUi用のテンプレートと、これらウインドウ番号に対するセンサ取得種別ki(心拍数、体温、…、9軸)と、微細位置データ情報RDJiと、移動体情報解析結果情報KDJiとを関連付けた、図14に示す表示制御データPKJiを生成して、これをタブレット2に向けて、インターネットプロトコルで送信させる(ステップS187)。
 そして、接続断かどうかを判断し、接続断でない場合(ステップS189:NO)は処理をステップS181に戻し、接続断の場合(ステップS189:YES)は処理を終了する。
 [タブレット2の画面表示の一例]
 図36は、上述の表示制御データPKJi(カメラ画像CGiを含む)に基づく、タブレット2の画面表示の一例を示すものである。
 すなわち、タブレット2の解析画面GKGiは、例えば図36に示すように、ユーザ顔写真用ウインドウWU、心拍用ウインドウWU、加速度用ウインドウWU、姿勢用ウインドウWU、その他のウインドウWU、及び、リアル位置表示用ウインドウRWi等を備える。
 ユーザ顔写真用ウインドウWUには、例えば、ウェアラブルデバイス1を装着したペアリング済のサッカー選手SPa1、SPa2、SPa3、…のプロフィール写真とともに、当該サッカー選手SPa1、SPa2、SPa3、…の現時点でのGNSS測位データ(微細位置PWbi)が表示される。
 心拍用ウインドウWUには、サッカー選手SPa1、SPa2、SPa3、…の心拍数グラフが、加速度用ウインドウWUには、サッカー選手SPa1、SPa2、SPa3、…の加速度グラフが、姿勢用ウインドウWUには、サッカー選手SPa1、SPa2、SPa3、…の姿勢値グラフが、…、それぞれ表示され、リアル位置表示用ウインドウRWiには、カメラ画像CGi上での各サッカー選手SPa1、SPa2、SPa3、…の検出位置Pi(微細位置PWbi)が表示される。
 心拍用ウインドウWU、加速度用ウインドウWU、姿勢用ウインドウWU、及び、その他のウインドウWUの横軸は、システム時刻STiの最小単位(例えば、100msec)で定義され、微細位置PWbi(PWb1、PWb2、PWb3、…)に対して、縦軸バーBi(Ba、Bb、Bc、Bd、…)が表示されるようになっている(サッカー選手SPa2、SPa3、…については図示省略)。
 したがって、タブレット2のユーザである、例えば該当のサッカーチームの監督MGは、どのサッカー選手SPaiが、微細位置PWbiにおいて、どんな状況にあるのか、そしてどのように移動しているか等を、微細位置単位で把握できるようになる。
 なお、上記の実施の形態では、ウェアラブルデバイス1が検出した情報を解析結果提供装置3に転送する転送機能をタブレット2に備えたが、この転送機能は、例えばサッカー場Aiの近傍に転送用通信機器(図示せず)として設けても良い。
 また、図36は、タブレット2の画面表示の一例であって、例えば図示していないが、同一のサッカー選手SPaiの現在のデータを過去のデータと対比させるように表示したり、画面をユーザ顔写真用ウインドウWUのみにして、より多くのサッカー選手SPaiのプロフィール写真とGNSS測位データ(微細位置PWbi)とを表示させること等も可能である。
 以下にウェアラブルデバイス1の具体的な構成を説明する。
 図37は、ウェアラブルデバイス1の具体的な構成図である。
 図37(a)は、ウェアラブルデバイス1の平面構成を、図37(b)は、ウェアラブルデバイス1の図示AA方向の側面構成を、図37(c)は、ウェアラブルデバイス1の図示BB方向の側面構成を、それぞれ概略的に示す。なお、ウェアラブルデバイス1は集積化されたICであっても良いが、本実施の形態では回路構成図として示す。
 すなわち、図37においては、位置センサ15(GNSSモジュール)と、生体情報検出センサ16と、環境情報検出センサ17と、移動体状態情報検出センサ18(9軸センサ)と、を例示して説明する。但し、生体情報検出センサ16、環境情報検出センサ17、移動体状態情報検出センサ18については、必要に応じて、増減できる構成とするのが望ましい。
 図37において、ウェアラブルデバイス1は、実装基板101(ベースともいう)上に搭載された無線モジュール11(無線通信モジュール)と、電池モジュール12と、メイン制御モジュール13と、出力モジュール14と、位置センサ15と、生体情報検出センサ16と、環境情報検出センサ17と、USBハブ118(Universal Serial Bus)と、充電及び外部接続用のUSB端子19と、移動体状態情報検出センサ18等を備える。
 また、無線モジュール11は、例えば、BLEモジュール11a(Bluetooth(登録商標) Low Energy)モジュールとWi-Fiモジュール11bとを備え、タブレット2との通信時には、メイン制御モジュール13によって設定された、後述する初期接続設定情報を用いて回線を接続して通信を継続させる。
 位置センサ15は、例えば、GNSS受信アンテナ15aとGNSS受信モジュール15bとを備える。
 生体情報検出センサ16は、心拍数、脈拍数、体温、…等の生体情報SEJiを検出するセンサ類であり、各種センサのそれぞれが特有のタイミングで取得したセンシング結果をセンサデータSDiとして出力する。つまり、サッカー選手SPaiの各種の生体情報SEJiを固有のタイミングで検出し、その検出値(センシング結果)を生体情報SEJiのセンサデータSDiとして出力する。
 環境情報検出センサ17は、気圧、温度(気温)、湿度、…等の環境情報SKJiを検出するセンサ類であり、各種センサのそれぞれが特有のタイミングで取得したセンシング結果をセンサデータSDiとして出力する。つまり、サッカー選手SPaiの周囲の環境情報SKJiを固有のタイミングで検出し、その検出値(センシング結果)を移動体の環境情報SKJiのセンサデータSDiとして出力する。
 移動体状態情報検出センサ18は、サッカー選手SPaiの姿勢値、加速度、方向を検出する9軸センサであり、例えば100msec単位で検出するために、信号ライン161(IC(Inter-Integrated Circuit)/SPI(Serial Peripheral Interface)等)を介して、メイン制御モジュール13に直に接続されるようにしている。つまり、サッカー選手SPaiの姿勢、加速度、方向を、検出する毎に、その検出値(センシング結果)を移動体の9軸センサ情報eJiのセンサデータSDiとして出力する。
 ここで、ウェアラブルデバイス1のメイン制御モジュール13としては、制御部132及び記憶部131(デバイス側位置算出データ用記憶部(330))を備える。
 記憶部131は、SDメモリカード等であっても良く、例えば容量が16ギガバイト(GB)とされ、起動プログラムやデータ保存用のストレージとして利用される。この記憶部131には、例えば、位置センサ15、生体情報検出センサ16、環境情報検出センサ17、移動体状態情報検出センサ18からのセンサデータSDiを記憶するためのメモリ領(以下、センサデータ用記憶領域131cという)が予め生成される。このセンサデータ用記憶領域131cは、制御部132内に設けられるRAM等を用いて構成することも可能である。
 メイン制御モジュール13には、USBバス(信号ケーブル)118gを介して、USBハブ118が接続されている。USBハブ118の各ポートに対しては、USBバス118aを介して位置センサ15のGNSS受信モジュール15bが、USBバス118bを介して無線モジュール11のBLEモジュール11aが、USBバス118cを介して無線モジュール11のWi-Fiモジュール11bが、USBバス118dを介して電池モジュール12が、USBバス118eを介して生体情報検出センサ16及び環境情報検出センサ17の各種センサが、USBバス118fを介して出力モジュール14が、USBバス118hを介してUSB端子19が、それぞれ接続されている。
 USBハブ118は、定期的(例えば、数msec単位)に、入力ポート(図示せず)を監視し、信号を入力した入力ポートがあれば、その信号(位置データ、心拍数データ、…、BLEデータ、Wi-Fiデータ、USBデータ等)をメイン制御モジュール13に出力する。また、USBハブ118は、メイン制御モジュール13からの信号を該当するモジュール11a、11b等に出力する。
 GNSS受信モジュール15bは、GNSS受信アンテナ15aと接続されており、例えば1sec毎にフレームヘッダに含まれる1PPS信号(1secに1回のクロック波形)を発生するとともに、GNSS受信アンテナ15aを介して受け取ったGNSS衛星AS1からのGNSSデータに応じたRawデータを、USBハブ118を介してメイン制御モジュール13に出力する。
 BLEモジュール11aは、Bluetooth(登録商標)プロトコルでデータの送受信を行う無線通信モジュールである。
 Wi-Fiモジュール11bは、Wi-Fi Allianceによって認定された無線LAN(Local Area Network)用の無線通信モジュールである。
 出力モジュール14としては、充電中や残量等を報知するための、例えばLEDランプ、バイブレータ、ブザー等を備えていても良い(図示省略)。
 USB端子19は、電池モジュール12の充電や、パーソナルコンピュータ等の図示せぬ外部機器との接続に用いられる。
 生体情報検出センサ16は、心拍数センサ(Heart Rate Sensor)等である。例えば、心拍数センサは、一定のセンシング周期の心拍数データをデジタル値であるセンサデータSDiとして取得し、この取得時点での心拍数データをUSBハブ118に出力する。
 環境情報検出センサ17は、温度センサ等である。例えば、温度センサは、一定のセンシング周期の気温データをデジタル値であるセンサデータSDiとして取得し、この取得時点での気温データをUSBハブ118に出力する。
 移動体状態情報検出センサ18は、ジャイロセンサ等である。例えば、ジャイロセンサは、一定のセンシング周期の姿勢値データをデジタル値であるセンサデータSDiとして取得し、この取得時点での姿勢値データをUSBハブ118に出力する。
 図38は、ウェアラブルデバイス1のメイン制御モジュール13における制御部132の概略プログラム構成(機能ブロック)を示すものである。
 制御部132は、内部タイマ132i(システム時計)のシステム時刻STiをGNSS時刻(Rawデータ)に初期同期させるとともに、サッカー場Aiでのサッカー選手SPaiの心拍数、脈拍数、体温等の生体情報SEJiと、サッカー選手SPaiの姿勢値、加速度等の9軸センサ情報eJiと、サッカー選手SPaiの周囲の気圧等の環境情報SKJiとに、GNSSモジュールである位置センサ15の位置情報(Rawデータ)を関連付けた移動体情報DSJiを送信させる。システム時刻STiは任意であるが、GNSS時刻以下で、最も検出タイミングが早いセンサの出力タイミングに同期されているのが好ましい。
 また、制御部132は、タブレット2からのペアリング要求情報に含まれている基準時刻に基づいて、内部タイマ132iのシステム時刻STiを設定する。
 制御部132は、例えば、USB用入力部132aと、USB用出力部132bと、無線モジュール初期設定部132dと、センサ情報取込部132fと、初期時取込フォーマット作成部132gと、内部タイマ132iと、初期時刻合部132j(初期同期合せ部ともいう)と、関連付部132kと、出力制御部132mと、コピー部132nと、再送部132pと、シリアル用入力部132rと、位置データ算出部132s等を備える。
 USB用入力部132aは、USBハブ118を介して、無線モジュール11からの出力、GNSSモジュールである位置センサ15のGNSS受信モジュール15bのRawデータ、生体情報検出センサ16のセンシング結果等を取り込むもので、例えば、その入力の種類を判定できる機能を備える。
 すなわち、USB用入力部132aは、入力した信号(データ)を受け取って、その内容を判定し、判定の結果に応じて、その信号を各部に提供する。
 例えば、入力した信号がタブレット2からの送信パターンPTiの場合には、これを初期時取込フォーマット作成部132gに提供する。また、例えばタブレット2からの無線モジュール11の初期設定に関する指示命令等の場合(初期動作時)には、USB用入力部132aは、これを無線モジュール初期設定部132dに提供する。
 また、例えばGNSS受信モジュール15bからのRawデータや1PPS信号又はGNSS時刻に関するものの場合(初期動作時)には、USB用入力部132aは、それを初期時刻合部132j及び位置データ算出部132sに提供する。
 また、例えば生体情報検出センサ16からの生体情報SEJiのセンサデータSDiや環境情報検出センサ17からの環境情報SKJiのセンサデータSDiの場合には、USB用入力部132aは、それをセンサ情報取込部132fに提供する。
 また、例えばタブレット2からの再送リクエストXRiの場合には、それを再送部132pに提供する。
 また、タブレット2からは、USB用入力部132aに対して、タブレット2が取り込むセンサデータSDiに応じて、センサ取得種別(例えば、心拍数、…、9軸のいずれか1つ、又は、いずれかの組み合わせ)kiが通知されるようになっている。
 これに対し、シリアル用入力部132rは、移動体状態情報検出センサ18からの移動体状態情報(9軸センサ情報eJi)をセンサデータSDiとして取り込むものであり、このセンサデータSDiをセンサ情報取込部132fに提供する。
 無線モジュール初期設定部132dは、電源の投入に伴って、無線モジュール11を起動状態にする。
 そして、無線モジュール11のBLEモジュール11a又はWi-Fiモジュール11bから、タブレット2のタブレットIDを含む接続要求を、USBハブ118を介して受信する毎に、例えば記憶部131のメモリ領域131aに予め登録されているウェアラブルデバイスIDを含む情報を送信し、回線接続状態にする。この回線接続状態の時点での接続初期設定情報は、例えば無線モジュール11内に設定される。そして、この接続初期設定情報は、接続断にされるまで記憶される。
 初期時取込フォーマット作成部132gは、USB用入力部132aよりタブレット2からの送信パターンPTi(図21参照)を受け取る毎に、この送信パターンPTiに基づく送信フォーマットKSRiを、例えば記憶部131内に生成する。この記憶部131内に生成された送信フォーマットKSRiの領域を、送信フォーマットパターンメモリ131bとも称する。
 そして、制御部132は、タブレット2からのセンサ取得種別kiの待ち状態となる。
 センサ取得種別kiを受信した場合には、初期時取込フォーマット作成部132gによって、送信フォーマットKSRiの後段にセンサ取得種別kiに対応する個数のセンサデータ送信用領域を生成する。
 つまり、送信フォーマットKSRiは、その全体長(センサデータ送信用領域の総数)が、タブレット2からのセンサ取得種別kiにしたがって増減する。そのため、タブレット2からのセンサ取得種別kiが少ない程、送信するデータが軽量になる。
 初期時刻合部132jは、USB用入力部132aを介しての位置センサ15(GNSSモジュール)からの1PPS信号とGNSS時刻等の元データとなるRawデータ、及び、内部タイマ132iからのシステム時刻STi(GNSS時刻>システム時刻STi)を入力し、システム時刻STiをGNSS時刻(Rawデータ)に同期させる。
 センサ情報取込部132fは、生体情報検出センサ16のセンサデータSDiや環境情報検出センサ17のセンサデータSDiが、USB用入力部132aより出力されたかどうかを判断する。出力された場合は、USB用入力部132aにおいて、そのセンサ取得種別kiを判断する。つまり、センサデータSDiを出力したセンサが存在すると判断し、その種類を特定する。
 センサの種類が特定されると、センサデータ用記憶領域131c内の該当するセンサデータ送信用領域に、そのセンサデータSDiを上書き保存する。つまり、生体情報SEJi及び環境情報SKJiのそれぞれのセンサデータSDiは、異なるタイミングで出力されるが、次のセンサデータSDiが出力されるまでは保存される。
 また、センサ情報取込部132fは、移動体状態情報検出センサ18のセンサデータSDiが、シリアル用入力部132rより出力されたかどうかを判断し、出力された場合には、順次、そのセンサデータSDiをセンサデータ用記憶領域131c内の該当のセンサデータ送信用領域に上書き保存する。
 このように、センサデータ用記憶領域131cでは、生体情報検出センサ16、環境情報検出センサ17、移動体状態情報検出センサ18の各種センサが異なるタイミングでセンサデータSDiを出力したとしても、次のセンサデータSDiが出力されるまでは、記憶するセンサデータSDiが保存されていることになる。
 位置データ算出部132sは、GNSSモジュールである位置センサ15からのRawデータや同期後のシステム時刻STi等に基づいて、ウェアラブルデバイス1の検出位置Piを定期的(例えば、1sec毎)に求めて出力する。
 関連付部132kは、タブレット2からの移動体情報DSJiを要求する移動体情報要求情報YDJiを、無線モジュール11やUSB用入力部132aを介して受信したときに、検出位置Piの緯度Ei、経度Niとその取得時のシステム時刻STiとを、送信フォーマットパターンメモリ131bの、送信フォーマットKSRiの先頭部分にヘッダ情報(位置情報)として書き込む。
 そして、このシステム時刻STiを取得した時点の、センサデータ用記憶領域131cの各々のセンサデータSDi(タイミングが異なる)を読み出して、送信フォーマットKSRiの後段に書き込む。
 すなわち、関連付部132kは、検出位置Piの元データであるRawデータとシステム時刻STiとの同期がなされた後に、求められた検出位置Piが出力された時点でのセンサデータSDiをセンサデータ用記憶領域131cから読み込んで、送信フォーマットパターンメモリ131bの送信フォーマットKSRiに書き込んでいる(上書き)。
 このとき、関連付部132kは、送信フォーマットKSRiにおいて、システム時刻STi及び検出位置Pi等の各データを全て数字列にしている。つまり、送信フォーマットKSRiの各フォーマット領域を予めセンサ取得種別kiで定義しているので、この送信フォーマットKSRiで送信しても、タブレット2又は解析結果提供装置3は解読ができる。
 送信フォーマットKSRiの各データを全て数値列にすることで、送信フォーマットKSRiによる送信可能なデータ量を増加できる。
 また、数値列の並び替えや、センサ取得種別kiによって定義される、送信フォーマットKSRiのフォーマット領域の順番を入れ替えることにより、タブレット2又は解析結果提供装置3以外での解読を困難にできる。
 出力制御部132mは、関連付け処理が終了する毎に、送信フォーマットパターンメモリ131bの送信フォーマットKSRiの各々のセンサデータ送信用領域を詰め、これを移動体情報DSJiとして、USB用出力部132bを介して、無線モジュール11よりタブレット2に送信させる。
 すなわち、出力制御部132mは、送信フォーマットKSRiにおいて、センサデータSDiがフォーマットされていないセンサデータ送信用領域を廃棄(削除)し、センサデータSDiがフォーマットされているセンサデータ送信用領域だけで移動体情報DSJiを形成する。
 コピー部132nは、移動体情報DSJiをコピーして、移動体状況検出情報格納用メモリ領域131d(コピー領域ともいう)に記憶する。
 再送部132pは、USB用入力部132aに入力したタブレット2からの移動体情報要求情報YDJi(図13参照)に再送要求が含まれている場合に、この移動体情報要求情報YDJiに該当する移動体情報DSJiを移動体状況検出情報格納用メモリ領域131dから読み出し、USB用出力部132bを介してタブレット2に再送する。
 次に、ウェアラブルデバイス1が移動体情報DSJiを送信するまでの過程の説明を、図39のタイミングチャートを用いて補充する。
 図39(a)はメイン制御モジュール13の起動を示し、図39(b)はGNSSモジュールである位置センサ15の起動を示し、図39(c)は検出位置Piの出力タイミングを示す。また、図39(d)は内部タイマ132i(システム時刻STi)の出力タイミングを示し、図39(e)はGNSSモジュールである位置センサ15からの1PPS信号の出力タイミングを示す。さらに、図39(f)は心拍数のセンサデータSDiの出力タイミングを示し、図39(g)は9軸センサ情報eJiのセンサデータSDiの出力タイミングを示し、図39(h)は体温のセンサデータSDiの出力タイミングを示す。
 図39に示すように、メイン制御モジュール13の起動に伴って、内部タイマ132iやセンサモジュールである位置センサ15、生体情報検出センサ16、環境情報検出センサ17、移動体状態情報検出センサ18を起動する。
 なお、図39(i)においては、心拍数のセンサデータSDiと9軸センサ情報eJiのセンサデータSDiと体温のセンサデータSDiとがシステム時刻STiとタイミング的に一致した時点での、送信フォーマットKSRiのフォーマット例を、図39(j)においては、9軸センサ情報eJiのセンサデータSDiとがシステム時刻STiとタイミング的に一致した時点での、送信フォーマットKSRiのフォーマット例を、それぞれ示している。
 すなわち、ウェアラブルデバイス1の各種センサが異なるタイミングでセンサデータSDi(心拍数、体温、…、9軸)を出力したとしても、システム時刻STiに最も近い時刻又は同じ時刻において、現在保持している種類の全てのセンサデータSDiを送信フォーマットKSRi上にフォーマットできる。
 そして、出力制御部132mは、この送信フォーマットKSRiの各データを移動体情報DSJiとして、USB用出力部132bを介して、無線モジュール11によりタブレット2に送信させる。
 したがって、タブレット2では、サッカー選手SPaiの微細位置PWbiに心拍数、加速度、姿勢値等を関連付けた表示が可能となる。このため、サッカー選手SPaiがどこで、どのような動きをしていたか、そのときの状況はどうであったか、等を微細位置PWbi単位で詳細に把握できる。
 <実施の形態3>
 複数のサッカー選手SPaiの移動体情報を同時に収集する機能を有する。また、位置精度を常に維持するためにリアルタイムキネマティック(RTK)を用いる。
 図40は実施の形態3の移動体情報提供システムの概略構成図である。図40において、上記と同一符号を付しているものは説明を省略する。図41はRTK用基準局50の具体的なハードウエア構成図である。
 図40に示すように、実施の形態3の移動体情報提供システムは、アクセスポイントであるRTK用基準局50を有する。
 また、タブレット2側に実施の形態2と同様な通信初期接続設定部223、通信端末側ユーザリスト作成部224、解析結果表示処理部226等を備える。
 さらに、RTK用基準局50側には、実施の形態2と同様なRTK用基準局50と、AP側移動体情報送受部525等を備える。ペアリング情報PJiはAP接続情報として説明する。
 但し、アクセスポイントであるRTK用基準局50側に、実施の形態2と同様なRTK用基準局50と、AP側移動体情報送受部525等を備えたことによって、通信初期接続設定部223、通信端末側ユーザリスト作成部224、解析結果表示処理部226等の処理が多少異なることになるので、これらについては説明を後述する。
 初めに、図41の構成を説明する。RTK用基準局50は、図41に示すように、アンテナ51と、無線通信機器である無線LANアクセスポイント52と、温度、湿度、光度検出用の外部環境検出モジュール53と、USBハブ54と、GNSS受信アンテナ55と、GNSS受信モジュール56(GNSS Receiver)と、描画モニタ57と、ボックスコンピュータ58等を備える。
 無線LANアクセスポイント52には、ボックスコンピュータ58によって、アクセスポイントアドレス等が設定される。
 ボックスコンピュータ58は、例えば、GNSS受信モジュール56からの測位データと、Wi-Fiルータ(又はBluetooth(登録商標))を介しての基準データと、無線LANアクセスポイント52からのウェアラブルデバイス1の位置情報とを受信して、基準位置とに基づいて位置の補正データを生成する。そして、その生成した補正データを、無線LANアクセスポイント52を介して、アンテナ51からウェアラブルデバイス1、タブレット2、又は、解析結果提供装置3のいずれかに送信する。タブレット2に、補正データを送信する場合は、実施の形態2のように、移動体情報DSJiをタブレット2が受信する機能を有する場合である。この場合は、タブレット2が移動体情報DSJiが検出位置Piをこの補正データに基づいて補正する。システム時刻であっても構わない。
 前述のボックスコンピュータ58は、RTK用基準局50と、AP側移動体情報送受部525等を有する。
 [実施の形態3のタブレット]
 タブレット2の通信初期接続設定部223は、RTK用基準局50のRTK用基準局50とで通信接続(Wi-Fi)を行う。
 [[モード判定部221]]
 モード判定部221は、図16に示すモード選択画面MGiの通信初期接続設定ボタンMGbが選択された場合は通信初期接続設定部223を起動し、ユーザリスト登録ボタンMGa又は実参加者登録ボタンMGdが選択された場合は通信端末側ユーザリスト作成部224を起動する。
 また、移動体情報取得ボタンMGf(移動体情報取得モード)の選択時は、移動体情報送受部225を起動する。
 [[通信初期接続設定部223]]
 通信初期接続設定部223は、起動に伴って、図示しない基準時刻サービスセンタと通信を行って現在時刻を取得し、この現在時刻で内部タイマ(図示せず)を設定する。つまり、初期時刻を設定する。
 そして、AP接続情報(タブレットID、機種、メーカ、時刻等)をRTK用基準局50に送信する。
 [[通信端末側ユーザリスト作成部224]]
 通信端末側ユーザリスト作成部224は、起動に伴って、本サービスを提供することを可能とするためのサッカー選手SPaiの選手名やウェアラブルデバイス1のウェアラブルデバイスID等よりなるユーザ登録情報を、ユーザ基本登録情報UJi(図18参照)として、事前にRTK用基準局50を介して解析結果提供装置3に送信して登録させておく。
 但し、移動体情報要求用入力画面KBGc(図19)の氏名欄は、複数人(例えば20名程度)の入力欄とする。したがって、複数のウェアラブルデバイス1と通信が可能となる。
 [移動体情報送受部225]
 移動体情報送受部225は、通信端末側ユーザリスト作成部224から実参加ユーザ通信準備登録完了情報REJi(図17(c)参照)が入力した場合は、カメラ画像CGiを、RTK用基準局50を介して解析結果提供装置3から読み込んで、タブレット2の画面に表示する。
 [解析結果表示処理部226]
 解析結果表示処理部226は、移動体情報要求用入力画面KBGcに入力された各情報を、どんなセンサデータSDiを、どの程度の時間(日時帯Wti)に渡って解析させるかを要求する、移動体情報解析要求入力情報KBJi(図20参照)iとして、RTK用基準局50を介して解析結果提供装置3に送信させる。
 そして、解析結果表示処理部226は、解析結果提供装置3からの後述するサッカー選手SPaiのサッカー場Aiにおける検出位置Piや移動体情報DSJi(移動体情報DSJi:図12参照)等を画面に表示するための、表示制御データPKJi(図14参照)の待ち受け状態となる。
 そして、表示制御データPKJiを受信する毎に、これをブラウザに出力して画面に表示する(図23参照)。
 [RTK用基準局50]
 RTK用基準局50のRTK用基準局50は、実施の形態2のタブレット2の通信初期接続設定部223と同様な処理を行う。
 [[RTK用基準局50]]
 RTK用基準局50は、図示しない基準時刻サービスセンタと通信を行って現在時刻を取得し、この現在時刻で内部タイマ(図示せず)を設定する。つまり、初期時刻を設定する。
 そして、AP接続情報(アクセスポイントID、機種、メーカ、時刻等)を各々のウェアラブルデバイス1に送信してそれぞれの相手と接続状態となる。
 つまり、RTK用基準局50のボックスコンピュータ52が無線LANアクセスポイント52を起動し、無線LANアクセスポイント52がWi-Fi(登録商標)プロトコルでアンテナ51と介してAP接続情報を送信させる。
 そして、タブレット2から移動体情報要求情報YDJiを無線LANアクセスポイント52を介して受信した場合には、これをAP側移動体情報送受部525に出力する。
 [[AP側移動体情報送受部525]]
 ボックスコンピュータ52のAP側移動体情報送受部525は、移動体情報要求情報YDJiを読み込み、無線LANアクセスポイント52により、Wi-Fi(登録商標)プロトコルでアンテナ51と介してウェアラブルデバイス1に送信する。
 そして、ボックスコンピュータ52が無線LANアクセスポイント52を介して移動体情報DSJiをウェアラブルデバイス1から受信する毎に、これをインターネットルータによって解析結果提供装置3に送信させる。
 また、タブレット2からの移動体情報解析要求入力情報KBJiを解析結果提供装置3に送信する。
 また、解析結果提供装置3からのカメラ画像CGi、表示制御データPKJi(図14参照)等を無線LANアクセスポイント52を介して受信し、これらをタブレット2に送信する。
 さらに、RTKサービスセンタからのGNSS受信モジュール56からの測位データと、Wi-Fi(登録商標)ルータ(又はBluetooth(登録商標))を介してのRTKサービスセンタからの基準データと予め設定されている基準位置との差分とで位置を補正するための補正データを求め、この補正データを無線LANアクセスポイント52によってアンテナ51からウェアラブルデバイス1、タブレット2、又は、インターネットルータによって解析結果提供装置3に送信する。
 すなわち、実施の形態3は、タブレット2が各々のウェアラブルデバイス1に対する通信を担うのではなく、RTK用基準局50が全て担っている。このため、実施の形態2と比較してより多くの複数のウェアラブルデバイス1と通信が同時にできる。
 また、RTK用基準局50からの補正データで位置(システム時刻を含んでも良い)を補正するので、位置精度を常に維持できている。したがって、求められた微細位置も精度が高いことになる。
 [補正データの使用例]
 [[ウェアラブルデバイス1]]
 RTK用基準局50からの補正データをウェアラブルデバイス1が用いる場合を、図42を用いて以下に説明する。
 図42において、図38と同一符号を付しているものは説明を省略する。
 メイン制御モジュール13における制御部132は、図42に示すように、位置補正部132tをさらに備える。この位置補正部132tは、RTK用基準局50からの補正データを、USB用入力部132aを介して取り込む。そして、位置データ算出部132sにおいて、算出されたウェアラブルデバイス1の検出位置Pi(緯度Ei、経度Ni)を、位置補正部132tが受信した補正データによって補正する。
 [[解析結果提供装置3]]
 図43は、RTK用基準局50からの補正データを、解析結果提供装置3に送信するようにした場合の例である。図43において、図24と同一符号を付しているものは説明を省略する。
 移動体位置関連情報生成サーバ324は、図43に示すように、RTK用基準局50からの補正データを位置算出部324dに取り込む。そして、この位置算出部324dにおいて、算出したウェアラブルデバイス1の検出位置Pi(緯度Ei、経度Ni)を、受信した補正データによって補正する。
 いずれの場合においても、検出位置PiをRTK測位による補正データを用いて補正することによって、解析結果提供装置3で求められる微細位置PWbiとして、常に一定の精度を得ることができる。
 [その他の実施の形態]
 移動体情報提供システムにおいては、図44に示すように、収集装置60をさらに設けるようにしても良い。この収集装置60は、サッカー場Aiの近くに設けても構わないが、図44の例では、監督MGの手首に装着した例を示している。収集装置60を設けることによって、より多数のウェアラブルデバイス1からのデータ収集が可能となる。
 すなわち、収集装置60は、収集機能を有し、一度に複数のウェアラブルデバイス1からの移動体情報DSJiを収集し、これを解析結果提供装置3又はタブレット2に送信する。
 なお、上記した実施の形態では、9軸センサをウェアラブルデバイス1に設けた場合を説明したが、例えば図45に示すように、サッカー選手SPaiのユニフォームUFに背中用ウェアラブルデバイス1Aを装着するとともに、ユニフォームUFのストッキングUSTの内側(シンガード内)に脚用ウェアラブルデバイス1Bを装着して、この脚用ウェアラブルデバイス1Bに移動体状態情報検出センサ18(9軸センサ)と無線モジュール11とを設けて、監督MGが所持するタブレット2と通信しても良い。このようにすると、サッカー選手SPaiの足の動きが良くわかるので、指導、解析に役に立つ。
 (送信フォーマットKSRiの補充説明)
 サッカーの競技中や練習中には、サッカー選手SPaiの情報を外部の人間(例えば、サポータ等)が取得しようとする場合がある。
 このような場合にも安全に通信ができるように、上述の送信フォーマットKSRiは以下の手法によって暗号化するのが好ましい。
 一般に暗号化すると、データ量が多くなり、通信速度の低下を招くことがある。このため、初期時取込フォーマット作成部132g(図38参照)は、例えば、先頭部分を位置用とシステム時刻用、後続部分をセンサデータ用とした、送信フォーマットKSRiを生成する。そして、タブレット2からのセンサ取得種別kiの待ち状態となる。
 センサ取得種別kiを受信した場合は、そのセンサ取得種別ki、例えば体温、9軸、心拍数、又は、いずれかの組み合わせにしたがって、送信フォーマットKSRiの後続部分(センサデータ用の領域)に、センサ取得種別kiに対応する個数のセンサデータ送信用領域を生成する。つまり、タブレット2からのセンサ取得種別kiに応じて、送信フォーマットKSRiの全体長が変化する。したがって、タブレット2からのセンサ取得種別kiが少ない程、送信するデータが軽量になる。
 また、一度に送信できるデータ量を32バイトと仮定した場合において、送信するデータをできるだけ数字のみとし、1文字(1数字)辺りが使用するビット数を、例えば4ビットとすることにより、仮想的に64バイトまで送信可能となる。しかも、送信用のデータをできるだけ数字のみとすることによって、内容を推測し難いものとすることができる。
 また、送信用のデータ(例えば、64バイトの数字列)の配置パターンに規則性を持たせる、つまり、データを送信するたびに数字の並び替えによる暗号化を行うようにしても良い。
 さらには、システム時刻として実時刻を送信する場合に限らず、例えば、ウェアラブルデバイス1とタブレット2との時刻差等を送信するようにしても良い。
 また、センサモジュールの各種センサとしては、心拍センサや9軸センサ等に限らず、例えば、脈拍数や発汗量等の生体情報、照度、光度、湿度、風速、風向、雨量等の環境情報、又は、移動体がドローン等の非生体の場合には、振動等をセンシングするセンサも適用できる。市販のセンサ類の流用(転用)により各種センサを構成可能とすることで、ウェアラブルデバイス1は低廉化できる。
 また、移動体(生体)は競技者に限らず、例えば、子供や老人等であっても良く、例えば、遊園地等のレジャーランドや公園のようなジオフェンス内での子供の見守り、若しくは施設や院内等での介護者の介護等にも適用できる。
 また、競技者や動物といった生体に限らず、農機や建機等の重機、災害現場等に投入されるドローンやロボット等の非生体の振動や音、高度、水圧、深度、重量等のモニタリング、又は、人間が立ち入れないような場所での水質やガス濃度等のセンシングに用いても好適である。
 記載された機能や処理の各々は、一つ以上の処理回路によって実装されうる。処理回路には、プログラムされたプロセッサや電気回路等が含まれ、さらには、特定用途向けの集積回路(ASIC)のような装置や、記載された機能を実行するように配置された回路構成要素等も含まれる。
 また、本発明のプログラムは、非一時性のコンピュータ可読媒体(電気的、磁気的な方法によって情報を記録する記録媒体)に記録されているものであっても良い。プロセッサは、非一時性のコンピュータ可読媒体に格納された命令あるいはプログラムを実行することによって、実施例に記載の手順を実行するものであっても良い。
 上記のように、本発明を上記の実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
 本発明は、ここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は、上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
 本出願は、2016年 9月30日に出願された日本国特許願第2016-193864号に基づく優先権、及び2017年 8月14日に出願された日本国特許願第2017-156477号に基づく優先権を主張しており、この2つの出願の全内容が参照により本明細書に組み込まれる。
 本発明によれば、移動体情報解析装置がGNSSモジュールで検出した位置よりも微細な間隔位置をリアルタイムで画面に表示させるので、画面を見ているユーザに、次に移動体がどんな動きをするかを細かく把握させることができる。また、微細位置、位置データはRTK基準局からの補正データに基づいた位置であるので、精度が高いとともに、この精度を常に維持できる。また、移動体情報解析装置において、移動体が生体の場合は、微細な間隔位置に生体情報を関連付けて表示するので、画面を見ているユーザに、この微細な間隔位置における移動体の生体を一目で把握させることができる。さらに、移動体情報解析装置が、移動体情報検出端末からの移動体情報に生体情報、姿勢や加速度等の移動体状態情報が含まれている場合は、移動体情報解析装置が生体情報と移動体状態情報とを関連付けて画面に表示する。このため、例えば、移動体がサッカー選手であった場合には、移動体情報解析装置のユーザ(監督やコーチ等)は、その選手が、どの地点でどのような動きをしていたか、そのときの状況はどうであったかを、検出位置単位で把握できる。また、移動体情報検出端末が複数であっても、解析結果提供装置は、所望の移動体情報検出端末からの移動体の生体情報や移動体状態情報を携帯端末の画面に関連付けて表示させることができる。したがって、より多くの移動体の生体情報や移動体状態情報といった状況(現状)を、リアルタイムで提供できる。
 1 ウェアラブルデバイス
 2 タブレット
 3 解析結果提供装置
 13 メイン制御モジュール
 15 位置センサ
 16 生体情報検出センサ
 18 移動体状態情報検出センサ
 22 収集解析アプリケーション部
 30 移動体情報解析装置
 31 アプリケーションサービス部
 50 RTK用基準局
 132 制御部
 132i 内部タイマ
 132j 初期時刻合部
 132k 関連付部
 132s 位置データ算出部
 132t 位置補正部
 225 移動体情報送受部
 226 解析結果表示処理部
 324 移動体位置関連情報生成サーバ
 324d 位置算出部
 325 移動体情報解析サーバ
 330 位置算出データ用記憶部
 SPi 競技者
 SPai(SPa1、SPa2、…) サッカー選手
 MG 監督

Claims (19)

  1.  移動体に装着されて、前記移動体の状況を検出する移動体情報検出端末と移動体情報解析装置とで構成されて、前記移動体情報解析装置と前記移動体情報検出端末との間で無線通信を行う移動体情報提供システムであって、
     前記移動体情報検出端末は、
     前記移動体情報解析装置の時刻で初期時刻合せを行って、位置検出の元となるGNSSデータのRawデータと同期がとられたシステム時刻又は前記システム時刻と前記Rawデータとに基づいて得た位置データとの組を移動体情報として生成する手段と、
     前記移動体情報を前記移動体情報解析装置に送信する手段と
     を備え、
     前記移動体情報解析装置は、
     位置算出データ用記憶部を備え、さらに、
    (A).前記移動体情報を受信する毎に、これに含まれているシステム時刻と前記位置データとを今回の微細位置データ情報として読み込む手段と、
    (B).前記今回の微細位置データ情報の前記システム時刻の今回の微細位置を、このシステム時刻と前記位置算出データ用記憶部に格納されている前回の微細位置データ情報のシステム時刻及び微細位置とに基づいて算出する手段と、
    (C).算出した今回の前記微細位置を、前記移動体に関連付て画面上に表示させる手段と、
    (D).この今回の微細位置を前回の微細位置とし、この前回の微細位置と前記今回の微細位置データ情報に含まれているシステム時刻との組を前記前回の微細位置データ情報として、前記位置算出データ用記憶部に格納する手段と
     を有することを特徴とする移動体情報提供システム。
  2.  前記移動体情報解析装置は、RTK用基準局を含み、
     (A)の手段は、
     前記移動体情報を受信する毎に、この移動体情報に含まれている補正データに基づいて前記位置データを補正し、前記今回の微細位置データ情報として読み込みさせる手段を有することを特徴とする請求項1記載の移動体情報提供システム。
  3.  前記移動体は複数であり、前記移動体情報検出端末、これらの移動体に装着され、
     前記移動体情報解析装置の(A)の手段は、
     前記移動体情報を受信する毎に、これを移動体情報の識別情報別に前記位置算出データ用記憶部に記憶し、各々の移動体情報を前記今回の微細位置データ情報として順次読み込んで、(B)の手段~(D)の手段を実行させることを特徴とする請求項1記載の移動体情報提供システム。
  4.  前記移動体情報検出端末は、
     前記GNSSデータに基づく1PPS信号が得られる毎に、前記位置データを求めていることを特徴とする請求項1記載の移動体情報提供システム。
  5.  前記移動体情報解析装置は、
     前記移動体の移動するエリア図が、このエリア図の座標付きで格納されたエリア図用記憶部を備え、
     (B)の手段は、
     前記今回の微細位置が得られる毎に、この今回の微細位置をエリア図の座標に変換する手段を備え、さらに、
     (C)の手段は、
     前記エリア図を画面に表示させる手段と、
     前記得られた今回の微細位置がエリア図の座標に変換される毎に、これを前記エリア図上に表示させる手段と
     を有することを特徴とする請求項1記載の移動体情報提供システム。
  6.  前記移動体情報検出端末は、
     前記GNSSデータを受信し、前記Rawデータを抽出するとともに、このRawデータ又は1PPS信号を出力する位置センサモジュールと、
     前記移動体の動き情報を一定間隔毎に検出する移動体状態検出モジュールと、
     前記システム時刻を出力する内部タイマと、
     前記Rawデータと前記システム時刻との初期同期を行う手段と、
     前記初期同期の後に、前記1PPS信号又は前記Rawデータに同期して前記位置データを算出する手段と、
     前記システム時刻又は前記1PPS信号に基づいて、前記移動体状態検出モジュールが現時点で検出した前記移動体の動きの状態と前記位置データとの組を、前記移動体情報として生成する手段と
     を有することを特徴とする請求項1記載の移動体情報提供システム。
  7.  前記移動体情報解析装置は、
     (C)の手段が、
     前記今回の微細位置に前記移動体の動きの状態を示す情報を関連付て画面上に表示させる手段を有することを特徴とする請求項1記載の移動体情報提供システム。
  8.  前記移動体状態検出モジュールは、
     前記移動体の生体情報を検出する生体情報検出センサを備え、
     前記移動体情報検出端末は、
     前記システム時刻に、現時点の前記移動体状態検出モジュールが検出した前記移動体の動きの状態の情報と、前記位置データと、前記生体情報と、を付加し、前記移動体情報として生成する手段を備え、
     前記移動体情報解析装置は、
     (D)の手段が、
     前記今回の微細位置に前記生体情報を付加するとともに、前記今回の移動体情報に含まれているシステム時刻を付加し、前記前回の移動体情報として、前記位置算出データ用記憶部に格納する手段と
     を有することを特徴とする請求項6記載の移動体情報提供システム。
  9.  前記移動体情報解析装置は、
     (C)の手段が、
     前記今回の微細位置に、前記移動体の動きの状態の情報を関連付て画面上に表示させる手段を有することを特徴とする請求項1記載の移動体情報提供システム。
  10.  前記移動体情報解析装置は、
     前記移動体情報の受信に伴って、この移動体情報の一定期間前の過去の生体情報を、前記位置算出データ用記憶部から読み込む手段と、
     読み込んだこれらの生体情報と受信した前記移動体情報に含まれている生体情報とに基づいて解析処理する手段と、
     前記解析処理の結果の情報を、前記今回の微細位置に関連付けて表示させる手段と
     を有することを特徴とする請求項1記載の移動体情報提供システム。
  11.  前記エリア図用記憶部は、所定のエリアを撮影した撮影カメラのカメラ画像を記憶しており、
     (C)の手段は、
     前記今回の微細位置と、前記移動体の動き情報と、前記エリアの座標と、前記撮影カメラのカメラパラメータとに基づいて、カメラ画像上における微細位置を求めて表示することを特徴とする請求項5記載の移動体情報提供システム。
  12.  前記移動体情報解析装置は、表示装置と解析センタの解析結果提供装置とよりなり、
     前記解析結果提供装置と前記表示装置とはインターネット網で通信を行い、前記表示装置は前記無線通信を行うシステムであって、
     前記表示装置は、
     前記移動体情報を前記無線通信で受信し、この移動体情報を受信する毎に、前記インターネット網で前記解析結果提供装置に送信する手段と、
     前記解析結果提供装置からの制御データを前記インターネット網で受信し、この制御データに基づいて今回の前記微細位置を、前記移動体に関連付て画面上に表示させる手段と
     を備え、
     前記解析結果提供装置は、
     位置算出データ用記憶部を備え、
    (A).前記表示装置からの前記移動体情報を受信する毎に、これに含まれているシステム時刻と前記位置データとを今回の微細位置データ情報として読み込む手段と、
    (B).前記今回の微細位置データ情報の前記システム時刻の今回の微細位置を、このシステム時刻と前記位置算出データ用記憶部に格納されている前回の微細位置データ情報のシステム時刻及び微細位置とに基づいて算出する手段と、
    (C).今回の前記微細位置を、前記移動体に関連付て画面上に表示させる制御データを前記表示装置に送信する手段と、
    (D).この今回の微細位置を前回の微細位置とし、この前回の微細位置と前記今回の微細位置データ情報に含まれているシステム時刻との組を前記前回の微細位置データ情報として、前記位置算出データ用記憶部に格納する手段と
     を有することを特徴とする請求項1記載の移動体情報提供システム。
  13.  前記表示装置は、
     入力された、前記移動体情報を取得する日時帯に渡って、前記移動体情報検出端末に対して、順次、前記移動体情報を要求する移動体情報要求情報を前記移動体情報検出端末に送信する手段と、
     前記移動体情報要求情報に対する前記移動体情報を前記表示装置から受信する毎に、前記移動体情報を前記解析結果提供装置に送信する手段と
     を有することを特徴とする請求項12記載の移動体情報提供システム。
  14.  前記解析結果提供装置は、
     前記移動体情報の受信に伴って、過去の移動体情報と受信した前記移動体情報とに基づいて解析処理する手段と、
     この解析結果を前記表示装置の画面に表示させる情報を前記制御データに含ませて送信する手段と
     をさらに有することを特徴とする請求項12記載の移動体情報提供システム。
  15.  前記前記解析結果提供装置は、
     前記移動体の移動するエリア図が、このエリア図の座標付きで格納されたエリア図用記憶部を備え、
     前記エリア図用記憶部から前記エリア図を読み込んで、このエリア図を前記制御データに含めて前記表示装置の画面に表示させる手段を有することを特徴とする請求項12記載の移動体情報提供システム。
  16.  前記エリア図用記憶部は、
     前記移動体の移動する所定のエリアを撮影した撮影カメラのカメラ画像を記憶しており、
     前記解析結果提供装置は、
     前記カメラ画像を読み込み、これを画面に表示させる制御データを前記表示装置に送信させる手段と、
     前記微細位置と、前記移動体の動きの状態を示す情報と、前記エリア図の座標と、前記撮影カメラのカメラパラメータとに基づいて、カメラ画像上の微細位置を求める手段と、
     この微細位置と、カメラ画像上に表示させる制御データを前記表示装置に送信する手段と
     を有することを特徴とする請求項15記載の移動体情報提供システム。
  17.  前記表示装置又は前記解析結果提供装置は、
     基準位置提供局からの前記GNSSデータと基準位置との差分である補正データとを受信する手段と、
     前記今回の移動体情報に含まれている位置データ又はシステム時刻を、前記補正データに基づいて補正する手段と
     を有することを特徴とする請求項12記載の移動体情報提供システム。
  18.  移動体に装着されて、前記移動体の状況を検出する移動体情報検出端末と移動体情報解析装置とで構成されて、この移動体情報解析装置と前記移動体情報検出端末との間で無線通信を行う移動体情報提供システムであって、
     コンピュータに、
    (A).前記移動体情報検出端末から前記移動体情報を受信する毎に、これに含まれているシステム時刻と位置データとを今回の微細位置データ情報として読み込む手段、
    (B).前記今回の微細位置データ情報の前記システム時刻の今回の微細位置を、このシステム時刻と位置算出データ用記憶部に格納されている前回の微細位置データ情報のシステム時刻及び微細位置とに基づいて算出する手段、
    (C).算出した今回の前記微細位置を、前記移動体に関連付て画面上に表示させる手段、
    (D).この今回の微細位置を前回の微細位置とし、この前回の微細位置と前記今回の微細位置データ情報に含まれているシステム時刻との組を前記前回の微細位置データ情報として、前記位置算出データ用記憶部に格納する手段
     としての機能を実行させるための移動体情報提供プログラム。
  19.  前記コンピュータに、
     前記移動体情報を受信する毎に、この移動体情報に含まれて位置データをRTK用基準局からの補正データに基づいて補正し、今回の微細位置データ情報として読み込みさせる手段
     としての機能を実行させるための請求項18記載の移動体情報提供プログラム。
PCT/JP2017/035649 2016-09-30 2017-09-29 移動体情報提供システム及び移動体情報提供プログラム WO2018062535A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018542965A JP6707654B2 (ja) 2016-09-30 2017-09-29 移動体情報提供システム及び移動体情報提供プログラム
EP17856482.9A EP3520684A4 (en) 2016-09-30 2017-09-29 SYSTEM FOR PROVIDING MOTOR BODY INFORMATION AND PROGRAM FOR PROVIDING MOTOR BODY INFORMATION
US16/338,326 US11400342B2 (en) 2016-09-30 2017-09-29 Moving body information providing system and program
CN201780060858.9A CN109788910B (zh) 2016-09-30 2017-09-29 移动体信息提供系统以及计算机可读存储介质

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-193864 2016-09-30
JP2016193864 2016-09-30
JP2017-156477 2017-08-14
JP2017156477 2017-08-14

Publications (1)

Publication Number Publication Date
WO2018062535A1 true WO2018062535A1 (ja) 2018-04-05

Family

ID=61760570

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/035649 WO2018062535A1 (ja) 2016-09-30 2017-09-29 移動体情報提供システム及び移動体情報提供プログラム

Country Status (5)

Country Link
US (1) US11400342B2 (ja)
EP (1) EP3520684A4 (ja)
JP (1) JP6707654B2 (ja)
CN (1) CN109788910B (ja)
WO (1) WO2018062535A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220174629A1 (en) * 2020-11-30 2022-06-02 Viettel Group Method and apparatus for data frame synchronization of 5g base station
JP7388199B2 (ja) 2020-01-14 2023-11-29 コニカミノルタ株式会社 生体情報収集システム、生体情報収集方法及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10694998B2 (en) * 2016-09-30 2020-06-30 Asia Air Survey Co., Ltd. Moving body information detection terminal
US10953280B2 (en) * 2018-11-28 2021-03-23 International Business Machines Corporation Observation-based break prediction for sporting events
WO2020255286A1 (ja) * 2019-06-19 2020-12-24 三菱電機株式会社 ペアリング表示装置、ペアリング表示システムおよびペアリング表示方法
CN115576506A (zh) * 2021-06-21 2023-01-06 东芝泰格有限公司 打印机驱动方法及打印机驱动单元

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004509652A (ja) * 2000-01-19 2004-04-02 ヘルセテック インコーポレイテッド ダイエット及び活動量監視装置
JP2009297057A (ja) * 2008-06-10 2009-12-24 Seiko Epson Corp 情報表示システムおよび情報表示方法
US20140046588A1 (en) * 2012-08-07 2014-02-13 Seiko Epson Corporation Wearable electronic apparatus, data analyzer, and travel record control method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7715982B2 (en) 2002-11-01 2010-05-11 M.B.T.L. Limited Monitoring sports
JP4286730B2 (ja) 2004-06-30 2009-07-01 三菱電機株式会社 移動体情報共有システム
US7254516B2 (en) 2004-12-17 2007-08-07 Nike, Inc. Multi-sensor monitoring of athletic performance
JP4559447B2 (ja) 2007-04-27 2010-10-06 株式会社沖電気コミュニケーションシステムズ 生体情報モニターシステム
EP4035748A1 (en) 2007-05-18 2022-08-03 Catapult Group International Pty Ltd Improved sports sensor
US8974349B2 (en) * 2010-11-01 2015-03-10 Nike, Inc. Wearable device assembly having athletic functionality
US10082583B2 (en) * 2011-06-09 2018-09-25 Invensense, Inc. Method and apparatus for real-time positioning and navigation of a moving platform
US9424397B2 (en) 2011-12-22 2016-08-23 Adidas Ag Sports monitoring system using GPS with location beacon correction
JP5944781B2 (ja) * 2012-07-31 2016-07-05 株式会社デンソーアイティーラボラトリ 移動体認識システム、移動体認識プログラム、及び移動体認識方法
US9064352B2 (en) * 2013-04-24 2015-06-23 Caterpillar Inc. Position identification system with multiple cross-checks
DE202016100594U1 (de) 2016-02-05 2016-02-18 Benjamin BRUDER System und Vorrichtung zur Erfassung von biomechanischen und biometrischen Daten

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004509652A (ja) * 2000-01-19 2004-04-02 ヘルセテック インコーポレイテッド ダイエット及び活動量監視装置
JP2009297057A (ja) * 2008-06-10 2009-12-24 Seiko Epson Corp 情報表示システムおよび情報表示方法
US20140046588A1 (en) * 2012-08-07 2014-02-13 Seiko Epson Corporation Wearable electronic apparatus, data analyzer, and travel record control method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3520684A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388199B2 (ja) 2020-01-14 2023-11-29 コニカミノルタ株式会社 生体情報収集システム、生体情報収集方法及びプログラム
US20220174629A1 (en) * 2020-11-30 2022-06-02 Viettel Group Method and apparatus for data frame synchronization of 5g base station
US11683771B2 (en) * 2020-11-30 2023-06-20 Viettel Group Method and apparatus for data frame synchronization of 5G base station

Also Published As

Publication number Publication date
CN109788910B (zh) 2021-08-31
JPWO2018062535A1 (ja) 2019-09-26
EP3520684A4 (en) 2020-06-17
EP3520684A1 (en) 2019-08-07
US20200023237A1 (en) 2020-01-23
CN109788910A (zh) 2019-05-21
JP6707654B2 (ja) 2020-06-10
US11400342B2 (en) 2022-08-02

Similar Documents

Publication Publication Date Title
JP6707654B2 (ja) 移動体情報提供システム及び移動体情報提供プログラム
US9712629B2 (en) Tracking user physical activity with multiple devices
US9864066B2 (en) Portable biometric monitoring devices having location sensors
US10021188B2 (en) Athletic performance monitoring with dynamic proximity pairing
US20180014102A1 (en) Variable Positioning of Distributed Body Sensors with Single or Dual Wireless Earpiece System and Method
CN104820488B (zh) 用户定向式个人信息助理
US20140172132A1 (en) Sensor data extraction system, sensor data extraction method, and computer-readable storage medium having sensor data extraction program stored thereon
US20150179050A1 (en) Wearable device assisting smart media application and vice versa
US20180063421A1 (en) Wearable camera, wearable camera system, and recording control method
CN107223247A (zh) 用于获得多个健康参数的方法、系统和可穿戴装置
JP6379424B2 (ja) 画像記録装置
JP6707653B2 (ja) 移動体情報検出用端末
CN106941523B (zh) 基于物联网的健康监测信息采集方法和系统
JP2018042229A (ja) ウェアラブルカメラ、ウェアラブルカメラシステム及び録画制御方法
JP2023131905A (ja) 行動推定システム、行動推定方法、プログラム
US20220095954A1 (en) A foot mounted wearable device and a method to operate the same
AU2020102010A4 (en) PAM-Physical Fitness: PREDICTION OF FITNESS AND PHYSICAL ACTIVITY LEVEL USING MACHINE LEARNING PROGRAMMING
WO2018068464A1 (zh) 宠物活跃区域推送方法、装置和系统
TW201709001A (zh) 結合無人飛行載具的行動式追蹤紀錄系統
JP2022029257A (ja) 学習データ生成システム、推定システム、学習データ生成方法、推定方法、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17856482

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2018542965

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017856482

Country of ref document: EP

Effective date: 20190430