WO2017099214A1 - ユーザ動作の評価結果に関するオノマトペ提示装置 - Google Patents

ユーザ動作の評価結果に関するオノマトペ提示装置 Download PDF

Info

Publication number
WO2017099214A1
WO2017099214A1 PCT/JP2016/086697 JP2016086697W WO2017099214A1 WO 2017099214 A1 WO2017099214 A1 WO 2017099214A1 JP 2016086697 W JP2016086697 W JP 2016086697W WO 2017099214 A1 WO2017099214 A1 WO 2017099214A1
Authority
WO
WIPO (PCT)
Prior art keywords
onomatopoeia
evaluation
user
riding
action
Prior art date
Application number
PCT/JP2016/086697
Other languages
English (en)
French (fr)
Inventor
翔悟 乾
翔 末神
浩司 大本
京之助 一井
Original Assignee
ヤマハ発動機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ発動機株式会社 filed Critical ヤマハ発動機株式会社
Priority to JP2017555156A priority Critical patent/JP6709801B2/ja
Priority to EP16873107.3A priority patent/EP3389030A4/en
Publication of WO2017099214A1 publication Critical patent/WO2017099214A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass

Definitions

  • the present invention relates to a technique for presenting a user with an evaluation result for a user's operation. Specifically, the present invention relates to a technique for presenting an evaluation result for a user's operation to a user using onomatopoeia.
  • Sports, vehicle operations, equipment operations, etc. are activities brought about by human movements and movements. In performing these activities, the person who performed the action is interested in the content of his own action. Humans who are moving are interested in what the consequences of their movement will be. Humans can grasp the content of their activities by obtaining evaluations on the results of their actions.
  • Sports, vehicle operations, equipment operations, etc. are activities brought about by human movements and movements. Training is effective in carrying out these activities as desired by humans. By performing training and repeating success or failure actions, humans can improve their activities while modifying their movements and actions.
  • Patent Document 1 Japanese Patent Publication No. 2005-524048 relates to a system for evaluating sports training.
  • the user wears a conductive fiber garment for the training system.
  • the system outputs a feedback instruction to the user in response to a change in electrical impedance in the conductive fiber body.
  • An audio signal is output as a feedback instruction.
  • a vibration signal or a physical stimulation signal that can be sensed by the user is output as a feedback instruction.
  • a sensor color change is output as a feedback instruction.
  • the device worn by the user is a conductive fibrous body, and can be closely adapted to the movement of the player.
  • Patent Document 2 Japanese Patent Laid-Open No. 2014-108750
  • a riding skill evaluation unit that evaluates the riding skill of the rider calculates a stability score of the riding skill, a turning score of the riding skill, and a total characteristic score. Then, the calculated various scores are output to the correction unit.
  • the total score adjustment unit corrects the total characteristic score based on the correction condition information and various scores. Since the stability score of the riding skill and the turning ability score of the riding skill are corrected according to the conditions of the road on which the vehicle travels, the riding skill of the rider can be determined according to the type of road.
  • the evaluation of the movement can be confirmed slowly after the movement.
  • one operation can be photographed with a camera or video, and the photographed image can be confirmed slowly after the operation.
  • An onomatopoeia presentation device relating to a user action evaluation result which is one embodiment of the present invention, includes a measurement result input unit, an onomatopoeia data acquisition unit, and an onomatopoeia output unit.
  • the measurement result input unit inputs a measurement result regarding an event caused by a user's action measured by the measurement device.
  • the onomatopoeia data acquisition unit acquires onomatopoeia data indicating onomatopoeia corresponding to the evaluation of the user's action performed based on the measurement result input by the measurement result input unit.
  • the onomatopoeia output unit outputs the onomatopoeia data acquired by the onomatopoeia data acquisition unit to a notification device capable of notifying the user by voice or text, and corresponds to the notification device to evaluate the operation of the user.
  • Onomatopoeia is presented to the user by voice or text while the user is operating the user.
  • the onomatopoeia presentation device related to the evaluation result of the user operation can present the operation evaluation to the user in a state where the user performing the operation continues the operation.
  • the user can grasp the evaluation contents while performing the operation.
  • the user can continue the operation while grasping the evaluation contents.
  • the onomatopoeia data acquisition unit obtains one onomatopoeia for the plurality of evaluation items obtained by performing one evaluation on the plurality of evaluation items.
  • the onomatopoeia data shown may be acquired.
  • onomatopoeia If onomatopoeia is not used, it is necessary to explain the evaluations related to a plurality of evaluation items with characters and the like, and the user takes time to grasp the contents. Alternatively, it is difficult to read and understand a long explanation while continuing some operation. In this respect, since the onomatopoeia simply expresses evaluations regarding a plurality of evaluation items, the user can easily grasp the evaluation results.
  • the onomatopoeia data acquisition unit performs multiple evaluations on the one evaluation item obtained by performing multi-stage evaluation on one evaluation item.
  • Onomatopoeia data indicating onomatopoeia expressed in stages may be acquired.
  • onomatopoeia in order to express multi-level evaluation contents for a certain evaluation item, it is necessary to explain using characters and the like, and the user takes time to grasp the contents. Alternatively, it is difficult to read and understand a long explanation while continuing some operation. In this respect, if it is onomatopoeia, it is possible to simply express a multi-stage evaluation regarding a certain evaluation item, so that the user can easily grasp the evaluation result.
  • the onomatopoeia presentation device related to the evaluation result of the user action according to any one of the above configurations 1 to 3, uses the measurement result or a value calculated based on the measurement result as a predetermined threshold value. It is good also as what is obtained as evaluation of the said user's operation
  • the user's exercise evaluation result can be obtained in real time.
  • the measurement result may include information obtained by measuring a state of the operation target operated by the user.
  • the user's action can be evaluated based on the state of the object operated by the user.
  • the onomatopoeia presentation device related to the user motion evaluation result of any one of the above configurations 1 to 5 further evaluates the user motion based on the measurement result of the event caused by the user motion measured by the measurement device.
  • An evaluation unit that performs the processing may be provided.
  • An onomatopoeia presentation program relating to an evaluation result of a user action causes a computer to execute a measurement result input process, an onomatopoeia data acquisition process, and an onomatopoeia output process.
  • a measurement result input process a measurement result for an event caused by a user action measured by the measurement device is input.
  • the onomatopoeia data acquisition process acquires onomatopoeia data indicating onomatopoeia corresponding to the evaluation of the user's action performed based on the measurement result input in the measurement result input process.
  • the onomatopoeia output processing outputs the onomatopoeia data acquired in the onomatopoeia data acquisition processing to a notification device capable of notifying the user by voice or text, and sends the notification device the onomatopoeia corresponding to the evaluation of the user's operation. Is presented to the user by voice or text while the user is operating the user.
  • the onomatopoeia presentation program related to the user operation evaluation result of the present embodiment can present an operation evaluation to the user in a state where the user performing the operation continues the operation. The user can continue the operation while feeding back the evaluation contents.
  • the onomatopoeia presentation program relating to the evaluation result of the user action in the configuration 7, the onomatopoeia data acquisition processing is performed by performing one evaluation on a plurality of evaluation items, and one onomatopoeia for the plurality of evaluation items. It may be a process of acquiring onomatopoeia data to be shown.
  • onomatopoeia If onomatopoeia is not used, it is necessary to explain the evaluations related to a plurality of evaluation items with characters and the like, and the user takes time to grasp the contents. Alternatively, it is difficult to read and understand a long explanation while continuing some operation. In this respect, since the onomatopoeia simply expresses evaluations regarding a plurality of evaluation items, the user can easily grasp the evaluation results.
  • the onomatopoeia data acquisition process performs multiple evaluations on the one evaluation item obtained by performing multi-stage evaluation on one evaluation item. It may be a process of acquiring onomatopoeia data indicating onomatopoeia expressed in stages.
  • onomatopoeia in order to express multi-level evaluation contents for a certain evaluation item, it is necessary to explain using characters and the like, and the user takes time to grasp the contents. Alternatively, it is difficult to read and understand a long explanation while continuing some operation. In this respect, if it is onomatopoeia, it is possible to simply express a multi-stage evaluation regarding a certain evaluation item, so that the user can easily grasp the evaluation result.
  • the onomatopoeia data acquired by the onomatopoeia data acquisition process is obtained by using the measurement result or a value calculated based on the measurement result as a predetermined threshold value. It may be obtained as an evaluation of the user's action by comparison.
  • the user's exercise evaluation result can be obtained in real time.
  • the measurement result may include information obtained by measuring a state of the operation target operated by the user.
  • the user's action can be evaluated based on the state of the object operated by the user.
  • the onomatopoeia presentation program relating to the evaluation result of the user action in any one of the configurations 7 to 11 further evaluates the user action based on the measurement result of the event caused by the user action measured by the measuring device. You may make a computer perform the evaluation process to perform.
  • ⁇ Operation evaluation can be executed in the onomatopoeia presentation program.
  • a computer-readable recording medium in which an onomatopoeia presentation program related to the user operation evaluation result of any one of the above configurations 7 to 11 is recorded is one embodiment of the present invention.
  • An onomatopoeia presentation method related to an evaluation result of a user action which is one embodiment of the present invention, includes a measurement result input step, an onomatopoeia data acquisition step, and an onomatopoeia output step.
  • a measurement result regarding an event caused by the user's action measured by the measurement device is input.
  • the onomatopoeia data acquisition step acquires onomatopoeia data indicating the onomatopoeia corresponding to the evaluation of the user's operation performed based on the measurement result input in the measurement result input step.
  • the onomatopoeia output step outputs the onomatopoeia data acquired in the onomatopoeia data acquisition step to a notification device capable of notifying the user by voice or text, and the onomatopoeia corresponding to the evaluation of the user's operation is output to the notification device. Is presented to the user by voice or text while the user is operating the user.
  • the onomatopoeia presentation method related to the user operation evaluation result of the present embodiment can present an operation evaluation to the user in a state where the user performing the operation continues the operation. The user can continue the operation while feeding back the evaluation contents.
  • the onomatopoeia data acquisition step includes one onomatopoeia for the plurality of evaluation items obtained by performing one evaluation on the plurality of evaluation items. It may be a step of acquiring onomatopoeia data to be shown.
  • onomatopoeia If onomatopoeia is not used, it is necessary to explain the evaluations related to a plurality of evaluation items with characters and the like, and the user takes time to grasp the contents. Alternatively, it is difficult to read and understand a long explanation while continuing some operation. In this respect, since the onomatopoeia simply expresses evaluations regarding a plurality of evaluation items, the user can easily grasp the evaluation results.
  • the onomatopoeia data acquisition step performs multiple evaluations on the one evaluation item obtained by performing multi-stage evaluation on one evaluation item. It may be a step of acquiring onomatopoeia data indicating onomatopoeia expressed in stages.
  • onomatopoeia in order to express multi-level evaluation contents for a certain evaluation item, it is necessary to explain using characters and the like, and the user takes time to grasp the contents. Alternatively, it is difficult to read and understand a long explanation while continuing some operation. In this respect, if it is onomatopoeia, it is possible to simply express a multi-stage evaluation regarding a certain evaluation item, so that the user can easily grasp the evaluation result.
  • the onomatopoeia data acquired in the onomatopoeia data acquisition step uses the measurement result or a value calculated based on the measurement result as a predetermined threshold value. It is good also as what is obtained as evaluation of the said user's operation
  • the user's exercise evaluation result can be obtained in real time.
  • the measurement result may include information obtained by measuring the state of the operation target operated by the user.
  • the user's action can be evaluated based on the state of the object operated by the user.
  • the onomatopoeia presentation method related to the user action evaluation result of any one of the above-described configurations 13 to 17 further evaluates the user action based on the measurement result of the event caused by the user action measured by the measuring device.
  • An evaluation step to be performed may be included.
  • the onomatopoeia presentation method can perform an evaluation of movement.
  • the onomatopoeia output unit causes the notification device to present onomatopoeia while the user is operating the user, but is the onomatopoeia presentation device related to the user operation evaluation result of the present invention operating? It is not always necessary to provide a means for detecting whether or not.
  • a detection unit that detects whether or not the user is performing a user operation may or may not be provided. For example, if the operation of a certain device by the user is “user action”, a sensor that detects an input operation on the device or a sensor that detects the movement of the device can be used as the detection unit.
  • a sensor that detects an operation amount of an accelerator, a brake, a steering wheel, or the like can be used as the detection unit.
  • movement can be made into a detection part.
  • the onomatopoeia output unit detects the user's operation. Control may be made so that onomatopoeia is output during this time.
  • the onomatopoeia presentation device does not include a detection unit, the onomatopoeia output unit may be configured so that the time from the measurement information input timing to the onomatopoeia output timing is shortened. For example, onomatopoeia can be output while the user is operating by using a CPU having a high processing capability.
  • the onomatopoeia presentation device relating to the user operation evaluation result of the present invention presents the onomatopoeia to the user while the user is operating
  • the onomatopoeia can be recognized by the user in real time.
  • the real time means a timing at which an onomatopoeia can be presented before the operation is completed when the user is performing an operation, and is not limited to an instantaneous timing.
  • the timing when the onomatopoeia output unit outputs onomatopoeia is not limited to when the user is operating.
  • the onomatopoeia output unit may start onomatopoeia output while the user is operating, and may continue to output onomatopoeia even after the user's operation ends. That is, the onomatopoeia may be output both during and after the user's operation.
  • the onomatopoeia presentation apparatus regarding the evaluation result of the user action of the present invention may include a measurement result input unit, an onomatopoeia data acquisition unit, and an onomatopoeia output unit as a minimum configuration.
  • the onomatopoeia presentation device may further include an evaluation unit, or the evaluation unit may be provided in an external device.
  • the onomatopoeia presentation device may include a measurement device.
  • the events caused by the user's movement include the movement of the user's body, the movement of the device based on the user's operation, the behavior of the vehicle based on the user's operation, and the like.
  • the events caused by the user's actions include biological information such as the user's stress, body temperature, heart rate, etc.
  • the result of comparison with the threshold value is used for evaluating the user's action under various criteria.
  • speed, accuracy, smoothness, or the like can be used.
  • As a standard not only a single standard but also a plurality of standards can be used for comprehensive evaluation.
  • the present invention has an embodiment as a skill improvement promotion device.
  • the skill improvement promotion device of the present embodiment is a device that presents a training result to a user who performs training, and includes a measurement unit that measures an event caused by the user's operation that has performed training, and a measurement result of the measurement unit. Based on the evaluation unit that evaluates the operation of the user who performed the training, the data acquisition unit that acquires onomatopoeia data corresponding to the evaluation performed by the evaluation unit, and the onomatopoeia data acquired by the data acquisition unit And an output unit for presenting the evaluation of the operation to the user who has performed the training.
  • the evaluation unit performs one evaluation for a plurality of evaluation items
  • the data acquisition unit acquires one onomatopoeia data for the plurality of evaluation items.
  • an evaluation part performs multi-stage evaluation regarding one evaluation item
  • a data acquisition part acquires onomatopoeia data which expressed evaluation regarding one evaluation item in multi-stage To do.
  • Sports, vehicle operations, equipment operations, etc. are activities brought about by human movements and movements. In performing these activities, those who have moved are interested in the content of their movements and movements. Those who do the action are interested in what results their actions will bring. The person who performed the movement can grasp the content of his / her activity by obtaining an evaluation regarding the result of his / her movement and movement.
  • ⁇ Persons who exercise or move as described above should check the evaluation of the movement and judge whether the movement is good or bad.
  • the person who performs the operation can confirm that there is no problem in his own operation if the evaluation of the operation is good.
  • the person who performs the operation corrects the operation if the evaluation of the operation is bad.
  • the evaluation of movement is information of interest.
  • the evaluation of the movement is information of interest, but for the person who performs the training as well, the evaluation of the movement is information of interest.
  • a person who performs training first performs an operation. Next, the evaluation for the operation is confirmed to determine whether the operation is good or bad. If the motion evaluation is good, the motion is continuously practiced. If the motion evaluation is bad, the motion is corrected. In this way, the trainer needs to obtain some form of motion evaluation.
  • the operation ends once and once for each swing. For this reason, if it is a golf swing, evaluation can be confirmed slowly after operation
  • the training result can be presented to the user by presenting sentences and data.
  • the inventor of the present application has come up with the use of onomatopoeia for providing information to the user as a means for confirming the evaluation result while continuing the operation related to the training.
  • onomatopoeia to provide information has the following advantages.
  • the inventor of the present application is effective to use onomatopoeia in a training system that provides a user with an operating state grasped from a plurality of evaluation items or an operating state evaluated in multiple stages with respect to a single evaluation item. I came up with. Therefore, I came up with the idea that by using a training system that uses onomatopoeia, it would be possible to give users brief evaluations in short words.
  • the result of the movement can be presented to the person who moves by presenting sentences and data.
  • the inventor of the present application has come up with the idea of using onomatopoeia to provide information to the person who performs the operation as a means for confirming the evaluation result while continuing various operations.
  • the inventor of the present application is effective to use onomatopoeia for a system that provides an operating state grasped from a plurality of evaluation items or an operating state evaluated in multiple stages with respect to a single evaluation item. I came up with that. Therefore, I came up with the idea that by using a system using onomatopoeia, it would be possible to give a brief evaluation to the person who operates it in short words.
  • a riding evaluation apparatus will be described as an example of an embodiment of an onomatopoeia presentation apparatus related to an evaluation result of a user action according to the present invention.
  • the “measurement information input unit” in the following embodiments corresponds to the “measurement result input unit” of the present invention.
  • the “onomatopoeia acquisition unit” in the embodiment corresponds to the “onomatopoeia data acquisition unit” of the present invention.
  • the “output unit” in the embodiment corresponds to the “onomatopoeia output unit” of the present invention.
  • “Speaker” and “display” in the embodiment are examples of the “notification device” of the present invention.
  • an embodiment of an onomatopoeia presentation device relating to a user operation evaluation result of the present invention will be described by taking a riding evaluation device mounted on a motorcycle as an example.
  • the riding evaluation apparatus is mounted on a motorcycle.
  • the rider of the motorcycle performs operations for starting, accelerating, decelerating, or turning, and controls the motorcycle.
  • the riding evaluation device evaluates various motions performed by the rider, and acquires onomatopoeia corresponding to the evaluation content.
  • the motorcycle provides the rider with the onomatopoeia acquired by the riding evaluation device as a riding evaluation for the operation of the rider who is operating the motorcycle.
  • the rider controls the motorcycle and obtains information related to the riding evaluation expressed by the onomatopoeia while continuing to travel.
  • Onomatopoeia Definitions of terms used in this specification will be described with reference to FIG.
  • An onomatopoeia (or onomatopoeia) is a word that expresses the cry of an animal or the sound of an object.
  • onomatopoeia examples include “Wanwan” (“wan-wan” for Japanese speech, “bow-wow” for English speech: Onomatopoeia representing dog cry), “Gachan” (“gachan” for Japanese speech, English “Crush” for speech: Onomatopoeia representing the sound of cracking ceramics, etc., “rattling” (“gata-gata” for Japanese speech, “bunk” for English speech: desk when desk legs are not uniform in length Onomatopoeia representing a shaking sound).
  • a mimetic word is a word that expresses the state of a thing or the behavior of a person in terms of such voices.
  • mimetic words include “surutsuru” (“tsuru-tsuru” in Japanese speech: a mimetic word representing a smooth surface), “puyopuyo” (“puyo-puyo” in Japanese speech: a state with soft elasticity ”And“ Yoshiyori ”(in Japanese speech,“ yochi-yochi ”: a mimetic word representing a state in which a baby moves forward little by little with limbs).
  • mimetic words examples include “Soro Soro” (“soro-soro” for Japanese speech, “slo-slo-slo” for English speech: mimetic word representing a state of low speed and movement), “Bune” (Japanese “View” for speech, “zoom” for English speech: imitation word indicating speed and fast action, “Cuien” (“cueen” for Japanese speech, “zoooooom” for English speech: quick progress and refreshing Mimic words representing feeling), “Furafura” (“fla-fla” in Japanese speech, “diz-diz-diz” in English speech: a mimetic word representing a movement while shaking).
  • Onomatopoeia is a general term for onomatopoeia and mimicry words.
  • Japanese is a language that frequently uses onomatopoeia, but onomatopoeia is also used in English.
  • Onomatopoeia such as“ beep ”is used for“ onomatopoeia representing ringing sounds such as buzzers ”.
  • “boy!”, “Boing!”, “Whoo!”, And the like are used as onomatopoeia representing the state of jumping and bouncing.
  • the motorcycle 1 is a naked type motorcycle as shown in FIG.
  • the riding evaluation apparatus according to the present embodiment can be applied to all kinds of motorcycles such as a racer type and an American type.
  • the riding evaluation apparatus according to the present embodiment can be applied to a scooter.
  • the left and right and front and rear directions of the motorcycle 1 refer to the left and right and front and rear directions viewed from the rider seated on the seat 81 of the motorcycle 1.
  • arrow F indicates the forward direction of the motorcycle 1
  • arrow R indicates the rear direction of the motorcycle 1
  • arrow U indicates the upward direction of the motorcycle 1
  • arrow D indicates the motorcycle. 1 indicates the downward direction.
  • the motorcycle 1 includes a body frame 6.
  • the vehicle body frame 6 includes a head pipe 61.
  • the head pipe 61 is disposed at the front portion of the vehicle body.
  • a steering shaft 70 is inserted into the head pipe 61 so as to be rotatable in the left-right direction.
  • a handle 71 is fixed to the upper portion of the steering shaft 70. The handle 71 can rotate in the left-right direction integrally with the steering shaft 70.
  • the front fork 72 is fixed to the steering shaft 70 via a bracket.
  • a front wheel 73 is rotatably attached to the lower end of the front fork 72. When the rider steers the handle 71 in the left-right direction, the front wheel 73 can rotate in the left-right direction.
  • a front suspension 74 is provided on the front fork 72.
  • a seat 81 is provided at a portion slightly rearward from the middle in the longitudinal direction of the vehicle body.
  • the seat 81 is supported by the body frame 6.
  • a fuel tank 82 is provided in front of the seat 81.
  • the fuel tank 82 is supported by the vehicle body frame 6.
  • An engine 83 is provided below the fuel tank 82.
  • the engine 83 is supported by the body frame 6.
  • a rear arm 75 is provided behind the engine 83.
  • the rear arm 75 is supported on a pivot shaft provided on the vehicle body frame 6 so as to be swingable in the vertical direction.
  • a rear wheel 76 is rotatably provided at the rear portion of the rear arm 75.
  • a rear suspension 77 is provided between the rear wheel 76 and the vehicle body frame 6.
  • a mission device 84 is provided behind the engine 83.
  • the mission device 84 is supported by the vehicle body frame 6.
  • the output of the engine 83 is transmitted to the rear wheel 76 via the mission device 84 and the chain.
  • the motorcycle 1 of the present embodiment is equipped with a large number of sensors 101 to 120 as shown in FIG.
  • the image sensor 101 is provided in the front part of the vehicle body.
  • the image sensor 101 is a sensor that can image the front of the vehicle.
  • a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor can be used.
  • the voice sensor 102 is a microphone that is provided near the handle 71 and collects the voice of the surrounding environment or the voice of the rider.
  • the image sensor 101 and the audio sensor 102 may be attached at different locations.
  • the clutch operation sensor 103 is provided in the vicinity of the handle 71 and measures the amount of displacement of a clutch lever (not shown) operated by the rider.
  • a potentiometer, a linear encoder, or the like can be used.
  • the steering angle sensor 104 is provided in the vicinity of the steering shaft 70 and measures the rotation angle of the steering shaft 70.
  • a potentiometer can be used as the steering angle sensor 104.
  • the front suspension stroke sensor 105 is provided in the vicinity of the front suspension 74 and measures the stroke amount of the front suspension 74.
  • a linear encoder or the like can be used.
  • the front wheel speed sensor 106 is provided in the vicinity of the front wheel 73 and measures the rotational speed of the front wheel 73.
  • a rotary encoder or the like can be used.
  • the front wheel brake pressure sensor 107 is provided in the vicinity of a brake (not shown) provided on the front wheel 73 and measures the brake pressure of the front wheel brake.
  • a hydraulic pressure sensor or the like is used.
  • the engine speed sensor 108 is provided in the engine 83 and measures the speed of the engine 83.
  • the engine speed sensor 108 is disposed in the vicinity of a shaft provided in the engine 83 such as a crankshaft (not shown), and a rotary encoder or the like is used.
  • the gear position sensor 109 is provided in the mission device 84 and detects the position of the transmission gear. As the gear position sensor 109, a linear encoder or the like is used.
  • the throttle opening sensor 110 is provided in the vicinity of the intake pipe connected to the engine 83. As the throttle opening sensor 110, a potentiometer or the like is used.
  • the 3-axis acceleration sensor 111 is attached below the seat 81 and measures the acceleration in the 3-axis directions (vertical direction, front-rear direction, left-right direction) of the vehicle body.
  • a piezoresistive triaxial acceleration sensor or the like can be used.
  • the triaxial angular velocity sensor 112 is attached below the seat 81 and measures angular velocities around the three axes (around the vertical direction, around the front and rear direction, and around the left and right direction) of the vehicle body.
  • a gyro sensor or the like is used as the triaxial angular velocity sensor 112.
  • the orientation sensor 113 is attached below the seat 81 and measures the orientation.
  • a magnetic sensor or the like can be used.
  • the position information sensor 114 is provided below the seat 81 and acquires the position information of the motorcycle 1.
  • a GPS (Global Positioning System) receiver can be used.
  • the rear suspension stroke sensor 115 is provided in the vicinity of the rear suspension 77 and measures the stroke amount of the rear suspension 77.
  • a linear encoder or the like can be used.
  • the rear wheel speed sensor 116 is provided in the vicinity of the rear wheel 76 and measures the rotational speed of the rear wheel 76.
  • a rotary encoder or the like can be used.
  • the rear wheel brake pressure sensor 117 is provided in the vicinity of a brake (not shown) provided on the rear wheel 76 and measures the brake pressure of the rear wheel brake. A hydraulic sensor or the like is used as the rear wheel brake pressure sensor 117.
  • the temperature sensor 118 is provided below the seat 81 and measures the outside air temperature.
  • the FM receiver 119 receives FM (Frequency Modulation) multiplex broadcasting and acquires text information such as weather forecasts and traffic information.
  • the front light switch sensor 120 is provided in the vicinity of the handle 71 and measures a front light ON / OFF switching operation.
  • the riding evaluation apparatus 10 includes a measurement unit 100, a riding evaluation module 10P, and an output unit 500.
  • the riding evaluation module 10P includes a recognition unit 200, an onomatopoeia acquisition unit 300, and an onomatopoeia database 450.
  • the measuring unit 100 includes the sensors 101 to 120 described above.
  • the measurement unit 100 includes 20 types of sensors 101 to 120, but this is only an example, and a configuration including some of these sensors may be employed. Or the structure further provided with another sensor may be sufficient.
  • an infrared sensor or a stereo camera may be provided.
  • a sensor blood flow sensor or sweat sensor
  • the measurement unit 100 measures an event caused by the rider's movement.
  • the recognition unit 200 is a processing unit that performs a rider's riding evaluation based on the information measured by the measurement unit 100.
  • the recognition unit 200 includes a measurement information input unit 201, an evaluation unit 202, a measurement information database 250, and a determination criterion database 251.
  • the measurement information input unit 201 inputs information measured by the measurement unit 100. That is, information measured by the various sensors 101 to 120 is input.
  • the measurement information input unit 201 stores the input measurement information in the measurement information database 250.
  • the contents of the measurement information database 250 will be described in detail later.
  • the evaluation unit 202 performs a rider's riding evaluation based on the measurement information stored in the measurement information database 250 and the determination criterion table stored in the determination criterion database 251.
  • the evaluation unit 202 determines an onomatopoeia representing a rider's riding evaluation. The contents of the evaluation method by the evaluation unit 202 will be described in detail later.
  • the onomatopoeia acquisition unit 300 accesses the onomatopoeia database 450 and acquires data corresponding to the onomatopoeia determined by the evaluation unit 202.
  • the onomatopoeia acquisition unit 300 outputs the acquired onomatopoeia data to the output unit 500.
  • the output unit 500 outputs onomatopoeia data and notifies the rider of the riding evaluation.
  • the output unit 500 includes a speaker 501 and a display 502.
  • the speaker 501 is used as the output unit 500.
  • text data or image data is used as onomatopoeia data
  • a display 502 is used as the output unit 500.
  • onomatopoeia is recorded as character information
  • image data onomatopoeia is recorded as image information.
  • the “riding evaluation module 10P” of the present embodiment includes the function of the “onomatopoeia presentation device related to user operation evaluation results” of the present invention.
  • the “measurement result input unit” included in the “onomatopoeia presentation device relating to the evaluation result of user behavior” of the present invention corresponds to the “measurement information input unit 201” included in the “riding evaluation module 10P”.
  • the “onomatopoeia data acquisition unit” included in the “onomatopoeia presentation device relating to the evaluation result of user behavior” of the present invention corresponds to the “onomatopoeia acquisition unit 300” included in the “riding evaluation module 10P”.
  • the “onomatopoeia output device” included in the “onomatopoeia presentation device related to user operation evaluation results” of the present invention is included in the “onomatopoeia acquisition unit 300” included in the “riding evaluation module 10P”.
  • the “notification device” included in the “onomatopoeia presentation device related to user operation evaluation result” of the present invention corresponds to the “output unit 500”.
  • the “onomatopoeia presentation device related to user operation evaluation results” of the present invention may include a measurement information database 250 or may hold the measurement information database 250 outside the device.
  • the “onomatopoeia presentation device relating to the user operation evaluation result” of the present invention may include the evaluation unit 202 or may use an evaluation unit outside the device.
  • the evaluation unit may be placed on a server connected via a network.
  • the “onomatopoeia presentation device related to user operation evaluation results” of the present invention may include the onomatopoeia database 450 or may hold the onomatopoeia database 450 outside the apparatus.
  • FIG. 4 is a diagram showing a helmet 85 to be worn when the rider gets on the motorcycle 1.
  • the helmet 85 is provided with left and right speakers 501 and 501.
  • the rider can check the onomatopoeia output from the speakers 501 and 501 by voice while wearing the helmet 85 and operating the motorcycle 1.
  • a part of the shield of the helmet 85 is used as the display 502.
  • An image output from an AR (Augmented Reality) projector 5021 provided in the helmet 85 is displayed on the display 502.
  • the rider can check the onomatopoeia output to the display 502 as an image while wearing the helmet 85 and operating the motorcycle 1.
  • the speaker that outputs the onomatopoeia is provided in the helmet worn by the rider, but the speaker may be provided in another location.
  • a speaker may be provided near the front cowl or the handle.
  • the helmet shield worn by the rider is used as the display for displaying onomatopoeia, but the display is not limited to this.
  • the display in order to make it easy for the rider to grasp the onomatopoeia, it is desirable to arrange the display on a transparent or translucent member arranged at the tip of the rider's line of sight.
  • the measurement information input unit 201, the evaluation unit 202, and the onomatopoeia acquisition unit 300 are realized by a CPU (Central Processing Unit), memory, and software that operates on the CPU while using the memory as a work area. .
  • a component such as a memory for storing the image is arranged as a riding evaluation module 10P on one or a plurality of substrates. As shown in FIG. 2, in the present embodiment, the riding evaluation module 10 ⁇ / b> P is disposed below the sheet 81.
  • part or all of the measurement information input unit 201, the evaluation unit 202, and the onomatopoeia acquisition unit 300 may be configured by hardware. Also in this case, there are components such as hardware for realizing the measurement information input unit 201, the evaluation unit 202, and the onomatopoeia acquisition unit 300, and components such as a memory for storing the measurement information database 250, the determination reference database 251 and the onomatopoeia database 450.
  • the riding evaluation module 10P is arranged on one or a plurality of substrates.
  • the measurement information database 250 will be described with reference to FIG.
  • the measurement information input unit 201 stores the measurement information input from the measurement unit 100, that is, the measurement information input from the various sensors 101 to 120 in the measurement information database 250.
  • Data stored in the measurement information database 250 is recorded as a record using time information as key information, as shown in FIG. That is, the measurement information acquired at each time is stored in the measurement information database 250 in association with the time information.
  • the time information is acquired from a timer (not shown) provided in the riding evaluation module 10P.
  • Latitude information and longitude information are measurement information acquired by the position information sensor 114.
  • the temperature information is measurement information acquired by the temperature sensor 118.
  • the weather information is acquired from the character information received by the FM receiver 119.
  • the throttle opening information is measurement information acquired by the throttle opening sensor 110.
  • the brake pressure sensor information is measurement information acquired by the front wheel brake pressure sensor 107.
  • the steering angle information is measurement information acquired by the steering angle sensor 104.
  • the light information is measurement information acquired by the front light switch sensor 120.
  • the engine speed information is measurement information acquired by the engine speed sensor 108.
  • FIG. 5 shows information measured by some of the sensors 101 to 120, but the measurement information acquired by each sensor 101 to 120 is associated with time information in the measurement information database 250. Stored. In FIG. 5, there is a location where NaN (Not a Number) is input as measurement information. This indicates a case where measurement information cannot be acquired from the sensor.
  • the onomatopoeia database 450 stores text data, image data, audio data, and the like that record onomatopoeia.
  • text data a character string representing onomatopoeia is recorded as a character code.
  • image data a character string representing onomatopoeia is recorded as image information.
  • JPEG Joint Photographic Experts Group
  • TIFF Tagged Image File Format
  • image data moving image data such as MPEG can also be used.
  • a character string representing onomatopoeia is recorded as voice information.
  • MP3 MPEG-1 Audio Layer-3
  • AAC Advanced Audio Coding
  • the onomatopoeia acquisition unit 300 can output the onomatopoeia to the display 502. Further, if voice data is stored for a certain onomatopoeia, the onomatopoeia acquisition unit 300 can output the onomatopoeia to the speaker 501.
  • onomatopoeia database 450 stores image data (goone.jpeg) in which a character string “Goon” is recorded as an image and audio data (goone.mp3) in which a sound “Goon” is recorded.
  • the measurement information input unit 201 stores the measurement information measured by the measurement unit 100 in the measurement information database 250.
  • the evaluation unit 202 performs riding evaluation with reference to the measurement information database 250 and the determination criterion database 251.
  • the evaluation unit 202 determines an onomatopoeia corresponding to the riding evaluation.
  • the evaluation unit 202 performs a riding evaluation on a certain riding evaluation item based on a single measurement information stored in the measurement information database 250. For example, the evaluation unit 202 performs a riding evaluation on the rider's acceleration operation based on information on the throttle opening measured by the throttle opening sensor 110.
  • the evaluation unit 202 performs a riding evaluation on the rider's operation based on a plurality of pieces of measurement information stored in the measurement information database 250 for other riding evaluation items. For example, the evaluation unit 202 controls the rider based on information on the vehicle speed measured by the rear wheel speed sensor 116 and information on the angular speed around the three axes of the motorcycle 1 measured by the three-axis angular speed sensor 112. Riding evaluation for.
  • the information related to the vehicle speed is information that can be used to evaluate the stability of the riding skill indicating the riding skill related to the stability in the riding skill of the rider.
  • the angular velocities around the three axes are information that can be used to evaluate the turning ability of the riding skill indicating the riding skill related to the turning ability in the riding skill of the rider.
  • the evaluation unit 202 performs one riding evaluation on two riding evaluation items, that is, the stability of the riding skill related to the rider's operation and the turning performance of the riding skill related to the rider's operation.
  • the evaluation unit 202 processed the calculation information (not the measurement information as it is, but the measurement information calculated based on the single measurement information stored in the measurement information database 250. Information) to evaluate the rider's riding. For example, the evaluation unit 202 performs a riding skill evaluation on the rider's maneuver based on acceleration information calculated based on speed information measured by the front wheel speed sensor 106.
  • the evaluation unit 202 calculates an operation value calculated based on a plurality of pieces of measurement information stored in the measurement information database 250 (information obtained by processing the measurement information, not the value of the measurement information as it is). ) To evaluate the riding of the rider. For example, the evaluation unit 202 calculates based on the information on the damping force calculated based on the stroke amount of the front suspension 74 measured by the front suspension stroke sensor 105 and the front wheel brake pressure measured by the front wheel brake pressure sensor 107. Riding evaluation for rider's maneuvering is performed based on the information on the braking force. The information on the damping force is information that can be used to evaluate the comfort of the rider. The information regarding the brake braking force is information that can be used to evaluate the braking skill. The evaluation unit 202 performs one riding evaluation with respect to two riding evaluation items of comfort related to rider's maneuvering and braking skill.
  • FIG. 7 is a diagram illustrating a determination criterion table T1 stored in the determination criterion database 251 that is referred to by the evaluation unit 202.
  • the evaluation unit 202 performs riding evaluation based on a single measurement information for a certain riding evaluation item (here, the riding evaluation item A).
  • onomatopoeia X1 representing the riding evaluation for the riding evaluation item A is associated with a certain measurement information (measured value) sa when the condition of sa ⁇ 3 is satisfied.
  • certain condition information (measurement value) sa satisfies the condition of sa ⁇ 3
  • the onomatopoeia X2 representing the riding evaluation for the riding evaluation item A is associated.
  • the evaluation unit 202 performs riding evaluation related to the acceleration operation based on the information related to the throttle opening.
  • the riding evaluation item A is an evaluation item related to the acceleration operation, that is, an evaluation item related to the stability of the riding skill.
  • Onomatopoeia X1 is associated with “suu” (imitation word “Sue” in Japanese speech: indicating that acceleration is low), and onomatopoeia X2 is “mon” (imitation word “goone” in Japanese speech: acceleration). Is large).
  • the onomatopoeia X1 and the onomatopoeia X2 can express a multi-stage evaluation for one riding evaluation item of the stability of the riding skill.
  • FIG. 8 is a diagram illustrating a determination criterion table T2 stored in the determination criterion database 251 that is referred to by the evaluation unit 202.
  • the evaluation unit 202 performs riding evaluation based on a plurality of pieces of measurement information for a plurality of riding evaluation items (here, the riding evaluation item B and the riding evaluation item C).
  • the reference table T2 when certain measurement information (measurement value) sb and measurement information (measurement value) sc satisfy the conditions of sb ⁇ 2 and sc ⁇ 12, two riding evaluation items (the riding evaluation item B and the riding evaluation item) Onomatopoeia X3 representing one riding evaluation is associated with C).
  • the evaluation unit 202 performs riding evaluation based on the information on the vehicle speed and the information on the angular velocity around the three axes of the motorcycle 1 measured by the three-axis angular velocity sensor 112.
  • the riding evaluation item B is an evaluation item regarding the stability of the riding skill, and information regarding the vehicle speed is used.
  • the riding evaluation item C is an evaluation item related to the turning ability of the riding skill, and angular velocities around three axes are used. As shown in FIG. 11, “Furafura” (“fla-fla” in Japanese voice: indicating that the riding skill is low and the turning skill is low) is associated with the onomatopoeia X3.
  • onomatopoeia X4 “dotted turn” (in Japanese speech “dota-dotturn”: indicating that the riding skill is low and the turning skill of the riding skill is high) is associated.
  • onomatopoeia X5 “Soro” (“sorrow” in Japanese voice: high stability of the riding skill and low turning ability of the riding skill) is associated.
  • Onomatopoeia X6 is associated with “Cuin” (in Japanese speech, “cueen” indicates that the riding skill is high and the riding skill is high).
  • the evaluation unit 202 performs one riding evaluation for two riding evaluation items of the stability of the riding skill and the turning ability of the riding skill, and associates one onomatopoeia.
  • FIG. 9 is a diagram illustrating a determination criterion table T3 stored in the determination criterion database 251 that is referred to by the evaluation unit 202.
  • the evaluation unit 202 performs riding evaluation with respect to a certain riding evaluation item (here, referred to as a riding evaluation item D) based on a calculation value calculated based on single measurement information.
  • a riding evaluation item D a certain riding evaluation item
  • the onomatopoeia X7 representing the riding evaluation for the riding evaluation item D is associated. It has been.
  • FIG. 10 is a diagram illustrating a determination criterion table T4 stored in the determination criterion database 251 that is referred to by the evaluation unit 202.
  • the evaluation unit 202 performs a plurality of calculations calculated based on a plurality of pieces of measurement information for a plurality of riding evaluation items (here, the riding evaluation items E, F, and G). One riding evaluation is performed based on the value.
  • calculated values f (se), f (sf), and f (f) calculated based on certain measurement information (measurement value) se, measurement information (measurement value) sf, and measurement information (measurement value) sg.
  • onomatopoeia X9 representing one riding evaluation for the three riding evaluation items E, F and G are associated.
  • f (se) ⁇ 5 and f (sf) ⁇ 30 and f (sg) for the calculated values f (se), f (sf), and f (sg) calculated based on the measurement information.
  • the onomatopoeia X10 representing one riding evaluation for the three riding evaluation items E, F, and G is associated.
  • the onomatopoeia X11 representing one riding evaluation for the three riding evaluation items E, F, and G is associated.
  • the onomatopoeia is associated with ranges of other values for the calculated values f (se), f (sf), and f (sg).
  • the evaluation unit 202 refers to the measurement information database 250 and the determination criterion database 251, and uses single or multiple measurement information, or calculated values calculated based on single or multiple measurement information. In addition to performing a riding evaluation, an onomatopoeia representing the contents of the riding evaluation is specified.
  • step S ⁇ b> 1 the measurement information input unit 201 inputs various measurement information from the measurement unit 100.
  • the measurement information input unit 201 inputs measurement information measured by the sensors 101 to 120.
  • step S ⁇ b> 2 the measurement information input unit 201 stores the input measurement information in the measurement information database 250.
  • step S1 when measurement information about a certain sensor cannot be acquired, NaN (Not a Number) is input as measurement information of the sensor.
  • step S3 the evaluation unit 202 determines whether or not the riding skill can be determined.
  • the determination of whether or not the riding skill can be determined is performed at a predetermined time interval such as an interval of 10 seconds.
  • the evaluation unit 202 measures time with a timer (not shown) and determines whether or not the timing for performing the riding skill determination has arrived.
  • the determination of the riding skill means that the measurement information is prepared for the items related to the riding skill among the above-described riding evaluation items, and the preparation for the determination of the riding skill is ready.
  • step S3 If the riding skill determination is not possible (NO in step S3), the process proceeds to step S5. If the riding skill can be determined (YES in step S3), the process proceeds to step S4. In step S4, the evaluation unit 202 calculates a score (measurement information or a calculated value calculated based on the measurement information) for a riding evaluation item related to the riding skill.
  • step S5 the evaluation unit 202 determines whether or not it is possible to determine the riding stability indicating the riding stability of the rider.
  • the determination of whether or not the riding stability determination is possible is performed at a predetermined time interval such as an interval of 10 seconds.
  • Riding stability can be judged means that the measurement information is available for the items related to riding stability among the above-mentioned riding evaluation items and is ready to judge riding stability. .
  • step S5 If the riding stability determination is not possible (NO in step S5), the process proceeds to step S7. If the riding stability determination is possible (YES in step S5), the process proceeds to step S6. In step S6, the evaluation unit 202 calculates a score (measurement information or a calculated value calculated based on the measurement information) for a riding evaluation item related to riding stability.
  • step S7 the evaluation unit 202 determines whether or not comfort can be determined.
  • the determination of whether or not comfort determination is possible is performed at a predetermined time interval such as an interval of 10 seconds.
  • the determination of comfort means that the measurement information is prepared for items related to comfort among the above-described riding evaluation items, and is ready for determination of comfort.
  • step S7 If the comfort determination is not possible (NO in step S7), the process proceeds to step S9. If the comfort determination is possible (YES in step S7), the process proceeds to step S8.
  • step S8 the evaluation unit 202 calculates a score (measurement information or a calculated value calculated based on the measurement information) for a riding evaluation item related to comfort.
  • step S9 the evaluation unit 202 determines whether environmental information can be determined. Whether the environmental information can be determined is determined at a predetermined time interval such as an interval of 10 seconds. “Environmental determination is possible” refers to a state in which measurement information is available for items related to the environment and preparations for environmental determination are made.
  • the item related to the environment is an item for evaluating the external environment, and is an evaluation from a viewpoint different from the riding evaluation in the present embodiment.
  • step S9 If environment information determination is not possible (NO in step S9), the process proceeds to step S11.
  • step S9 When the environmental information determination is possible (YES in step S9), the process proceeds to step S10.
  • step S ⁇ b> 10 the evaluation unit 202 performs evaluation related to the environment, and calculates a score (measurement information or a calculated value calculated based on the measurement information).
  • step S11 the onomatopoeia acquisition unit 300 determines whether or not onomatopoeia determination timing has arrived.
  • the onomatopoeia acquisition unit 300 determines that the onomatopoeia determination timing has arrived when a score (measurement information or an operation value calculated based on the measurement information) is calculated in any of steps S4, S6, S8, and S10. . That is, when the measurement information is available for any of the riding skill determination, the riding stability determination, the comfort determination, and the environment determination, and the score is calculated, it is determined that the onomatopoeia determination timing has arrived.
  • a score measured information or an operation value calculated based on the measurement information
  • step S11 If the onomatopoeia determination timing has not arrived (NO in step S11), the process returns to step S1 and continues to input measurement information. Measurement information associated with time information is accumulated in the measurement information database 250.
  • the evaluation unit 202 determines that the score calculated in steps S4, S6, S8, and S10 (measurement information or a calculated value calculated based on the measurement information) is obtained. Onomatopoeia is determined based on this (step S12). For example, the onomatopoeia is determined by executing the processing described with reference to FIGS.
  • the onomatopoeia acquisition unit 300 accesses the onomatopoeia database 450 and acquires onomatopoeia data representing the onomatopoeia determined in step S12 (step S13).
  • the onomatopoeia acquisition unit 300 outputs the acquired onomatopoeia data to the output unit 500 (step S14).
  • the acquired onomatopoeia is output from the speaker 501, for example.
  • the acquired onomatopoeia is output from the display 502.
  • a measurement information input unit 201 an evaluation unit 202, components such as a CPU, work memory, and ROM that realize the onomatopoeia acquisition unit 300, a measurement information database 250, a determination reference database 251 and an onomatopoeia database 450 are stored.
  • components such as a memory to be mounted are arranged on one or a plurality of substrates as the riding evaluation module 10P has been described.
  • the riding evaluation module 10 ⁇ / b> P is disposed below the sheet 81.
  • the “onomatopoeia presentation device relating to the user operation evaluation result” of the present invention is mounted on the motorcycle 1 as a vehicle part.
  • a mobile information terminal such as a smartphone may be used as the “riding evaluation module 10 ⁇ / b> P” that is the “onomatopoeia presentation device related to the user operation evaluation result” of the present invention. That is, by attaching the smartphone held by the rider to the motorcycle 1, it can be used as a “riding evaluation module”.
  • the rider can use the smartphone as a “riding evaluation module” by downloading and installing “riding evaluation module software” from a server on the network to the smartphone.
  • the program for operating a computer as an onomatopoeia presentation apparatus regarding the evaluation result of user operation is also included in the embodiment of the present invention.
  • a computer-readable non-transitory recording medium in which such a program is recorded is also included in the embodiment of the present invention.
  • the sensors 101 to 120 described in the above embodiment are “measuring devices” that can be used in the present invention.
  • the “measurement device” that can be used in the present invention may be mounted on the motorcycle 1 or may not be mounted on the motorcycle 1 like the sensors 101 to 120.
  • the “measuring device” can use various sensors mounted on the smart watch.
  • an acceleration sensor, an image sensor, a biological information sensor, a GPS receiver, a temperature sensor, or the like included in the smart watch can be used.
  • the measuring device can be a sensor that detects a physical quantity that changes due to the action of the rider (user).
  • FIG. 14 is a diagram illustrating a configuration example of the measurement apparatus 100, the riding evaluation module 10P, and the output unit 500 according to the embodiment.
  • FIG. 14 is a diagram using the smart watch 10W as the “measuring device” and the smartphone 10F as the “riding evaluation module” and the “output unit”.
  • the rider uses the smart watch 10W as the measuring device 100A by mounting the smart watch 10W on the arm.
  • the rider uses the smartphone 10F as the riding evaluation module 10PA by mounting the smartphone 10F in which the “riding evaluation module software” is installed on the vehicle. Further, the rider uses a speaker or a display included in the smartphone 10F as the output unit 500A.
  • the smartphone 10F inputs various pieces of measurement information from the smart watch 10W functioning as the measurement device 100A using communication means such as Bluetooth.
  • the smartphone 10F functioning as the riding evaluation module 10PA acquires onomatopoeia data based on the measurement information.
  • the smartphone 10F outputs the acquired onomatopoeia as sound from a speaker included in the smartphone 10F.
  • the smartphone 10F outputs onomatopoeia as an image to a display included in the smartphone 10F.
  • Smart watch 10W may be used as an “output unit”.
  • the smartphone 10F transmits the acquired onomatopoeia data to the smart watch 10W using communication means such as Bluetooth.
  • the smart watch 10W outputs the received onomatopoeia data as a sound from a speaker included in the smart watch 10W or from a headphone connected to the smart watch 10W.
  • the smart watch 10W outputs onomatopoeia as an image to a display included in the smart watch 10W.
  • the smartphone 10F may output the acquired onomatopoeia data using a speaker or a display provided in the helmet using communication means such as Bluetooth.
  • FIG. 15 is a diagram illustrating a configuration example of the measurement apparatus 100, the riding evaluation module 10P, and the output unit 500 according to the embodiment.
  • FIG. 15 is a diagram using the smart watch 10W as the “measuring device”, a part of the functions of the “riding evaluation module”, and the smartphone 10F as the “output unit”.
  • FIG. 15 is a diagram using the computer server 10S connected via a network as an “evaluation unit”.
  • the rider uses the smart watch 10W as the measuring device 100B by wearing the smart watch 10W on the arm.
  • the rider uses the smartphone 10F as the riding evaluation module 10PB by mounting the smartphone 10F in which the “riding evaluation module software” is installed on the vehicle.
  • the riding evaluation module 10PB does not have the function of the “evaluation unit”.
  • the rider uses a speaker or a display included in the smartphone 10F as the output unit 500B.
  • the computer server 10S connected via the network is used as the evaluation unit 202B.
  • the smartphone 10F inputs various pieces of measurement information from the smart watch 10W functioning as the measurement device 100B using a communication means such as Bluetooth.
  • the smartphone 10F that functions as the riding evaluation module 10PB inputs the measurement information
  • the smartphone 10F transmits the measurement information to the computer server 10S.
  • the computer server 10S functioning as the evaluation unit 202B evaluates the measurement information and determines onomatopoeia data.
  • the smartphone 10F receives onomatopoeia data determination information from the computer server 10S.
  • the smartphone 10F acquires onomatopoeia data based on the determination information from the onomatopoeia database.
  • the smartphone 10F outputs the acquired onomatopoeia as sound from a speaker included in the smartphone 10F.
  • the smartphone 10F outputs onomatopoeia as an image to a display included in the smartphone 10F.
  • a speedometer provided in the motorcycle 1 may be used.
  • a display may be provided on a part of the speedometer to display onomatopoeia.
  • the riding evaluation module 10P includes the onomatopoeia database 450
  • the onomatopoeia acquisition part 300 can acquire onomatopoeia data in real time.
  • the output unit 500 can present onomatopoeia to the rider in real time as the riding evaluation.
  • the onomatopoeia database may be arranged on a server on the network without holding the onomatopoeia database in the motorcycle 1.
  • the onomatopoeia acquisition unit 300 acquires onomatopoeia data using wireless communication via the network.
  • the onomatopoeia as the riding evaluation can be presented to the rider although the real-time property of presenting the onomatopoeia data is reduced.
  • the rider can receive onomatopoeia as a riding evaluation while continuing the running training of the motorcycle 1.
  • the onomatopoeia acquisition unit 300 may automatically generate onomatopoeia corresponding to riding evaluation.
  • Onomatopoeia is a word that appeals to the common sense of human beings. Therefore, it is possible to create a database of human feelings for a specific word or phrase.
  • the riding evaluation apparatus 10 presents riding evaluation to the rider using onomatopoeia.
  • the onomatopoeia can express the evaluation content regarding a plurality of riding evaluation items by one onomatopoeia as the feature.
  • riding evaluation based on a plurality of riding evaluation items can be expressed by one onomatopoeia.
  • onomatopoeia can express the evaluation regarding a single riding evaluation item in multiple stages as the feature. Thereby, the rider of the motorcycle 1 can efficiently obtain a lot of information related to riding evaluation by receiving the provision of onomatopoeia.
  • the riding evaluation device 10 has been described as an example of the “onomatopoeia presentation device relating to the user operation evaluation result” of the present invention.
  • the present invention can be applied to other apparatuses for evaluating various user movements.
  • the present invention can be applied to an apparatus for evaluating long distance runner training.
  • onomatopoeia When evaluating training for long distance runners, the following onomatopoeia can be presented to the runners. For example, onomatopoeia that evaluates the runner's arm swing is “Bumbun” (“bun-bun” in Japanese voice), “Sassa” (“sat-sat” in Japanese voice), “Tantan” (Japanese “Tan-tan” for voice and “choco-maka” (“choko-maka” for Japanese voice) may be presented.
  • onomatopoeia that evaluates the heart rate of a runner is “Bakubaku” (“baku-baku” for Japanese voice), “Dokudoku” (“dokun-dokun” for Japanese voice), “Tokutoku” ( In Japanese voice, “toku-toku”) may be presented.
  • onomatopoeia that evaluates the breathing of runners is “Zezeze” (“zei-zei” in Japanese voice), “Haaha” (“haa-haa” in Japanese voice), “Susu” (“Su-su” in Japanese voice) may be presented.
  • the onomatopoeia that evaluates the running speed of runners is “Gungun” (“gune-gune” in Japanese voice), “Byunbyun” (“view-view” in Japanese voice), “Suisui” (in Japanese voice) “Sui-sui”), “Noronoro” (“no-noro” in Japanese voice) may be presented.
  • the present invention has an embodiment as a skill improvement promotion device.
  • the skill improvement promotion device of the present embodiment is a skill improvement promotion device that presents a training result to a user who performs training, and includes a measurement unit that measures an event caused by the action of the user who performed the training, and a measurement unit Based on the measurement results, an evaluation unit that evaluates the operation of the user who performed the training, a data acquisition unit that acquires onomatopoeia data corresponding to the evaluation performed by the evaluation unit, and onomatopoeia data acquired by the data acquisition unit are output And an output unit that presents an evaluation of the operation to the user who has performed the training.
  • the evaluation unit performs one evaluation for a plurality of evaluation items
  • the data acquisition unit acquires one onomatopoeia data for the plurality of evaluation items.
  • onomatopoeia If onomatopoeia is not used, it is necessary to explain the evaluations related to a plurality of evaluation items with characters and the like, and the user takes time to grasp the contents. Alternatively, it is difficult to read and understand a long explanation while continuing some operation. In this respect, since the onomatopoeia simply expresses evaluations regarding a plurality of evaluation items, the user can easily grasp the evaluation results.
  • an evaluation part performs multi-stage evaluation regarding one evaluation item
  • a data acquisition part acquires onomatopoeia data which expressed evaluation regarding one evaluation item in multi-stage To do.
  • onomatopoeia in order to express multi-level evaluation contents for a certain evaluation item, it is necessary to explain using characters and the like, and the user takes time to grasp the contents. Alternatively, it is difficult to read and understand a long explanation while continuing some operation. In this respect, if it is onomatopoeia, it is possible to simply express a multi-stage evaluation regarding a certain evaluation item, so that the user can easily grasp the evaluation result.
  • the output unit includes an image display unit that outputs onomatopoeia data as character information. Training assessments can be communicated through the user's vision.
  • the output unit includes a voice output unit that outputs onomatopoeia data as voice information. Training assessments can be communicated through the user's hearing.
  • the evaluation unit evaluates the user's action by comparing the measurement result or a value calculated based on the measurement result with a predetermined threshold value. By comparing the measurement result and the like with a predetermined threshold value, the evaluation result of training can be obtained in real time.
  • the measurement result includes information obtained by measuring the state of the operation target operated by the user.
  • the user's action can be evaluated based on the state of the object operated by the user.
  • the measurement result includes information obtained by measuring the state of the operation target operated by the user, the operation target includes the vehicle, and the user includes the driver of the vehicle.
  • the image display unit is provided on a transparent or translucent member disposed at the tip of the driver's line of sight. The driver can confirm the onomatopoeia displayed at the end of the line of sight.
  • the member provided with the image display unit includes a helmet shield worn by the driver.
  • the driver can check the onomatopoeia displayed on the shield of the helmet positioned ahead of the line of sight.
  • the measurement result includes information obtained by measuring the state of the operation target operated by the user, the operation target includes the vehicle, and the user includes the driver of the vehicle.
  • the sound output unit includes a speaker provided in the vehicle. The driver can grasp the information with the onomatopoeia output from the speaker.
  • the measurement result includes information obtained by measuring the state of the operation target operated by the user, the operation target includes the vehicle, and the user includes the driver of the vehicle.
  • the sound output unit includes a speaker provided in a helmet worn by the driver. The driver can grasp the information by onomatopoeia output from the speaker by wearing the helmet.
  • the output unit outputs the onomatopoeia data acquired by the data acquisition unit in real time. Training results can be quickly presented to the user.
  • the skill improvement promotion device of the present embodiment further includes a storage unit that accumulates onomatopoeia data, and the data acquisition unit acquires onomatopoeia data from the storage unit. Training results can be quickly presented to the user.
  • the data acquisition unit acquires onomatopoeia data from an external server using wireless communication. Shared onomatopoeia data can be used. The latest onomatopoeia data can be shared.
  • the data acquisition unit automatically generates onomatopoeia data according to the evaluation. Onomatopoeia that describes the training results in more detail can be presented.
  • the riding evaluation device 10 mounted on the motorcycle 1 has been described as an example of the onomatopoeia presentation device related to the evaluation result of the user motion which is one of the embodiments of the present invention. That is, the case where the rider is used for traveling training in which the motorcycle 1 is operated has been described as an example. However, the present invention can be widely applied to training such as various sports training and work training for operating various devices.
  • the onomatopoeia presentation device relating to the evaluation result of the user action which is one of the embodiments of the present invention, can present the evaluation result of training to the user while the user continues training. Thereby, the user can continue the training while feeding back the evaluation result and reflecting it in the next operation. For example, by applying the present invention to long distance runner training, the runner can obtain an evaluation result while continuing the training. The training can be continued while adjusting the running form according to the evaluation result.

Abstract

【課題】ユーザの動作が継続する運動において、運動を継続しているユーザに対して、ユーザの動作の評価結果を提示したい。 【解決手段】自動二輪車1はライディング評価装置10を備える。ライディング評価装置10の評価部202は、各種のセンサが計測した計測情報に基づき、自動二輪車1を操縦するライダーの操縦に対するライディング評価を行う。評価部202は、複数の評価項目について、1つのライディング評価を行う。評価部202は、ライディング評価に対応するオノマトペを特定する。オノマトペ取得部300は、評価部202が決定したオノマトペに対応するデータを取得する。取得されたオノマトペは、ライダーが装着しているヘルメットに設けられたスピーカ501やディスプレイ502において提示される。

Description

ユーザ動作の評価結果に関するオノマトペ提示装置
 本発明は、ユーザの動作に対する評価結果をユーザに提示する技術に関する。詳しくは、ユーザの動作に対する評価結果をオノマトペを用いてユーザに提示する技術に関する。
 スポーツ、乗り物の操縦、機器の操作などは、人間の運動、動作によってもたらされる活動である。これらの活動をする上で、動作をした人間は、自身の動作の内容に関心を持っている。動作をした人間は、自身の動作がどのような結果をもたらすかについて関心を持っている。人間は、自身の動作の結果に関する評価を得ることで、自身の活動内容を把握することができる。
 スポーツ、乗り物の操縦、機器の操作などは、人間の運動、動作によってもたらされる活動である。これらの活動を人間が希望するように遂行するには、トレーニングが有効である。トレーニングを行い、成功動作あるいは失敗動作を繰り返すことで、人間は、自身の運動、動作に修正を加えながら、活動内容を改善していくことができる。
 トレーニングは、上記のように人間自身の感覚を頼りにすることが多いが、それ以外にも、コンピュータ、センサその他の機器を利用した装置、システムによりトレーニングを補助することが提案されている。
 下記特許文献1(特表2005-524048号公報)は、スポーツトレーニングの評価を行うシステムに関する。使用者は、トレーニングシステム用の導電性繊維体のウェアを装着する。システムは、導電性繊維体における電気インピーダンスの変動に応じて、使用者にフィードバック指示を出力する。フィードバック指示として音声信号が出力される。あるいはフィードバック指示として使用者が感知できる振動信号または物理的刺激信号が出力される。あるいは、フィードバック指示としてセンサの色変化が出力される。使用者が装着する器具は、導電性の繊維体であるため、選手の動きに密接に適合できる。
 下記特許文献2(特開2014-108750号公報)は、自動二輪車を操縦しているライダーの技量を判定するライディング技量判定装置に関する。ライダーのライディング技量を評価するライディング技量評価部は、ライディング技量の安定性得点、ライディング技量の旋回性得点、総合特性得点をそれぞれ算出する。そして、算出された各種得点を補正部に出力する。総合得点調整部は、補正条件情報と各種得点とに基づいて、総合特性得点を補正する。ライディング技量の安定性得点とライディング技量の旋回性得点とを、走行する道路の条件に応じて補正するので、道路の種類に応じてライダーのライディング技量を判定することができる。
特表2005-524048号公報 特開2014-108750号公報
 1回、1回、動作が終了するスポーツ、あるいは1回の動作時間が短い作業であれば、動作の後にゆっくり動作の評価を確認することができる。例えば、1回、1回動作が終了するスポーツであれば、1回の動作をカメラやビデオで撮影し、撮影した画像を動作の後にゆっくり確認することができる。しかし、動作が継続するスポーツにおいては、トレーニングを継続しつつ動作の評価を確認することができれば利便性が高い。あるいは、機器の操作を継続して行う場合に、機器の操作を継続しつつ、動作の評価を確認することができれば利便性が高い。
 一般的にも、1回、1回、動作が終了する運動、あるいは1回の動作時間が短い運動であれば、動作の後にゆっくり動作の評価を確認することができる。しかし、動作が継続する運動においては、動作を継続しつつ動作の評価を確認することができれば利便性が高い。
 本発明は、動作をする者が動作を継続しながら、動作の評価を確認することができる仕組みを提供することを課題とする。
 本発明は、また、継続する動作に関するトレーニングにおいて、トレーニングをする者が動作を継続しながらその動作の評価を確認することができる仕組みを提供することを課題とする。
課題を解決するための手段および発明の効果
  (構成1)
 本発明の実施の形態の1つであるユーザ動作の評価結果に関するオノマトペ提示装置は、計測結果入力部、オノマトペデータ取得部、および、オノマトペ出力部を備える。
 前記計測結果入力部は、計測装置によって計測されたユーザの動作に起因する事象についての計測結果を入力する。
 前記オノマトペデータ取得部は、前記計測結果入力部が入力した前記計測結果に基づいて行われた、前記ユーザの動作の評価に対応したオノマトペを示すオノマトペデータを取得する。
 前記オノマトペ出力部は、前記オノマトペデータ取得部が取得した前記オノマトペデータを、前記ユーザに音声または文字により報知可能な報知装置に出力して、前記報知装置に、前記ユーザの動作の評価に対応したオノマトペを前記ユーザが前記ユーザの動作をしている間に前記ユーザに音声または文字により提示させる。
 本実施の形態のユーザ動作の評価結果に関するオノマトペ提示装置は、動作を行うユーザが動作を継続している状態において、ユーザに対して動作の評価を提示することが可能である。ユーザは、動作を行いながら評価内容を把握することができる。ユーザは評価内容を把握しつつ、さらに動作を継続させることが可能である。
 (構成2)
 上記構成1のユーザ動作の評価結果に関するオノマトペ提示装置において、前記オノマトペデータ取得部は、複数の評価項目に対して1つの評価を行うことによって得られた、前記複数の評価項目に対する1つのオノマトペを示すオノマトペデータを取得してもよい。
 オノマトペを用いなければ、複数の評価項目に関する評価を文字などで説明する必要があり、ユーザはその内容を把握するのに時間を要する。あるいは、何らかの動作を継続しつつ、長い説明を読み理解することは困難である。この点、オノマトペであれば、複数の評価項目に関する評価を簡潔に表しているので、ユーザは、評価結果を把握し易い。
 (構成3)
 上記構成1または2のユーザ動作の評価結果に関するオノマトペ提示装置において、前記オノマトペデータ取得部は、1つの評価項目に関して多段階の評価を行うことによって得られた、前記1つの評価項目に関する評価を多段階で表したオノマトペを示すオノマトペデータを取得してもよい。
 オノマトペを用いなければ、ある評価項目に関して多段階の評価内容を表現するためには、文字などを利用して説明する必要があり、ユーザはその内容を把握するのに時間を要する。あるいは、何らかの動作を継続しつつ、長い説明を読み理解することは困難である。この点、オノマトペであれば、ある評価項目に関して多段階の評価を簡潔に表すことができるので、ユーザは、評価結果を把握し易い。
 (構成4)
 上記構成1ないし3のいずれかのユーザ動作の評価結果に関するオノマトペ提示装置において、前記オノマトペデータ取得部が取得するオノマトペデータは、前記計測結果あるいは前記計測結果に基づき算出された値を所定の閾値と比較することにより前記ユーザの動作の評価として得られるものとしてもよい。
 計測結果等を所定の閾値と比較することにより、リアルタイムでユーザの運動の評価結果を得ることができる。
 (構成5)
 上記構成1ないし4のいずれかのユーザ動作の評価結果に関するオノマトペ提示装置において、前記計測結果は、前記ユーザによって操作された操作対象物の状態を計測した情報を含んでもよい。
 ユーザが操作した対象物の状態に基づいて、ユーザの動作を評価することができる。
 (構成6)
 上記構成1ないし5のいずれかのユーザ動作の評価結果に関するオノマトペ提示装置は、さらに、前記計測装置によって計測されたユーザの動作に起因する事象についての計測結果に基づいて前記ユーザの動作の評価を行う評価部、を備えてもよい。
 オノマトペ提示装置において動作の評価を実行することができる。
 (構成7)
 本発明の実施の形態の一つであるユーザ動作の評価結果に関するオノマトペ提示プログラムは、計測結果入力処理、オノマトペデータ取得処理、および、オノマトペ出力処理をコンピュータに実行させる。
 計測結果入力処理は、計測装置によって計測されたユーザの動作に起因する事象についての計測結果を入力する。
 オノマトペデータ取得処理は、前記計測結果入力処理で入力された前記計測結果に基づいて行われた前記ユーザの動作の評価に対応したオノマトペを示すオノマトペデータを取得する。
 オノマトペ出力処理は、前記オノマトペデータ取得処理で取得した前記オノマトペデータを、前記ユーザに音声または文字により報知可能な報知装置に出力して、前記報知装置に、前記ユーザの動作の評価に対応したオノマトペを前記ユーザが前記ユーザの動作をしている間に前記ユーザに音声または文字により提示させる。
 本実施の形態のユーザ動作の評価結果に関するオノマトペ提示プログラムは、動作を行うユーザが動作を継続している状態において、ユーザに対して動作の評価を提示することが可能である。ユーザは、評価内容をフィードバックさせながら、さらに動作を継続させることが可能である。
 (構成8)
 上記構成7のユーザ動作の評価結果に関するオノマトペ提示プログラムにおいて、前記オノマトペデータ取得処理は、複数の評価項目に対して1つの評価を行うことによって得られた、前記複数の評価項目に対する1つのオノマトペを示すオノマトペデータを取得する処理であってもよい。
 オノマトペを用いなければ、複数の評価項目に関する評価を文字などで説明する必要があり、ユーザはその内容を把握するのに時間を要する。あるいは、何らかの動作を継続しつつ、長い説明を読み理解することは困難である。この点、オノマトペであれば、複数の評価項目に関する評価を簡潔に表しているので、ユーザは、評価結果を把握し易い。
 (構成9)
 上記構成7または8のユーザ動作の評価結果に関するオノマトペ提示プログラムにおいて、前記オノマトペデータ取得処理は、1つの評価項目に関して多段階の評価を行うことによって得られた、前記1つの評価項目に関する評価を多段階で表したオノマトペを示すオノマトペデータを取得する処理であってもよい。
 オノマトペを用いなければ、ある評価項目に関して多段階の評価内容を表現するためには、文字などを利用して説明する必要があり、ユーザはその内容を把握するのに時間を要する。あるいは、何らかの動作を継続しつつ、長い説明を読み理解することは困難である。この点、オノマトペであれば、ある評価項目に関して多段階の評価を簡潔に表すことができるので、ユーザは、評価結果を把握し易い。
 (構成10)
 上記構成7ないし9のいずれかのユーザ動作の評価結果に関するオノマトペ提示プログラムにおいて、前記オノマトペデータ取得処理が取得するオノマトペデータは、前記計測結果あるいは前記計測結果に基づき算出された値を所定の閾値と比較することにより前記ユーザの動作の評価として得られるものであってもよい。
 計測結果等を所定の閾値と比較することにより、リアルタイムでユーザの運動の評価結果を得ることができる。
 (構成11)
 上記構成7ないし10のいずれかのユーザ動作の評価結果に関するオノマトペ提示プログラムにおいて、前記計測結果は、前記ユーザによって操作された操作対象物の状態を計測した情報を含んでもよい。
 ユーザが操作した対象物の状態に基づいて、ユーザの動作を評価することができる。
 (構成12)
 上記構成7ないし11のいずれかのユーザ動作の評価結果に関するオノマトペ提示プログラムは、さらに、前記計測装置によって計測されたユーザの動作に起因する事象についての計測結果に基づいて前記ユーザの動作の評価を行う評価処理、をコンピュータに実行させてもよい。
 オノマトペ提示プログラムにおいて動作の評価を実行することができる。
 なお、上記構成7ないし11のいずれかのユーザ動作の評価結果に関するオノマトペ提示プログラムを記録したコンピュータ読み取り可能な記録媒体も、本発明の実施形態の1つである。
 (構成13)
 本発明の実施の形態の1つであるユーザ動作の評価結果に関するオノマトペ提示方法は、計測結果入力工程、オノマトペデータ取得工程、および、オノマトペ出力工程を備える。
 計測結果入力工程は、計測装置によって計測されたユーザの動作に起因する事象についての計測結果を入力する。
 オノマトペデータ取得工程は、前記計測結果入力工程で入力された前記計測結果に基づいて行われた前記ユーザの動作の評価に対応したオノマトペを示すオノマトペデータを取得する。
 オノマトペ出力工程は、前記オノマトペデータ取得工程で取得した前記オノマトペデータを、前記ユーザに音声または文字により報知可能な報知装置に出力して、前記報知装置に、前記ユーザの動作の評価に対応したオノマトペを前記ユーザが前記ユーザの動作をしている間に前記ユーザに音声または文字により提示させる。
 本実施の形態のユーザ動作の評価結果に関するオノマトペ提示方法は、動作を行うユーザが動作を継続している状態において、ユーザに対して動作の評価を提示することが可能である。ユーザは、評価内容をフィードバックさせながら、さらに動作を継続させることが可能である。
 (構成14)
 上記構成13のユーザ動作の評価結果に関するオノマトペ提示方法において、前記オノマトペデータ取得工程は、複数の評価項目に対して1つの評価を行うことによって得られた、前記複数の評価項目に対する1つのオノマトペを示すオノマトペデータを取得する工程であってもよい。
 オノマトペを用いなければ、複数の評価項目に関する評価を文字などで説明する必要があり、ユーザはその内容を把握するのに時間を要する。あるいは、何らかの動作を継続しつつ、長い説明を読み理解することは困難である。この点、オノマトペであれば、複数の評価項目に関する評価を簡潔に表しているので、ユーザは、評価結果を把握し易い。
 (構成15)
 上記構成13または14のユーザ動作の評価結果に関するオノマトペ提示方法において、前記オノマトペデータ取得工程は、1つの評価項目に関して多段階の評価を行うことによって得られた、前記1つの評価項目に関する評価を多段階で表したオノマトペを示すオノマトペデータを取得する工程であってもよい。
 オノマトペを用いなければ、ある評価項目に関して多段階の評価内容を表現するためには、文字などを利用して説明する必要があり、ユーザはその内容を把握するのに時間を要する。あるいは、何らかの動作を継続しつつ、長い説明を読み理解することは困難である。この点、オノマトペであれば、ある評価項目に関して多段階の評価を簡潔に表すことができるので、ユーザは、評価結果を把握し易い。
 (構成16)
 上記構成13ないし15のいずれかのユーザ動作の評価結果に関するオノマトペ提示方法において、前記オノマトペデータ取得工程が取得するオノマトペデータは、前記計測結果あるいは前記計測結果に基づき算出された値を所定の閾値と比較することにより前記ユーザの動作の評価として得られるものとしてもよい。
 計測結果等を所定の閾値と比較することにより、リアルタイムでユーザの運動の評価結果を得ることができる。
 (構成17)
 上記構成13ないし16のいずれかのユーザ動作の評価結果に関するオノマトペ提示方法において、前記計測結果は、前記ユーザによって操作された操作対象物の状態を計測した情報を含んでもよい。
 ユーザが操作した対象物の状態に基づいて、ユーザの動作を評価することができる。
 (構成18)
 上記構成13ないし17のいずれかのユーザ動作の評価結果に関するオノマトペ提示方法は、さらに、前記計測装置によって計測されたユーザの動作に起因する事象についての計測結果に基づいて前記ユーザの動作の評価を行う評価工程、を含んでもよい。
 オノマトペ提示方法は動作の評価を実行することができる。
 なお、オノマトペ出力部は、ユーザがユーザの動作をしている間に、報知装置に対してオノマトペを提示させるが、本発明のユーザ動作の評価結果に関するオノマトペ提示装置は、ユーザが動作しているか否かを検出する手段を必ずしも備える必要はない。ユーザがユーザの動作をしているか否かを検出する検出部を備えていても良いし、備えていなくてもよい。例えば、ユーザがある機器を操作することが“ユーザの動作”であれば、検出部として、機器に対する入力操作を検出するセンサや、機器の動きを検出するセンサを用いることができる。例えば、ユーザがある乗り物を操縦することが“ユーザの動作”であれば、検出部として、アクセル、ブレーキあるいはハンドルなどの操作量を検出するセンサを用いることができる。このように、ユーザの動作に起因する機器又は乗り物の状態の変化を示す物理量を検出するセンサを、検出部とすることができる。
 なお、本発明のユーザ動作の評価結果に関するオノマトペ提示装置が、ユーザが動作をしているか否かを検出する検出部を備えている場合、オノマトペ出力部は、検出部がユーザの動作を検出している間にオノマトペを出力するよう制御すればよい。オノマトペ提示装置が検出部を備えていない場合、オノマトペ出力部は、計測情報の入力タイミングから、オノマトペの出力タイミングまでの時間が短くなるように、装置を構成すればよい。例えばCPUとして高い処理能力を備えるものを使用することにより、ユーザが動作をしている間にオノマトペを出力することができる。
 本発明のユーザ動作の評価結果に関するオノマトペ提示装置は、ユーザが動作をしている間にオノマトペをユーザに提示するので、ユーザにリアルタイムでオノマトペを把握させることができる。ここで、リアルタイムとは、ユーザがある動作をしているときに、その動作が終了するまでの間にオノマトペを提示できる程度のタイミングをいい、瞬間的なタイミングに限定されるものではない。
 なお、オノマトペ出力部が、オノマトペを出力するタイミングはユーザが動作をしている間に限られるものではない。オノマトペ出力部は、ユーザが動作している間にオノマトペの出力を開始し、ユーザの動作終了後もオノマトペの出力を継続してもよい。つまり、ユーザの動作中および動作後の双方にまたがってオノマトペを出力してもよい。
 なお、本発明のユーザ動作の評価結果に関するオノマトペ提示装置は、最小構成として、計測結果入力部、オノマトペデータ取得部、および、オノマトペ出力部を備えていればよい。オノマトペ提示装置は、さらに、評価部を備えていても良いし、評価部を外部の装置に設けてもよい。また、オノマトペ提示装置は、計測装置を備えていても良い。
 なお、ユーザの動作に起因する事象とは、ユーザの身体の動き、ユーザの操作に基づく機器の動き、ユーザの操縦に基づく乗り物の挙動、などを含む。また、ユーザの動作に起因する事象には、ユーザのストレス、体温、心拍数などの生体情報も含む
 なお、ユーザの動作の評価としては、様々な基準のもとで閾値との比較の結果が用いられる。基準としては、速さ、正確さ、滑らかさ、などを用いることができる。基準としては単一の基準でだけでなく、複数の基準を用いて、総合評価をすることができる。
 また、本発明は、上記の実施の形態に加えて、技量向上促進装置としての実施の形態を有している。本実施の形態の技量向上促進装置は、トレーニングを行うユーザにトレーニング結果を提示する装置であって、トレーニングを実施したユーザの動作に起因する事象を計測する計測部と、計測部の計測結果に基づき、トレーニングを実施したユーザの動作の評価を行う評価部と、評価部により行われた評価に対応したオノマトペデータを取得するデータ取得部と、データ取得部が取得したオノマトペデータを出力することにより、トレーニングを行ったユーザに、動作の評価を提示する出力部とを備える。
 トレーニングを行うユーザがトレーニングを継続している状態において、トレーニングの評価を提示することが可能である。ユーザは、評価内容をフィードバックさせながら、さらにトレーニングを継続させることが可能である。
 また、本実施の形態の技量向上促進装置において、評価部は、複数の評価項目に対して1つの評価を行い、データ取得部は、複数の評価項目に対して1つのオノマトペデータを取得する。
 また、本実施の形態の技量向上促進装置において、評価部は、1つの評価項目に関して多段階の評価を行い、データ取得部は、1つの評価項目に関する評価を多段階で表したオノマトペデータを取得する。
本実施の形態におけるオノマトペの定義を示す図である。 本実施の形態に係る自動二輪車と各種のセンサを示す図である。 本実施の形態に係るライディング評価装置を示すブロック図である。 ヘルメットに搭載されたスピーカおよびディスプレイを示す図である。 計測情報データベースに保存されているデータ例を示す図である。 オノマトペデータベースに保存されているデータ例を示す図である。 判定基準データベースに保存されているテーブル例を示す図である。 判定基準データベースに保存されているテーブル例を示す図である。 判定基準データベースに保存されているテーブル例を示す図である。 判定基準データベースに保存されているテーブル例を示す図である。 複数の評価項目に関連する評価内容に対して1つのオノマトペを対応付けた例を示す図である。 ライディング評価装置の処理内容を示すフローチャートである。 ライディング評価装置の処理内容を示すフローチャートである。 ライディング評価装置の構成例を示す図である。 ライディング評価装置の構成例を示す図である。
 スポーツ、乗り物の操縦、機器の操作などは、人間の運動、動作によってもたらされる活動である。これらの活動をする上で、動作をした者は、自身の運動、動作の内容に関心を持っている。動作をした者は、自身の動作がどのような結果をもたらすかについて関心を持っている。動作をした者は、自身の運動、動作の結果に関する評価を得ることで、自身の活動内容を把握することができる。
 上記のような運動、動作をする者は、動作に対する評価を確認し、動作の良し悪しを判断する。動作をする者は、動作の評価がよければ、自身の動作に問題がなかったことを確認できる。動作をする者は、動作の評価が悪ければ、動作の修正を行う。このように、運動、動作をする者にとって、動作の評価は関心のある情報である。
 上記のように動作をする者にとって、動作の評価は関心のある情報であるが、同様にトレーニングをする者にとっても、動作の評価は関心のある情報である。トレーニングをする者は、まず、動作を行う。次に、動作に対する評価を確認し、動作の良し悪しを判断する。動作の評価がよければその動作を継続して練習し、動作の評価が悪ければ、動作の修正を行う。このように、トレーニングをする者は動作の評価を何らかの形で得る必要がある。
 ゴルフのトレーニングであれば、スイングのたびに1回、1回、動作が終了する。このため、ゴルフのスイングであれば、動作の後にゆっくり評価を確認できる。例えば、カメラやビデオで撮影したスイングの画像をスイング後にゆっくり確認することができる。そして、スイングの画像を確認した後に、再度、スイングのトレーニングを開始すればよい。
 これに対して長距離走のためのランニングのトレーニングであれば、動作が継続的に行われるため、ランニングを継続しながら、動作の評価を確認することは困難である。動作の評価を確認するたびに走る動作を停止していたのでは、ランニングのトレーニングの本来の目的が達成できない。
 あるいは自動二輪車の操縦に関するトレーニングであれば、走行を継続しながらライディング技量の評価を確認することができれば便利である。加速やコーナーリングが終わった後に、いちいち自動二輪車を停車させてライディング技量の評価を確認するというのは非常に煩雑である。
 また、自動二輪車のライダーに情報を提示する手段は、四輪車に比べると充実していないのが現状である。自動二輪車のライダーはヘルメットを装着するという事情もある。たとえ自動二輪車のハンドル付近にモニタを搭載したとしても、ライダーがヘルメットを被ったままモニタを参照するのは困難である。
 自動二輪車のライダーは四輪車のドライバーに比べて、運転に関わる操作の種類が多く、また、操作を行う頻度が高い。さらには、自動二輪車のライダーは、同時に行われなければならない操作も多い。したがって、たとえ自動二輪車にモニタを搭載したとしても、映像によってライダーに情報を通知することは困難である。
 ユーザが、時間的、作業的に余裕にある環境では、文章やデータを提示することでユーザにトレーニング結果を提示することができる。しかし、ユーザが、時間的、作業的に余裕のない環境で、同じ情報量を提示することは困難であった。本願発明者は、トレーニングに関わる動作を継続しながら、評価結果を確認することができる手段として、ユーザに対する情報の提供にオノマトペを利用することを思いついた。
 オノマトペを情報の提供に利用すると次のような有利な点がある。第1には、複数の評価項目に関連する評価内容を1つのオノマトペで表現することができる。第2には、単一の評価項目に関する多段階の評価値をオノマトペで表現することができる。
 本願発明者は、複数の評価項目から把握される動作状態、あるいは、単一の評価項目について多段階に評価される動作状態を利用者に提供するトレーニングシステムにオノマトペの利用が効果的であることを思いついた。そこで、オノマトペを利用したトレーニングシステムを利用することにより、利用者に短い言葉で簡潔に評価を与えることが可能となることを思いついた。
 また、運動、動作をする者が、時間的、作業的に余裕にある環境では、文章やデータを提示することで動作をする者に動作結果を提示することができる。しかし、動作をする者が、時間的、作業的に余裕のない環境で、同じ情報量を提示することは困難であった。本願発明者は、各種の動作を継続しながら、評価結果を確認することができる手段として、動作をする者に対する情報の提供にオノマトペを利用することを思いついた。
 本願発明者は、複数の評価項目から把握される動作状態、あるいは、単一の評価項目について多段階に評価される動作状態を動作をする者に提供するシステムにオノマトペの利用が効果的であることを思いついた。そこで、オノマトペを利用したシステムを利用することにより、動作をする者に短い言葉で簡潔に評価を与えることが可能となることを思いついた。
 以下、本発明のユーザ動作の評価結果に関するオノマトペ提示装置の一つの実施の形態としてライディング評価装置を例に説明する。
 以下の実施の形態における「計測情報入力部」は、本発明の「計測結果入力部」に対応している。実施の形態における「オノマトペ取得部」は、本発明の「オノマトペデータ取得部」に対応している。実施の形態における「出力部」は、本発明の「オノマトペ出力部」に対応している。実施の形態における「スピーカ」、「ディスプレイ」は、本発明の「報知装置」の一例である。
 以下、本発明のユーザ動作の評価結果に関するオノマトペ提示装置の実施の形態について、自動二輪車に搭載されたライディング評価装置を例に説明する。
 {1.ライディング評価装置の概要}
 本実施の形態のライディング評価装置は、自動二輪車に搭載される。自動二輪車のライダーは、発進、加速、減速、あるいは旋回などを行うための動作を行い、自動二輪車を操縦する。ライディング評価装置は、ライダーによる各種の動作に対する評価を行い、評価内容に対応するオノマトペを取得する。自動二輪車は、ライディング評価装置によって取得されたオノマトペを、自動二輪車を操縦しているライダーの操縦に対するライディング評価としてライダーに提供する。ライダーは、自動二輪車を操縦し、走行を継続しながら、オノマトペで表現されたライダーの操縦に対するライディング評価に関する情報を取得する。
 {2.オノマトペ}
 本明細書で使用する言葉の定義について図1を用いて説明する。擬声語(あるいは擬音語)とは、動物の鳴き声や物体の音響を表現した語である。擬声語の例としては、「わんわん」(日本語音声では“wan-wan”、英語音声では“bow-wow”:犬の鳴き声を表す擬声語)、「ガチャン」(日本語音声では“gacyan”、英語音声では“clash”:陶器などが割れる音を表す擬声語)、「ガタガタ」(日本語音声では“gata-gata”、英語音声では“bonk”:机の脚の長さが均一でないときに机が揺れる音を表す擬声語)などがある。
 擬態語とは、事物の状態や人の動作などの様子をそれらしい音声にたとえて表現した語である。擬態語の例としては、「つるつる」(日本語音声では“tsuru-tsuru”:表面が滑らかな状態を表す擬態語)、「ぷよぷよ」(日本語音声では“puyo-puyo”:やわらかい弾力性のある状態を表す擬態語)、「よちよち」(日本語音声では“yochi-yochi”:赤ちゃんが手足をついて少しずつ前へ進む状態を表す擬態語)などがある。
 別の擬態語の例としては、「そろそろ」(日本語音声では“soro-soro”、英語音声では“slo-slo-slo”:速度、動作が遅い状態を表す擬態語)、「ビューン」(日本語音声では“viewn”、英語音声では“zooooom”:速度、動作が早い状態を表す擬態語)、「キュイーン」(日本語音声では“cueeen”、英語音声では“zoooooooom”:素早く進む様子を表すとともに爽快感を表す擬態語)、「ふらふら」(日本語音声では“fla-fla”、英語音声では“diz-diz-diz”:揺れながら動く様子を表す擬態語)などがある。オノマトペとは、擬声語および擬態語を総称する語である。
 日本語は特にオノマトペを頻繁に利用する言語であるが、英語においてもオノマトペは使用されている。たとえば、日本語の「だぶだぶ」(日本語音声では“doub-doub”:服などのサイズが大きすぎる様子を表す擬態語)に対しては、「baggy」、「ビーッ」(日本語音声では“beee!”:ブザーなどの鳴動音を表す擬声語)に対しては「beep」などのオノマトペが利用されている。また、跳んだり跳ねたりする様子を表すオノマトペとして「boink!!」、「boing!!」、「whoosh!!」などが用いられる。
 {3.自動二輪車の全体構成}
 本実施の形態に係る自動二輪車1の構成について図2を参照しながら説明する。本実施の形態においては、自動二輪車1は、図2に示すように、ネイキッドタイプの自動二輪車である。ただし、本実施の形態に係るライディング評価装置は、レーサータイプ、アメリカンタイプなどあらゆる種類の自動二輪車に適用可能である。あるいは、本実施の形態に係るライディング評価装置は、スクーターに適用することも可能である。
 以下の説明において、自動二輪車1の左右、前後方向とは、自動二輪車1のシート81に着座したライダーから見た左右、前後方向を言うものとする。図2において、矢視Fは、自動二輪車1の前方向を、矢視Rは、自動二輪車1の後方向を、矢視Uは、自動二輪車1の上方向を、矢視Dは、自動二輪車1の下方向を示す。
 自動二輪車1は、車体フレーム6を備える。車体フレーム6は、ヘッドパイプ61を備える。ヘッドパイプ61は、車体の前部に配置されている。ヘッドパイプ61には、ステアリングシャフト70が左右方向に回転可能に挿入されている。ステアリングシャフト70の上部には、ハンドル71が固定されている。ハンドル71は、ステアリングシャフト70と一体的に左右方向に回転可能である。
 ステアリングシャフト70にはブラケットを介してフロントフォーク72が固定されている。フロントフォーク72の下端には、前輪73が回転可能に取り付けられている。ライダーがハンドル71を左右方向に操縦することにより、前輪73が左右方向に回転可能である。フロントフォーク72には、フロントサスペンション74が設けられている。
 車体の前後方向で中間よりやや後方部分にはシート81が設けられている。シート81は、車体フレーム6により支持されている。シート81の前方には燃料タンク82が設けられている。燃料タンク82は、車体フレーム6により支持されている。
 燃料タンク82の下方にはエンジン83が設けられている。エンジン83は、車体フレーム6により支持されている。エンジン83より後方において、リヤアーム75が設けられている。リヤアーム75は、車体フレーム6に設けられたピポット軸において、上下方向に揺動可能に支持されている。リヤアーム75の後部には、後輪76が回転可能に設けられている。後輪76と車体フレーム6との間にはリヤサスペンション77が設けられている。
 エンジン83の後方にはミッション装置84が設けられている。ミッション装置84は、車体フレーム6により支持されている。エンジン83の出力はミッション装置84、チェーンを介して後輪76に伝達される。
 {4.自動二輪車に搭載されたセンサ}
 本実施の形態の自動二輪車1は、図2に示すように、多数のセンサ101~120を搭載している。画像センサ101は、車体の前部に設けられている。画像センサ101は、車両の前方を撮像可能なセンサであり、たとえば、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサなどを用いることができる。音声センサ102は、ハンドル71の近傍に設けられ、周辺環境の音声あるいはライダーの音声を集音するマイクである。画像センサ101および音声センサ102は、別の場所に取り付けられてもよい。
 クラッチ操作センサ103は、ハンドル71の近傍に設けられ、ライダーによって操作されたクラッチレバー(図示省略)の変位量を計測する。クラッチ操作センサ103としては、ポテンショメータやリニアエンコーダなどを用いることができる。ステアリング角度センサ104は、ステアリングシャフト70の近傍に設けられ、ステアリングシャフト70の回転角度を計測する。ステアリング角度センサ104としては、たとえばポテンショメータを用いることができる。
 フロントサスペンションストロークセンサ105は、フロントサスペンション74の近傍に設けられ、フロントサスペンション74のストローク量を計測する。フロントサスペンションストロークセンサ105としては、リニアエンコーダなどを用いることができる。前輪速度センサ106は、前輪73の近傍に設けられ、前輪73の回転速度を計測する。前輪速度センサ106としては、ロータリーエンコーダなどを用いることができる。前輪ブレーキ圧センサ107は、前輪73に設けられたブレーキ(図示省略)の近傍に設けられ、前輪ブレーキのブレーキ圧を計測する。前輪ブレーキ圧センサ107としては、油圧センサなどが用いられる。
 エンジン回転数センサ108は、エンジン83内に設けられ、エンジン83の回転数を計測する。エンジン回転数センサ108は、クランク軸(図示省略)などのエンジン83内に設けられた軸の近傍に配置され、ロータリーエンコーダなどが用いられる。ギアポジションセンサ109は、ミッション装置84内に設けられ、変速ギアの位置を検出する。ギアポジションセンサ109としては、リニアエンコーダなどが用いられる。スロットル開度センサ110は、エンジン83に接続された吸気パイプの近傍に設けられる。スロットル開度センサ110としては、ポテンショメータなどが用いられる。
 3軸加速度センサ111は、シート81の下方に取り付けられ、車体の3軸方向(上下方向、前後方向、左右方向)の加速度を計測する。3軸加速度センサ111としては、ピエゾ抵抗型3軸加速度センサなどを用いることができる。3軸角速度センサ112は、シート81の下方に取り付けられ、車体の3軸周り(上下方向周り、前後方向周り、左右方向周り)の角速度を計測する。3軸角速度センサ112としては、ジャイロセンサなどが用いられる。
 方位センサ113は、シート81の下方に取り付けられ、方位を計測する。方位センサ113としては、磁気センサなどを用いることができる。位置情報センサ114は、シート81の下方に設けられ、自動二輪車1の位置情報を取得する。位置情報センサ114としては、GPS(Grobal Positioning Sysytem)受信装置を用いることができる。
 リヤサスペンションストロークセンサ115は、リヤサスペンション77の近傍に設けられ、リヤサスペンション77のストローク量を計測する。リヤサスペンションストロークセンサ115としては、リニアエンコーダなどを用いることができる。後輪速度センサ116は、後輪76の近傍に設けられ、後輪76の回転速度を計測する。後輪速度センサ116としては、ロータリーエンコーダなどを用いることができる。後輪ブレーキ圧センサ117は、後輪76に設けられたブレーキ(図示省略)の近傍に設けられ、後輪ブレーキのブレーキ圧を計測する。後輪ブレーキ圧センサ117としては、油圧センサなどが用いられる。
 温度センサ118は、シート81の下方に設けられ、外気温を計測する。FM受信部119は、FM(Frequency Modulation)多重放送を受信し、天気予報、交通情報などの文字情報を取得する。フロントライトスイッチセンサ120は、ハンドル71の近傍に設けられ、フロントライトのON/OFF切り替え操作を計測する。
 {5.ライディング評価装置の構成}
 次に、自動二輪車1に搭載されるライディング評価装置10の構成について、図3を参照しながら説明する。本実施の形態のライディング評価装置10は、計測部100、ライディング評価モジュール10P、および出力部500を備えている。ライディング評価モジュール10Pは、認識部200、オノマトペ取得部300およびオノマトペデータベース450を備えている。
 計測部100は、上述したセンサ101~120を備えている。本実施の形態においては、計測部100は、20種類のセンサ101~120を備えているが、これは一例であり、これらの一部のセンサを備える構成でもよい。あるいは、他のセンサをさらに備える構成であってもよい。例えば、赤外線センサやステレオカメラを備えていてもよい。あるいは、ライダーの生体情報を計測するセンサ(血流センサや発汗センサ)を備えていてもよい。計測部100は、ライダーの動作に起因する事象を計測する。
 認識部200は、計測部100において計測された情報をもとに、ライダーのライディング評価を行う処理部である。認識部200は、計測情報入力部201、評価部202、計測情報データベース250および判定基準データベース251を備えている。
 計測情報入力部201は、計測部100において計測された情報を入力する。つまり、各種センサ101~120が計測した情報を入力する。計測情報入力部201は、入力した計測情報を、計測情報データベース250に格納する。計測情報データベース250の内容については後で詳しく説明する。評価部202は、計測情報データベース250に格納された計測情報および判定基準データベース251に格納された判定基準テーブルに基づいて、ライダーのライディング評価を行う。評価部202は、ライダーのライディング評価を表すオノマトペを決定する。評価部202による評価方法の内容は後で詳しく説明する。
 オノマトペ取得部300は、オノマトペデータベース450にアクセスし、評価部202において決定されたオノマトペに対応するデータを取得する。オノマトペ取得部300は、取得したオノマトペデータを、出力部500に出力する。出力部500は、オノマトペデータを出力し、ライディング評価をライダーに通知する。
 出力部500は、スピーカ501およびディスプレイ502を備えている。オノマトペデータとして音声データが利用される場合には、出力部500としてスピーカ501が利用される。オノマトペデータとしてテキストデータあるいは画像データが利用される場合には、出力部500としてディスプレイ502が利用される。テキストデータにおいて、オノマトペは文字情報として記録されており、画像データにおいては、オノマトペが画像情報として記録されている。
 本実施の形態の「ライディング評価モジュール10P」は、本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」の機能を含んでいる。本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」が備える「計測結果入力部」は、「ライディング評価モジュール10P」が備える「計測情報入力部201」に対応している。本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」が備える「オノマトペデータ取得部」は、「ライディング評価モジュール10P」が備える「オノマトペ取得部300」に対応している。本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」が備える「オノマトペ出力部」は、「ライディング評価モジュール10P」が備える「オノマトペ取得部300」に含まれている。本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」が備える「報知装置」は、「出力部500」に対応している。
 本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」は、計測情報データベース250を含んでいてもよいし、計測情報データベース250を装置外部で保持してもよい。本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」は、評価部202を含んでいてもよいし、装置外部にある評価部を利用してもよい。例えば、評価部がネットワークを介して接続されたサーバに置かれていてもよい。本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」は、オノマトペデータベース450を含んでいてもよいし、オノマトペデータベース450を装置外部で保持してもよい。
 図4は、ライダーが自動二輪車1に乗車するときに装着するヘルメット85を示す図である。ヘルメット85には、左右のスピーカ501、501が設けられている。ライダーは、ヘルメット85を装着して自動二輪車1を操縦している状態で、スピーカ501、501から出力されるオノマトペを音声で確認することが可能である。
 ヘルメット85のシールドの一部は、ディスプレイ502として利用される。ヘルメット85に設けられたAR(Augmented Reality)投影機5021から出力された映像が、ディスプレイ502に表示される。ライダーは、ヘルメット85を装着して自動二輪車1を操縦している状態で、ディスプレイ502に出力されるオノマトペを映像として確認することが可能である。
 本実施の形態においては、オノマトペを出力するスピーカを、ライダーが装着するヘルメットに設けたが、スピーカは別の場所に設けてもよい。たとえば、スピーカをフロントカウルやハンドル近傍に設けてもよい。
 本実施の形態においては、オノマトペを表示するディスプレイとして、ライダーが装着するヘルメットのシールドを利用したが、ディスプレイはこれに限られるものではない。ただし、ライダーがオノマトペを把握し易いようにするために、ライダーの視線の先に配置される透明あるいは半透明の部材にディスプレイを配置することが望ましい。
 図3に戻る。本実施の形態において、計測情報入力部201、評価部202、オノマトペ取得部300は、CPU(Central Processing Unit)、メモリおよびメモリをワークエリアとして利用しながらCPU上で動作するソフトウェアにより実現されている。また、本実施の形態においては、計測情報入力部201、評価部202、オノマトペ取得部300を実現するCPU、ワークメモリ、ROMなどの部品と、計測情報データベース250、判定基準データベース251およびオノマトペデータベース450を格納するメモリなどの部品が、ライディング評価モジュール10Pとして、1枚あるいは複数の基板上に配置されている。図2に示すように、本実施の形態においては、ライディング評価モジュール10Pは、シート81の下方に配置されている。
 あるいは、計測情報入力部201、評価部202、オノマトペ取得部300の一部あるいは全部がハードウェアにより構成されていてもよい。この場合にも、計測情報入力部201、評価部202、オノマトペ取得部300を実現するハードウェアなどの部品と、計測情報データベース250、判定基準データベース251およびオノマトペデータベース450を格納するメモリなどの部品が、ライディング評価モジュール10Pとして、1枚あるいは複数の基板上に配置されている。
 {6.計測情報データベース}
 図5を参照しながら計測情報データベース250について説明する。計測情報入力部201は、計測部100から入力した計測情報、つまり、各種センサ101~120より入力した計測情報を計測情報データベース250に格納する。計測情報データベース250に格納されるデータは、図5に示すように、時刻情報をキー情報としたレコードして記録されている。つまり、各時刻において取得された計測情報が、時刻情報と関連付けられて計測情報データベース250に格納されている。時刻情報は、ライディング評価モジュール10Pに設けられたタイマー(図示省略)より取得される。
 緯度情報および経度情報は、位置情報センサ114によって取得された計測情報である。気温情報は、温度センサ118によって取得された計測情報である。天候情報は、FM受信部119によって受信された文字情報から取得される。スロットル開度情報は、スロットル開度センサ110によって取得された計測情報である。ブレーキ圧センサ情報は、前輪ブレーキ圧センサ107によって取得された計測情報である。ステアリング角度情報は、ステアリング角度センサ104によって取得された計測情報である。ライト情報は、フロントライトスイッチセンサ120によって取得された計測情報である。エンジン回転数情報は、エンジン回転数センサ108によって取得された計測情報である。図5においては、センサ101~120のうち一部のセンサにより計測された情報を示しているが、各センサ101~120において取得された計測情報が、時刻情報と関連付けられて計測情報データベース250に格納されている。図5において、計測情報としてNaN(Not a Number)が入力されている箇所があるが、これは、センサから計測情報が取得できなかった場合を示している。
 {7.オノマトペデータベース}
 図6を参照しながらオノマトペデータベース450について説明する。オノマトペデータベース450は、オノマトペを記録したテキストデータ、画像データあるいは音声データなどを格納している。テキストデータには、オノマトペを表す文字列が文字コードとして記録されている。画像データには、オノマトペを表す文字列が画像情報として記録されている。画像データのフォーマットとしては、JPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)などが利用できるが、特に限定されるものではなく、各種のフォーマットが利用可能である。画像データとして、MPEGなどの動画データを用いることもできる。音声データには、オノマトペを表す文字列が音声情報として記録されている。音声データのフォーマットとしては、MP3(MPEG-1 Audio Layer-3)、AAC(Advanced Audio Coding)などが利用できるが、特に限定されるものではなく、各種のフォーマットが利用可能である。
 たとえば、あるオノマトペについて、テキストデータあるいは画像データが保存されていれば、オノマトペ取得部300は、ディスプレイ502に対してオノマトペを出力することができる。また、あるオノマトペについて、音声データが保存されていれば、オノマトペ取得部300は、スピーカ501に対してオノマトペを出力することができる。
 図6で示した例であれば、「ぐーん」(日本語音声で“goone”という擬態語)というオノマトペに関しては、「ぐーん」という文字列が記録されたテキストデータ(goone.txt)がオノマトペデータベース450に格納されている。また、「ぐーん」という文字列を画像として記録した画像データ(goone.jpeg)、「ぐーん」という音声を記録した音声データ(goone.mp3)がオノマトペデータベース450に格納されている。
 {8.ライディング評価方法}
 次に、ライディング評価の処理方法について説明する。上述したように、計測情報入力部201により、計測部100において計測された計測情報が、計測情報データベース250に格納される。評価部202は、計測情報データベース250および判定基準データベース251を参照し、ライディング評価を行う。評価部202は、ライディング評価に対応するオノマトペを決定する。
 評価部202は、あるライディング評価項目については、計測情報データベース250に格納された単一の計測情報に基づいてライディング評価を行う。たとえば、評価部202は、スロットル開度センサ110により計測されたスロットル開度に関する情報に基づいて、ライダーの加速操作に関するライディング評価を行う。
 評価部202は、別のライディング評価項目については、計測情報データベース250に格納されている複数の計測情報に基づいてライダーの操縦に対するライディング評価を行う。たとえば、評価部202は、後輪速度センサ116により計測された車両速度に関する情報と、3軸角速度センサ112により計測された自動二輪車1の3軸周りの角速度に関する情報とに基づいて、ライダーの操縦に対するライディング評価を行う。車両速度に関する情報は、ライダーのライディング技量の中の安定性に関するライディング技量を示すライディング技量の安定性を評価するために利用できる情報である。3軸周りの角速度は、ライダーのライディング技量の中の旋回性に関するライディング技量を示すライディング技量の旋回性を評価するために利用できる情報である。評価部202は、ライダーの操縦に関するライディング技量の安定性とライダーの操縦に関するライディング技量の旋回性との2つのライディング評価項目に対して1つのライディング評価を行う。
 評価部202は、またある別のライディング評価項目については、計測情報データベース250に格納された単一の計測情報に基づいて算出された演算値(計測情報そのままの値ではなく、計測情報を加工した情報)によりライダーの操縦に対するライディング評価を行う。たとえば、評価部202は、前輪速度センサ106により計測された速度情報に基づいて算出された加速度情報に基づいて、ライダーの操縦に対するライディング技量評価を行う。
 評価部202は、またある別のライディング評価項目については、計測情報データベース250に格納された複数の計測情報に基づいて算出された演算値(計測情報そのままの値ではなく、計測情報を加工した情報)によりライダーの操縦に対するライディング評価を行う。たとえば、評価部202は、フロントサスペンションストロークセンサ105により計測されたフロントサスペンション74のストローク量に基づいて算出された減衰力に関する情報と、前輪ブレーキ圧センサ107により計測された前輪ブレーキ圧に基づいて算出されたブレーキ制動力に関する情報に基づいてライダーの操縦に対するライディング評価を行う。減衰力に関する情報は、ライダーの操縦に関する快適性を評価するために利用できる情報である。ブレーキ制動力に関する情報は、制動技量を評価するために利用できる情報である。評価部202は、ライダーの操縦に関する快適性と制動技量との2つのライディング評価項目に対して1つのライディング評価を行う。
 図7は、評価部202が参照する、判定基準データベース251に格納された判定基準テーブルT1を示す図である。判定基準テーブルT1を参照することにより、評価部202は、あるライディング評価項目(ここではライディング評価項目Aとする。)について単一の計測情報に基づいてライディング評価を行う。基準テーブルT1では、ある計測情報(計測値)saについて、sa<3の条件を満たす場合、ライディング評価項目Aについてのライディング評価を表すオノマトペX1が対応づけられている。基準テーブルT1では、ある計測情報(計測値)saについて、sa≧3の条件を満たす場合、ライディング評価項目Aについてのライディング評価を表すオノマトペX2が対応づけられている。
 上述した例のように、評価部202は、スロットル開度に関する情報に基づいて、加速操作に関するライディング評価を行う。この場合であれば、ライディング評価項目Aは、加速操作に関する評価項目、つまりライディング技量の安定性に関する評価項目である。オノマトペX1として、「すー」(日本語音声で“Sue”という擬態語:加速度が小さいことを示す)が対応付けられ、オノマトペX2として、「ぐーん」(日本語音声で“goone”という擬態語:加速度が大きいことを示す)が対応付けられる。このように、オノマトペX1およびオノマトペX2により、ライディング技量の安定性という1つのライディング評価項目について、多段階の評価を表現することができる。
 図8は、評価部202が参照する、判定基準データベース251に格納された判定基準テーブルT2を示す図である。判定基準テーブルT2を参照することにより、評価部202は、複数のライディング評価項目(ここではライディング評価項目Bおよびライディング評価項目Cとする。)について、複数の計測情報に基づくライディング評価を行う。基準テーブルT2では、ある計測情報(計測値)sbおよび計測情報(計測値)scについて、sb<2かつsc≧12の条件を満たす場合、2つのライディング評価項目(ライディング評価項目Bおよびライディング評価項目C)について1つのライディング評価を表すオノマトペX3が対応づけられている。基準テーブルT2では、ある計測情報(計測値)sbおよび計測情報(計測値)scについて、sb<2かつsc<12の条件を満たす場合、2つのライディング評価項目(ライディング評価項目Bおよびライディング評価項目C)について1つのライディング評価を表すオノマトペX4が対応づけられている。基準テーブルT2では、ある計測情報(計測値)sbおよび計測情報(計測値)scについて、sb≧2かつsc≧12の条件を満たす場合、同様に、2つのライディング評価項目についてのライディング評価を表すオノマトペX5が対応づけられている。基準テーブルT2では、ある計測情報(計測値)sbおよび計測情報(計測値)scについて、sb≧2かつsc<12の条件を満たす場合、同様に、2つのライディング評価項目についてのライディング評価を表すオノマトペX6が対応づけられている。
 上述した例のように、評価部202は、車両速度に関する情報と、3軸角速度センサ112により計測された自動二輪車1の3軸周りの角速度に関する情報とに基づいて、ライディング評価を行う。この場合であれば、ライディング評価項目Bは、ライディング技量の安定性に関する評価項目であり、車両速度に関する情報が利用される。ライディング評価項目Cは、ライディング技量の旋回性に関する評価項目であり、3軸周りの角速度が利用される。図11に示すように、オノマトペX3として「ふらふら」(日本語音声では“fla-fla”:ライディング技量の安定性が低く、ライディング技量の旋回性も低いことを示す)が対応付けられる。オノマトペX4として「ドタドターン」(日本語音声では“dota-doturn”:ライディング技量の安定性が低く、ライディング技量の旋回性が高いことを示す)が対応付けられる。オノマトペX5として「そろー」(日本語音声では“sorow”:ライディング技量の安定性が高く、ライディング技量の旋回性が低いことを示す)が対応付けられる。オノマトペX6として「キュイーン」(日本語音声では“cueeen”ライディング技量の安定性が高く、ライディング技量の旋回性も高いことを示す)が対応付けられる。このように、評価部202は、ライディング技量の安定性とライディング技量の旋回性との2つのライディング評価項目に対して1つのライディング評価を行い、1つのオノマトペを対応づける。
 図9は、評価部202が参照する、判定基準データベース251に格納された判定基準テーブルT3を示す図である。判定基準テーブルT3を参照することにより、評価部202は、あるライディング評価項目(ここではライディング評価項目Dとする。)について単一の計測情報に基づいて算出された演算値によりライディング評価を行う。基準テーブルT3では、ある計測情報sdに基づいて算出された演算値f(sd)について、f(sd)<8の条件を満たす場合、ライディング評価項目Dについてのライディング評価を表すオノマトペX7が対応づけられている。判定基準テーブルT3では、ある計測情報sdに基づいて算出された演算値f(sd)について、f(sd)≧8の条件を満たす場合、ライディング評価項目Dについてのライディング評価を表すオノマトペX8が対応づけられている。
 図10は、評価部202が参照する、判定基準データベース251に格納された判定基準テーブルT4を示す図である。判定基準テーブルT4を参照することにより、評価部202は、複数のライディング評価項目(ここではライディング評価項目E、FおよびGとする。)について、複数の計測情報に基づいて算出された複数の演算値に基づいて1つのライディング評価を行う。判定基準テーブルT4では、ある計測情報(計測値)se、計測情報(計測値)sfおよび計測情報(計測値)sgに基づいて算出された演算値f(se)、f(sf)およびf(sg)について、f(se)<5かつf(sf)<30かつf(sg)≧15の条件を満たす場合、3つのライディング評価項目E、FおよびGについての1つのライディング評価を表すオノマトペX9が対応づけられている。判定基準テーブルT4では、計測情報に基づいて算出された演算値f(se)、f(sf)およびf(sg)について、f(se)<5かつf(sf)<30かつf(sg)<15の条件を満たす場合、3つのライディング評価項目E、FおよびGについての1つのライディング評価を表すオノマトペX10が対応づけられている。判定基準テーブルT4では、計測情報に基づいて算出された演算値f(se)、f(sf)およびf(sg)について、f(se)<5かつf(sf)≧30かつf(sg)≧15の条件を満たす場合、3つのライディング評価項目E、FおよびGについての1つのライディング評価を表すオノマトペX11が対応づけられている。同様に、判定基準テーブルT4においては、演算値f(se)、f(sf)およびf(sg)について、その他の値の範囲に対してもオノマトペが対応づけられている。
 以上説明したように、評価部202は、計測情報データベース250および判定基準データベース251を参照し、単一あるいは複数の計測情報、または、単一あるいは複数の計測情報に基づいて算出された演算値により、ライディング評価を行うとともに、ライディング評価の内容を表すオノマトペを特定する。
 {9.ライディング評価装置の処理の流れ}
 次に、図12~図13のフローチャートを参照しながら、本実施の形態に係るライディング評価装置の処理の流れについて説明する。
 図12を参照する。ステップS1において、計測情報入力部201が、計測部100から各種の計測情報を入力する。計測情報入力部201は、センサ101~120が計測した計測情報を入力する。
 次に、ステップS2において、計測情報入力部201は、入力した計測情報を計測情報データベース250に格納する。ステップS1において、あるセンサについての計測情報が取得できなかった場合には、そのセンサの計測情報についてはNaN(Not a Number)を入力する。
 次に、ステップS3において、評価部202は、ライディング技量の判定が可能か否かを判断する。ライディング技量判定の可否の判断は、10秒間隔など所定の時間間隔で行われる。評価部202は、タイマ(図示省略)により時間を計測し、ライディング技量判定を行うタイミングが到来したか否かを判定する。ライディング技量の判定が可能であるとは、上述したライディング評価項目のうち、ライディング技量に関連する項目について計測情報が揃っており、ライディング技量判定を行う準備が出来ている状態を言う。
 ライディング技量判定が可能でない場合(ステップS3でNO)、ステップS5に遷移する。ライディング技量判定が可能である場合(ステップS3でYES)、ステップS4に遷移する。ステップS4において、評価部202は、ライディング技量に関わるライディング評価項目について、得点(計測情報あるいは計測情報に基づいて算出された演算値)を算出する。
 次に、ステップS5において、評価部202は、ライダーのライディングの安定性を示すライディング安定性の判定が可能か否かを判断する。ライディング安定性判定の可否の判断は、10秒間隔など所定の時間間隔で行われる。ライディング安定性の判定が可能であるとは、上述したライディング評価項目のうち、ライディング安定性に関連する項目について計測情報が揃っており、ライディング安定性の判定を行う準備が出来ている状態を言う。
 ライディング安定性判定が可能でない場合(ステップS5でNO)、ステップS7に遷移する。ライディング安定性判定が可能である場合(ステップS5でYES)、ステップS6に遷移する。ステップS6において、評価部202は、ライディング安定性に関わるライディング評価項目について、得点(計測情報あるいは計測情報に基づいて算出された演算値)を算出する。
 次に、ステップS7において、評価部202は、快適性の判定が可能か否かを判断する。快適性判定の可否の判断は、10秒間隔など所定の時間間隔で行われる。快適性の判定が可能であるとは、上述したライディング評価項目のうち、快適性に関連する項目について計測情報が揃っており、快適性の判定を行う準備が出来ている状態を言う。
 快適性判定が可能でない場合(ステップS7でNO)、ステップS9に遷移する。快適性判定が可能である場合(ステップS7でYES)、ステップS8に遷移する。ステップS8において、評価部202は、快適性に関わるライディング評価項目について、得点(計測情報あるいは計測情報に基づいて算出された演算値)を算出する。
 図13を参照する。次に、ステップS9において、評価部202は、環境情報の判定が可能か否かを判断する。環境情報判定の可否の判断は、10秒間隔など所定の時間間隔で行われる。環境の判定が可能であるとは、環境に関連する項目について計測情報が揃っており、環境判定を行う準備が出来ている状態を言う。環境に関連する項目は、外部環境を評価した項目であり、本実施の形態におけるライディング評価とは異なる観点の評価である。
 環境情報判定が可能でない場合(ステップS9でNO)、ステップS11に遷移する。環境情報判定が可能である場合(ステップS9でYES)、ステップS10に遷移する。ステップS10において、評価部202は、環境に関わる評価を行い、得点(計測情報あるいは計測情報に基づいて算出された演算値)を算出する。
 次に、ステップS11において、オノマトペ取得部300は、オノマトペ決定タイミングが到来したか否かの判定を行う。オノマトペ取得部300は、ステップS4、S6、S8およびS10のいずれかにおいて得点(計測情報あるいは計測情報に基づいて算出された演算値)が算出されているとき、オノマトペ決定タイミングが到来したと判定する。つまり、ライディング技量判定、ライディング安定性判定、快適性判定および環境判定のいずれかについて、計測情報が揃っており、得点が算出されている場合、オノマトペの決定タイミングが到来したと判定する。
 オノマトペ決定タイミングが到来していない場合(ステップS11でNO)、ステップS1に戻り、計測情報の入力を引き続き実行する。計測情報データベース250には、時刻情報に関連付けられた計測情報が蓄積されていく。
 オノマトペ決定タイミングが到来している場合(ステップS11でYES)、評価部202は、ステップS4、S6、S8およびS10において算出された得点(計測情報あるいは計測情報に基づいて算出された演算値)に基づいてオノマトペを決定する(ステップS12)。たとえば、図7~図10を参照して説明したような処理を実行することにより、オノマトペを決定する。
 次に、オノマトペ取得部300は、オノマトペデータベース450にアクセスし、ステップS12において決定されたオノマトペを表すオノマトペデータを取得する(ステップS13)。オノマトペ取得部300は、取得したオノマトペデータを出力部500に対して出力する(ステップS14)。これにより、取得されたオノマトペが、たとえばスピーカ501から出力される。あるいは、取得されたオノマトペがディスプレイ502から出力される。
 本実施の形態においては、計測情報入力部201、評価部202、オノマトペ取得部300を実現するCPU、ワークメモリ、ROMなどの部品と、計測情報データベース250、判定基準データベース251およびオノマトペデータベース450を格納するメモリなどの部品が、ライディング評価モジュール10Pとして、1枚あるいは複数の基板上に配置されている場合を例に説明した。そして、図2に示すように、本実施の形態においては、ライディング評価モジュール10Pは、シート81の下方に配置されている。このように、本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」が車両の部品として自動二輪車1に搭載されている。
 これ以外の実施の形態として、例えば、本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」である「ライディング評価モジュール10P」として、スマートフォンなどの携帯情報端末を利用してもよい。つまり、ライダーが所持しているスマートフォンを自動二輪車1に装着することで、「ライディング評価モジュール」として利用することができる。
 ライダーは、ネットワーク上のサーバから、「ライディング評価モジュール用ソフトウェア」をスマートフォンにダウンロードし、インストールすることで、スマートフォンを「ライディング評価モジュール」として利用することができる。このように、コンピュータを、ユーザ動作の評価結果に関するオノマトペ提示装置として動作させるためのプログラムも、本発明の実施形態に含まれる。また、そのようなプログラムを記録したコンピュータ読み取り可能な非一時的(non-transitory)な記録媒体も、本発明の実施形態に含まれる。
 上記実施の形態で説明したセンサ101~120は、本発明で利用可能な「計測装置」である。本発明で利用可能な「計測装置」は、センサ101~120のように、自動二輪車1に搭載されていてもよいし、自動二輪車1に搭載されていなくてもよい。例えば、「計測装置」は、スマートウォッチが搭載している各種センサを利用することができる。例えば、スマートウォッチが備える加速度センサ、画像センサ、生体情報センサ、GPS受信装置、温度センサなどを利用することが可能である。このように、計測装置は、ライダー(ユーザ)の動作によって変化する物理量を検出するセンサとすることができる。
 図14は、実施の形態の計測装置100、ライディング評価モジュール10Pおよび出力部500の構成例を示す図である。図14は、「計測装置」としてスマートウォッチ10Wを用い、「ライディング評価モジュール」および「出力部」としてスマートフォン10Fを用いた図である。ライダーは、スマートウォッチ10Wを腕に装着することにより、スマートウォッチ10Wを計測装置100Aとして利用する。ライダーは、「ライディング評価モジュール用ソフトウェア」をインストールしたスマートフォン10Fを車両に装着することで、スマートフォン10Fをライディング評価モジュール10PAとして利用する。また、ライダーはスマートフォン10Fが備えるスピーカあるいはディスプレイを出力部500Aとして利用する。
 スマートフォン10Fは、Bluetooth等の通信手段を利用して、計測装置100Aとして機能するスマートウォッチ10Wから各種計測情報を入力する。ライディング評価モジュール10PAとして機能するスマートフォン10Fは、計測情報に基づいてオノマトペデータを取得する。スマートフォン10Fは、取得したオノマトペを音声としてスマートフォン10Fが備えるスピーカから出力する。あるいは、スマートフォン10Fは、オノマトペを画像としてスマートフォン10Fが備えるディスプレイに出力する。
 スマートウォッチ10Wを「出力部」として利用してもよい。スマートフォン10Fは取得したオノマトペデータをBluetooth等の通信手段を用いてスマートウォッチ10Wに送信する。スマートウォッチ10Wは、受信したオノマトペデータを音声としてスマートウォッチ10Wが備えるスピーカから、あるいは、スマートウォッチ10Wに接続されたヘッドフォン等から出力する。あるいは、スマートウォッチ10Wは、オノマトペを画像としてスマートウォッチ10Wが備えるディスプレイに出力する。また、スマートフォン10Fは取得したオノマトペデータをBluetooth等の通信手段を利用して、ヘルメットに備えられたスピーカあるいはディスプレイを用いて出力するようにしてもよい。
 図15は、実施の形態の計測装置100、ライディング評価モジュール10Pおよび出力部500の構成例を示す図である。図15は、「計測装置」としてスマートウォッチ10Wを用い、「ライディング評価モジュール」の一部の機能、および「出力部」としてスマートフォン10Fを用いた図である。また、図15は、「評価部」としてネットワークを介して接続されたコンピュータサーバ10Sを用いた図である。
 ライダーは、スマートウォッチ10Wを腕に装着することにより、スマートウォッチ10Wを計測装置100Bとして利用する。ライダーは、「ライディング評価モジュール用ソフトウェア」をインストールしたスマートフォン10Fを車両に装着することで、スマートフォン10Fをライディング評価モジュール10PBとして利用する。ただし、ライディング評価モジュール10PBは「評価部」の機能を備えていない。ライダーはスマートフォン10Fが備えるスピーカあるいはディスプレイを出力部500Bとして利用する。また、ネットワークを介して接続されたコンピュータサーバ10Sを評価部202Bとして利用する。
 スマートフォン10Fは、Bluetooth等の通信手段を利用して、計測装置100Bとして機能するスマートウォッチ10Wから各種計測情報を入力する。ライディング評価モジュール10PBとして機能するスマートフォン10Fは、計測情報を入力すると、計測情報をコンピュータサーバ10Sに送信する。評価部202Bとして機能するコンピュータサーバ10Sは、計測情報を評価し、オノマトペデータを決定する。スマートフォン10Fは、コンピュータサーバ10Sからオノマトペデータの決定情報を受信する。スマートフォン10Fは、オノマトペデータベースから決定情報に基づいてオノマトペデータを取得する。スマートフォン10Fは、取得したオノマトペを音声としてスマートフォン10Fが備えるスピーカから出力する。あるいは、スマートフォン10Fは、オノマトペを画像としてスマートフォン10Fが備えるディスプレイに出力する。
 また、本実施の形態の「出力部」として、自動二輪車1が備えるスピードメータを利用してもよい。スピードメータの一部に、ディスプレイを設け、オノマトペを表示するようにしてもよい。
 本実施の形態においては、ライディング評価モジュール10Pがオノマトペデータベース450を備える場合を例に説明した。これにより、オノマトペ取得部300は、リアルタイムでオノマトペデータを取得することができる。そして、出力部500は、ライディング評価として、リアルタイムでオノマトペをライダーに提示することが可能である。
 別の実施の形態としては、自動二輪車1にオノマトペデータベースを保持せず、ネットワーク上のサーバにオノマトペデータベースを配置するようにしてもよい。この場合であれば、オノマトペ取得部300は、ネットワーク経由で無線通信を利用してオノマトペデータを取得する。自動二輪車1にオノマトペデータベースを搭載する場合と比べると、オノマトペデータを提示するリアルタイム性は低下するものの、ライディング評価としてのオノマトペをライダーに提示可能である。昨今の高速データ通信を利用することにより、ライダーは自動二輪車1の走行トレーニングを継続しながら、ライディング評価としてのオノマトペの提示を受けることが可能である。
 また、別の実施の形態として、オノマトペ取得部300が、ライディング評価に対応するオノマトペを自動生成するようにしてもよい。オノマトペとは人間が共通に持つ感覚に訴える言葉である。したがって、特定の語句に対して人間が受ける感覚などをデータベース化することが可能である。あるいは、既存のオノマトペが持つ意味合いをデータベース化することにより、これらを拡張、変形することでオノマトペを自動生成するアルゴリズムを構築することが可能である。オノマトペ取得部300が、オノマトペの自動生成機能を持つことにより、ライディング評価に対するオノマトペをより適切に提示することが可能である。
 以上説明したように、本実施の形態のライディング評価装置10は、オノマトペを利用してライダーにライディング評価を提示する。オノマトペは、その特徴として、複数のライディング評価項目に関する評価内容を1つのオノマトペで表現することができる。たとえば、判定基準テーブルT2および判定基準テーブルT4で示すように、複数のライディング評価項目に基づくライディング評価を1つのオノマトペで表現することができる。また、オノマトペは、その特徴として、単一のライディング評価項目に関する評価を多段階で表現することができる。これにより、自動二輪車1のライダーは、オノマトペの提供を受けることにより、ライディング評価に関する多くの情報を効率的に得ることができる。
 本実施の形態においては、本発明の「ユーザ動作の評価結果に関するオノマトペ提示装置」として、ライディング評価装置10を例に説明した。本発明は、他にも各種のユーザの運動の評価を行う装置に適用可能である。例えば、長距離ランナーのトレーニングを評価する装置に適用可能である。
 長距離ランナーのトレーニングの評価を行う場合、次のようなオノマトペをランナーに提示することができる。例えば、ランナーの腕の振りを評価するオノマトペとして、「ぶんぶん」(日本語音声では“bun-bun”)、「さっさ」(日本語音声では“sat-sat”)、「たんたん」(日本語音声では“tan-tan”)、「ちょこまか」(日本語音声では“choko-maka”)を提示してもよい。例えば、ランナーの心拍数を評価するオノマトペとして、「ばくばく」(日本語音声では“baku-baku”)、「どくんどくん」(日本語音声では“dokun-dokun”)、「とくとく」(日本語音声では“toku-toku”)を提示してもよい。例えば、ランナーの呼吸を評価するオノマトペとして、「ぜいぜい」(日本語音声では“zei-zei”)、「はあはあ」(日本語音声では“haa-haa”)、「すーすー」(日本語音声では“suu-suu”)を提示してもよい。例えば、ランナーの走行速度を評価するオノマトペとして、「ぐんぐん」(日本語音声では“gune-gune”)、「びゅんびゅん」(日本語音声では“viewn-viewn”)、「すいすい」(日本語音声では“sui-sui”)、「のろのろ」(日本語音声では“noro-noro”)を提示してもよい。
 また、本発明は、上記の実施の形態に加えて、技量向上促進装置としての実施の形態を有している。本実施の形態の技量向上促進装置は、トレーニングを行うユーザにトレーニング結果を提示する技量向上促進装置であって、トレーニングを実施したユーザの動作に起因する事象を計測する計測部と、計測部の計測結果に基づき、トレーニングを実施したユーザの動作の評価を行う評価部と、評価部により行われた評価に対応したオノマトペデータを取得するデータ取得部と、データ取得部が取得したオノマトペデータを出力することにより、トレーニングを行ったユーザに、動作の評価を提示する出力部とを備える。
 トレーニング継続中だと人間の情報処理能力は限られているので、多くの情報を提供することが従来は困難であった。オノマトペを利用することで、簡素な言葉で、多くの情報を短い時間で伝えることができる。ユーザは短い言葉で簡潔に評価を得ることができるので、トレーニングを継続しながら評価結果を得ることができる。そして、評価結果を次の動作に反映させることで、自身の動作に修正を加えながらトレーニングを継続することができる。特に、トレーニングにおいては、即時フィードバックは学習効果が高いと言われている。本実施の形態の技量向上促進装置を利用することで、高い学習効果により効率的に技量を向上させることが可能である。
 トレーニングに限らず、何らかの運動、動作を継続している場合、人間の情報処理能力は限られているので、多くの情報を提供することが従来は困難であった。オノマトペを利用することで、簡素な言葉で、多くの情報を短い時間で伝えることができる。ユーザは短い言葉で簡潔に評価を得ることができるので、各種の運動、動作を継続しながら評価結果を得ることができる。ユーザは、自身の動作の内容、状態を把握することができる。また、自身の動作によってもたらされる機器、乗り物などの状態を把握することができる。
 また、本実施の形態の技量向上促進装置において、評価部は、複数の評価項目に対して1つの評価を行い、データ取得部は、複数の評価項目に対して1つのオノマトペデータを取得する。
 オノマトペを用いなければ、複数の評価項目に関する評価を文字などで説明する必要があり、ユーザはその内容を把握するのに時間を要する。あるいは、何らかの動作を継続しつつ、長い説明を読み理解することは困難である。この点、オノマトペであれば、複数の評価項目に関する評価を簡潔に表しているので、ユーザは、評価結果を把握し易い。
 また、本実施の形態の技量向上促進装置において、評価部は、1つの評価項目に関して多段階の評価を行い、データ取得部は、1つの評価項目に関する評価を多段階で表したオノマトペデータを取得する。
 オノマトペを用いなければ、ある評価項目に関して多段階の評価内容を表現するためには、文字などを利用して説明する必要があり、ユーザはその内容を把握するのに時間を要する。あるいは、何らかの動作を継続しつつ、長い説明を読み理解することは困難である。この点、オノマトペであれば、ある評価項目に関して多段階の評価を簡潔に表すことができるので、ユーザは、評価結果を把握し易い。
 また、本実施の形態の技量向上促進装置において、出力部は、オノマトペデータを文字情報として出力する画像表示部を含む。トレーニングの評価をユーザの視覚を通じて伝達することができる。
 また、本実施の形態の技量向上促進装置において、出力部は、オノマトペデータを音声情報として出力する音声出力部を含む。トレーニングの評価をユーザの聴覚を通じて伝達することができる。
 また、本実施の形態の技量向上促進装置において、評価部は、計測結果あるいは計測結果に基づき算出された値を所定の閾値と比較することによりユーザの動作の評価を行う。計測結果等を所定の閾値と比較することにより、リアルタイムでトレーニングの評価結果を得ることができる。
 また、本実施の形態の技量向上促進装置において、計測結果は、ユーザによって操作された操作対象物の状態を計測した情報を含む。ユーザが操作した対象物の状態に基づいて、ユーザの動作を評価することができる。
 また、本実施の形態の技量向上促進装置において、計測結果は、ユーザによって操作された操作対象物の状態を計測した情報を含み、操作対象物は車両を含み、ユーザは車両の運転者を含み、画像表示部は、運転者の視線の先に配置される透明あるいは半透明の部材上に設けられる。運転者は、視線の先に表示されるオノマトペを確認することができる。
 また、本実施の形態の技量向上促進装置において、画像表示部が設けられる部材は、運転者が装着するヘルメットのシールドを含む。運転者は、視線の先に位置するヘルメットのシールドに表示されるオノマトペを確認することができる。
 また、本実施の形態の技量向上促進装置において、計測結果は、ユーザによって操作された操作対象物の状態を計測した情報を含み、操作対象物は車両を含み、ユーザは車両の運転者を含み、音声出力部は車両に設けられたスピーカを含む。運転者は、スピーカから出力されるオノマトペにより情報を把握することができる。
 また、本実施の形態の技量向上促進装置において、計測結果は、ユーザによって操作された操作対象物の状態を計測した情報を含み、操作対象物は車両を含み、ユーザは車両の運転者を含み、音声出力部は運転者が装着するヘルメットに設けられたスピーカを含む。運転者は、ヘルメットを装着することで、スピーカから出力されるオノマトペにより情報を把握することができる。
 また、本実施の形態の技量向上促進装置において、出力部はデータ取得部が取得したオノマトペデータをリアルタイムで出力する。トレーニング結果をユーザに迅速に提示可能である。
 また、本実施の形態の技量向上促進装置において、さらに、オノマトペデータを蓄積する記憶部を備え、データ取得部は記憶部からオノマトペデータを取得する。トレーニング結果をユーザに迅速に提示可能である。
 また、本実施の形態の技量向上促進装置において、データ取得部は無線通信を利用して外部のサーバからオノマトペデータを取得する。共用のオノマトペデータを利用することが可能である。最新のオノマトペデータを共用することができる。
 また、本実施の形態の技量向上促進装置において、データ取得部は評価に応じたオノマトペデータを自動生成する。トレーニング結果をより詳細に描写したオノマトペを提示可能である。
 本発明の実施の形態の一つであるユーザ動作の評価結果に関するオノマトペ提示装置として、自動二輪車1に搭載されたライディング評価装置10を例に説明した。つまり、ライダーが自動二輪車1を操縦する走行トレーニングに用いる場合を例に説明した。しかし、本発明は、各種のスポーツトレーニング、各種の装置を操作する作業トレーニングなど、広くトレーニングへの適用が可能である。
 本発明の実施の形態の一つであるユーザ動作の評価結果に関するオノマトペ提示装置は、利用者がトレーニングを継続している状態で、利用者にトレーニングの評価結果を提示できる。これにより、利用者は、評価結果をフィードバックさせて次の動作に反映させつつトレーニングを継続することが可能である。たとえば、長距離ランナーのトレーニングに本発明を適用させることにより、ランナーは、トレーニングを継続しながら、評価結果を得ることができる。そして、評価結果に応じてランニングフォームを調整しながらトレーニングを継続することができる。
1   自動二輪車
10  ライディング評価装置
10P ライディング評価モジュール
250 計測情報データベース
251 判定基準データベース
450 オノマトペデータベース

Claims (15)

  1.  計測装置によって計測されたユーザの動作に起因する事象についての計測結果が入力される計測結果入力部と、
     前記計測結果入力部が入力した前記計測結果に基づいて行われた、前記ユーザの動作の評価に対応したオノマトペを示すオノマトペデータを取得するオノマトペデータ取得部と、
     前記オノマトペデータ取得部が取得した前記オノマトペデータを、前記ユーザに音声または文字により報知可能な報知装置に出力して、前記報知装置に、前記ユーザの動作の評価に対応したオノマトペを前記ユーザが前記ユーザの動作をしている間に前記ユーザに音声または文字により提示させるオノマトペ出力部と、
    を備えるユーザ動作の評価結果に関するオノマトペ提示装置。
  2.  請求項1に記載のユーザ動作の評価結果に関するオノマトペ提示装置であって、
     前記オノマトペデータ取得部は、複数の評価項目に対して1つの評価を行うことによって得られた、前記複数の評価項目に対する1つのオノマトペを示すオノマトペデータを取得する、ユーザ動作の評価結果に関するオノマトペ提示装置。
  3.  請求項1または請求項2に記載のユーザ動作の評価結果に関するオノマトペ提示装置であって、
     前記オノマトペデータ取得部は、1つの評価項目に関して多段階の評価を行うことによって得られた、前記1つの評価項目に関する評価を多段階で表したオノマトペを示すオノマトペデータを取得する、ユーザ動作の評価結果に関するオノマトペ提示装置。
  4.  請求項1ないし請求項3のいずれかに記載のユーザ動作の評価結果に関するオノマトペ提示装置であって、
     前記オノマトペデータ取得部が取得するオノマトペデータは、前記計測結果あるいは前記計測結果に基づき算出された値を所定の閾値と比較することにより前記ユーザの動作の評価として得られる、ユーザ動作の評価結果に関するオノマトペ提示装置。
  5.  請求項1ないし請求項4のいずれかに記載のユーザ動作の評価結果に関するオノマトペ提示装置であって、
     前記計測結果は、前記ユーザによって操作された操作対象物の状態を計測した情報を含む、ユーザ動作の評価結果に関するオノマトペ提示装置。
  6.  請求項1ないし請求項5のいずれかに記載のユーザ動作の評価結果に関するオノマトペ提示装置であって、さらに、
     前記計測装置によって計測されたユーザの動作に起因する事象についての計測結果に基づいて前記ユーザの動作の評価を行う評価部、
    を備えるユーザ動作の評価結果に関するオノマトペ提示装置。
  7.  計測装置によって計測されたユーザの動作に起因する事象についての計測結果を入力する計測結果入力処理、
     前記計測結果入力処理で入力された前記計測結果に基づいて行われた前記ユーザの動作の評価に対応したオノマトペを示すオノマトペデータを取得するオノマトペデータ取得処理、および
     前記オノマトペデータ取得処理で取得した前記オノマトペデータを、前記ユーザに音声または文字により報知可能な報知装置に出力して、前記報知装置に、前記ユーザの動作の評価に対応したオノマトペを前記ユーザが前記ユーザの動作をしている間に前記ユーザに音声または文字により提示させるオノマトペ出力処理、
    をコンピュータに実行させるユーザ動作の評価結果に関するオノマトペ提示プログラム。
  8.  請求項7に記載のユーザ動作の評価結果に関するオノマトペ提示プログラムであって、
     前記オノマトペデータ取得処理は、複数の評価項目に対して1つの評価を行うことによって得られた、前記複数の評価項目に対する1つのオノマトペを示すオノマトペデータを取得する、ユーザ動作の評価結果に関するオノマトペ提示プログラム。
  9.  請求項7または請求項8に記載のユーザ動作の評価結果に関するオノマトペ提示プログラムであって、
     前記オノマトペデータ取得処理は、1つの評価項目に関して多段階の評価を行うことによって得られた、前記1つの評価項目に関する評価を多段階で表したオノマトペを示すオノマトペデータを取得する、ユーザ動作の評価結果に関するオノマトペ提示プログラム。
  10.  請求項7ないし請求項9のいずれかに記載のユーザ動作の評価結果に関するオノマトペ提示プログラムであって、
     前記オノマトペデータ取得処理が取得するオノマトペデータは、前記計測結果あるいは前記計測結果に基づき算出された値を所定の閾値と比較することにより前記ユーザの動作の評価として得られる、ユーザ動作の評価結果に関するオノマトペ提示プログラム。
  11.  請求項7ないし請求項10のいずれかに記載のユーザ動作の評価結果に関するオノマトペ提示プログラムであって、
     前記計測結果は、前記ユーザによって操作された操作対象物の状態を計測した情報を含む、ユーザ動作の評価結果に関するオノマトペ提示プログラム。
  12.  請求項7ないし請求項11のいずれかに記載のユーザ動作の評価結果に関するオノマトペ提示プログラムであって、さらに、
     前記計測装置によって計測されたユーザの動作に起因する事象についての計測結果に基づいて前記ユーザの動作の評価を行う評価処理、
    をコンピュータに実行させるユーザ動作の評価結果に関するオノマトペ提示プログラム。
  13.  計測装置によって計測されたユーザの動作に起因する事象についての計測結果を入力する計測結果入力工程と、
     前記計測結果入力工程で入力された前記計測結果に基づいて行われた前記ユーザの動作の評価に対応したオノマトペを示すオノマトペデータを取得するオノマトペデータ取得工程と、
     前記オノマトペデータ取得工程で取得した前記オノマトペデータを、前記ユーザに音声または文字により報知可能な報知装置に出力して、前記報知装置に、前記ユーザの動作の評価に対応したオノマトペを前記ユーザが前記ユーザの動作をしている間に前記ユーザに音声または文字により提示させるオノマトペ出力工程と、
    を備えるユーザ動作の評価結果に関するオノマトペ提示方法。
  14.  請求項13に記載のユーザ動作の評価結果に関するオノマトペ提示方法であって、
     前記オノマトペデータ取得工程は、複数の評価項目に対して1つの評価を行うことによって得られた、前記複数の評価項目に対する1つのオノマトペを示すオノマトペデータを取得する、ユーザ動作の評価結果に関するオノマトペ提示方法。
  15.  請求項13または請求項14に記載のユーザ動作の評価結果に関するオノマトペ提示方法であって、
     前記オノマトペデータ取得工程は、1つの評価項目に関して多段階の評価を行うことによって得られた、前記1つの評価項目に関する評価を多段階で表したオノマトペを示すオノマトペデータを取得する、ユーザ動作の評価結果に関するオノマトペ提示方法。
PCT/JP2016/086697 2015-12-11 2016-12-09 ユーザ動作の評価結果に関するオノマトペ提示装置 WO2017099214A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017555156A JP6709801B2 (ja) 2015-12-11 2016-12-09 ユーザ動作の評価結果に関するオノマトペ提示装置、オノマトペ提示プログラム及びオノマトペ提示方法
EP16873107.3A EP3389030A4 (en) 2015-12-11 2016-12-09 Device for presenting onomatopoeia regarding evaluation result for user action

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015242384 2015-12-11
JP2015-242384 2015-12-11

Publications (1)

Publication Number Publication Date
WO2017099214A1 true WO2017099214A1 (ja) 2017-06-15

Family

ID=59013262

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/086697 WO2017099214A1 (ja) 2015-12-11 2016-12-09 ユーザ動作の評価結果に関するオノマトペ提示装置

Country Status (3)

Country Link
EP (1) EP3389030A4 (ja)
JP (1) JP6709801B2 (ja)
WO (1) WO2017099214A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022251744A1 (en) * 2021-05-28 2022-12-01 Michigan Scientific Corporation Wheel position and orientation measurement system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104358A (ja) * 1997-10-07 1999-04-20 Sente Creations:Kk ゴルフ体験遊戯玩具
JP2000325664A (ja) * 2000-02-23 2000-11-28 Konami Co Ltd ダンスゲーム装置
JP2002153673A (ja) * 2000-11-16 2002-05-28 Konami Co Ltd 対戦式3dビデオゲーム装置及びそのコントローラ
JP2010231337A (ja) * 2009-03-26 2010-10-14 Mazda Motor Corp 車両の車線逸脱警報装置
JP2012018544A (ja) * 2010-07-07 2012-01-26 Canon Inc 音声出力装置、音声出力方法、及びプログラム
JP2013063718A (ja) * 2011-09-20 2013-04-11 Nippon Seiki Co Ltd 車両用警告装置
WO2013099245A1 (ja) * 2011-12-26 2013-07-04 ヤマハ発動機株式会社 音声情報提供装置
JP2015071330A (ja) * 2013-10-02 2015-04-16 ヤマハ発動機株式会社 評価プログラム、記録媒体、評価方法、評価装置および車両

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011004372A1 (en) * 2009-07-07 2011-01-13 Tracktec Ltd Driver profiling
ES2884374T3 (es) * 2009-12-25 2021-12-10 Yamaha Motor Co Ltd Método de determinación de características de conductor
WO2013099246A1 (ja) * 2011-12-26 2013-07-04 ヤマハ発動機株式会社 操縦技量情報提示装置
KR101366344B1 (ko) * 2012-03-15 2014-02-24 국립대학법인 울산과학기술대학교 산학협력단 운전자 특성에 반응하는 차량용 알람 장치
US9569984B2 (en) * 2012-12-11 2017-02-14 Abalta Technologies, Inc. Recording, monitoring, and analyzing driver behavior

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104358A (ja) * 1997-10-07 1999-04-20 Sente Creations:Kk ゴルフ体験遊戯玩具
JP2000325664A (ja) * 2000-02-23 2000-11-28 Konami Co Ltd ダンスゲーム装置
JP2002153673A (ja) * 2000-11-16 2002-05-28 Konami Co Ltd 対戦式3dビデオゲーム装置及びそのコントローラ
JP2010231337A (ja) * 2009-03-26 2010-10-14 Mazda Motor Corp 車両の車線逸脱警報装置
JP2012018544A (ja) * 2010-07-07 2012-01-26 Canon Inc 音声出力装置、音声出力方法、及びプログラム
JP2013063718A (ja) * 2011-09-20 2013-04-11 Nippon Seiki Co Ltd 車両用警告装置
WO2013099245A1 (ja) * 2011-12-26 2013-07-04 ヤマハ発動機株式会社 音声情報提供装置
JP2015071330A (ja) * 2013-10-02 2015-04-16 ヤマハ発動機株式会社 評価プログラム、記録媒体、評価方法、評価装置および車両

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DAICHI OKADA ET AL.: "Onomatopoeia o Mochiita Street Dance Shido Shien Kankyo no Teian", INFORMATION PROCESSING SOCIETY OF JAPAN, 6 March 2012 (2012-03-06), pages 609 - 610, XP009507140 *
KEITA SATO ET AL.: "Font Action: Onomatopoeic appear from body motion", INTERACTION 2010 YOKOSHU, INFORMATION PROCESSING SOCIETY OF JAPAN, 2 March 2010 (2010-03-02), XP009507146 *
See also references of EP3389030A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022251744A1 (en) * 2021-05-28 2022-12-01 Michigan Scientific Corporation Wheel position and orientation measurement system

Also Published As

Publication number Publication date
JP6709801B2 (ja) 2020-06-17
JPWO2017099214A1 (ja) 2018-11-22
EP3389030A4 (en) 2018-11-14
EP3389030A1 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
US11496870B2 (en) Smart device
US10034066B2 (en) Smart device
KR102161646B1 (ko) 가상현실과 실내운동기구의 연동을 위한 시스템 및 방법
WO2015003056A1 (en) Real time car driving simulator
US20180182261A1 (en) Real Time Car Driving Simulator
WO2017099214A1 (ja) ユーザ動作の評価結果に関するオノマトペ提示装置
US20170371157A1 (en) Virtual reality control device
JP6917311B2 (ja) 周辺環境の評価結果に関するオノマトペ提示装置、オノマトペ提示プログラム及びオノマトペ提示方法
EP3164022A1 (en) Helmet providing position feedback
WO2018189841A1 (ja) 車両の会話情報出力装置、及び会話情報出力方法
US11219797B2 (en) Real-time sensor based balance gamification and feedback
KR101837717B1 (ko) 가상현실 콘텐츠를 이용하여 저항장치의 움직임의 난이도를 조절할 수 있는 가상현실 체험장치와 이를 이용한 서비스 제공방법
JP6087171B2 (ja) 人の状態推定装置およびそれを備えた輸送機器
US20090209309A1 (en) Racing game simulator
KR101131066B1 (ko) 사용자 장치 및 부가 정보 제공 방법
Will et al. Bringing single track vehicle dynamics to motorcycle riding simulators–results of a pilot study
JP2022175890A (ja) アドバイス提示システム、情報端末、器具端末、プログラム及びアドバイス提示方法
DK2962586T3 (en) Helmet with position feedback
KR102614854B1 (ko) 도로 경사도 구현이 가능한 메타버스 시뮬레이션 시스템
KR20180058285A (ko) 가상현실 콘텐츠를 이용하여 저항장치의 움직임의 난이도를 조절할 수 있는 가상현실 체험시스템과 이를 이용한 서비스 제공방법
JP5216747B2 (ja) 自転車シミュレーション装置
US20240009511A1 (en) Virtual Steering Apparatus
Nagaosa et al. Basic Research on Construction of a VR Riding Simulator for Motorcycle Safety
CN106377898A (zh) 基于可视化编程的vr飞行游戏制作与体验系统
US20190051207A1 (en) Atv educational demonstration system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16873107

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017555156

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016873107

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016873107

Country of ref document: EP

Effective date: 20180711